FORMAZIONE sull'INTELLIGENZA ARTIFICIALE
Premessa.
il corso è parte di un esperimento di realizzazione di applicazioni tramite e con l'AI. chi intende frequentare questo corso (GRATUITO) può farlo per apprendere i principali meccanismi di funzionamento dell'intelligenza artificiale.
Il cervello umano è senza dubbio una macchina biologica.
È composto da neuroni, sinapsi, segnali elettrici e chimici (circa 1011 neuroni connessi da 1015 sinapsi).
Corteccia Cerebrale (Cerebral Cortex): Circa 16 miliardi di neuroni e 200 miliardi di sinapsi.
Cervelletto (Cerebellum): Circa 69 miliardi di neuroni. Il cervello riceve gli input, li elabora, produce output. In questo senso funziona come un sistema fisico estremamente sofisticato.
Al fine di “imitare” il comportamento delle reti neuronali, Hopfield nel 1982 inventa un modello per la memoria associativa e vince il premio Nobel per la fisica nel 2024.
Hopfield e Geoffrey Hinton vincono il premio Nobel per la fisica nel 2024 “Per scoperte e invenzioni fondamentali che hanno reso possibile l’apprendimento automatico con reti neurali artificiali”. Nel 1982 viene inventato un modello per la memoria associativa. rete di Hopfield, un modello di rete neurale ispirato alla memoria associativa dei sistemi biologici. Questa rete è capace di memorizzare un’immagine modello, in base alla quale può ricostruire l’informazione anche a partire da dati parzialmente mancanti o distorti. Un po’ come quando non ci viene una parola, ma siamo in grado di recuperarla dalla memoria pensando alle lettere che ricordiamo o ad altre parole con un suono simile.
In questo contesto si inserisce un lavoro fondamentale che ha cambiato la storia stessa della disciplina, la soluzione esatta del modello di Sherrington e Kirkpatrick, ottenuta da Giorgio Parisi tra la fine degli anni Settanta e l’inizio degli anni Ottanta premiato a sua volta dal Nobel per la Fisica.
data center AI (ad oggi richiedono più dell’1% del consumo di elettricità dell’intero globo)
1.1 i tipi di raffreddamento dei data center
1.2 Le sfide della termodinamica delle GPU
Workstation Ai (on - premise)
-Layer Architecture
Fondamenti dell'IA: Sistemi che svolgono compiti che richiedono intelligenza umana. • Sottoinsiemi: (Layer of AI)
3.1 Machine Learning (ML),
3.2 Deep Learning (DL),
3.3 Reti Neurali (NN). •
3.4 IA discriminativa vs generativa
3.5 agentic AI
modelli di AI (opensource) ed agenti AI
-allama.com, Deepseek r1, Speech, Rasa, ......
-N8N, Confy_UI, ....
-RAG (Retrieval-Augmented Generation), modelli Transformer, embedding, token...
-Database vettoriali:
altri modelli di AI
ChatGPT, Gemini, copilot, Claude, Grok....
API (Application Programming Interface)
Reti neuronali profonde
-Reti neurali multimodali
-Reti neurali e apprendimento automatico.
la matematica nelle reti neuronali
-Le matrici e modelli
-Teorema del limite centrale
-regressione
RNN encoder, transformer
PAPER
Se sei un Nuovo Utente clicca sul pulsante qui sotto per compilare il form e iscriverti al corso.
Se ti sei già iscritto in passato invece vai a Recupero dati, inserisci le tue credenziali per compilare automaticamente la registrazione, verifica i tuoi dati e iscriviti.
