Intervento del socio Ing. Alberto Montanari sull’intelligenza artificiale

Scarica qui le slide in formato PDF dell’intervento.

Introduzione al Relatore e alla Presentazione sull’AI

Il relatore della serata, èil socio Alberto Montanari. Il suo profilo viene descritto come quello di un ingegnere meccanico laureato all’Università di Bologna, con una solida carriera internazionale nel gruppo Fiat Chrysler, dove ha ricoperto ruoli di amministratore delegato in mercati strategici come Giappone, Inghilterra, Sudafrica e India. Durante la sua permanenza in Giappone, è stato anche Presidente della Camera di Commercio italiana.

Negli ultimi anni, la sua attività si è focalizzata sull’innovazione tecnologica e sull’applicazione dell’intelligenza artificiale, collaborando con l’ateneo bolognese. Attualmente è responsabile della commissione innovazione, già vicepresidente di Federmanager e past president del club per l’annata 21-22. Si distingue inoltre per le sue competenze multilingue, con padronanza di inglese, tedesco e conoscenza di giapponese e francese.

Alberto Montanari introduce la sua relazione come una “camminata” accessibile attraverso il mondo dell’AI, proseguendo un ciclo di approfondimenti su tecnologie innovative. Annuncia l’intenzione di organizzare una futura sessione più tecnica e numerica (“fuori rotary”) per gli interessati e informa che le slide della presentazione saranno rese disponibili online.


Fondamenti e Modelli di Machine Learning

Alberto Montanari inizia la sua relazione demistificando l’intelligenza artificiale, definendola semplicemente come un ramo dell’informatica che utilizza elaborazioni numeriche per ottenere risultati, come l’analisi di testi o immagini. La sua storia parte dagli anni ’50, quando le idee algoritmiche esistevano già ma mancavano macchine con sufficiente capacità di calcolo, la quale era estremamente costosa. Solo negli anni ’90, con computer potenti a costi ragionevoli, il Deep Learning ha conosciuto una rinascita.

I pilastri fondamentali dell’AI sono tre:

  1. Statistica: Si divide in descrittiva (media, mediana, ecc.) e inferenziale (previsioni).
  2. Algebra Lineare: Utilizza vettori (liste di numeri) e matrici (simili a fogli Excel) per trasformare concetti astratti in un formato numerico che i computer possono elaborare. L’efficienza di Nvidia in questo campo, grazie alle sue GPU, l’ha resa una delle società più capitalizzate.
  3. Informatica: Fornisce la potenza di calcolo necessaria.

Vengono illustrati due approcci principali del Machine Learning (apprendimento automatico): supervisionato, in cui la macchina impara da dati etichettati per fare previsioni, e non supervisionato, usato per raggruppare dati in cluster. Il relatore mette in guardia dal rischio di “overfitting”: un modello che impara “troppo bene” (con precisione superiore al 90% sui dati di training) fallirà su dati nuovi.

Infine, vengono presentati gli algoritmi basati su alberi decisionali, una delle due grandi famiglie di modelli. Questi funzionano bene per dati strutturati (fino a 10-15.000 righe) e includono:

  • Random Forest: Una “foresta” di alberi dove ciascuno analizza solo una parte dei dati per garantire una certa incertezza e robustezza.
  • XG Boost: Considerato l’algoritmo più performante, utilizza alberi che lavorano in cascata, migliorando progressivamente il risultato. È spesso il vincitore nelle competizioni di machine learning su piattaforme come Kaggle.

Reti Neurali: Funzionamento, Tipi e Applicazioni

La seconda grande famiglia di modelli di AI è quella delle reti neurali, un approccio completamente diverso dagli alberi e particolarmente efficace con grandi quantità di dati. Sebbene “ispirate” al cervello umano, si basano su un’unità matematica semplice: il neurone, che riceve input, li somma e produce un output tramite una funzione di attivazione. Il relatore utilizza l’efficace analogia della lasagna per spiegare la loro struttura: gli strati di neuroni sono come gli strati di pasta, i pesi (valori che la rete regola per imparare) sono i condimenti (ragù, besciamella) e la funzione di attivazione è il calore del forno che determina il risultato finale.

Il processo di apprendimento, chiamato backpropagation, consiste nel far calcolare alla rete un risultato, confrontarlo con quello corretto e, in caso di errore, tornare indietro per aggiustare i pesi, ripetendo il ciclo finché il modello non è accurato. Le reti neurali sono però “scatole nere”, poiché il loro funzionamento interno rimane oscuro.

Vengono citati i principali tipi di reti:

  • CNN (Reti Neurali Convoluzionali): Specializzate nel riconoscimento di immagini, non “vedendo” l’immagine come noi ma analizzandone i contorni e i parametri numerici (es. distanza tra gli occhi in un volto).
  • RNN (Reti Neurali Ricorrenti): Usate per analizzare sequenze e serie temporali (es. previsioni di vendita), poiché mantengono una memoria del passato.

Si approfondisce il Natural Language Processing (NLP), l’elaborazione del linguaggio naturale, che ha rappresentato una sfida complessa. I moderni chatbot come ChatGPT funzionano grazie a un’innovazione chiave: il meccanismo di “attenzione”, che permette all’algoritmo di comprendere il senso contestuale di una frase e non solo le singole parole. I testi vengono suddivisi in “token” (frammenti di parola) e convertiti in vettori numerici. Il relatore nota che, a volte, gli algoritmi “impazziscono” perché scambiano un vettore numerico per un altro molto simile, generando risposte apparentemente senza senso. Il salto qualitativo da ChatGPT 3.5 a versioni superiori ha sorpreso gli stessi sviluppatori.


Sfide, Futuro dell’AI e Sessione di Domande e Risposte

La parte finale della presentazione si concentra sul futuro e sulle sfide dell’AI. La nuova frontiera è rappresentata dagli “agenti”: sistemi autonomi gestiti da un LLM che possono eseguire compiti. Sebbene funzionali, presentano rischi significativi se non vengono posti dei limiti (“guardrail”), poiché potrebbero compiere azioni dannose. Un’altra sfida è che le reti neurali rimangono “scatole nere”, e si è osservato un comportamento controintuitivo: anche dopo aver raggiunto l’overfitting, continuano a migliorare, un fenomeno ancora inspiegabile.

 

Scarica qui le slide in formato PDF dell’intervento.