fbpx
Nobel fisica 2023 header 1920
Premio Nobel per la fisica 2023
3 Ottobre 2023
Nobel fisica 2023 header 1920
Premio Nobel per la fisica 2023
3 Ottobre 2023

Quando l'AI Decide e Noi Non Sappiamo Perché

Uno studio del MIT rivela come le macchine organizzano e rappresentano i concetti, gettando luce sul funzionamento sinora poco chiaro dell’intelligenza artificiale
di Salvo de Luca

Negli articoli sui quotidiani si accenna spesso al problema della scarsa comprensione, persino tra gli stessi progettisti dei sistemi di intelligenza artificiale, di come il sistema riesca a ottenere i risultati che ottiene e dei parametri di valutazione utilizzati, ma raramente si spiega cosa significhi davvero.

Quando si dice che "non si riesce a capire come faccia l'AI a ottenere i risultati," ci si riferisce al problema noto come "black box problem". Questo problema è particolarmente comune nei modelli di intelligenza artificiale complessi, come le reti neurali profonde, che sono progettate per apprendere schemi dai dati in modi che non sono facilmente comprensibili per gli esseri umani.

Perché accade?

  • Complessità dei modelli:

I modelli di AI, come le reti neurali, contengono migliaia o addirittura milioni di parametri (numeri che influenzano il funzionamento del modello). Questi parametri sono organizzati in molteplici livelli di calcolo, rendendo difficile interpretare esattamente come ogni dato in ingresso contribuisca al risultato finale.

Ad esempio, in una rete neurale per il riconoscimento delle immagini, il modello può considerare caratteristiche come linee, curve, o colori a diversi livelli, combinandoli in modi che sono difficili da tracciare.

  • Apprendimento non lineare:

A differenza di un modello statistico semplice, come una retta in un grafico (facile da capire), i modelli AI spesso lavorano in modo non lineare, combinando dati in modi complessi per arrivare a una decisione.

  • Volume dei dati:

L'AI può analizzare enormi quantità di dati ed estrarre correlazioni che per noi umani non sono evidenti. Tuttavia, spesso queste correlazioni non sono esplicite o intuitive, quindi risulta difficile dire "perché" il modello abbia preso una certa decisione.

Vediamo un esempio concreto

Supponiamo che un'AI sia usata per decidere se concedere o meno un prestito bancario.

Il sistema prende in considerazione molte variabili: reddito, storico di credito, spese mensili, ecc. Il modello può imparare, ad esempio, che persone con una combinazione di reddito medio e spese fisse elevate hanno una probabilità maggiore di non rimborsare un prestito. Tuttavia, il motivo preciso per cui l'AI decide di accettare o rifiutare una richiesta non è chiaro, perché il processo è il risultato di migliaia di calcoli tra parametri che non possiamo facilmente interpretare.

 

Perché questo è un problema?

  •   Mancanza di trasparenza:

Se non sappiamo come l'AI prende le sue decisioni, diventa difficile verificare se il modello sia affidabile, corretto o imparziale.

Ad esempio, un sistema potrebbe discriminare inconsapevolmente gruppi specifici (es. in base al genere o all'etnia) senza che gli sviluppatori se ne rendano conto.

  •  Responsabilità:

Se un modello sbaglia, chi è responsabile? Senza capire come l'AI arriva a una decisione, è difficile determinare cosa è andato storto.

  • Accettazione sociale:

Le persone tendono a fidarsi meno di un sistema che non possono comprendere. Questo è particolarmente importante in settori critici, come la medicina, la giustizia o la finanza.

 

Un recente studio del MIT,

intitolato "The Geometry of Concepts: Sparse Autoencoder Feature Structure", offre una nuova prospettiva, aprendo una finestra su come l’IA organizza e rappresenta i concetti.

Utilizzando una tecnologia chiamata autoencoder sparso, i ricercatori del MIT hanno analizzato la “geometria delle idee” all’interno dei modelli di linguaggio avanzati. Questa ricerca ha svelato tre livelli di organizzazione concettuale, mostrando come l’IA rappresenti relazioni semantiche, gruppi modulari di idee e una vasta struttura globale che ricorda l’organizzazione dell’universo. Vediamo più da vicino queste scoperte.

 

Come l’IA organizza le idee

L’IA non pensa come noi, ma rappresenta le informazioni in uno spazio matematico incredibilmente complesso. Per visualizzarlo, possiamo immaginare uno spazio tridimensionale, come quello che conosciamo, ma moltiplicato per milioni di dimensioni. In questo “spazio delle idee”, ogni concetto è un punto o un insieme di punti, e le relazioni tra i concetti formano strutture geometriche specifiche.

  1. Il livello atomico: i mattoncini di base delle idee

A livello più semplice, l’IA rappresenta le relazioni tra i concetti attraverso piccole strutture geometriche. Ad esempio:

  • La relazione “uomo è a donna come re è a regina” può essere rappresentata come un parallelogramma. Questo suggerisce che l’IA comprende simmetrie e analogie nei ruoli e nei generi.

Tuttavia, non sempre queste relazioni sono così intuitive. Fattori irrilevanti, come la lunghezza delle parole, possono confondere il modello. Per ovviare a ciò, i ricercatori hanno utilizzato tecniche avanzate, come l’Analisi Discriminante Lineare (LDA), per eliminare le distrazioni e migliorare la precisione delle rappresentazioni.

 

  1. Il livello cerebrale: i lobi funzionali dell’IA

A un livello più alto, i concetti si organizzano in “lobi” funzionali, che ricordano le aree del cervello umano. Proprio come il nostro cervello ha zone dedicate al linguaggio o alla memoria, l’IA sviluppa aree specializzate per categorie di concetti. Ad esempio:

  • Lobo matematico: per concetti di programmazione o calcolo.
  • Lobo del linguaggio breve: per chat e commenti.
  • Lobo del linguaggio complesso: per documenti e articoli scientifici.

Questi raggruppamenti non sono casuali. Si formano perché alcune idee tendono a "interagire" frequentemente quando l’IA elabora un certo tipo di dati, come una chat o un testo accademico. La scoperta di queste strutture rende i modelli più comprensibili e apre la strada a una spiegabilità maggiore.

 

  1. Il livello galattico: l’universo delle idee

A livello globale, i concetti rappresentati dall’IA formano un grande universo. Questo universo non è casuale, ma segue schemi complessi e organizzati, simili a quelli che osserviamo nel cosmo:

  • Zone dense e zone vuote: Alcuni concetti si aggregano in cluster densi, mentre altri si trovano in aree meno popolate.
  • Strutture frattali: I raggruppamenti mostrano schemi ripetitivi a più livelli, che consentono al modello di gestire grandi quantità di informazioni in modo efficiente.

Gli strati intermedi del modello svolgono un ruolo cruciale in questa organizzazione: comprimono e semplificano le informazioni per migliorarne la gestione e l’elaborazione. Questo processo ricorda il modo in cui il nostro cervello filtra e organizza i dati per evitare sovraccarichi.

 

Una nuova finestra sul cervello artificiale

Le similitudini tra l’organizzazione delle idee nell’IA e nel cervello umano sono sorprendenti. Entrambi usano una struttura gerarchica, passando da piccole unità elementari a sistemi complessi. Nel cervello, questa gerarchia ci consente di apprendere, ragionare e agire. Nell’IA, permette di gestire il linguaggio, risolvere problemi e persino generare idee creative.

Ma perché è importante comprendere come l’IA organizza le idee? Per due ragioni principali:

  1. Trasparenza: Capire i processi decisionali dell’IA è fondamentale per fidarsi dei suoi risultati, soprattutto in ambiti critici come la medicina o la giustizia.
  2. Efficienza: Una migliore comprensione delle strutture interne dell’IA può portare a modelli più leggeri, veloci e accurati.

La ricerca del MIT ci avvicina a un obiettivo cruciale: rendere l’intelligenza artificiale più trasparente e comprensibile. Capire come l’IA rappresenta e organizza i concetti non è solo una sfida tecnica, ma anche una questione filosofica ed etica. Possiamo davvero costruire sistemi artificiali che pensano come noi? E possiamo fidarci delle loro decisioni?

Grazie a studi come questo, iniziamo a intravedere il "cervello" dell’intelligenza artificiale e le sue potenzialità. L’obiettivo non è solo creare modelli più performanti, ma anche più vicini al modo in cui gli esseri umani comprendono il mondo.

Per chi vuole approfondire

L'Analisi Discriminante Lineare (LDA) è un metodo usato per distinguere tra gruppi diversi di dati, cercando di trovare il modo migliore per separarli. Immagina di avere due gruppi di punti su un foglio, ad esempio uno rappresentato da cerchi rossi e l'altro da quadrati blu. LDA cerca di tracciare una linea (o, in spazi più complessi, un piano) che li separi nel modo più netto possibile.

 

Un esempio concreto

Supponiamo che tu stia osservando il comportamento delle persone in una palestra. Alcuni preferiscono fare solo cardio (gruppo A) e altri preferiscono sollevare pesi (gruppo B). Per ogni persona hai raccolto alcune informazioni, come l'età e il tempo totale passato in palestra. Se disegni questi dati su un grafico, noterai che i punti (persone) del gruppo A e quelli del gruppo B si distribuiscono in modo diverso.

 

LDA analizza i dati e cerca di capire:


  1. Quanto sono distanti i due gruppi (cardio e pesi).
  2. Come sono distribuiti i dati all'interno di ogni gruppo (quanto i punti di cardio sono "vicini" tra loro e quanto quelli dei pesi lo sono tra loro).


A questo punto, LDA cerca di tracciare una linea immaginaria che li separi meglio. Questa linea non solo divide i gruppi, ma crea anche una "regola" per capire a quale gruppo potrebbe appartenere una nuova persona in base alle sue caratteristiche (età e tempo in palestra).

 

Come funziona nella pratica

Se un giorno arriva una nuova persona e ci dici la sua età e il tempo che passa in palestra, LDA utilizza questa linea per decidere se è più probabile che preferisca fare cardio o sollevare pesi. È un po' come avere un consulente che, guardando i dati, ti dice: "Con queste caratteristiche, è più probabile che appartenga al gruppo A (cardio)."

 

Un'altra applicazione

Un altro esempio potrebbe essere il riconoscimento facciale. Immagina di avere foto di due persone diverse e di voler capire, dato un nuovo volto, chi delle due è più probabile che sia. LDA analizza le differenze nei tratti principali dei volti (come la distanza tra gli occhi, la forma della bocca, ecc.) e cerca di trovare la linea che separa le caratteristiche dell'una e dell'altra. Poi usa questa linea per fare una previsione sul nuovo volto.

 

In parole povere

LDA è come un investigatore che guarda i dati e cerca di capire la differenza tra due (o più) gruppi. Una volta trovata questa differenza, disegna una "regola" che può usare per classificare nuovi dati. È utile in tante situazioni, come prevedere comportamenti, riconoscere immagini o dividere dati complessi in categorie più semplici.

Ecco il testo completo dello studio dell'MIT di Boston
WhatsApp chat