fbpx

Le Idee che Hanno Influenzato lo Sviluppo dell’IA

Le preoccupazioni e le speranze sull’impatto dell’AI sul lavoro e sulla società
9 Ottobre 2024
Quando l’AI Decide e Noi Non Sappiamo Perché
5 Dicembre 2024
Le preoccupazioni e le speranze sull’impatto dell’AI sul lavoro e sulla società
9 Ottobre 2024
Quando l’AI Decide e Noi Non Sappiamo Perché
5 Dicembre 2024

Le Idee che Hanno Influenzato lo Sviluppo dell'IA

Le Idee che Hanno Influenzato lo Sviluppo dell'IA.
Riflessioni sulla Storia dell'Intelligenza Artificiale
di Salvo de Luca
Cervello artificiale vs cervello umano
Foto credit: SdL

Oggi, l'intelligenza artificiale (AI) è un argomento onnipresente nei discorsi tecnologici e scientifici, e spesso ci si concentra sugli straordinari risultati raggiunti grazie alle reti neurali e altre tecnologie avanzate.

Tuttavia, prima di esplorare questi concetti moderni, come il Deep Learning, il Natural Language Processing, la Semantic Segmentation, le GANs e le varie soluzioni che hanno portato agli sviluppi attuali, ritengo sia essenziale compiere un viaggio a ritroso nel tempo e nella storia. 

In questa serie di articoli, intendo quindi partire da molto lontano per esplorare le radici storiche e filosofiche dell'idea di intelligenza artificiale. 

L'obiettivo è comprendere come, attraverso i secoli, si sia sviluppata l'idea di creare forme di intelligenza non umane e quali siano state le tappe principali di questo affascinante percorso.

Affrontiamo il tema del cervello artificiale parlando del cervello umano.

E tanto per evidenziare che, a dispetto della mia cultura tecnica, ho letto anch'io qualche poesia, inizierei citando Walt Whitman, un poeta che scrisse "I Sing the Body Electric" ovvero "Io canto il corpo elettrico",  tratta dalla sua raccolta del 1855 Leaves of Grass.

Nel 1855 Whitman come molti altri poeti, non sapeva probabilmente nulla del corpo, e certamente non sapeva nulla dell'elettricità. Però, da poeta qual era, sapeva mettere bene insieme le parole. Infatti questo verso è diventato poi una sorta di refrain. Tra l'altro si tratta di un verso che aggiunse in una edizione successiva.

Ma perché l'elettricità affascinava così tanto nel XIX secolo? 

Era la frontiera tecnologica dell'epoca, tanto sorprendente e misteriosa quanto lo è oggi l'intelligenza artificiale. 

Si riteneva addirittura che potesse essere il segreto della vita. 

Quest’idea permeava la cultura dell'epoca, come dimostra il romanzo di Mary Shelley "Frankenstein, o il moderno Prometeo". 

Shelley immaginava che la vita potesse essere infusa tramite una scossa elettrica, riflettendo le intense speculazioni e il fascino per l'elettricità come possibile chiave di accesso ai misteri più profondi della natura.

Come si ipotizzava, all'epoca, la costruzione di un essere artificiale? 

Si partiva da un modello rudimentale al quale veniva applicata l'elettricità per "dar vita".

Il concetto è ben illustrato proprio nel romanzo di Mary Shelley, "Frankenstein, o il moderno Prometeo", già citato e scritto agli inizi dell'Ottocento, un'epoca in cui l'idea di animare la materia inerte tramite elettricità affascinava profondamente l'immaginario collettivo. 

Non sorprende, quindi, che anche un poeta come Walt Whitman parlasse nei suoi versi di un "corpo elettrico". Riflettendo così la cultura di un secolo ossessionato dall'elettricità e ben rappresentato dalle scene dei film su Frankenstein, con scintille che circondano un corpo inerte durante la sua "rianimazione".
Queste narrazioni hanno inciso sulla cultura popolare, influenzando anche le arti durante i diversi decenni successivi.

Un robot umanoide così come immaginato da Isac Asimov
Foto credit: SdL
Frankenstein, nato dalla penna di Mary Shelley, la quale immaginava di dar vita grazie all'elettricità.
Foto credit: SdL

Negli anni '70, ad esempio, Ray Bradbury pubblicò un racconto intitolato "I Sing the Body Electric", titolo che richiama esplicitamente Whitman, dimostrando come la metafora del corpo elettrico continuasse ad essere una fonte di ispirazione. 

La fantascienza, in particolare, ha esplorato ampiamente il tema della creazione di macchine che emulano il corpo umano, cercando di capire fino a che punto possiamo costruire entità che non solo somiglino all'uomo, ma che ne simulino anche le funzioni più profonde.

Gli appassionati di musica ricorderanno i Weather Report, un influente gruppo jazz noto per il loro contributo al genere del jazz fusion. Questo ensemble era formato da musicisti che avevano collaborato con Miles Davis e si caratterizzava per la sperimentazione di un mix innovativo tra jazz e rock, portando al pubblico sonorità nuove e originali. Il loro secondo album dal titolo: "I Sing the Body Electric", fa eco alla famosa poesia di Walt Whitman. 

Prendendo spunto da questa metafora, ci addentriamo ora nella riflessione sull'intelligenza artificiale, esplorando come la fusione di diverse discipline possa aprire nuove frontiere anche nel campo tecnologico.

Da dove scaturisce l'idea del corpo elettrico e quali visioni si celano dietro a questo concetto?

La nozione sopra evidenziata  si arricchisce di significati particolarmente diversi, soprattutto se guardiamo al contesto della filosofia occidentale moderna, che, pur non essendo l'unica prospettiva filosofica, ha radici profonde a partire da Cartesio e tende a concepire la realtà in termini dualistici: la mente da una parte, il corpo dall'altra. 

Pertanto, simulare l'essere umano, composto da mente e corpo, si traduce in due sfide distinte.

Da un lato, c'è l'ambizione di replicare le capacità fisiche umane attraverso macchine che possano agire o compiere azioni simili a quelle di un corpo. E questo è il campo della robotica, che mira a emulare le funzioni corporee mediante la tecnologia. 

Frankenstein, nato dalla penna di Mary Shelley, la quale immaginava di dar vita grazie all'elettricità.
Foto credit: SdL
Il concetto di dualismo cartesiano con un sottile riferimento a René Descartes: Cogito, ergo sum
Foto credit: SiV

In una accezione più ampia, possiamo includere anche le automobili in questo ambito; pur essendo molto diverse, in un certo senso, simulano l'azione del camminare umano. Le automobili utilizzano ruote invece di gambe, mostrando che non è necessario imitare fedelmente le modalità umane per ottenere risultati efficaci. Le ruote, infatti, superano le capacità delle gambe in termini di velocità e resistenza, dimostrando che le soluzioni tecniche possono divergere significativamente dalle funzioni biologiche pur raggiungendo o andando oltre gli obiettivi desiderati.

La robotica ha quindi l'obiettivo di far compiere alle macchine azioni che sono tipicamente umane, replicando le funzionalità del corpo. 

Parallelamente, esiste la questione della mente, e qui si inserisce il dibattito filosofico: se si adotta una visione dualistica, come quella di Cartesio, si potrebbe concepire mente e corpo come entità separate, rendendo così la simulazione del corpo e quella dei processi mentali due compiti distinti. In questo contesto, parliamo di robotica per riferirci alla simulazione del corpo, mentre il termine Intelligenza Artificiale si applica alla simulazione delle funzioni mentali.

A dispetto della maggior parte di interventi, commenti e discussioni che possiamo frequentemente leggere sui social, prevale l'idea che la mente umana possieda una forma di intelligenza. 

 

Alcuni, però, adottano una prospettiva più materialistica, considerando la mente come un epifenomeno, ovvero un fenomeno secondario che si manifesta senza una connessione diretta con il processo primario che lo genera. Questa visione suggerisce che la mente possa essere vista come un'emanazione del corpo.

Se accettiamo questa interpretazione, potremmo concludere che l'intelligenza artificiale non sia altro che un'estensione della robotica, in cui la simulazione del corpo include automaticamente le funzioni mentali. In altre parole, simulando adeguatamente il corpo, si potrebbe riuscire a replicare anche la mente?

Questa è una visione filosofica del problema. Tuttavia preferisco non seguire questo filone di pensiero, anche se certamente è un punto di vista intrigante che merita considerazione.

Il sogno dell'intelligenza artificiale, inteso come la simulazione non solo dei risultati ma anche dei processi mentali, trova una metafora illuminante nel mondo dell'informatica. 

In questo contesto, la distinzione tra hardware e software ci offre una chiave di lettura per comprendere il rapporto tra mente e corpo. L'hardware rappresenta la macchina fisica, che può rimanere inattiva o quiescente, mentre il software è qualcosa di radicalmente diverso: è ciò che anima l'hardware, permettendogli di eseguire specifiche operazioni. 

Questa distinzione è divenuta centrale nel commercio informatico, riflettendo l'importanza crescente del software nell'interazione con l'hardware.

La mente umana come un'estensione del corpo
Foto credit: SdL

L’analogia tra mente (software) e corpo (hardware) è stata esplorata anche in ambito filosofico. 

Hilary Putnam, un noto filosofo americano, ha introdotto negli anni '60 il concetto di funzionalismo. 

Questa teoria filosofica propone di vedere la mente come l'analogo umano di ciò che il software rappresenta per il computer.

In altre parole, il funzionalismo suggerisce che la mente può essere compresa in termini di funzioni e processi che regolano le interazioni tra diverse parti del corpo, proprio come il software dirige e coordina l'hardware di un computer per eseguire compiti specifici.

La prospettiva offre un'interessante riflessione sul potenziale delle tecnologie dell'intelligenza artificiale per emulare non solo le azioni esterne dell'uomo ma anche i suoi processi cognitivi interni, aprendo nuove frontiere nel campo dell'AI e del suo sviluppo.

Effettivamente, per mettere in relazione hardware e software, è essenziale la presenza di un computer. Tuttavia, i computer, come ogni invenzione, non sono frutto di miracoli. Nonostante l'uso che comunemente si fa della parola "miracolo" per descrivere realizzazioni umane straordinarie, un computer non è un miracolo in senso letterale, anche se i suoi effetti possono sembrare sensazionali a chi ne osserva le capacità. 

Quanto alla nascita del computer, se dovessimo individuare una figura chiave nella sua concezione, molti oggi indicherebbero Alan Turing come il padre dell'informatica. Grazie anche alla sua risonanza nel mondo del cinema, Turing è diventato una figura iconica.

Il suo lavoro teorico e pratico durante la Seconda Guerra Mondiale, in particolare quello teso verso la creazione di macchine capaci di decifrare le codifiche utilizzate dai tedeschi per decrittarne le comunicazioni, ha posto le basi non solo per la moderna elaborazione dei dati ma anche per la teoria computazionale che distingue tra hardware (la macchina fisica) e software (i programmi che la dirigono). 

Turing, trovando ispirazione dai telai utilizzati per la tessitura, ha proposto l'idea di una macchina universale che, con il software giusto, potrebbe eseguire qualsiasi calcolo o operazione logica. Un concetto che si è evoluto nel moderno computer programmabile.

Alan Turing, un nome familiare per molti, ha avuto un impatto significativo, tanto nella storia dell'informatica, quanto nella cultura popolare. La sua vita, segnata da trionfi e tragedie, è stata celebrata e ricordata in vari modi, compresa una rappresentazione simbolica che molti possiedono senza forse saperlo: la mela morsicata, logo della Apple.

Sebbene sia ampiamente dibattuto e non confermato, alcuni ritengono che questo logo sia un omaggio a Turing, il quale morì nel 1954 a soli 42 anni, suicidandosi con una mela avvelenata. Questa interpretazione entra nella mitologia della tecnologia, dove il confine tra realtà e leggenda spesso si sfuma.

Lo scienziato britannico visse in un'epoca in cui l'omosessualità era illegalmente perseguitata in Inghilterra, il che portò a delle tragiche conseguenze personali, nonostante i suoi contributi significativi alla scienza e alla sicurezza nazionale durante il secondo conflitto mondiale.

Fu proprio in quel periodo che Turing giocò un ruolo cruciale nella decrittazione dei codici della macchina Enigma, usata dai tedeschi per inviare messaggi cifrati. Il suo lavoro presso Bletchley Park non solo fu vitale per l'esito del conflitto, riducendo la durata della guerra, stimata in almeno tre anni, ma stabilì anche le fondamenta per la moderna informatica.

Dopo la fine della guerra, nel 1952, Turing fu arrestato per "indecenza grossolana" dopo aver ammesso una relazione omosessuale, allora considerata un reato. A conclusione del processo fu emessa una sentenza  che lo condannò a scegliere tra la prigione e la castrazione chimica, un trattamento ormonale che egli scelse quale pena nella speranza di poter continuare a esercitare  il proprio lavoro. 

Questo trattamento ebbe effetti devastanti sulla sua salute fisica e mentale, portandolo, infine, al suicidio.

La storia di Alan Turing è un potente promemoria di come la Società possa sia elevare che distruggere i suoi più brillanti individui, e di come, talvolta, la grandezza e la tragedia possano essere intrecciate in modi che influenzano profondamente le generazioni future.

Un ipotetico disegno della macchina di Turing
Foto credit: SdL
Alan Turig
Foto credit: SdL

Tornando indietro sarà utile ricordare che già nel 1936, il giovane Turing, all'età di 24 anni, compì un'opera rivoluzionaria per la sua tesi di laurea, contribuendo in maniera fondamentale non solo alla logica matematica, ma cambiando anche radicalmente la nostra vita quotidiana.

Il suo lavoro gettò le basi per lo sviluppo dei computer moderni, esplorando e espandendo teorie precedentemente stabilite da Kurt Gödel negli anni '30.

In quegli anni Gödel aveva dimostrato teoremi esoterici che sconvolsero le fondamenta della matematica e Turing si cimentò nel compito di comprenderli, proponendo di tradurre queste complessità in termini di macchine calcolatrici.

L’inventore britannico introdusse così l'idea di una macchina in grado di emulare i processi mentali umani impiegati durante il calcolo concentrandosi specificamente sulle attività meccaniche di calcolo, come le moltiplicazioni, che sono realizzabili mediante algoritmi ben definiti. 

Questa riflessione lo portò a ideare la "macchina di Turing", un concetto teorico che permette di simulare qualsiasi procedimento computazionale attraverso una serie di istruzioni semplici e ripetibile, che oggi chiamano software. 

La sua visione innovativa suggeriva che una macchina, quando raggiunge una "massa critica" di capacità, potrebbe eseguire operazioni aritmetiche corrispondenti in pratica a codificare e decodificare numeri, moltiplicarli e scomporli nei loro fattori.

Alan Turig
Foto credit: SdL

La straordinaria intuizione proponeva una macchina universale, capace di eseguire qualsiasi compito computazionale mediante la programmazione, eliminando la necessità di costruire macchine sempre più grandi e potenti per funzioni specifiche.

Mantenendo la macchina a un livello di complessità gestibile e inserendo i programmi adeguati, si poteva farle fare virtualmente tutto ciò che è computabile.

La visione di Turing di una macchina universale è fondamentale perché ha aperto la strada alla realizzazione di computer moderni, che sono essenzialmente realizzazioni pratiche di questo concetto teorico, capaci di eseguire una vasta gamma di compiti semplicemente cambiando il software.

Nel 1936, Alan Turing ha rivoluzionato la nostra comprensione dei sistemi di calcolo con un lavoro che non solo ha trasformato la logica matematica ma ha anche ridefinito il futuro delle tecnologie computazionali. Il suo approccio semplificato alla descrizione dei processi cerebrali mediante stati e transizioni ha permesso di concepire il cervello come una macchina a stati finiti, una visione che ha profonde implicazioni nella teoria computazionale.

Turing osservò che il cervello umano, nonostante la sua complessità, operava in stati finiti distinti, similmente a come funzionano le macchine. 

Esempi di questa idea possono essere trovati in dispositivi comuni come le macchine da scrivere, dove, ad esempio, il tasto delle maiuscole cambia lo stato della macchina, consentendo di passare dalla digitazione di lettere minuscole a quelle maiuscole. 

 

Esempio di un diagramma di una macchina a stati finiti.
Foto credit: SdL
Un moderno computer che forse, senza le intuizioni di Alan Turig, oggi non avremmo avuto
Foto credit: SdL

Questa capacità di cambiare stati, spiegava Turing, riflette la modalità di funzionamento del cervello umano, che può essere rappresentato in un numero finito di stati a causa delle limitazioni fisiche spaziali del cervello stesso.

Lo sfortunato scienziato fu fortemente influenzato dalle ricerche precedenti di Charles Babbage, che circa un secolo prima aveva concepito l'idea di una macchina universale. 

Infatti Babbage, nell'Inghilterra del 1837, aveva ideato un "motore analitico", il predecessore concettuale del computer moderno, che era progettato per funzionare con la potenza del vapore e utilizzare schede perforate per programmare le operazioni. Questa invenzione anticipò di molti anni l'idea di programmabilità e automatizzazione che Turing avrebbe poi formalizzato.

Interessante notare come la felice intuizione delle schede perforate si collegasse anche a innovazioni precedenti nei telai, come quello inventato da Joseph Marie Jacquard, che usava schede perforate per controllare il disegno dei tessuti. L’intersezione tra tecnologia tessile e calcolo meccanico dimostra come le innovazioni di un campo specifico possano, spesso, ispirare rivoluzioni in un altro.

Turing immaginava un futuro in cui macchine basate sui suoi principi potessero eseguire qualsiasi operazione computazionale data.  Un concetto che ha aperto la via alla creazione di computer programmabili. Tuttavia, come per Babbage, la realizzazione fisica di tali macchine avanzate rimase un sogno durante la sua vita, fortemente limitata dalle tecnologie disponibili all'epoca.

Il contributo di Alan Turing, quindi, non risiedeva solo nella creazione di algoritmi o nella progettazione di hardware specifico, ma nella sua capacità di astrazione e generalizzazione dei principi di calcolo.

Egli ha fornito una struttura concettuale tale da rendere possibile pensare al "cervello elettronico", il predecessore concettuale del computer moderno, spianando la strada per le future generazioni di tecnologie informatiche.

Durante la Seconda Guerra Mondiale, mentre Alan Turing lavorava nel Regno Unito su questioni di crittografia e spionaggio, contemporaneamente  negli Stati Uniti venivano sviluppati altri progressi significativi nel campo delle scienze cognitive e informatiche. 

La simbologia oggi in uso per rappresentare le porte logiche
Foto credit: SdL
Ricostruzione della macchina ideata da Turing, chiamata 'bombe', e costruita da Harold 'Doc' Keen, che eseguiva una ricerca esaustiva tra tutte le possibili combinazioni dell'Enigma.
Foto credit: Wikipedia

Nel 1943, due scienziati americani, il neurofisiologo Warren McCulloch e il matematico Walter Pitts, pubblicarono un lavoro fondamentale che gettava le basi per quello che oggi conosciamo come le reti neurali artificiali.

Mentre Turing aveva concepito la sua macchina come una "scatola nera" capace di eseguire calcoli e processare informazioni senza necessariamente comprendere il meccanismo interno, McCulloch e Pitts cercarono di esplorare proprio ciò che accadeva dentro questa scatola nera. Essi si ispirarono direttamente alla fisiologia del cervello umano, in particolare alla struttura e funzionamento dei neuroni e delle loro connessioni sinaptiche.

McCulloch e Pitts proposero un modello in cui i neuroni venivano idealizzati come elementi di commutazione logici, capaci di processare input (stimoli) e produrre output (risposte), basandosi su determinate regole logiche. 

Questo modello evidenziava come i neuroni lavorassero insieme in una rete complessa, comunicando attraverso impulsi elettrici, per elaborare informazioni e generare comportamenti complessi. 

I due scienziati statunitensi introdussero il concetto di automi finiti e di come questi potessero essere collegati in rete per simulare funzioni cognitive, ponendo le premesse per lo sviluppo delle moderne reti neurali.

Pochi anni dopo, Claude Shannon, un altro pioniere nel campo dell'informatica e della teoria dell'informazione, dimostrò come le reti neurali potessero essere effettivamente realizzate utilizzando circuiti elettronici semplici. 

Shannon mostrò che le funzioni logiche di base (come AND, OR, NOT) potevano essere implementate fisicamente attraverso porte logiche, consentendo di costruire reti capaci di compiere operazioni più complesse, come quelle precedentemente  descritte da McCulloch e Pitts.

Questo sviluppo interdisciplinare segnava un momento cruciale nella storia dell'informatica e della neuroscienza, dimostrando come concetti provenienti dalla biologia, dalla logica e dalla matematica potessero confluire nella creazione di sistemi computazionali capaci di emulare alcuni aspetti del pensiero umano.

Grazie ai loro sforzi combinati, McCulloch, Pitts e Shannon contribuirono a trasformare le teorie astratte in tecnologie praticabili, spianando la strada per l'evoluzione dei computer e per le future ricerche sull'intelligenza artificiale e il machine learning.

Nel corso degli anni '50, Claude Shannon, operando già nel decennio precedente, realizzò che le leggi descritte da George Boole, che unificavano sia la logica stoica che quella aristotelica, potevano essere implementate fisicamente attraverso circuiti elettrici. Questo collegamento tra le strutture logiche e fisiche era fondamentale per il progresso della teoria computazionale e delle reti neurali.

 

Shannon capì che era possibile rappresentare il vero e il falso, o lo 0 e l'1, in termini elettrici: il "vero" come passaggio di corrente e il "falso" come sua assenza. Una porta logica, quindi, poteva essere utilizzata per simulare la congiunzione logica, permettendo il passaggio di corrente solo se corrente arrivava da entrambi i fili d'input. 

Questa semplice ma potente idea di utilizzare porte logiche per rappresentare operazioni algebriche aprì la strada all'implementazione pratica delle teorie di Boole nel contesto dei computer.

L'opera di Shannon dimostra che vari campi, dalla logica, all'algebra booleana, ai circuiti elettrici e alle reti neurali, sono tutti manifestazioni di una stessa idea fondamentale che permette di costruire quella che Turing definiva una "scatola nera": il computer. 

Da qui in poi, il progresso tecnologico ha permesso la realizzazione pratica di questi concetti, principalmente negli Stati Uniti, dove figure come John von Neumann, che aveva lavorato con Turing, hanno giocato un ruolo cruciale nello sviluppo dei primi computer elettronici.

Questi sviluppi, uniti alla teoria computazionale di Turing, hanno portato alla creazione di macchine capaci di eseguire compiti complessi, come ad esempio riuscire a giocare a scacchi. 

Un moderno PC gioca una partita a scacchi
Foto credit: SdL
La logica booleana basata sugli stati logici 0 e 1
Foto credit: SdL

Turing stesso ideò uno dei primi programmi di scacchi, dimostrando teoricamente che un computer potrebbe un giorno competere o addirittura superare gli umani in giochi di strategia. Questa visione si è concretizzata quando, nel 1996, il computer Deep Blue di IBM ha battuto il campione del mondo Gary Kasparov, segnando una pietra miliare per l'intelligenza artificiale.

Infine, Shannon e altri pionieri hanno dimostrato che le macchine possono non solo simulare ma anche estendere le capacità umane in vari campi, sfidando continuamente le nostre concezioni di intelligenza e capacità computazionale. 

Ritengo che la storia dell'informatica che porta ai giorni nostri sino all'intelligenza artificiale, sia da considerare il  luminoso esempio di come le idee matematiche e filosofiche possono trasformarsi in tecnologie che cambiano il mondo, unendo teoria e pratica in modi che continuano a influenzare profondamente la nostra Società.

WhatsApp chat