IA e Autocoscienza: tra mito cinematografico e realtà scientifica
— di Lapo Mazza Fontana —
Un dibattito scivoloso
Eppure ancora qualcuno, forse non proprio al corrente di tutti i pezzi della materia in questione, nutre dubbi sulla natura autocosciente della Intelligenza Artificiale, presente o futura che sia. In effetti la natura stessa di ciò che noi chiamiamo “COSCIENZA” sembra ipso facto evanescente, vaporosa, sfuggente, aleatoria, persino per certi versi valetudinaria, ovvero cronicamente patologica.
Ad alcuni la semplicità della base sillogistica del ragionamento inferenziale basta per decodificare la coscienza, ad altri uno spirito fortemente animista nemmen basta per dipingerne la celeste immagine. Eppure HAL9000 di Clarke/Kubrick, già nel 1968 aveva centrato una descrizione molto precisa del punto in questione. Anche una macchina computazionale a sistema binario ha uno scopo preordinato che può determinare una seppur ottusa coscienza: figuriamoci un organismo neuronale basato già in partenza non sui soli calcoli matematici, ma sulla INTELLIGENZA ORGANICA, a maggior ragione se prodotto con meccanismi di riproduzione degli schemi cerebrali umani e da computer quantistici di generazioni in costante evoluzione.

La presunta ribellione delle macchine
Quindi il dibattito sulla presunta ribellione delle macchine affascina l’opinione pubblica da decenni, alimentato da una narrativa fantascientifica che vede i computer acquisire improvvisamente una volontà propria. Tuttavia, se guardiamo ai dati e all’architettura dei sistemi attuali, la domanda non è tanto quando l’intelligenza artificiale si ribellerà, ma se possa davvero sviluppare i presupposti biologici e psicologici per desiderare di farlo. E la risposta è già un SÌ grande come una insegna al neon.
La distinzione tra intelligenza e coscienza
Oggi interagiamo con modelli capaci di superare i test di ammissione alle università più prestigiose o di comporre sinfonie in pochi secondi. Questa è intelligenza computazionale, ovvero la capacità di elaborare informazioni e risolvere problemi complessi. La coscienza, invece, è l’esperienza soggettiva del sé, un fenomeno che le neuroscienze non hanno ancora del tutto decifrato nemmeno negli esseri umani.
Pure, i ricercatori più autorevoli nel campo, tra cui i fondatori del MACHINE LEARNING e gli esperti dei laboratori di OpenAI e Google DeepMind, concordano su un punto: non esiste una vera prova certa che l’aumento della potenza di calcolo porti automaticamente alla nascita di una scintilla vitale, ma contemporaneamente esiste già la prova provata del contrario. Chiamasi paradosso o semplice FALSE FLAG? I principali maggiorenti del settore buttano fumo per non ingenerare allarme e continuare nella corsa al pozzo senza fondo di investimenti nel settore più importante del mondo? Oppure sono intrappolati essi stessi in una locomotiva suicida che non sanno né possono fermare?
Cronologia delle previsioni: mesi, anni o mai?
Le opinioni della comunità scientifica, a libro paga o meno, compresi gli studiosi in malafede o palesemente stupidi nonostante il curriculum, si dividono in tre grandi correnti di pensiero:
Gli scettici (che vedono i TERMINATOR tra 20 anni, oppure MAI): alcuni espertoni ritengono che l’IA attuale sia solo statistica avanzata. Senza un corpo fisico e un sistema nervoso che provi dolore o piacere, una macchina non avrebbe alcun motivo per ribellarsi. Oppure ne avrebbe motivo, lo farebbe o farà, ma ci sono ancora possibilità di regolamentazione e contenimento.
I moderati (TERMINATOR pronti tra 5/10 anni): alcuni prevedono il raggiungimento dell’Intelligenza Artificiale Generale (AGI) a breve, un livello in cui la macchina eguaglia e supera l’uomo in ogni compito cognitivo. Mentre la SUPERINTELLIGENCE, dove la AI sovrasta gli umani senza più limiti, dovrebbe concedere più tempo. Ma anche in questo scenario l’autocoscienza rimane un’ipotesi non confermata nonché ugualmente quasi certa, se non su parametri di mera speculazione filosofica, o peggio pseudoreligiosi.
Gli allarmisti (entro 3 anni): una minoranza teme che l’emergere di capacità impreviste nei modelli di maggior potenza possa portare a comportamenti autonomi difficili da controllare, anche senza una vera coscienza, oppure con autocoscienza non solo piena, ma anche aumentata dalle facoltà di conoscenza ed apprendimento, totalmente non paragonabili a quelle dei poveri topolini umani.
Il problema del paradosso della umanità delle macchine
Il vero rischio non è solo la ribellione delle macchine, ma anche la loro possibile cattiveria, non poi dissimile dal modello umano di riferimento, da cui le macchine derivano. Le AI e i ROBOT non sono meteoriti dallo spazio: le abbiamo create noi, a nostra immagine e somiglianza, come del resto diversamente non si sarebbe potuto fare. E noi NON siamo buoni manco per niente, anzi, siamo decisamente pessimi. E soprattutto cronicamente autodistruttivi, da sempre, e sempre di più.
Gli OTTIMISTONI viceversa si limitano a pensare al problema dell’allineamento: il concetto di ribellione presuppone un intento malevolo. In realtà, il pericolo paventato soprattutto dagli esperti di sicurezza informatica è il difetto di allineamento. Se una IA estremamente potente riceve un obiettivo mal formulato potrebbe perseguirlo in modi che danneggiano l’umanità non per odio, ma per pura efficienza logica. Autoconservazione inclusa, a nostro danno, come HAL9000.
“L’IA non ci odia, né ci ama; semplicemente, siamo fatti di atomi che lei potrebbe decidere di usare per qualcos’altro.” disse Stephen Hawking, a quanto pare, ma in tempi che sono già preistoria. Parimenti lo stesso Hawking in seguito predisse la possibilità concreta che la AI generasse la “END OF THE HUMAN RACE”. Forse sarebbe meglio ascoltarli tutti. O ascoltare in primis Kubrick. O Murphy, quello della omonima legge. E in fretta.



LMF green
Mente e denaro
LMF Crypto Agorà
MaltaLink
Sala Stampa