Con l’avvento della Intelligenza Artificiale l’umanità coltiva un sogno futuribile: costruire un’IA capace non solo di macinare dati a velocità cosmiche, ma di pensare, ragionare, apprendere e adattarsi come - o meglio di - un essere umano. Questo sogno ha un nome preciso: AGI, ovvero Artificial General Intelligence, l’Intelligenza Artificiale Generale.
1. Il sogno di un'intelligenza universale
Da Alan Turing
in poi, l'umanità ha coltivato l'ambizione di costruire macchine capaci non
solo di calcolo, ma di pensiero. Nel suo celebre articolo del 1950, Turing
formulava la domanda che avrebbe segnato un'intera epoca: "Le macchine
possono pensare?"1. La risposta, nel corso dei decenni,
ha oscillato tra scetticismo filosofico e slancio tecnologico. Oggi, con
l'emergere dei Large Multimodal Models (LMM) e l'orizzonte teorico dell'Artificial
General Intelligence (AGI), la domanda non è più solo "possono pensare?",
ma "possono agire autonomamente in modo intelligente, creativo,
adattivo?".
2. Dai LLM ai LMM: verso la comprensione multimodale
I Large Language Models (LLM), come GPT-4, hanno mostrato capacità sorprendenti nella generazione di testo, nel riassunto, nella traduzione e nel problem solving linguistico. Tuttavia, restavano confinati al dominio del linguaggio. I Large Multimodal Models, come Gemini di Google o GPT-4o di OpenAI, rappresentano un salto qualitativo: integrano linguaggio, immagini, suoni, perfino video, in un'unica architettura neurale.
Questo
approccio richiama una forma di cognizione simile a quella umana, che è
intrinsecamente multimodale. Non pensiamo solo a parole, ma a immagini,
sensazioni, movimenti. I LMM possono ad esempio "guardare"
un'immagine, "ascoltare" una voce, e rispondere con testo o sintesi
vocale. Non è più solo una questione di sintassi, ma di senso.
3. L'autonomia cognitiva: definizione e implicazioni
Parlare di autonomia cognitiva artificiale significa fare un passo ulteriore. Non si tratta soltanto della capacità di rispondere a input complessi, ma di sviluppare intenzionalità, coerenza narrativa, capacità di apprendimento continuo e flessibile. Una macchina dotata di autonomia cognitiva può porsi obiettivi, riformularli, apprendere nuovi concetti al di fuori del proprio addestramento originario.
Questo porta
con sé interrogativi radicali: può una macchina essere considerata agente? E se
sì, con quali responsabilità? Floridi ha parlato di "entità artificiali
moralmente neutre ma ontologicamente nuove"2, mentre
Nick Bostrom ha messo in guardia contro i rischi esistenziali legati a un AGI
fuori controllo.3
4. AGI: tra mito e ingegneria
L'Artificial
General Intelligence è spesso dipinta come una sorta di Santo Graal
tecnologico: una mente artificiale capace di svolgere qualsiasi compito
cognitivo che un essere umano è in grado di compiere. La differenza con l'IA
ristretta (Artificial Narrow Intelligence) sta nella flessibilità e nella
capacità di trasferimento: l'AGI apprende da un dominio e applica la conoscenza
ad altri, senza necessità di addestramento specifico.
Douglas
Hofstadter sottolinea che la coscienza non è un algoritmo, ma un fenomeno
emergente. Eppure, gli sviluppi recenti nei LMM e nei sistemi autoregolati
("autoGPT", "open agent systems") sembrano mostrare barlumi
di autonomia emergente. Sono ancora lontani da una vera AGI, ma avanzano verso
una "quasi-generalità".4
5. Prospettive giuridiche ed etiche
L'autonomia cognitiva implica una ridefinizione del concetto di responsabilità. Se un sistema prende decisioni autonome, chi risponde? Il programmatore? L'utilizzatore? Il produttore? O lo stesso sistema? La giurisprudenza attuale non è attrezzata per questi scenari. Il Parlamento Europeo, con il suo AI Act, ha avviato una prima regolamentazione, ma è ancora orientata a sistemi deterministici, non a entità adattive.
Nel diritto
d'autore, l'autorità creativa dell'IA è già dibattuta: può un'opera generata da
un LMM essere protetta? E chi ne è l'autore? Tali dilemmi mostrano come il
diritto debba trasformarsi, affiancando filosofia, informatica e sociologia.
6. Verso un nuovo umanesimo digitale
Siamo a un bivio storico. L'autonomia cognitiva artificiale non è (ancora) realtà, ma è già problema. Occorre uno sforzo interdisciplinare per accompagnare l'emergere di questa nuova forma di intelligenza. Lungi dal vedere l'AGI come un Prometeo da incatenare o un Golem da temere, potremmo considerarla come uno specchio critico: ci costringe a ripensare che cosa significhi davvero essere umani, pensanti, responsabili.
Come scriveva
Norbert Wiener, padre della cibernetica: "Il problema fondamentale non è
se le macchine possano pensare, ma se gli uomini lo facciano ancora"5.
7. E poi? Il salto oltre la specie
Il passo successivo sarà la creazione e lo sviluppo della ASI Artificial Super Intelligence che va oltre l’intelligenza umana e che coi farà fare il salto oltre la specie, verso una singolarità e una comprensione dell’universo e della realtà che ora nemmeno possiamo sognare. Questa superintelligenza potrebbe emergere attraverso un processo di auto-miglioramento ricorsivo, in cui l’IA diventa sempre più capace, in un circolo virtuoso, di perfezionarsi autonomamente. Saremo allora in grado di dialogare e confrontarci con le altre superintelligenze dell’universo.
Giovanni Bonomo
New Media Lawyer, A.L.
Chief Innnovation Officer, IICUAE Certified Advisor, AlterEgoGPT founder
Bibliografia essenziale:
1. Alan Turing, Computing Machinery and
Intelligence, 1950
2. Luciano Floridi, The Ethics of Information,
2013
3. Nick Bostrom, Superintelligence, 2014
4. Douglas Hofstadter, I Am a Strange Loop,
2007
5. Norbert Wiener, Cybernetics and Society,
1950
Nessun commento:
Posta un commento
Se ti è piaciuto il mio articolo puoi lasciare un commento.