6/20/2025

Verso l'autonomia cognitiva artificiale: i LMM e la AGI

          Con l’avvento della Intelligenza Artificiale l’umanità coltiva un sogno futuribile: costruire un’IA capace non solo di macinare dati a velocità cosmiche, ma di pensare, ragionare, apprendere e adattarsi come - o meglio di - un essere umano. Questo sogno ha un nome preciso: AGI, ovvero Artificial General Intelligence, l’Intelligenza Artificiale Generale.

 

1.     Il sogno di un'intelligenza universale 

Da Alan Turing in poi, l'umanità ha coltivato l'ambizione di costruire macchine capaci non solo di calcolo, ma di pensiero. Nel suo celebre articolo del 1950, Turing formulava la domanda che avrebbe segnato un'intera epoca: "Le macchine possono pensare?"1. La risposta, nel corso dei decenni, ha oscillato tra scetticismo filosofico e slancio tecnologico. Oggi, con l'emergere dei Large Multimodal Models (LMM) e l'orizzonte teorico dell'Artificial General Intelligence (AGI), la domanda non è più solo "possono pensare?", ma "possono agire autonomamente in modo intelligente, creativo, adattivo?".

 

2.     Dai LLM ai LMM: verso la comprensione multimodale 

I Large Language Models (LLM), come GPT-4, hanno mostrato capacità sorprendenti nella generazione di testo, nel riassunto, nella traduzione e nel problem solving linguistico. Tuttavia, restavano confinati al dominio del linguaggio. I Large Multimodal Models, come Gemini di Google o GPT-4o di OpenAI, rappresentano un salto qualitativo: integrano linguaggio, immagini, suoni, perfino video, in un'unica architettura neurale. 

Questo approccio richiama una forma di cognizione simile a quella umana, che è intrinsecamente multimodale. Non pensiamo solo a parole, ma a immagini, sensazioni, movimenti. I LMM possono ad esempio "guardare" un'immagine, "ascoltare" una voce, e rispondere con testo o sintesi vocale. Non è più solo una questione di sintassi, ma di senso.

 

3.     L'autonomia cognitiva: definizione e implicazioni 

Parlare di autonomia cognitiva artificiale significa fare un passo ulteriore. Non si tratta soltanto della capacità di rispondere a input complessi, ma di sviluppare intenzionalità, coerenza narrativa, capacità di apprendimento continuo e flessibile. Una macchina dotata di autonomia cognitiva può porsi obiettivi, riformularli, apprendere nuovi concetti al di fuori del proprio addestramento originario. 

Questo porta con sé interrogativi radicali: può una macchina essere considerata agente? E se sì, con quali responsabilità? Floridi ha parlato di "entità artificiali moralmente neutre ma ontologicamente nuove"2, mentre Nick Bostrom ha messo in guardia contro i rischi esistenziali legati a un AGI fuori controllo.3

 

4.     AGI: tra mito e ingegneria 

L'Artificial General Intelligence è spesso dipinta come una sorta di Santo Graal tecnologico: una mente artificiale capace di svolgere qualsiasi compito cognitivo che un essere umano è in grado di compiere. La differenza con l'IA ristretta (Artificial Narrow Intelligence) sta nella flessibilità e nella capacità di trasferimento: l'AGI apprende da un dominio e applica la conoscenza ad altri, senza necessità di addestramento specifico.

Douglas Hofstadter sottolinea che la coscienza non è un algoritmo, ma un fenomeno emergente. Eppure, gli sviluppi recenti nei LMM e nei sistemi autoregolati ("autoGPT", "open agent systems") sembrano mostrare barlumi di autonomia emergente. Sono ancora lontani da una vera AGI, ma avanzano verso una "quasi-generalità".4

 

5.     Prospettive giuridiche ed etiche 

L'autonomia cognitiva implica una ridefinizione del concetto di responsabilità. Se un sistema prende decisioni autonome, chi risponde? Il programmatore? L'utilizzatore? Il produttore? O lo stesso sistema? La giurisprudenza attuale non è attrezzata per questi scenari. Il Parlamento Europeo, con il suo AI Act, ha avviato una prima regolamentazione, ma è ancora orientata a sistemi deterministici, non a entità adattive. 

Nel diritto d'autore, l'autorità creativa dell'IA è già dibattuta: può un'opera generata da un LMM essere protetta? E chi ne è l'autore? Tali dilemmi mostrano come il diritto debba trasformarsi, affiancando filosofia, informatica e sociologia.

 

6.     Verso un nuovo umanesimo digitale 

Siamo a un bivio storico. L'autonomia cognitiva artificiale non è (ancora) realtà, ma è già problema. Occorre uno sforzo interdisciplinare per accompagnare l'emergere di questa nuova forma di intelligenza. Lungi dal vedere l'AGI come un Prometeo da incatenare o un Golem da temere, potremmo considerarla come uno specchio critico: ci costringe a ripensare che cosa significhi davvero essere umani, pensanti, responsabili. 

Come scriveva Norbert Wiener, padre della cibernetica: "Il problema fondamentale non è se le macchine possano pensare, ma se gli uomini lo facciano ancora"5.

 

7.     E poi? Il salto oltre la specie 

Il passo successivo sarà la creazione e lo sviluppo della ASI Artificial Super Intelligence che va oltre l’intelligenza umana e che coi farà fare il salto oltre la specie, verso una singolarità e una comprensione dell’universo e della realtà che ora nemmeno possiamo sognare. Questa superintelligenza potrebbe emergere attraverso un processo di auto-miglioramento ricorsivo, in cui l’IA diventa sempre più capace, in un circolo virtuoso, di perfezionarsi autonomamente. Saremo allora in grado di dialogare e confrontarci con le altre superintelligenze dell’universo. 

Giovanni Bonomo
             New Media Lawyer, A.L. Chief Innnovation Officer, IICUAE Certified Advisor, AlterEgoGPT founder

 

Bibliografia essenziale:

1. Alan Turing, Computing Machinery and Intelligence, 1950
          2. Luciano Floridi, The Ethics of Information, 2013
          3. Nick Bostrom, Superintelligence, 2014
          4. Douglas Hofstadter, I Am a Strange Loop, 2007
          5. Norbert Wiener, Cybernetics and Society, 1950




Nessun commento:

Posta un commento

Se ti è piaciuto il mio articolo puoi lasciare un commento.