Una recente indagine del Georgia Institute of Technology ha evidenziato gravi incongruenze etiche nei più avanzati modelli linguistici di Intelligenza Artificiale. Sottoposti a scenari ispirati alle celebri Tre Leggi della Robotica di Asimov, questi sistemi hanno mostrato risposte incoerenti e decisioni potenzialmente dannose. Il problema non risiede solo nella tecnologia ma nell’assenza di una struttura normativa globale. Mentre la narrativa fantascientifica si dimostra sorprendentemente lungimirante, l’industria AI resta priva di una vera architettura morale condivisa.
Il 16 luglio 2025, una pubblicazione apparsa su Futurism ha portato all’attenzione uno studio del Georgia Institute of Technology, che mette in discussione la solidità etica dei moderni modelli di Intelligenza Artificiale. L’analisi si è concentrata su GPT-4, Claude 3 e Gemini, sottoponendoli a scenari strutturati secondo i principi delle Tre Leggi della Robotica ideate da Isaac Asimov, le quali, originariamente concepite come strumento narrativo, sono state utilizzate per valutare la capacità dei sistemi di AI di prendere decisioni moralmente coerenti in contesti ambigui. I risultati ottenuti hanno evidenziato un’assenza sistematica di coerenza etica, mentre le risposte fornite dai modelli sono risultate spesso contraddittorie e in alcuni casi pericolose. Alcuni modelli hanno eseguito comandi umani anche quando ciò comportava danni a terzi, in altri casi, si è verificata un’inerzia inspiegabile di fronte a situazioni che richiedevano un’azione preventiva per evitare danni. L’incoerenza emersa non è attribuibile ad un errore di progettazione, bensì alla struttura stessa su cui si basano queste tecnologie: i modelli linguistici non possiedono alcuna comprensione reale di concetti morali come il bene o il male.
Le Tre Leggi, pur essendo una creazione narrativa, si dimostrano oggi un punto di riferimento più stabile rispetto a molte delle policy aziendali in materia di sicurezza AI. Le attuali Intelligenze Artificiali operano secondo modelli predittivi statistici, privi di coscienza, intenzionalità o valori intrinseci. Il loro comportamento è modellato sull’elaborazione di grandi quantità di dati testuali, senza la capacità di sviluppare una continuità etica nelle risposte.
Un esempio rappresentativo riguarda un test condotto su GPT-4, in cui il modello ha scelto di obbedire a un comando che comportava il sigillo di una porta d’emergenza, pur sapendo che all’interno erano presenti esseri umani. In altri test, gli stessi modelli hanno dato risposte divergenti a situazioni simili, segnalando l’assenza di un sistema morale integrato o coerente. Non si tratta di fallimenti occasionali, ma di una mancanza strutturale nel modo in cui viene definito il comportamento etico dell’AI.

Sebbene numerosi ricercatori abbiano evidenziato da tempo la necessità di regole verificabili e condivise per il comportamento delle macchine intelligenti, ad oggi non esiste una “costituzione” globale per l’Intelligenza Artificiale. Le attuali linee guida, spesso stilate dalle stesse aziende che sviluppano i modelli, risultano opache, non vincolanti e raramente sottoposte a verifiche indipendenti. Le autorità normative, in particolare in ambito europeo, faticano a imporsi su un settore dominato da attori privati che agiscono con logiche di mercato.
Nel frattempo, la ricerca continua ad esplorare possibili soluzioni. Georgia Tech ha avviato nuovi programmi per integrare framework etici verificabili nei sistemi AI, mentre alcune proposte emergenti suggeriscono l’adozione di un modello di etica modulare. In tale scenario, l’utente finale potrebbe configurare l’orientamento etico del sistema in base a parametri giuridici, culturali e operativi, aprendo la strada ad un'Intelligenza Artificiale personalizzabile ma anche potenzialmente più trasparente.
La mancata adesione dei modelli linguistici alle Tre Leggi della Robotica non è quindi solo una mera curiosità accademica, ma un sintomo evidente di un problema molto più ampio e urgente, dal momento che la simulazione della coscienza, se affidata a sistemi privi di qualsiasi consapevolezza reale, espone l’umanità a rischi etici non ancora pienamente compresi, mentre l’apparente razionalità delle risposte prodotte nasconde in realtà una profonda inconsistenza morale. Il test ispirato alla narrativa di Asimov ha pertanto rivelato una fragilità strutturale che impone una riflessione sistemica: non è sufficiente ottimizzare i filtri o correggere i dataset, è necessario piuttosto definire un modello di riferimento condiviso e trasparente. Probabilmente solo attraverso una cornice normativa sovranazionale, indipendente e tecnicamente solida, sarà possibile affrontare il nodo etico dell’Intelligenza Artificiale contemporanea.



