Allucinazioni algoritmiche: approccio normativo e casi concreti
Marco Tupponi

L’argomento delle allucinazioni algoritmiche all’interno dei sistemi di Intelligenza Artificiale generativa, in particolare quelli basati su Large Language Models (LLM) come GPT, si pone oggi come punto cruciale tra innovazione tecnologica e regolamentazione giuridica.

Soffermiamoci specificatamente su questo tema individuando quattro macro aree:

  1. In cosa consistono le allucinazioni algoritmiche

Il termine “allucinazione” in ambito AI non si riferisce a un’alterazione della percezione cosciente, come in ambito medico, ma a risposte generate da un sistema di AI che appaiono plausibili ma sono concretamente errate o totalmente inventate.

Queste allucinazioni possono manifestarsi in diversi modi:

  • Fatti inventati: la macchina “crea” informazioni che non esistono.
  • Riferimenti falsi: citazioni bibliografiche, leggi, sentenze o autori inesistenti.
  • Collegamenti arbitrari: inferenze illogiche che derivano da un’eccessiva generalizzazione o interpolazione creativa.
  • Ambiguità o bias: distorsioni legate ai dati di addestramento o alla formulazione del prompt.

Il fenomeno è strutturale, non contingente: deriva dal funzionamento probabilistico dei modelli, che cercano la parola più probabile in un determinato contesto e non necessariamente quella “vera”.

  1. Approccio normativo: il quadro europeo e l’AI Act

Con l’adozione del Regolamento UE 2024/1689, noto come AI Act, l’Unione Europea ha fatto un passo decisivo nel definire un quadro giuridico armonizzato per l’utilizzo dei sistemi di intelligenza artificiale, e in particolare dei modelli generativi a uso generale.

Il Considerando n. 99 del Regolamento descrive i LLM come strumenti ad alta flessibilità applicativa, capaci di generare contenuti testuali, visivi e audio.

Tuttavia, proprio questa flessibilità implica rischi sistemici:

  • Difficoltà nel tracciamento dell’origine dei dati
  • Impossibilità di garantire la veridicità assoluta delle risposte
  • Possibili abusi in contesti sensibili (es. sanitario, legale, amministrativo).

In particolare, l’AI Act prevede:

  • Obblighi di trasparenza: citazione esplicita quando un contenuto è generato da AI.
  • Documentazione tecnica: le imprese devono spiegare come il modello è stato addestrato.
  • Audit e valutazione di conformità per i modelli ad alto impatto.

Il legislatore comunitario sembra consapevole del rischio di allucinazioni e cerca di introdurre principi di accountability cioè di responsabilizzazione.

  1. Casi concreti di allucinazioni: settori critici

Di seguito alcuni esempi reali e concreti in cui le allucinazioni algoritmiche hanno generato conseguenze effettive:

a. Settore giuridico

  • Avvocati che hanno utilizzato ChatGPT per redigere atti contenenti giurisprudenza inventata (caso Mata v. Avianca, USA, 2023).
  • Interpretazioni errate di articoli di legge, con conseguente rischio di danno professionale o violazione deontologica.

b. Sanità e medicina

  • Diagnosi approssimative o consigli clinici pericolosi generati da sistemi AI non certificati come dispositivi medici.
  • Raccomandazioni farmacologiche inesistenti o non aggiornate.

c. Informazione e giornalismo

  • Diffusione virale di notizie false o distorte, redatte da AI senza fonti che è possibile verificare.
  • Rischi per la qualità dell’informazione e la manipolazione dell’opinione pubblica.

d. Pubblica amministrazione

  • Errori in moduli compilati automaticamente o nella generazione di risposte a quesiti su normative.
  • Difficoltà nel far valere la responsabilità amministrativa quando l’origine della decisione è algoritmica.
  1. Verso una cultura della verifica: soluzioni e prospettive

La risposta normativa e tecnica alle allucinazioni algoritmiche si gioca su più livelli:

  • Educazione degli utenti: è fondamentale promuovere una maggiore alfabetizzazione algoritmica, che insegni a usare questi strumenti in modo critico.
  • Modelli ibridi: integrare LLM con motori di ricerca affidabili o database controllati, riducendo l’autonomia generativa in contesti ad alto rischio.
  • Tracciabilità delle fonti: spingere lo sviluppo di modelli capaci di citare fonti attendibili, come nel caso dei progetti RAG (Retrieval-Augmented Generation).
  • Responsabilità multilivello: dal progettista dell’algoritmo, al fornitore del servizio, fino all’utente professionale che lo utilizza per finalità specifiche.

In Conclusione

Le allucinazioni algoritmiche non sono semplici “errori” occasionali, ma manifestazioni fisiologiche di un sistema probabilistico applicato a contesti complessi.

L’approccio normativo dell’Unione Europea, rappresentato dall’AI Act, vuole disciplinare l’uso dei modelli generativi senza soffocarne il potenziale, prevedendo regole chiare su trasparenza, affidabilità e responsabilità.

Spetta anche agli operatori – sviluppatori, professionisti e utenti finali – verificare sempre l’attendibilità delle fonti e dei dati e adottare una consapevolezza critica nell’uso degli strumenti di AI. In tal modo l’uomo è sempre al centro dell’utilizzo dell’AI e dovrà sempre essere consapevole che così agendo sarà sempre imputabile all’uomo non solo il risultato finale, ma anche la responsabilità legale nell’utilizzo dell’AI e l’eventuale richiesta di un risarcimento del danno, non essendo possibile, allo stato attuale porre in capo all’AI, in quanto tale, poiché priva di patrimonio, il pagamento di una somma di danaro per risarcire un danno patrimoniale.