Nel linguaggio dell’intelligenza artificiale si parla di “allucinazioni” quando un sistema produce contenuti apparentemente plausibili ma in realtà errati, inventati o impossibili da verificare. Può trattarsi di fonti inesistenti, date sbagliate, citazioni mai pronunciate, eventi storici mai avvenuti o, nel contesto più delicato, sentenze che non risultano in alcun archivio ufficiale.
Proprio un episodio di questo tipo è stato recentemente segnalato anche a Brescia. Durante l’inaugurazione dell’anno giudiziario, l’avvocato Giovanni Rocchi, presidente dell’Ordine degli avvocati di Brescia, ha reso noto che al Consiglio di Disciplina è arrivata, per la prima volta, una segnalazione relativa a un’“allucinazione” dell’AI contenuta in un atto giudiziario. Un caso che ha riportato al centro del dibattito il tema dell’affidabilità di questi strumenti.
«La verifica umana resta imprescindibile», ha sottolineato Rocchi, evidenziando come l’utilizzo dell’intelligenza artificiale, se non adeguatamente controllato, possa introdurre dati non veritieri in documenti di grande rilevanza. Secondo il presidente dell’Ordine, la diffusione dell’AI non deve essere ostacolata, ma accompagnata da regole chiare e da un uso consapevole.
Rocchi ha inoltre rimarcato la necessità di applicare queste tecnologie con competenza e nel rispetto dei limiti di legge, a tutela dei diritti dei cittadini e dei principi costituzionali. In quest’ottica, ha spiegato, diventa fondamentale che magistrati e avvocati sviluppino una cultura condivisa sull’impiego dell’intelligenza artificiale nel lavoro giuridico.
Nel settore giudiziario, infatti, le allucinazioni dell’AI rappresentano un rischio particolarmente elevato: possono incidere su procedimenti reali, coinvolgere persone esistenti e alterare fatti con rilevanza penale o civile. Un motivo in più per ribadire che, almeno per ora, la tecnologia non può sostituire il controllo e la responsabilità dell’essere umano.