Dei professionisti sono stati condannati per l’utilizzo di intelligenza artificiale: la senenza non lascia spazio a dubbi.
L’intelligenza artificiale sta cambiando drasticamente il panorama di molte professioni, in particolare in ambito legale. Tuttavia, quando l’uso di questa tecnologia non viene gestito correttamente, può trasformarsi in un problema serio.
La recente sentenza del Tribunale di Siracusa ha messo in luce i pericoli dell’uso non critico degli strumenti di intelligenza artificiale generativa da parte degli avvocati. L’uso acritico dell’IA, senza un’adeguata verifica delle informazioni generate, ha portato alla condanna di un avvocato, in quanto i risultati ottenuti erano basati su precedenti inesistenti, creati erroneamente dal sistema.
L’intelligenza artificiale nella professione legale: la sentenza cambia tutto
Il caso in questione riguarda la memoria ex art. 171 ter c.p.c., dove il difensore aveva inserito nella propria documentazione giuridica delle citazioni inventate dall’IA. Sebbene l’intelligenza artificiale sia uno strumento potente, la sentenza ha ribadito come il professionista legale debba sempre verificare le fonti e il contenuto delle ricerche effettuate con questi sistemi. Il rischio di “allucinazioni da intelligenza artificiale”, ovvero la generazione di informazioni errate che sembrano corrette, è un pericolo che non può essere ignorato.

Intelligenza artificiale, arriva la sentenza che cambia tutto (www.odcec.vicenza.it)
L’avvocato, in questo caso, ha agito in colpa grave, perché non ha messo in atto il dovere di verificare l’attendibilità dei risultati prodotti dal sistema. Un comportamento che, come stabilito dalla sentenza, costituisce una violazione del principio di lealtà e probità in giudizio, con potenziali danni per il processo legale e per le controparti coinvolte.
Questa decisione del Tribunale di Siracusa si inserisce in un contesto più ampio di censura nei confronti dell’uso indiscriminato di IA in ambito legale. Già nel 2025, un altro tribunale, quello di Torino, aveva sanzionato un avvocato che, nel redigere un ricorso, aveva usato in modo acritico i risultati di un sistema di IA, che si sono rivelati inconferenti e astratti. I giudici piemontesi avevano sottolineato come il sistema IA avesse prodotto un insieme di informazioni senza un ordine logico e senza coerenza con il caso legale in esame.
Le due sentenze, pur riconoscendo il valore dell’innovazione tecnologica, mettono in evidenza i rischi connessi a un uso irresponsabile degli strumenti di IA nelle aule di tribunale. L’affidamento acritico agli algoritmi può infatti compromettere la qualità del lavoro giuridico e alterare il corso del processo, con gravi conseguenze professionali e legali per chi li usa senza la necessaria cautela.
La normativa europea e l’obbligo di competenza
A livello normativo, l’uso degli strumenti di IA in ambito legale deve essere gestito con estrema attenzione. Il Regolamento UE 2024/1689, conosciuto come AI Act, stabilisce una serie di obblighi per i professionisti che utilizzano sistemi di IA. In particolare, la legge richiede che gli avvocati abbiano una conoscenza tecnica adeguata e un’esperienza specifica nell’uso di queste tecnologie, garantendo una formazione continua per prevenire rischi di errori professionali. L’uso di IA senza queste competenze risulta essere inadeguato e rischioso, soprattutto per chi opera in un ambito così delicato come quello legale.
Inoltre, la Convenzione Quadro del Consiglio d’Europa sull’IA, adottata nel 2024, enfatizza la necessità di una cultura digitale solida, non solo per i professionisti legali, ma anche per tutti coloro che interagiscono con queste tecnologie avanzate. Le competenze richieste sono cruciali per la gestione dei rischi e per l’identificazione di eventuali errori o manipolazioni nei risultati prodotti.
L’importanza di un uso responsabile dell’intelligenza artificiale
Le Linee guida sulla IA generativa della Federazione degli Ordini Forensi d’Europa (FBE) offrono una risposta pratica per i professionisti legali, invitando gli avvocati ad esercitare cautela e a verificare le fonti prima di fare affidamento sui risultati prodotti dall’IA. La funzione principale dell’intelligenza artificiale, infatti, è quella di prevedere il token successivo in una sequenza, piuttosto che ragionare come farebbe un umano. Quindi, non basta accettare senza critica i risultati generati, ma bisogna contestualizzarli, verificarli e valutarli.
Un altro aspetto importante riguarda i rischi legati ai deepfake. Se anche i clienti o le controparti utilizzano IA generativa per produrre prove o affinare le loro strategie, i legali devono essere particolarmente vigili. La produzione di documenti falsificati o manipolati con l’intelligenza artificiale è un pericolo che non può essere sottovalutato.
La tecnologia avanzata è un potente alleato, ma se usata in modo scorretto, può avere gravi conseguenze. Le recenti sentenze, infatti, stanno tracciando un percorso chiaro: l’uso dell’intelligenza artificiale in ambito legale deve essere gestito con competenza e responsabilità. I professionisti del settore sono chiamati a non affidarsi ciecamente agli algoritmi, ma a verificare sempre l’affidabilità delle informazioni ottenute, proteggendo così l’integrità dei processi legali e, soprattutto, i diritti dei cittadini coinvolti.








