Avvocati UK rischiano sanzioni severe per citazioni AI false

L’Alta Corte britannica ha perso la pazienza. Dopo una serie di casi imbarazzanti in cui legali hanno presentato citazioni completamente inventate dall’intelligenza artificiale, la giudice Victoria Sharp è passata alle maniere forti.
La giudice ha scritto chiaramente che i tool AI come ChatGPT “non sono capaci di condurre ricerche legali affidabili“. E chi non verifica l’accuratezza delle informazioni, d’ora in avanti, non avrà vita facile.
Avvocati UK nei guai per le citazioni inventate dall’AIIl problema non è che l’intelligenza artificiale sbaglia, può capitare a tutti. Il guaio è che lo fa con una sicurezza disarmante. Gli strumenti AI “possono produrre risposte apparentemente coerenti e plausibili, ma quelle risposte potrebbero rivelarsi completamente sbagliate“, ha scritto la magistrata.
La goccia che ha fatto traboccare il vaso sono stati due spiacevoli episodi. Nel primo, un avvocato si è presentato in tribunale con un documento pieno di citazioni: su 45 riferimenti legali, 18 erano completamente inventati. Gli altri non erano messi meglio, citazioni sbagliate, riferimenti fuori tema, un disastro completo.
Il secondo caso riguardava uno sfratto a Londra. L’avvocato aveva citato cinque precedenti che, controllando, non esistevano proprio. Interrogato, ha giurato di non aver usato l’AI direttamente, ma ha ammesso che le informazioni potevano venire da riassunti automatici pescati da Google o Safari.
La corte ha stabilito che gli avvocati hanno il dovere professionale di “verificare l’accuratezza di tali ricerche facendo riferimento a fonti autorevoli” prima di usarle. Non significa bandire l‘intelligenza artificiale dagli studi legali, ma usarla come si deve. L’AI può dare una mano, ma la responsabilità finale resta sempre dell’avvocato in carne e ossa.
Cosa rischia chi sgarra? Gli avvocati che non rispettano i loro obblighi professionali rischiano sanzioni severe, ha avvertito la giudice Sharp. Si va dall’ammonimento pubblico alle multe, fino ai procedimenti per oltraggio alla corte. Nei casi più gravi, si arriva persino al deferimento alla polizia.
Un problema globaleIl fenomeno non riguarda solo il Regno Unito. Recentemente, persino Anthropic si è dovuta scusare per le citazioni inventate da Claude nel corso di una causa legale. La sentenza britannica sarà inviata agli ordini professionali, inclusi il Bar Council e la Law Society, per rafforzare le linee guida esistenti.
Dopotutto, la giudice Sharp non ha torto. L’intelligenza artificiale può essere un alleato potente, ma la responsabilità finale rimane sempre e comunque umana. E chi se ne dimentica, rischia di pagare un prezzo molto alto.
Punto Informatico