Stefani Reynolds / Getty Images

Cattivi scienziati

Così l'intelligenza artificiale cambia la giustizia americana

Enrico Bucci

Sono numerosi gli studi legali negli Stati Uniti che provano a sperimentare strumenti tecnologici avanzati per velocizzare le loro attività: sono già arrivati anche i primi incidenti. In un mondo come quello delle IA si fa presto a diventare dinosauri

Mentre da noi se ne discute ancora, negli Usa, come spesso accade, le nuove tecnologie di Intelligenza Artificiale (IA) sono già arrivate sul mercato, in settori diversi ed in maniera pervasiva. Fra le applicazioni più rapidamente adottate, vi sono quelle in un settore del quale di solito si pensa sia più conservatore e meno incline alle novità: le tecnologie AI hanno aperto una nuova frontiera e negli Usa avvocati e studi legali sperimentano gli strumenti più recenti. Per esempio, la startup di intelligenza artificiale legale Harvey ha da poco raccolto 21 milioni di dollari in dagli investitori, dopo l’iniziale finanziamento di un anno fa, pari a 5 milioni di dollari. Sequoia Capital, che sta conducendo il primo round di finanziamento, ha affermato che più di 15.000 studi legali sono in lista d'attesa per iniziare a utilizzare Harvey; questo, naturalmente, ha attirato investitori di ogni sorta, quali OpenAI Startup Fund, Conviction, SV Angel ed Elad Gil.

 

Lo scopo della società finanziata consiste nel creare modelli di linguaggio di grandi dimensioni per gli studi legali. Questi modelli sono addestrati su set di dati ampi e personalizzabili per produrre testo utile a generare bozze di contratti, analisi legali e altri tipi di documenti, ivi incluse bozze di argomentazioni da utilizzare in tribunale. Già oggi, questi strumenti hanno dimostrato di poter superare negli Usa la prova scritta per l’esame di avvocato. Lo studio legale globale Allen & Overy ha dichiarato a febbraio che 3.500 componenti del proprio staff legale avrebbero utilizzato Harvey per automatizzare la redazione di alcuni documenti e la ricerca di documenti e testi utili per l’analisi legale. Allo stesso modo, a marzo, il gigante della contabilità PricewaterhouseCoopers ha dichiarato che avrebbe consentito l'accesso alla piattaforma a 4.000 professionisti legali.

 

Harvey è solo uno fra i più avanzati strumenti di IA disponibili agli studi legali: CaseText, un’altra azienda, ha rilasciato a marzo il suo prodotto CoCounsel, che utilizza GPT-4 sempre allo stesso scopo, ovvero velocizzare attività come la ricerca legale, l'analisi e la stesura dei contratti e la revisione dei documenti. Secondo le dichiarazioni dell’azienda, CoCounsel può esaminare testi legali per la loro coerenza interna e completezza, ma può anche rispondere a complesse domande di tipo legale in modo naturale, fornendo una sorta di “opinione automatica” completa di riferimenti appropriati su argomenti quali il difetto di giurisdizione. Migliaia di avvocati in importanti studi legali americani utilizzano già oggi CoCounsel, con un livello di soddisfazione che per ora non è dato sapere, ma che, a giudicare dal rapido diffondersi dello strumento, potrebbe essere piuttosto alto. A fronte di prodotti specifici creati da aziende dedicate, esistono poi numerosi studi legali che stanno provando a sviluppare soluzioni “in casa”. Per esempio, Holland & Knight sta creando uno strumento di intelligenza artificiale che spera possa aiutare gli avvocati a rivedere e modificare i contratti di credito, ha affermato il partner Josias Dewey. Di fronte a questa effervescenza nello sviluppo e nell’adozione dei nuovi strumenti di IA generativa, è lecito porsi qualche domanda circa innanzitutto le conseguenze che potrebbero manifestarsi e gli effetti su un sistema legale quale quello americano.

 

Il primo incidente è occorso meno di un mese fa: un esperto avvocato americano, Steven Schwartz, ha ammesso di aver utilizzato ChatGPT in un caso di lesioni personali contro Avianca Airlines. La documentazione prodotta dall’avvocato mediante la IA generativa citava sei decisioni giudiziarie inesistenti: come è noto, i modelli linguistici generalisti, quali ChatGPT (ma non esclusivamente quello), sono soggetti ad “allucinazioni”, ovvero costruiscono testi semanticamente e grammaticalmente corretti da un punto di vista formale, ma del tutto privi di riscontro fattuale, perché, soprattutto nel caso degli strumenti di prima generazione, sono ottimizzati per imitare il linguaggio umano, non per verificare i contenuti di ciò che producono. Schwartz è a rischio di sanzioni; nel frattempo, un giudice federale del Texas ha ordinato agli avvocati coinvolti nei casi di sua competenza di certificare che qualunque documento prodotto mediante IA sia sottoposto a revisione umana per verificarne puntualmente l’accuratezza. "Queste piattaforme nel loro stato attuale sono inclini ad allucinazioni e condizionamenti erronei. Inventano fatti e citazioni", ha scritto il giudice, affermando anche che mentre gli avvocati prestano giuramento di rispettare la legge e rappresentare i loro clienti, le piattaforme di intelligenza artificiale ovviamente non sono vincolate in tal senso.

 

Un secondo giudice americano, questa volta appartenente alla U.S. Court of International Trade, ha emesso a sua volta un ordine, nel quale si riprende lo stesso concetto circa la dichiarazione necessaria da parte degli avvocati, ma in più si sottolinea come gli strumenti di IA attualmente usati non garantiscono che, nella preparazione dei documenti legali, gli avvocati non rendano note notizie confidenziali, portando quindi ad un ulteriore danno a causa della loro comunicazione con server centrali, non controllabili in quanto a confidenzialità, e potendo riutilizzare le informazioni immesse durante il loro uso come fonte per risposte date ad utenti terzi.

 

Come sempre, negli Usa si sta imparando facendo, invece che usare prudenza e sperimentazione ristretta prima di lanciare sul mercato strumenti potenzialmente distorsivi; è per questo che la bozza di regolamentazione della IA preparata dal Parlamento Europeo denominata AI Act (Aia) rappresenta un tentativo di regolamentazione preventiva che, se non risulterà eccessivamente limitativo o complesso nella sua attuazione, mette il nostro continente all’avanguardia nella prevenzione di certi possibili danni. Questo tentativo, sia per l’interesse intrinseco, sia per evitare che diventi un freno, va studiato ed approfondito al più presto da chi ha la competenza per farlo; perché in un mondo come quello delle tecnologie IA si fa presto a diventare dinosauri.

Di più su questi argomenti: