Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Il sistema giudiziario afferma che il sistema AI che allucina è pronto per essere implementato dopo aver abbassato drammaticamente le aspettative | Frank Landymore, Futurism
L'uso dell'AI nel settore legale è un regalo che continua a dare.
Questa volta, è il sobrio senso di delusione che si è fatto sentire dopo che un team che stava costruendo un chatbot AI per il sistema giudiziario dell'Alaska lo ha effettivamente testato e ha scoperto che era un disastro allucinante, riporta NBC News.
Il chatbot, soprannominato Alaska Virtual Assistant, è stato progettato per aiutare le persone a gestire moduli e altre procedure coinvolte nel processo di successione, il processo legale di trasferimento dei beni di una persona dopo la sua morte.
In un prevedibile sviluppo degli eventi, invece di semplificare un processo già fonte di mal di testa inflitto a persone che probabilmente stanno piangendo la perdita di una persona cara, l'AI ha confuso domande semplici e ha lasciato la maggior parte degli utenti frustrati piuttosto che supportati.
Mostrando un fallimento intrinseco a tutti i modelli di linguaggio di grandi dimensioni, il rinomato assistente virtuale continuava ad allucinare, o a inventare fatti e condividere informazioni esagerate, secondo le persone coinvolte nel suo sviluppo.
"Abbiamo avuto problemi con le allucinazioni, indipendentemente dal modello, dove il chatbot non doveva effettivamente usare nulla al di fuori della sua base di conoscenza," ha detto ad NBC News Aubrie Souza, una consulente del National Center for State Courts (NCSC). "Ad esempio, quando gli abbiamo chiesto: 'Dove posso ottenere aiuto legale?' ti direbbe: 'C'è una scuola di legge in Alaska, quindi guarda la rete degli ex alunni.' Ma non c'è alcuna scuola di legge in Alaska."
E piuttosto che trovarlo utile, la maggior parte delle persone che lo hanno testato lo ha trovato incredibilmente irritante. Il bot, non sorprendentemente, soffriva dello stesso difetto caratteriale che affligge la maggior parte dei chatbot: essere troppo servile e stucchevole, fingendo empatia e riempiendoti di cortesie invece di andare dritto al sodo.
"Attraverso i nostri test con gli utenti, tutti hanno detto: 'Sono stanco che tutti nella mia vita mi dicano che mi dispiace per la mia perdita,'" ha detto Souza. "Quindi abbiamo sostanzialmente rimosso quel tipo di condoglianze, perché da un chatbot AI, non ne hai bisogno di un'altra."
Costruito in collaborazione con Tom Martin, un avvocato che gestisce un'azienda chiamata LawDroid che crea strumenti legali AI, l'AVA AI è rimasto intrappolato in un inferno di sviluppo per oltre un anno, quando doveva "essere un progetto di tre mesi," secondo Souza. Dopo aver abbassato le loro aspettative — e sicuramente risolto i suoi orribili difetti — il team di AVA afferma che è finalmente pronto per un lancio pubblico a fine gennaio.
"Abbiamo spostato un po' i nostri obiettivi su questo progetto," ha detto a NBC News Stacey Marz, direttore amministrativo del sistema giudiziario dell'Alaska e leader del progetto AVA. "Volevamo replicare ciò che i nostri facilitatori umani al centro di auto-aiuto sono in grado di condividere con le persone. Ma non siamo sicuri che i bot possano funzionare in quel modo, a causa dei problemi con alcune imprecisioni e alcune incompletezze."
"È stato davvero molto laborioso fare questo," ha aggiunto Marz, nonostante "tutto il clamore sull'AI generativa, e tutti che dicono che questo rivoluzionerà l'auto-aiuto e democratizzerà l'accesso ai tribunali."

Principali
Ranking
Preferiti
