Domstolssystem säger att det hallucinerande AI-systemet är redo att tas i bruk efter att ha sänkt förväntningarna dramatiskt | Frank Landymore, Futurism AI:s användning i den juridiska sfären är gåvan som fortsätter att ge. Den här gången är det den nyktra känslan av besvikelse som infann sig efter att ett team som byggde en AI-chatbot för Alaskas domstolssystem faktiskt testade den och upptäckte att det var en hallucinerande katastrof, rapporterar NBC News. Chattboten, kallad Alaska Virtual Assistant, är utformad för att hjälpa människor att hantera formulär och andra procedurer som ingår i bouppteckning, den juridiska processen för att överföra en persons tillhörigheter efter dennes död. I en förutsägbar vändning, istället för att effektivisera en redan huvudvärksframkallande process som drabbat människor som förmodligen sörjer förlusten av en älskad, klantade AI:n till enkla frågor och lämnade de flesta användare irriterade snarare än stöttade. Med en brist som är inneboende i alla stora språkmodeller fortsatte den ansedda virtuella assistenten att hallucinera, eller hitta på fakta och dela överdriven information, enligt de personer som var inblandade i dess utveckling. "Vi hade problem med hallucinationer, oavsett modell, där chattboten egentligen inte skulle använda något utanför sin kunskapsbas," berättade Aubrie Souza, konsult vid National Center for State Courts (NCSC), för NBC News. "Till exempel, när vi frågade den, 'Var får jag juridisk hjälp?' skulle den säga, 'Det finns en juristskola i Alaska, Och titta på alumninätverket.' Men det finns ingen juristutbildning i Alaska." Och istället för att tycka att det var hjälpsamt, tyckte de flesta som testade det att det var otroligt irriterande. Boten led föga förvånande av samma karaktärsbrist som de flesta chatbots: att vara för fjäskande och kvävande, låtsas ha empati och överösa dig med artighetsfraser istället för att bara gå rakt på sak. "Genom våra användartester sa alla, 'Jag är trött på att alla i mitt liv säger att de beklagar min förlust," sa Souza. "Så vi tog i princip bort sådana kondoleanser, för från en AI-chatbot behöver du inte en till." AVA-AI:n har byggts i samarbete med Tom Martin, en advokat som driver ett företag som heter LawDroid och som tillverkar juridiska AI-verktyg, och har fastnat i utvecklingshelvete i över ett år nu, när det enligt Souza "skulle vara ett tremånadersprojekt". Efter att ha sänkt sina förväntningar – och säkert åtgärdat dess fruktansvärda brister – säger AVAs team att de äntligen är redo för en offentlig lansering i slutet av januari. "Vi ändrade våra mål för det här projektet lite," berättade Stacey Marz, administrativ chef för Alaska Court System och projektledare för AVA, till NBC News. "Vi ville återskapa vad våra mänskliga handledare på självhjälpscentret kan dela med sig av till människor. Men vi är inte säkra på att botarna kan fungera på det sättet, på grund av problem med vissa felaktigheter och viss ofullständighet." "Det var bara så väldigt arbetsintensivt att göra detta," tillade Marz, trots "allt sorl om generativ AI, och alla som säger att detta kommer att revolutionera självhjälp och demokratisera tillgången till domstolarna."