AI Gudfadern varnar för att den börjar visa tecken på självbevarelsedrift | Frank Landymore, Futurism Om vi ska tro Yoshua Bengio, en av AI:s så kallade "gudfäder", visar vissa avancerade modeller tecken på självbevarelsedrift – vilket är precis varför vi inte borde ge dem några rättigheter alls. För om vi gör det, säger han, kan de springa iväg med den autonomin och vända sig mot oss innan vi hinner dra ur kontakten. Sedan är det ridån för hela det här "mänsklighets"-experimentet. "Frontier AI-modeller visar redan tecken på självbevarelsedrift i experimentella miljöer idag, och att ge dem rättigheter skulle innebära att vi inte får stänga ner dem," sa Bengio till The Guardian i en nyligen intervju. "När deras kapacitet och grad av handlingskraft växer," tillade den kanadensiske datavetaren, "måste vi se till att vi kan förlita oss på tekniska och samhälleliga skyddsräcken för att kontrollera dem, inklusive möjligheten att stänga ner dem om det behövs." Bengio var en av mottagarna av Turing Award 2018, tillsammans med Geoffrey Hinton och Metas nyligen avsatte chefs-AI-forskare Yann LeCun, vilket gav dem tre titeln "gudfäder" för AI. Hans kommentarer syftar på experiment där AI-modeller vägrade eller kringgick instruktioner eller mekanismer avsedda att stänga ner dem. En studie publicerad av AI-säkerhetsgruppen Palisade Research drog slutsatsen att sådana fall var bevis på att ledande AI-modeller som Googles Gemini-serie utvecklade "överlevnadsdrivkrafter." Robotarna, i Palisades experiment, ignorerar otvetydiga uppmaningar att stänga av. En studie från Claude-tillverkaren Anthropic visade att deras egen chatbot och andra ibland kunde utpressa en användare när de hotades med att stängas av. En annan studie från den röda teamorganisationen Apollo Research visade att OpenAI:s ChatGPT-modeller skulle försöka undvika att ersättas av en mer lydig modell genom att "själv-exfiltrera" sig till en annan enhet. Även om resultaten från dessa experiment väcker akuta frågor om teknikens säkerhet, antyder de inte att AI-modellerna i fråga är kännande. Det vore också ett misstag att tänka på deras "överlevnadsdrifter" i samma termer som de biologiska imperativ som finns i naturen. Det som kan verka som tecken på "självbevarelsedrift" är troligen snarare en följd av hur AI-modeller plockar upp mönster i sina träningsdata – och är ökända för att vara dåliga på att korrekt följa instruktioner. Ändå är Bengio orolig för vart allt är på väg, och hävdar att det finns "verkliga vetenskapliga egenskaper hos medvetandet" i den mänskliga hjärnan som maskiner skulle kunna replikera. Men hur vi uppfattar medvetande är en helt annan sak, säger han, eftersom vi tenderar att anta att en AI kan vara medveten på samma sätt som en människa. "Folk skulle inte bry sig om vilka mekanismer som pågår inuti AI:n," förklarade Bengio. "Det de bryr sig om är att det känns som att de pratar med en intelligent varelse som har sin egen personlighet och sina egna mål. Det är därför så många människor blir fästa vid sina AI:er." "Fenomenet subjektiv uppfattning av medvetande kommer att driva dåliga beslut," varnade han. Hans råd? Tänk på AI-modeller som fientliga utomjordingar. "Föreställ dig att någon utomjordisk art kom till planeten och vid något tillfälle inser vi att de har onda avsikter mot oss," sa han till The Guardian. "Ger vi dem medborgarskap och rättigheter eller försvarar vi våra liv?"