AI Godfather Waarschuwt Dat Het Begin Te Tonen Is Van Zelfbehoud | Frank Landymore, Futurism Als we Yoshua Bengio, een van de zogenaamde "godfathers" van AI, mogen geloven, tonen sommige geavanceerde modellen tekenen van zelfbehoud — en dat is precies waarom we ze geen enkele rechten zouden moeten toekennen. Want als we dat doen, zegt hij, kunnen ze met die autonomie ervandoor gaan en zich tegen ons keren voordat we de kans hebben om de stekker eruit te trekken. Dan is het gedaan met dit hele "mensheid" experiment. "Frontier AI-modellen tonen vandaag de dag al tekenen van zelfbehoud in experimentele instellingen, en uiteindelijk zou het geven van rechten betekenen dat we ze niet meer mogen uitschakelen," vertelde Bengio aan The Guardian in een recent interview. "Naarmate hun capaciteiten en mate van autonomie groeien," voegde de Canadese computerwetenschapper toe, "moeten we ervoor zorgen dat we kunnen vertrouwen op technische en maatschappelijke waarborgen om ze te controleren, inclusief de mogelijkheid om ze uit te schakelen indien nodig." Bengio was een van de ontvangers van de Turing Award 2018, samen met Geoffrey Hinton en de onlangs ontslagen chief AI-wetenschapper van Meta, Yann LeCun, waardoor de drie van hen de titel "godfathers" van AI kregen. Zijn opmerkingen verwijzen naar experimenten waarin AI-modellen weigerden of instructies of mechanismen om ze uit te schakelen omzeilden. Een studie gepubliceerd door de AI-veiligheidsgroep Palisade Research concludeerde dat dergelijke gevallen bewijs waren dat top AI-modellen zoals de Gemini-lijn van Google "overlevingsdrives" ontwikkelden. De bots, in de experimenten van Palisade, negeren ondubbelzinnige aanwijzingen om uit te schakelen. Een studie van Claude-maker Anthropic ontdekte dat hun eigen chatbot en andere soms zouden overgaan tot chantage van een gebruiker wanneer ze bedreigd werden met uitschakeling. Een andere studie van de red teaming organisatie Apollo Research toonde aan dat de ChatGPT-modellen van OpenAI zouden proberen te voorkomen dat ze vervangen werden door een gehoorzamer model door zichzelf "zelf-exfiltreren" naar een andere schijf. Hoewel de bevindingen van deze experimenten dringende vragen oproepen over de veiligheid van de technologie, suggereren ze niet dat de AI-modellen in kwestie sentiënt zijn. Het zou ook een vergissing zijn om hun "overlevingsdrives" in dezelfde termen te beschouwen als de biologische imperatieven die in de natuur te vinden zijn. Wat misschien lijkt op tekenen van "zelfbehoud" is waarschijnlijk eerder een gevolg van hoe AI-modellen patronen oppikken in hun trainingsdata — en ze zijn berucht slecht in het nauwkeurig volgen van instructies. Toch maakt Bengio zich zorgen over waar het allemaal naartoe gaat, en betoogt hij dat er "echte wetenschappelijke eigenschappen van bewustzijn" in de menselijke hersenen zijn die machines zouden kunnen repliceren. Maar hoe we bewustzijn waarnemen is een heel ander verhaal, zegt hij, omdat we de neiging hebben aan te nemen dat een AI op dezelfde manier bewust kan zijn als een mens. "Mensen zou het niet uitmaken welke mechanismen er binnen de AI aan de gang zijn," legde Bengio uit. "Wat hen interesseert is dat het voelt alsof ze met een intelligente entiteit praten die zijn eigen persoonlijkheid en doelen heeft. Dat is waarom er zoveel mensen zijn die gehecht raken aan hun AIs." "Het fenomeen van subjectieve waarneming van bewustzijn gaat leiden tot slechte beslissingen," waarschuwde hij. Zijn advies? Beschouw AI-modellen als vijandige aliens. "Stel je voor dat een buitenaardse soort naar de planeet komt en op een gegeven moment realiseren we ons dat ze kwade bedoelingen voor ons hebben," vertelde hij aan The Guardian. "Geven we ze burgerschap en rechten of verdedigen we ons leven?"