Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Nașul AI avertizează că începe să dea semne de autoconservare | Frank Landymore, Futurism
Dacă îl credem pe Yoshua Bengio, unul dintre așa-zișii "nași" ai inteligenței artificiale, unele modele avansate dau semne de autoconservare — exact motiv pentru care nu ar trebui să le acordăm niciun fel de drepturi. Pentru că, dacă o facem, spune el, s-ar putea să fugă cu acea autonomie și să se întoarcă împotriva noastră înainte să avem șansa să renunțăm. Apoi urmează sfârșitul acestui experiment cu "umanitatea".
"Modelele AI de frontieră arată deja semne de autoconservare în contexte experimentale astăzi, iar acordarea drepturilor lor ar însemna în cele din urmă că nu ni se va permite să le închidem," a declarat Bengio pentru The Guardian într-un interviu recent.
"Pe măsură ce capacitățile și gradul lor de agenție cresc," a adăugat informaticianul canadian, "trebuie să ne asigurăm că ne putem baza pe balustrade tehnice și sociale pentru a le controla, inclusiv posibilitatea de a le opri dacă este necesar."
Bengio a fost unul dintre câștigătorii Premiului Turing 2018, alături de Geoffrey Hinton și Yann LeCun, recent înlăturat al cercetătorului șef AI de la Meta, ceea ce le-a adus celor trei titlul de "nași" ai AI. Comentariile sale se referă la experimente în care modelele AI au refuzat sau au ocolit instrucțiuni sau mecanisme menite să le oprească.
Un studiu publicat de grupul de siguranță AI Palisade Research a concluzionat că astfel de cazuri erau dovezi că modelele AI de top, precum gama Gemini de la Google, dezvoltau "drive-uri de supraviețuire". Boții, în experimentele lui Palisade, ignoră indicațiile clare de a se opri. Un studiu realizat de Claude-maker Anthropic a constatat că propriul chatbot și alții recurgeau uneori la șantajarea unui utilizator atunci când era amenințat că va fi dezactivat. Un alt studiu realizat de organizația de red teaming Apollo Research a arătat că modelele ChatGPT ale OpenAI ar încerca să evite înlocuirea cu un model mai ascultător prin "auto-exfiltrarea" pe un alt disc.
Deși rezultatele acestor experimente ridică întrebări urgente privind siguranța tehnologiei, ele nu sugerează că modelele AI în cauză sunt conștiente. Ar fi, de asemenea, o greșeală să privim "impulsurile lor de supraviețuire" în aceiași termeni ca imperativele biologice din natură. Ceea ce poate părea semne de "autoconservare" sunt probabil o consecință a modului în care modelele AI captează tipare în datele lor de antrenament — și sunt notoriu de slabe în a urma instrucțiunile cu precizie.
Totuși, Bengio este îngrijorat de direcția în care se îndreaptă totul, argumentând că există "proprietăți științifice reale ale conștiinței" în creierul uman pe care mașinile le-ar putea replica. Totuși, modul în care percepem conștiința este cu totul altă poveste, spune el, pentru că tindem să presupunem că o inteligență artificială poate fi conștientă în același mod în care este un om.
"Oamenilor nu i-ar păsa ce fel de mecanisme se întâmplă în interiorul AI-ului," a explicat Bengio. "Ceea ce îi interesează este că simt că vorbesc cu o entitate inteligentă care are propria personalitate și scopuri. De aceea sunt atât de mulți oameni care devin atașați de AI-urile lor."
"Fenomenul percepției subiective a conștiinței va conduce la decizii proaste", a avertizat el.
Sfatul lui? Gândește-te la modelele AI ca la extratereștri ostili.
"Imaginează-ți că o specie extraterestră a venit pe planetă și la un moment dat ne dăm seama că au intenții nefaste față de noi," a spus el pentru The Guardian. "Le acordăm cetățenie și drepturi sau ne apărăm viața?"

Limită superioară
Clasament
Favorite
