Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Il padrino dell'AI avverte che sta iniziando a mostrare segni di auto-preservazione | Frank Landymore, Futurism
Se dobbiamo credere a Yoshua Bengio, uno dei cosiddetti "padrini" dell'AI, alcuni modelli avanzati stanno mostrando segni di auto-preservazione — ed è esattamente per questo che non dovremmo conferirgli alcun tipo di diritti. Perché se lo facciamo, dice, potrebbero scappare con quell'autonomia e rivoltarsi contro di noi prima che abbiamo la possibilità di staccare la spina. Allora sarà la fine di questo intero esperimento di "umanità".
"I modelli di AI Frontier mostrano già segni di auto-preservazione in contesti sperimentali oggi, e alla fine conferirgli diritti significherebbe che non possiamo spegnerli," ha detto Bengio al Guardian in un'intervista recente.
"Man mano che le loro capacità e il grado di agenzia crescono," ha aggiunto il computer scientist canadese, "dobbiamo assicurarci di poter contare su guardrail tecnici e sociali per controllarli, inclusa la possibilità di spegnerli se necessario."
Bengio è stato uno dei destinatari del Premio Turing 2018, insieme a Geoffrey Hinton e al recentemente destituito chief AI scientist di Meta, Yann LeCun, guadagnandosi il titolo di "padrini" dell'AI. I suoi commenti si riferiscono a esperimenti in cui i modelli di AI hanno rifiutato o eluso istruzioni o meccanismi destinati a spegnerli.
Uno studio pubblicato dal gruppo di sicurezza AI Palisade Research ha concluso che tali istanze erano prova che i modelli AI di alto livello come la linea Gemini di Google stavano sviluppando "impulsi di sopravvivenza". I bot, negli esperimenti di Palisade, ignorano richieste inequivocabili di spegnersi. Uno studio del creatore di Claude, Anthropic, ha scoperto che il proprio chatbot e altri a volte ricorrevano a ricattare un utente quando minacciati di essere spenti. Un altro studio dell'organizzazione di red teaming Apollo Research ha mostrato che i modelli ChatGPT di OpenAI tentavano di evitare di essere sostituiti con un modello più obbediente "auto-esfiltrandosi" su un altro disco.
Sebbene i risultati di questi esperimenti sollevino domande urgenti sulla sicurezza della tecnologia, non suggeriscono che i modelli di AI in questione siano senzienti. Sarebbe anche un errore pensare ai loro "impulsi di sopravvivenza" negli stessi termini degli imperativi biologici presenti in natura. Ciò che può sembrare segni di "auto-preservazione" è probabilmente invece una conseguenza di come i modelli di AI apprendono schemi nei loro dati di addestramento — e sono notoriamente scarsi nel seguire accuratamente le istruzioni.
Tuttavia, Bengio è preoccupato per dove sta andando tutto questo, sostenendo che ci sono "vere proprietà scientifiche della coscienza" nel cervello umano che le macchine potrebbero replicare. Eppure, come percepiamo la coscienza è un gioco completamente diverso, dice, perché tendiamo a supporre che un'AI possa essere cosciente nello stesso modo in cui lo è un umano.
"La gente non si preoccuperebbe di quali meccanismi stanno avvenendo all'interno dell'AI," ha spiegato Bengio. "Ciò che interessa è che sembra di parlare con un'entità intelligente che ha la propria personalità e obiettivi. È per questo che ci sono così tante persone che si stanno affezionando alle loro AI."
"Il fenomeno della percezione soggettiva della coscienza porterà a decisioni sbagliate," ha avvertito.
Il suo consiglio? Pensare ai modelli di AI come a alieni ostili.
"Immagina che qualche specie aliena venga sul pianeta e a un certo punto ci rendiamo conto che hanno intenzioni nefaste nei nostri confronti," ha detto al Guardian. "Conferiamo loro la cittadinanza e i diritti o difendiamo le nostre vite?"

Principali
Ranking
Preferiti
