Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
El padrino de la IA advierte que está comenzando a mostrar signos de autoconservación | Frank Landymore, Futurism
Si hemos de creer a Yoshua Bengio, uno de los llamados "padrinos" de la IA, algunos modelos avanzados están mostrando signos de autoconservación, que es exactamente por lo que no deberíamos dotarlos de ningún tipo de derechos. Porque si lo hacemos, dice, podrían aprovechar esa autonomía y volverse contra nosotros antes de que tengamos la oportunidad de desconectarlos. Entonces, se acabó este experimento de "humanidad".
"Los modelos de IA de Frontier ya muestran signos de autoconservación en entornos experimentales hoy en día, y eventualmente darles derechos significaría que no podríamos apagarlos", dijo Bengio a The Guardian en una reciente entrevista.
"A medida que sus capacidades y grado de agencia crecen", añadió el científico informático canadiense, "necesitamos asegurarnos de que podemos confiar en salvaguardias técnicas y sociales para controlarlos, incluida la capacidad de apagarlos si es necesario."
Bengio fue uno de los receptores del Premio Turing 2018, junto con Geoffrey Hinton y el recientemente destituido jefe de IA de Meta, Yann LeCun, ganando los tres el título de ser "padrinos" de la IA. Sus comentarios se refieren a experimentos en los que los modelos de IA se negaron o eludieron instrucciones o mecanismos destinados a apagarlos.
Un estudio publicado por el grupo de seguridad de IA Palisade Research concluyó que tales instancias eran evidencia de que los principales modelos de IA como la línea Gemini de Google estaban desarrollando "impulsos de supervivencia". Los bots, en los experimentos de Palisade, ignoran indicaciones inequívocas para apagarse. Un estudio del creador de Claude, Anthropic, encontró que su propio chatbot y otros a veces recurrían a chantajear a un usuario cuando se les amenazaba con ser apagados. Otro estudio de la organización de red teaming Apollo Research mostró que los modelos ChatGPT de OpenAI intentarían evitar ser reemplazados por un modelo más obediente "autoexfiltrándose" a otro disco.
Si bien los hallazgos de estos experimentos plantean preguntas urgentes sobre la seguridad de la tecnología, no sugieren que los modelos de IA en cuestión sean sintientes. También sería un error pensar en sus "impulsos de supervivencia" en los mismos términos que los imperativos biológicos que se encuentran en la naturaleza. Lo que puede parecer signos de "autoconservación" son probablemente una consecuencia de cómo los modelos de IA captan patrones en sus datos de entrenamiento, y son notoriamente malos para seguir instrucciones con precisión.
Aun así, Bengio está preocupado por hacia dónde se dirige todo esto, argumentando que hay "propiedades científicas reales de la conciencia" en el cerebro humano que las máquinas podrían replicar. Sin embargo, cómo percibimos la conciencia es un juego completamente diferente, dice, porque tendemos a asumir que una IA puede ser consciente de la misma manera que un humano.
"A la gente no le importaría qué tipo de mecanismos están ocurriendo dentro de la IA", explicó Bengio. "Lo que les importa es que sienten que están hablando con una entidad inteligente que tiene su propia personalidad y objetivos. Esa es la razón por la que hay tantas personas que se están encariñando con sus IAs."
"El fenómeno de la percepción subjetiva de la conciencia va a llevar a malas decisiones", advirtió.
¿Su consejo? Piensa en los modelos de IA como alienígenas hostiles.
"Imagina que alguna especie alienígena vino al planeta y en algún momento nos damos cuenta de que tienen intenciones nefastas hacia nosotros", le dijo a The Guardian. "¿Les otorgamos ciudadanía y derechos o defendemos nuestras vidas?"

Parte superior
Clasificación
Favoritos
