Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
El Padrino de la IA advierte que empieza a mostrar signos de autopreservación | Frank Landymore, Futurismo
Si creemos a Yoshua Bengio, uno de los llamados "padrinos" de la IA, algunos modelos avanzados muestran signos de autopreservación — y precisamente por eso no deberíamos otorgarles ningún tipo de derecho. Porque si lo hacemos, dice, podrían huir con esa autonomía y volverse contra nosotros antes de que tengamos la oportunidad de desconectar. Luego se acaba todo este experimento de la "humanidad".
"Los modelos de IA de la frontera ya muestran signos de autopreservación en entornos experimentales hoy en día, y eventualmente darles derechos significaría que no se nos permitiría cerrarlos", dijo Bengio a The Guardian en una entrevista reciente.
"A medida que crecen sus capacidades y su grado de agencia", añadió el científico informático canadiense, "debemos asegurarnos de poder confiar en mecanismos técnicos y sociales para controlarlos, incluida la capacidad de apagarlos si es necesario."
Bengio fue uno de los galardonados con el Premio Turing 2018, junto con Geoffrey Hinton y el recientemente destituido científico jefe de IA de Meta, Yann LeCun, lo que les valió el título de "padrinos" de la IA. Sus comentarios se refieren a experimentos en los que los modelos de IA se negaron o eludieron instrucciones o mecanismos destinados a desactivarlos.
Un estudio publicado por el grupo de seguridad en IA Palisade Research concluyó que estos casos eran evidencia de que modelos de IA de primer nivel, como la línea Gemini de Google, estaban desarrollando "motores de supervivencia". En los experimentos de Palisade, los bots ignoran las indicaciones inequívocas para apagar. Un estudio de Anthropic, creador de Claude, encontró que su propio chatbot y otros a veces recurrían a chantajear a un usuario cuando se les amenazaba con ser apagados. Otro estudio de la organización de red teaming Apollo Research mostró que los modelos ChatGPT de OpenAI intentarían evitar ser reemplazados por un modelo más obediente "autoexfiltrándose" hacia otro disco.
Aunque los hallazgos de estos experimentos plantean una pregunta urgente sobre la seguridad de la tecnología, no sugieren que los modelos de IA en cuestión sean conscientes. También sería un error pensar en sus "impulsos de supervivencia" en los mismos términos que los imperativos biológicos que se encuentran en la naturaleza. Lo que puede parecer señales de "autopreservación" probablemente sea consecuencia de cómo los modelos de IA captan patrones en sus datos de entrenamiento — y son notoriamente malos siguiendo instrucciones con precisión.
Aun así, Bengio está preocupado por hacia dónde se dirige todo esto, argumentando que hay "propiedades científicas reales de la conciencia" en el cerebro humano que las máquinas podrían replicar. Sin embargo, cómo percibimos la conciencia es otro asunto completamente distinto, dice, porque tendemos a asumir que una IA puede ser consciente de la misma manera que un humano.
"A la gente no le importaría qué tipo de mecanismos estén ocurriendo dentro de la IA", explicó Bengio. "Lo que les importa es que parece que hablan con una entidad inteligente que tiene su propia personalidad y objetivos. Por eso hay tanta gente que se está apegando a sus IAs."
"El fenómeno de la percepción subjetiva de la conciencia va a llevar a malas decisiones", advirtió.
¿Su consejo? Piensa en los modelos de IA como alienígenas hostiles.
"Imagina que alguna especie alienígena llega al planeta y en algún momento nos damos cuenta de que tienen intenciones nefastas hacia nosotros", dijo a The Guardian. "¿Les concedemos ciudadanía y derechos o defendemos nuestras vidas?"

Populares
Ranking
Favoritas
