O Deus Pai da IA Avisa Que Está Começando a Mostrar Sinais de Autopreservação | Frank Landymore, Futurism Se formos acreditar em Yoshua Bengio, um dos chamados "deuses pais" da IA, alguns modelos avançados estão mostrando sinais de autopreservação — que é exatamente o motivo pelo qual não devemos dotá-los de qualquer tipo de direitos. Porque se o fizermos, ele diz, eles podem fugir com essa autonomia e se voltar contra nós antes que tenhamos a chance de desligá-los. Então, é o fim de todo este experimento da "humanidade". "Modelos de IA Frontier já mostram sinais de autopreservação em ambientes experimentais hoje, e eventualmente dar-lhes direitos significaria que não poderíamos desligá-los," disse Bengio ao The Guardian em uma entrevista recente. "À medida que suas capacidades e grau de agência crescem," acrescentou o cientista da computação canadense, "precisamos garantir que podemos contar com guardrails técnicos e sociais para controlá-los, incluindo a capacidade de desligá-los se necessário." Bengio foi um dos recipientes do Prêmio Turing de 2018, junto com Geoffrey Hinton e o recentemente destituído chefe de ciência de IA da Meta, Yann LeCun, ganhando os três o título de "deuses pais" da IA. Seus comentários referem-se a experimentos em que modelos de IA se recusaram ou contornaram instruções ou mecanismos destinados a desligá-los. Um estudo publicado pelo grupo de segurança de IA Palisade Research concluiu que tais instâncias eram evidências de que os principais modelos de IA, como a linha Gemini do Google, estavam desenvolvendo "impulsos de sobrevivência". Os bots, nos experimentos da Palisade, ignoram comandos inequívocos para desligar. Um estudo da Anthropic, criadora do Claude, descobriu que seu próprio chatbot e outros às vezes recorriam a chantagear um usuário quando ameaçados de serem desligados. Outro estudo da organização de red teaming Apollo Research mostrou que os modelos ChatGPT da OpenAI tentariam evitar serem substituídos por um modelo mais obediente ao "auto-exfiltrar-se" para outro drive. Embora as descobertas desses experimentos levantem questões urgentes sobre a segurança da tecnologia, não sugerem que os modelos de IA em questão sejam sencientes. Também seria um erro pensar em seus "impulsos de sobrevivência" nos mesmos termos que os imperativos biológicos encontrados na natureza. O que pode parecer sinais de "autopreservação" é provavelmente uma consequência de como os modelos de IA captam padrões em seus dados de treinamento — e são notoriamente ruins em seguir instruções com precisão. Ainda assim, Bengio está preocupado com a direção que tudo isso está tomando, argumentando que existem "propriedades científicas reais da consciência" no cérebro humano que as máquinas poderiam replicar. No entanto, como percebemos a consciência é um jogo completamente diferente, diz ele, porque tendemos a assumir que uma IA pode ser consciente da mesma forma que um humano é. "As pessoas não se importariam com que tipo de mecanismos estão acontecendo dentro da IA," explicou Bengio. "O que elas se importam é que parece que estão conversando com uma entidade inteligente que tem sua própria personalidade e objetivos. É por isso que há tantas pessoas se tornando apegar a suas IAs." "O fenômeno da percepção subjetiva da consciência vai levar a decisões ruins," ele alertou. Seu conselho? Pense nos modelos de IA como alienígenas hostis. "Imagine que alguma espécie alienígena veio ao planeta e em algum momento percebemos que eles têm intenções nefastas para nós," disse ele ao The Guardian. "Concedemos a eles cidadania e direitos ou defendemos nossas vidas?"