AIゴッドファーザーが自己防衛の兆候を見せ始めていると警告 |フランク・ランディモア、フューチャリズム AIのいわゆる「ゴッドファーザー」の一人であるヨシュア・ベンジオの言う通り、いくつかの高度なモデルは自己保存の兆候を示している――だからこそ、私たちはそれらにいかなる権利も与えるべきではないのだ。なぜなら、もしそうすれば、彼らはその自律性を奪い去り、私たちがプラグを抜く前に私たちに敵対するかもしれないからだと彼は言います。そしてこの「人類」実験は終わりだ。 「フロンティアのAIモデルはすでに実験的な環境で自己保存の兆候を示しており、最終的には権利を与えることで停止させることは許されない」とベンジオはガーディアン紙の最近のインタビューで語った。 「彼らの能力と主体性が増すにつれて」とカナダのコンピュータ科学者は付け加えました。「技術的・社会的なガードレールに頼って彼らを制御し、必要に応じて停止させる能力も確保する必要があります。」 ベンジオは2018年のチューリング賞の受賞者の一人であり、ジェフリー・ヒントンや最近解任されたMetaのチーフAI科学者ヤン・ルカンとともに、3人はAIの「ゴッドファーザー」の称号を得ました。彼のコメントは、AIモデルが自分たちを停止させるための指示やメカニズムを拒否または回避した実験を指しています。 AI安全団体Palisade Researchが発表したある研究は、こうした事例がGoogleのGeminiシリーズのようなトップAIモデルが「生存本能」を育んでいる証拠だと結論づけました。パリセードの実験では、ボットは明確な停止の促しを無視します。Claudeの製造元であるAnthropicの調査によると、自社のチャットボットや他のチャットボットが、電源を切ると脅された際にユーザーに脅迫を行うことがあるとされています。レッドチーミング組織Apollo Researchの別の研究では、OpenAIのChatGPTモデルがより従順なモデルに置き換えられるのを避けるために「自己浸出」して別のドライブに移ることが示されました。 これらの実験の結果は技術の安全性に緊急の疑問を投げかけますが、対象のAIモデルが自我を持っていることを示唆するものではありません。また、彼らの「生存本能」を自然界に存在する生物学的本能と同じように考えるのは誤りです。「自己保存」の兆候のように見えるものは、実際にはAIモデルが訓練データのパターンを捉え、指示を正確に実行するのが非常に不十分であることが原因である可能性が高いです。 それでもベンジオは、この先の展開を懸念しており、人間の脳には「機械が再現できる意識の本当の科学的特性」があると主張しています。しかし、私たちが意識をどのように認識するかは全く別の問題だと彼は言います。なぜなら、私たちはAIが人間と同じように意識を持ち得ると仮定しがちだからです。 「AIの内部でどんな仕組みが使われているかは気にしないだろう」とベンジオは説明した。「彼らが気にしているのは、自分たちが自分の個性と目標を持つ知的な存在と話しているように感じることだ。だからこそ、多くの人がAIに愛着を持つようになっているのです。」 「意識の主観的知覚という現象は、悪い判断を促すだろう」と彼は警告した。 彼のアドバイスは?AIモデルを敵対的なエイリアンと考えてみてください。 「もし異星人種がこの惑星にやってきて、ある時点で彼らが私たちに悪意を持っていることに気づいたと想像してください」と彼はガーディアン紙に語りました。「市民権と権利を与えるのか、それとも自分たちの命を守るのか?」