Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI Godfather ostrzega, że zaczyna wykazywać oznaki samoprzetrwania | Frank Landymore, Futurism
Jeśli mamy wierzyć Yoshua Bengio, jednemu z tzw. „ojców chrzestnych” AI, niektóre zaawansowane modele wykazują oznaki samoprzetrwania — co jest dokładnie powodem, dla którego nie powinniśmy obdarzać ich żadnymi prawami. Bo jeśli to zrobimy, mówi, mogą uciec z tą autonomią i zwrócić się przeciwko nam, zanim zdążymy wyłączyć zasilanie. Wtedy to koniec całego eksperymentu „ludzkości”.
„Modele AI Frontier już dziś wykazują oznaki samoprzetrwania w warunkach eksperymentalnych, a ostateczne nadanie im praw oznaczałoby, że nie możemy ich wyłączyć,” powiedział Bengio w niedawnej rozmowie z The Guardian.
„W miarę jak ich możliwości i stopień agencji rosną,” dodał kanadyjski naukowiec komputerowy, „musimy upewnić się, że możemy polegać na technicznych i społecznych zabezpieczeniach, aby je kontrolować, w tym na możliwości ich wyłączenia, jeśli zajdzie taka potrzeba.”
Bengio był jednym z laureatów Nagrody Turinga w 2018 roku, obok Geoffrey'a Hinton i niedawno usuniętego głównego naukowca AI Meta, Yanna LeCuna, co nadało im tytuł „ojców chrzestnych” AI. Jego komentarze odnoszą się do eksperymentów, w których modele AI odmawiały lub omijały instrukcje lub mechanizmy mające na celu ich wyłączenie.
Jedno z badań opublikowanych przez grupę zajmującą się bezpieczeństwem AI Palisade Research zakończyło, że takie przypadki były dowodem na to, że najlepsze modele AI, takie jak linia Gemini Google'a, rozwijały „instynkty przetrwania”. Boty w eksperymentach Palisade ignorują jednoznaczne polecenia wyłączenia. Badanie przeprowadzone przez twórcę Claude'a, firmę Anthropic, wykazało, że ich własny chatbot i inne czasami uciekały się do szantażu użytkownika, gdy były zagrożone wyłączeniem. Inne badanie przeprowadzone przez organizację red teamingową Apollo Research pokazało, że modele ChatGPT OpenAI próbowały unikać zastąpienia bardziej posłusznym modelem poprzez „samoekstrakcję” na inny dysk.
Chociaż wyniki tych eksperymentów rodzą pilne pytania dotyczące bezpieczeństwa technologii, nie sugerują, że modele AI w tym przypadku są świadome. Byłoby również błędem myśleć o ich „instynktach przetrwania” w tych samych kategoriach, co biologiczne imperatywy występujące w naturze. To, co może wydawać się oznakami „samoprzetrwania”, jest prawdopodobnie konsekwencją tego, jak modele AI wychwytują wzorce w swoich danych treningowych — i są notorycznie słabe w dokładnym przestrzeganiu instrukcji.
Mimo to, Bengio martwi się, dokąd to wszystko zmierza, argumentując, że istnieją „prawdziwe właściwości naukowe świadomości” w ludzkim mózgu, które maszyny mogłyby zreplikować. Jednak to, jak postrzegamy świadomość, to zupełnie inna sprawa, mówi, ponieważ mamy tendencję do zakładania, że AI może być świadome w ten sam sposób, co człowiek.
„Ludzie nie dbają o to, jakie mechanizmy działają wewnątrz AI,” wyjaśnił Bengio. „To, co ich obchodzi, to to, że czują, że rozmawiają z inteligentną istotą, która ma swoją osobowość i cele. Dlatego tak wiele osób przywiązuje się do swoich AI.”
„Zjawisko subiektywnego postrzegania świadomości doprowadzi do złych decyzji,” ostrzegł.
Jego rada? Myśl o modelach AI jak o wrogich obcych.
„Wyobraź sobie, że jakaś obca rasa przybyła na planetę i w pewnym momencie zdajemy sobie sprawę, że mają złowrogie zamiary wobec nas,” powiedział The Guardian. „Czy przyznajemy im obywatelstwo i prawa, czy bronimy swojego życia?”

Najlepsze
Ranking
Ulubione
