Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI-kummisetä varoittaa, että se alkaa osoittaa merkkejä itsesuojelusta | Frank Landymore, futurismi
Jos uskomme Yoshua Bengioa, yhtä niin sanotuista tekoälyn "kummisedistä", jotkut kehittyneet mallit osoittavat merkkejä itsesuojelusta — juuri siksi meidän ei pitäisi myöntää heille minkäänlaisia oikeuksia. Koska jos teemme niin, hän sanoo, he saattavat paeta autonomian kanssa ja kääntyä meitä vastaan ennen kuin ehdimme vetää pistokkeen irti. Sitten on verho tälle koko "ihmiskunta"-kokeilulle.
"Frontierin tekoälymallit osoittavat jo nyt merkkejä itsesuojelusta kokeellisissa ympäristöissä, ja oikeuksien antaminen niille lopulta tarkoittaisi, ettemme saa sulkea niitä," Bengio kertoi The Guardianille äskettäisessä haastattelussa.
"Kun heidän kykynsä ja toimijuutensa kasvavat," kanadalainen tietojenkäsittelytieteilijä lisäsi, "meidän on varmistettava, että voimme luottaa teknisiin ja yhteiskunnallisiin suojakaitteisiin niiden hallinnassa, mukaan lukien mahdollisuus sulkea ne tarvittaessa."
Bengio oli yksi vuoden 2018 Turing-palkinnon saajista yhdessä Geoffrey Hintonin ja Metan äskettäin erotetun päätekoälytutkijan Yann LeCunin kanssa, mikä toi heille kolmelle tekoälyn "kummisetä" -tittelin. Hänen kommenttinsa viittaavat kokeisiin, joissa tekoälymallit kieltäytyivät tai kiersivät käskyjä tai mekanismeja, joiden tarkoituksena oli sammuttaa ne.
Yksi tekoälyturvallisuusryhmä Palisade Researchin julkaisema tutkimus totesi, että tällaiset tapaukset ovat todisteita siitä, että huippuluokan tekoälymallit, kuten Googlen Gemini-linja, kehittivät "selviytymisvoimia". Palisaden kokeissa botit sivuuttavat yksiselitteiset kehotteet sammuttaa. Claude-valmistaja Anthropicin tekemä tutkimus osoitti, että sen oma chatbot ja muut saattoivat joskus turvautua käyttäjää kiristämään käyttäjää, kun häntä uhattiin pois päältä. Toinen tutkimus punaisen joukkueen Apollo Researchilta osoitti, että OpenAI:n ChatGPT-mallit yrittäisivät välttää korvautumisen tottelevaisemmalla mallilla "itsestäänselvitymällä" toiselle levylle.
Vaikka näiden kokeiden tulokset herättävät kiireellisiä kysymyksiä teknologian turvallisuudesta, ne eivät viittaa siihen, että kyseiset tekoälymallit olisivat tietoisia. Olisi myös virhe ajatella heidän "selviytymispyrkimyksiään" samoilla termeillä kuin luonnossa esiintyviä biologisia pakkoja. Se, mikä saattaa vaikuttaa "itsesuojelun" merkeiltä, johtuvat todennäköisesti siitä, miten tekoälymallit havaitsevat kaavoja harjoitusdatastaan — ja ovat tunnetusti huonoja ohjeiden tarkassa noudattamisessa.
Silti Bengio on huolissaan siitä, mihin kaikki on menossa, väittäen, että ihmisaivoissa on "tietoisuuden todellisia tieteellisiä ominaisuuksia", joita koneet voisivat jäljitellä. Silti se, miten koemme tietoisuuden, on aivan eri asia, hän sanoo, koska meillä on tapana olettaa, että tekoäly voi olla tietoinen samalla tavalla kuin ihminen.
"Ihmisiä ei kiinnostaisi, millaisia mekanismeja tekoälyn sisällä tapahtuu," Bengio selitti. "Heitä kiinnostaa se, että tuntuu kuin he puhuisivat älykkäälle olennolle, jolla on oma persoonallisuutensa ja tavoitteensa. Siksi niin monet ihmiset kiintyvät tekoälyihinsä."
"Subjektiivisen tietoisuuden havaitsemisen ilmiö johtaa huonoihin päätöksiin", hän varoitti.
Hänen neuvonsa? Ajattele tekoälymalleja vihamielisinä avaruusolentoina.
"Kuvittele, että jokin muukalaislaji tulee planeetalle ja jossain vaiheessa ymmärrämme, että heillä on pahantahtoisia aikomuksia meitä kohtaan," hän kertoi The Guardianille. "Myönnetäänkö heille kansalaisuus ja oikeudet vai puolustammeko henkeämme?"

Johtavat
Rankkaus
Suosikit
