AI poate să nu aibă nevoie de date masive de antrenament până la urmă | Hannah Robbins, Universitatea Johns Hopkins Rezumat: Cercetări noi arată că AI nu are nevoie de date nesfârșite de antrenament pentru a începe să se comporte mai mult ca un creier uman. Când cercetătorii au redesenat sistemele AI pentru a semăna mai mult cu creierele biologice, unele modele au produs o activitate asemănătoare creierului fără niciun fel de antrenament. Acest lucru provoacă abordarea actuală înfometată în date în dezvoltarea AI. Lucrările sugerează că un design mai inteligent ar putea accelera dramatic învățarea, reducând în același timp costurile și consumul de energie. --- Cercetări noi de la Universitatea Johns Hopkins arată că sistemele de inteligență artificială, construite cu designuri inspirate de biologie, pot începe să semene cu activitatea creierului uman chiar înainte de a fi antrenate pe orice date. Studiul sugerează că modul în care este structurată IA poate fi la fel de important ca și cantitatea de date pe care o procesează. Concluziile, publicate în Nature Machine Intelligence, contestă strategia dominantă în dezvoltarea AI. În loc să se bazeze pe luni de antrenament, seturi de date uriașe și o putere de calcul vastă, cercetarea evidențiază valoarea de a porni de la o fundație arhitecturală asemănătoare creierului. Regândirea abordării bazate pe date în AI "Modul în care se mișcă domeniul AI acum este să arunce o mulțime de date asupra modelelor și să construiască resurse de calcul de dimensiunea unor orașe mici. Asta necesită cheltuirea a sute de miliarde de dolari. Între timp, oamenii învață să vadă folosind foarte puține date", a spus autorul principal Mick Bonner, profesor asistent de științe cognitive la Universitatea Johns Hopkins. "Evoluția s-ar putea să fi convergut asupra acestui design dintr-un motiv întemeiat. Munca noastră sugerează că designurile arhitecturale, mai asemănătoare creierului, pun sistemele AI într-un punct de plecare foarte avantajos." Bonner și colegii săi și-au propus să testeze dacă arhitectura singură poate oferi sistemelor AI un punct de plecare mai uman, fără a se baza pe antrenamente la scară largă. Compararea arhitecturilor AI populare Echipa de cercetare s-a concentrat pe trei tipuri majore de proiecte de rețele neuronale utilizate frecvent în sistemele moderne de inteligență artificială: transformatoare, rețele complet conectate și rețele neuronale convoluționale. Au ajustat în mod repetat aceste designuri pentru a crea zeci de rețele neuronale artificiale diferite. Niciunul dintre modele nu a fost antrenat înainte. Cercetătorii au arătat apoi sistemelor neantrenate imagini ale obiectelor, oamenilor și animalelor și au comparat activitatea lor internă cu răspunsurile cerebrale ale oamenilor și primatelor non-umane care văd aceleași imagini. De ce rețelele convoluționale s-au remarcat Creșterea numărului de neuroni artificiali în transformatoare și rețele complet conectate a produs puține schimbări semnificative. Totuși, ajustări similare ale rețelelor neuronale convoluționale au condus la tipare de activitate care semănau mai mult cu cele observate în creierul uman. Potrivit cercetătorilor, aceste modele convoluționale neantrenate au avut performanțe similare cu sistemele tradiționale de inteligență artificială care, de obicei, necesită expunere la milioane sau chiar miliarde de imagini. Rezultatele sugerează că arhitectura joacă un rol mai important în modelarea comportamentului asemănător creierului decât se credea anterior. O cale mai rapidă către o inteligență artificială mai inteligentă ...