Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI kanske inte behöver massiv träningsdata trots allt | Hannah Robbins, Johns Hopkins University
Sammanfattning: Ny forskning visar att AI inte behöver oändlig träningsdata för att börja agera mer som en mänsklig hjärna. När forskare omdesignade AI-system för att bättre likna biologiska hjärnor, producerade vissa modeller hjärnliknande aktivitet utan någon träning alls. Detta utmanar dagens datakrävande syn på AI-utveckling. Arbetet antyder att smartare design dramatiskt kan påskynda lärandet samtidigt som kostnader och energianvändning minskas.
---
Ny forskning från Johns Hopkins University visar att artificiell intelligens byggd med design inspirerad av biologi kan börja likna människans hjärnaktivitet redan innan de tränats på någon data. Studien antyder att hur AI är strukturerat kan vara lika viktigt som hur mycket data det bearbetar.
Resultaten, publicerade i Nature Machine Intelligence, utmanar den dominerande strategin inom AI-utveckling. Istället för att förlita sig på månader av utbildning, enorma datamängder och enorm datorkraft, lyfter forskningen fram värdet av att börja med en hjärnliknande arkitektonisk grund.
Omprövning av datatunga AI-strategin
"Sättet AI-fältet rör sig på just nu är att kasta en massa data på modellerna och bygga upp datorresurser i storlek med små städer. Det kräver att man spenderar hundratals miljarder dollar. Under tiden lär sig människor att se med mycket lite data," sade huvudförfattaren Mick Bonner, biträdande professor i kognitionsvetenskap vid Johns Hopkins University. "Evolutionen kan ha konvergerat kring denna design av en god anledning. Vårt arbete tyder på att arkitektoniska designer som är mer hjärnliknande ger AI-systemen en mycket fördelaktig utgångspunkt."
Bonner och hans kollegor syftade till att testa om arkitektur ensam kunde ge AI-system en mer människolik utgångspunkt, utan att förlita sig på storskalig träning.
Jämförelse av populära AI-arkitekturer
Forskarteamet fokuserade på tre huvudtyper av neurala nätverksdesigner som ofta används i moderna AI-system: transformatorer, fullt uppkopplade nätverk och konvolutionella neurala nätverk.
De justerade upprepade gånger dessa designer för att skapa dussintals olika artificiella neurala nätverk. Ingen av modellerna var utbildade i förväg. Forskarna visade sedan de otränade systemen bilder av objekt, människor och djur och jämförde deras interna aktivitet med hjärnans reaktioner från människor och icke-mänskliga primater som tittar på samma bilder.
Varför konvolutionella nätverk stack ut
Att öka antalet artificiella neuroner i transformatorer och fullt uppkopplade nätverk gav liten meningsfull förändring. Liknande justeringar av konvolutionella neurala nätverk ledde dock till aktivitetsmönster som bättre liknade de som ses i den mänskliga hjärnan.
Enligt forskarna presterade dessa otränade konvolutionsmodeller i nivå med traditionella AI-system som vanligtvis kräver exponering för miljontals eller till och med miljarder bilder. Resultaten tyder på att arkitektur spelar en större roll i att forma hjärnliknande beteende än man tidigare trott.
En snabbare väg till smartare AI
...

Topp
Rankning
Favoriter
