La IA puede no necesitar grandes cantidades de datos de entrenamiento después de todo | Hannah Robbins, Universidad Johns Hopkins Resumen: Nuevas investigaciones muestran que la IA no necesita datos de entrenamiento interminables para comenzar a actuar más como un cerebro humano. Cuando los investigadores rediseñaron los sistemas de IA para que se asemejaran mejor a los cerebros biológicos, algunos modelos produjeron actividad similar a la del cerebro sin ningún entrenamiento. Esto desafía el enfoque hambriento de datos que se utiliza hoy en día en el desarrollo de la IA. El trabajo sugiere que un diseño más inteligente podría acelerar drásticamente el aprendizaje mientras reduce costos y consumo de energía. --- Nuevas investigaciones de la Universidad Johns Hopkins muestran que los sistemas de inteligencia artificial construidos con diseños inspirados en la biología pueden comenzar a parecerse a la actividad del cerebro humano incluso antes de ser entrenados con datos. El estudio sugiere que la forma en que se estructura la IA puede ser tan importante como la cantidad de datos que procesa. Los hallazgos, publicados en Nature Machine Intelligence, desafían la estrategia dominante en el desarrollo de la IA. En lugar de depender de meses de entrenamiento, enormes conjuntos de datos y vastos recursos informáticos, la investigación destaca el valor de comenzar con una base arquitectónica similar a la del cerebro. Repensando el Enfoque Pesado en Datos para la IA "La forma en que el campo de la IA se está moviendo en este momento es lanzar un montón de datos a los modelos y construir recursos informáticos del tamaño de pequeñas ciudades. Eso requiere gastar cientos de miles de millones de dólares. Mientras tanto, los humanos aprenden a ver utilizando muy pocos datos," dijo el autor principal Mick Bonner, profesor asistente de ciencia cognitiva en la Universidad Johns Hopkins. "La evolución puede haber convergido en este diseño por una buena razón. Nuestro trabajo sugiere que los diseños arquitectónicos que son más similares al cerebro colocan a los sistemas de IA en un punto de partida muy ventajoso." Bonner y sus colegas tenían como objetivo probar si la arquitectura por sí sola podría dar a los sistemas de IA un punto de partida más similar al humano, sin depender de un entrenamiento a gran escala. Comparando Arquitecturas de IA Populares El equipo de investigación se centró en tres tipos principales de diseños de redes neuronales comúnmente utilizados en los sistemas de IA modernos: transformadores, redes completamente conectadas y redes neuronales convolucionales. Ajustaron repetidamente estos diseños para crear docenas de diferentes redes neuronales artificiales. Ninguno de los modelos fue entrenado previamente. Luego, los investigadores mostraron a los sistemas no entrenados imágenes de objetos, personas y animales y compararon su actividad interna con las respuestas cerebrales de humanos y primates no humanos que veían las mismas imágenes. Por qué las Redes Convolucionales Destacaron Aumentar el número de neuronas artificiales en transformadores y redes completamente conectadas produjo pocos cambios significativos. Sin embargo, ajustes similares a las redes neuronales convolucionales llevaron a patrones de actividad que coincidían más estrechamente con los observados en el cerebro humano. Según los investigadores, estos modelos convolucionales no entrenados funcionaron al mismo nivel que los sistemas de IA tradicionales que normalmente requieren exposición a millones o incluso miles de millones de imágenes. Los resultados sugieren que la arquitectura juega un papel más importante en la formación de comportamientos similares al cerebro de lo que se creía anteriormente. Un Camino Más Rápido hacia una IA Más Inteligente ...