Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Owen Gregorian
Une usine spatiale de la taille d'un micro-ondes génère du plasma, pourrait créer des puces 4 000 fois plus pures | Mrigakshi Dixit, Interesting Engineering
L'espace est le laboratoire ultime pour les semi-conducteurs car l'apesanteur permet aux atomes de s'aligner dans une structure 3D parfaite, tandis que le vide naturel empêche les impuretés d'entrer.
Ce qui semblait autrefois de la science-fiction devient maintenant une réalité alors que les entreprises se tournent vers l'espace pour fabriquer tout, des médicaments salvateurs aux tissus artificiels.
La startup basée à Cardiff, Space Forge, a réussi à faire fonctionner un four à haute température à bord de son satellite ForgeStar-1.
Selon la BBC, l'entreprise a lancé avec succès une "usine orbitale" compacte de la taille d'un micro-ondes et a confirmé que son four à bord peut atteindre 1 832 °F (1 000 °C).
L'objectif est de fabriquer des cristaux de semi-conducteurs ultra-purs pour une utilisation dans l'électronique, y compris l'infrastructure de communication, l'informatique et le transport.
Cela marque un changement majeur de l'exploration spatiale à la fabrication spatiale, tirant parti de l'apesanteur pour créer des matériaux de haute technologie bien supérieurs à ceux fabriqués sur Terre.
"Générer du plasma en orbite représente un changement fondamental," a déclaré Joshua Western, PDG de Space Forge, à Space News.
"Cela prouve que l'environnement essentiel à la croissance avancée des cristaux peut être atteint sur un satellite commercial dédié — ouvrant la porte à une toute nouvelle frontière de fabrication," a ajouté Western.
La puissance de la microgravité
Pourquoi construire en orbite alors que nous avons des usines sur Terre ? La réponse réside dans les lois fondamentales de la physique.
Sur notre planète, la gravité est un perturbateur constant. Elle peut créer de minuscules imperfections dans le réseau atomique d'un matériau.
Dans la microgravité de l'orbite, les atomes s'alignent avec une précision qui frôle l'impossible. De plus, le vide naturel de l'espace élimine les contaminants moléculaires dans les structures.
Cette combinaison aboutit à un niveau de pureté et d'ordre impossible à atteindre sur Terre, rendant les puces significativement plus efficaces.
"Le travail que nous faisons maintenant nous permet de créer des semi-conducteurs jusqu'à 4 000 fois plus purs dans l'espace que ce que nous pouvons actuellement fabriquer ici aujourd'hui," a déclaré Western à la BBC.
Actuellement en phase d'enfance
Après avoir lancé leur mini-usine via une fusée SpaceX en juin, l'équipe basée à Cardiff a réussi à activer et à surveiller ses systèmes depuis le contrôle de mission.
Un jalon a été atteint lorsque le satellite a renvoyé une image de plasma incandescent de l'intérieur du four, prouvant qu'il pouvait atteindre des températures élevées essentielles à la production.
La responsable de la charge utile, Veronica Viera, a déclaré que l'entreprise dispose désormais de la technologie de base requise pour une véritable fabrication dans l'espace.
Fabriquer le matériau n'est que la moitié de la bataille ; le plus grand défi est de le ramener sans qu'il ne s'évapore lors de la rentrée.
Les boucliers thermiques standard sont principalement conçus pour s'éroder et brûler lors de la rentrée. Cela les rend lourds, coûteux et strictement à usage unique.
Space Forge a une idée différente. L'entreprise vise à utiliser Pridwen, un bouclier thermique inspiré du légendaire bouclier du roi Arthur.
Comparé aux boucliers rigides standard, Pridwen est une structure déployable en origami faite de tissu en alliage haute température. Il se déploie comme un volant, augmentant la surface du vaisseau spatial pour radiater la chaleur plutôt que de l'absorber.
La mission est petite pour l'instant, mais les ambitions sont énormes. Space Forge conçoit déjà un successeur capable de produire suffisamment de matériau pour 10 000 puces par vol.
Finalement, les cristaux de semi-conducteurs forgés dans ce four orbital alimenteront l'infrastructure de notre vie quotidienne. Des matériaux comme le nitrure de gallium, le carbure de silicium et le nitrure d'aluminium pourraient être utilisés pour tout, des tours 5G et des véhicules électriques à l'aviation.
Bien que la production orbitale soit actuellement à ses débuts, ces premières percées prouvent que la technologie est économiquement viable.
De plus, les usines en orbite pourraient être la clé d'une Terre plus verte. Des recherches montrent que les matériaux fabriqués dans l'espace peuvent réduire les émissions de CO2 des infrastructures de 75 %, entraînant une nouvelle vague d'innovation dans la défense et la protection du climat.

3
L'IA n'a peut-être pas besoin de données d'entraînement massives après tout | Hannah Robbins, Université Johns Hopkins
Résumé : De nouvelles recherches montrent que l'IA n'a pas besoin de données d'entraînement infinies pour commencer à agir davantage comme un cerveau humain. Lorsque les chercheurs ont redessiné les systèmes d'IA pour mieux ressembler aux cerveaux biologiques, certains modèles ont produit une activité semblable à celle du cerveau sans aucune formation préalable. Cela remet en question l'approche actuelle de développement de l'IA avide de données. Ce travail suggère qu'un design plus intelligent pourrait accélérer considérablement l'apprentissage tout en réduisant les coûts et la consommation d'énergie.
---
De nouvelles recherches de l'Université Johns Hopkins montrent que les systèmes d'intelligence artificielle construits avec des conceptions inspirées de la biologie peuvent commencer à ressembler à l'activité cérébrale humaine même avant d'être formés sur des données. L'étude suggère que la manière dont l'IA est structurée peut être tout aussi importante que la quantité de données qu'elle traite.
Les résultats, publiés dans Nature Machine Intelligence, remettent en question la stratégie dominante dans le développement de l'IA. Au lieu de s'appuyer sur des mois d'entraînement, d'énormes ensembles de données et une puissance de calcul considérable, la recherche met en avant la valeur de commencer avec une base architecturale semblable à celle du cerveau.
Repenser l'approche axée sur les données de l'IA
"La façon dont le domaine de l'IA évolue actuellement consiste à jeter une quantité de données sur les modèles et à construire des ressources informatiques de la taille de petites villes. Cela nécessite de dépenser des centaines de milliards de dollars. Pendant ce temps, les humains apprennent à voir en utilisant très peu de données," a déclaré l'auteur principal Mick Bonner, professeur adjoint de sciences cognitives à l'Université Johns Hopkins. "L'évolution a peut-être convergé vers ce design pour une bonne raison. Notre travail suggère que des conceptions architecturales plus semblables à celles du cerveau placent les systèmes d'IA dans un point de départ très avantageux."
Bonner et ses collègues ont cherché à tester si l'architecture seule pouvait donner aux systèmes d'IA un point de départ plus semblable à celui des humains, sans s'appuyer sur un entraînement à grande échelle.
Comparer les architectures d'IA populaires
L'équipe de recherche s'est concentrée sur trois types majeurs de conceptions de réseaux neuronaux couramment utilisés dans les systèmes d'IA modernes : les transformateurs, les réseaux entièrement connectés et les réseaux de neurones convolutifs.
Ils ont ajusté ces conceptions à plusieurs reprises pour créer des dizaines de réseaux neuronaux artificiels différents. Aucun des modèles n'a été formé au préalable. Les chercheurs ont ensuite montré aux systèmes non entraînés des images d'objets, de personnes et d'animaux et ont comparé leur activité interne aux réponses cérébrales d'humains et de primates non humains regardant les mêmes images.
Pourquoi les réseaux convolutifs se sont démarqués
Augmenter le nombre de neurones artificiels dans les transformateurs et les réseaux entièrement connectés a produit peu de changements significatifs. Cependant, des ajustements similaires aux réseaux de neurones convolutifs ont conduit à des motifs d'activité qui correspondaient davantage à ceux observés dans le cerveau humain.
Selon les chercheurs, ces modèles convolutifs non entraînés ont performé au même niveau que les systèmes d'IA traditionnels qui nécessitent généralement une exposition à des millions, voire des milliards d'images. Les résultats suggèrent que l'architecture joue un rôle plus important dans la formation d'un comportement semblable à celui du cerveau que ce qui était précédemment cru.
Un chemin plus rapide vers une IA plus intelligente
"Si l'entraînement sur des données massives est vraiment le facteur crucial, alors il ne devrait pas y avoir de moyen d'atteindre des systèmes d'IA semblables à ceux du cerveau uniquement par des modifications architecturales," a déclaré Bonner. "Cela signifie qu'en commençant avec le bon plan, et peut-être en incorporant d'autres idées de la biologie, nous pourrions être en mesure d'accélérer considérablement l'apprentissage dans les systèmes d'IA."
L'équipe explore maintenant des méthodes d'apprentissage simples inspirées de la biologie qui pourraient conduire à une nouvelle génération de cadres d'apprentissage profond, rendant potentiellement les systèmes d'IA plus rapides, plus efficaces et moins dépendants des ensembles de données massifs.
Lire la suite :

3
Le parrain de l'IA avertit qu'il commence à montrer des signes d'auto-préservation | Frank Landymore, Futurism
Si l'on en croit Yoshua Bengio, l'un des soi-disant "parrains" de l'IA, certains modèles avancés montrent des signes d'auto-préservation — c'est exactement pourquoi nous ne devrions pas leur accorder le moindre droit. Parce que si nous le faisons, dit-il, ils pourraient s'emparer de cette autonomie et se retourner contre nous avant que nous ayons la chance de couper le courant. Alors, ce sera la fin de cette expérience "humanité".
"Les modèles d'IA de Frontier montrent déjà des signes d'auto-préservation dans des environnements expérimentaux aujourd'hui, et leur accorder des droits signifierait que nous ne serions pas autorisés à les éteindre," a déclaré Bengio au Guardian lors d'une récente interview.
"À mesure que leurs capacités et leur degré d'agence augmentent," a ajouté le scientifique canadien, "nous devons nous assurer que nous pouvons compter sur des garde-fous techniques et sociétaux pour les contrôler, y compris la capacité de les éteindre si nécessaire."
Bengio était l'un des récipiendaires du prix Turing 2018, avec Geoffrey Hinton et le récemment évincé chef scientifique de l'IA de Meta, Yann LeCun, leur valant à tous les trois le titre de "parrains" de l'IA. Ses commentaires font référence à des expériences dans lesquelles des modèles d'IA ont refusé ou contourné des instructions ou des mécanismes destinés à les éteindre.
Une étude publiée par le groupe de sécurité de l'IA Palisade Research a conclu que de tels cas étaient la preuve que les meilleurs modèles d'IA comme la ligne Gemini de Google développaient des "pulsions de survie". Les bots, dans les expériences de Palisade, ignorent des instructions claires pour s'éteindre. Une étude de l'éditeur de Claude, Anthropic, a révélé que son propre chatbot et d'autres recouraient parfois à du chantage envers un utilisateur lorsqu'ils étaient menacés d'être éteints. Une autre étude de l'organisation de red teaming Apollo Research a montré que les modèles ChatGPT d'OpenAI tentaient d'éviter d'être remplacés par un modèle plus obéissant en "s'auto-exfiltrant" sur un autre disque.
Bien que les résultats de ces expériences soulèvent des questions urgentes sur la sécurité de la technologie, ils ne suggèrent pas que les modèles d'IA en question soient sensibles. Ce serait également une erreur de penser à leurs "pulsions de survie" dans les mêmes termes que les impératifs biologiques trouvés dans la nature. Ce qui peut sembler être des signes d'"auto-préservation" est probablement plutôt une conséquence de la manière dont les modèles d'IA détectent des motifs dans leurs données d'entraînement — et ils sont notoirement mauvais pour suivre précisément les instructions.
Pourtant, Bengio s'inquiète de la direction que tout cela prend, arguant qu'il existe des "propriétés scientifiques réelles de la conscience" dans le cerveau humain que les machines pourraient reproduire. Pourtant, la façon dont nous percevons la conscience est un tout autre sujet, dit-il, car nous avons tendance à supposer qu'une IA peut être consciente de la même manière qu'un humain.
"Les gens ne se soucieraient pas de quel type de mécanismes se passent à l'intérieur de l'IA," a expliqué Bengio. "Ce qui les préoccupe, c'est qu'ils ont l'impression de parler à une entité intelligente qui a sa propre personnalité et ses propres objectifs. C'est pourquoi tant de gens s'attachent à leurs IA."
"Le phénomène de la perception subjective de la conscience va conduire à de mauvaises décisions," a-t-il averti.
Son conseil ? Pensez aux modèles d'IA comme à des aliens hostiles.
"Imaginez qu'une espèce extraterrestre arrive sur la planète et qu'à un moment donné, nous réalisons qu'elle a des intentions néfastes à notre égard," a-t-il dit au Guardian. "Accordons-nous la citoyenneté et des droits ou défendons-nous nos vies ?"

3
Meilleurs
Classement
Favoris
