Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Im Jahr 2026 wird KI von Hype zu Pragmatismus übergehen | Rebecca Bellan & Ram Iyer, TechCrunch
Wenn 2025 das Jahr war, in dem KI einen Vibe-Check erhielt, wird 2026 das Jahr sein, in dem die Technologie praktisch wird. Der Fokus verschiebt sich bereits von der Entwicklung immer größerer Sprachmodelle hin zu der schwierigeren Aufgabe, KI nutzbar zu machen. In der Praxis bedeutet das, kleinere Modelle dort einzusetzen, wo sie passen, Intelligenz in physische Geräte einzubetten und Systeme zu entwerfen, die sich nahtlos in menschliche Arbeitsabläufe integrieren.
Die Experten, mit denen TechCrunch gesprochen hat, sehen 2026 als ein Jahr des Übergangs, das sich von brutaler Skalierung zu neuen Architekturen entwickelt, von auffälligen Demos zu gezielten Einsätzen und von Agenten, die Autonomie versprechen, zu solchen, die tatsächlich die Art und Weise, wie Menschen arbeiten, unterstützen.
Die Party ist noch nicht vorbei, aber die Branche beginnt, nüchtern zu werden.
Skalierungsgesetze werden nicht ausreichen
Im Jahr 2012 zeigte das Paper von Alex Krizhevsky, Ilya Sutskever und Geoffrey Hinton zu ImageNet, wie KI-Systeme „lernen“ konnten, Objekte in Bildern zu erkennen, indem sie Millionen von Beispielen betrachteten. Der Ansatz war rechenintensiv, wurde aber durch GPUs möglich. Das Ergebnis? Ein Jahrzehnt intensiver KI-Forschung, während Wissenschaftler daran arbeiteten, neue Architekturen für verschiedene Aufgaben zu erfinden.
Das kulminierte etwa 2020, als OpenAI GPT-3 einführte, das zeigte, wie einfach es ist, das Modell 100 Mal größer zu machen, um Fähigkeiten wie Programmierung und logisches Denken freizuschalten, ohne explizites Training zu erfordern. Dies markierte den Übergang in das, was Kian Katanforoosh, CEO und Gründer der KI-Agentenplattform Workera, als das „Zeitalter der Skalierung“ bezeichnet: eine Periode, die durch den Glauben definiert ist, dass mehr Rechenleistung, mehr Daten und größere Transformatorenmodelle unvermeidlich die nächsten großen Durchbrüche in der KI vorantreiben würden.
Heute denken viele Forscher, dass die KI-Branche beginnt, die Grenzen der Skalierungsgesetze zu erschöpfen und erneut in ein Zeitalter der Forschung überzugehen.
Yann LeCun, der ehemalige Chief AI Scientist von Meta, hat lange gegen die Überabhängigkeit von Skalierung argumentiert und betont, dass bessere Architekturen entwickelt werden müssen. Und Sutskever sagte in einem kürzlichen Interview, dass die aktuellen Modelle stagnieren und die Ergebnisse des Vortrainings abgeflacht sind, was auf die Notwendigkeit neuer Ideen hinweist.
„Ich denke, dass wir in den nächsten fünf Jahren wahrscheinlich eine bessere Architektur finden werden, die eine signifikante Verbesserung gegenüber Transformatoren darstellt“, sagte Katanforoosh. „Und wenn wir das nicht tun, können wir nicht mit großen Verbesserungen der Modelle rechnen.“
Manchmal ist weniger mehr
Große Sprachmodelle sind großartig darin, Wissen zu verallgemeinern, aber viele Experten sagen, dass die nächste Welle der Unternehmens-KI-Adoption von kleineren, agilen Sprachmodellen vorangetrieben wird, die für domänenspezifische Lösungen feinabgestimmt werden können.
„Feinabgestimmte SLMs werden der große Trend sein und 2026 zu einem Grundpfeiler für reife KI-Unternehmen werden, da die Kosten- und Leistungs Vorteile die Nutzung gegenüber sofort einsatzbereiten LLMs vorantreiben werden“, sagte Andy Markus, Chief Data Officer von AT&T, gegenüber TechCrunch. „Wir haben bereits gesehen, dass Unternehmen zunehmend auf SLMs angewiesen sind, denn wenn sie richtig feinabgestimmt sind, erreichen sie in der Genauigkeit für Unternehmensanwendungen die größeren, verallgemeinerten Modelle und sind in Bezug auf Kosten und Geschwindigkeit hervorragend.“
Wir haben dieses Argument bereits von dem französischen Open-Weight-KI-Startup Mistral gehört: Es argumentiert, dass seine kleinen Modelle nach der Feinabstimmung tatsächlich besser abschneiden als größere Modelle in mehreren Benchmarks.
„Die Effizienz, Kosteneffektivität und Anpassungsfähigkeit von SLMs machen sie ideal für maßgeschneiderte Anwendungen, bei denen Präzision von größter Bedeutung ist“, sagte Jon Knisley, ein KI-Strategieexperte bei ABBYY, einem in Austin ansässigen Unternehmen für Unternehmens-KI.
...

Top
Ranking
Favoriten
