Weniger ist mehr

Samsung greift an: Mini-KI aus Korea stellt Milliarden-Geschäft von KI-Aktien NVIDIA & Co. in Frage

23.10.25 11:00 Uhr

KI-Revolution aus Korea: Samsungs Mini-KI könnte OpenAI, NASDAQ-Aktie NVIDIA & Co. das Milliarden-Geschäft streitig machen | finanzen.net

Samsung-Forscher haben ein kompaktes KI-Modell vorgestellt, das trotz minimaler Rechenleistung mit Gemini, OpenAI & Co. mithalten kann. Wie das den KI-Markt verändern könnte.

Werte in diesem Artikel
Aktien

219,30 EUR 3,40 EUR 1,57%

450,05 EUR 1,80 EUR 0,40%

155,84 EUR 0,82 EUR 0,53%

42,33 USD 3,50 USD 9,01%

• Samsung-Forscher stellen Mini-KI vor
• Fokus auf Effizienz
• Was das für NVIDIA, Microsoft & Co. bedeuten könnte

Wer­bung

Samsung-Forscher präsentieren Mini-KI

Forschende des Samsung AI Lab in Montreal haben mit dem Tiny Recursive Model (TRM) ein ultrakompaktes KI-System vorgestellt, das selbst größere Modelle wie OpenAIs o3-mini oder Googles Gemini 2.5 Pro bei logischen Aufgaben übertrifft - und das mit nur sieben Millionen Parametern, wie The Decoder erklärt. Zum Vergleich: selbst kleine Sprachmodelle arbeiten meist mit drei bis sieben Milliarden Parametern.

Laut der Studie "Weniger ist mehr: Rekursives Denken mit winzigen Netzwerken" erzielt TRM herausragende Ergebnisse in verschiedenen Benchmarks - etwa 45 Prozent bei ARC-AGI-1 und 8 Prozent bei ARC-AGI-2, womit es deutlich vor etablierten Modellen liegt. Auch in Tests wie "Sudoku-Extreme" (87,4 Prozent Genauigkeit) und "Maze-Hard" (85,3 Prozent) zeige das Mini-Netzwerk, dass präzises, rekursives Denken auch ohne massive Rechenleistung möglich ist.

Effizienz statt Größe - was TRM leisten kann

Das TRM-Modell basiert auf einem rekursiven Schleifensystem: Es speichert eine aktuelle Lösung und einen "Notizblock" für Zwischenschritte, die es in mehreren Durchläufen laufend verbessert. Dadurch korrigiert es frühere Fehler selbstständig - ohne auf komplexe Argumentationsketten oder riesige Datensätze angewiesen zu sein. Mit dieser Methode kann ein kleines Netzwerk erstaunlich komplexe Denkprozesse durchführen und lernt gleichzeitig, unnötige Rechenschleifen zu vermeiden.

Wer­bung

Trotz seiner Effizienz ist TRM kein Ersatz für große Sprachmodelle wie GPT oder Gemini, so The Decoder weiter. Es eignet sich vor allem für strukturierte Logik- und Gitteraufgaben, nicht aber für offene Textverarbeitung oder multimodale Anwendungen.
Die Forscher betonen zudem, dass noch Skalierungsgesetze und theoretische Grundlagen fehlen, um die Effizienz von Rekursion gegenüber tieferen Netzwerken vollständig zu erklären. Zudem ist TRM bislang kein generatives Modell, sondern liefert nur eine einzige deterministische Antwort pro Eingabe - eine Erweiterung auf kreative oder mehrdeutige Aufgaben gilt als spannender nächster Schritt.

Dennoch gilt es als potenzieller Baustein für spezialisierte Denk-KIs und könnte langfristig die Entwicklung energieeffizienter, fokussierter Modelle vorantreiben. Eine unabhängige Überprüfung der Ergebnisse und Tests mit weiteren Datensätzen stehen noch aus.

KI-Wettbewerb neu definieren?

Die Auswirkungen der Forschungsergebnisse könnten enorm sein: Während Unternehmen wie NVIDIA, OpenAI, Google und Microsoft Milliarden in energieintensive Supercomputer investieren, deutet Samsungs Ansatz auf eine mögliche Revolution der Effizienz hin, so die Frankfurter Rundschau. Sollte sich die Technologie durchsetzen, könnten viele dieser Investitionen an Bedeutung verlieren. Jolicoeur-Martineau kritisierte auf X, die Abhängigkeit von riesigen, teuren Basismodellen sei "eine Falle".

Wer­bung

Experten sehen darin eine potenzielle Zäsur für die Branche - und ein Risiko für den KI-Boom an der Wall Street. "Um die angekündigten Investitionen zu rechtfertigen, müssten zehn neue KI-Giganten von der Größe Googles entstehen", warnt KI-Forscher Damian Borth von der Universität St. Gallen. Samsungs Mini-KI könnte somit nicht nur den Wettbewerb neu definieren, sondern auch die milliardenschweren Geschäftsmodelle von Chip- und Cloudkonzernen ins Wanken bringen.

Redaktion finanzen.net

Dieser Text dient ausschließlich zu Informationszwecken und stellt keine Anlageempfehlung dar. Die finanzen.net GmbH schließt jegliche Regressansprüche aus.

In eigener Sache

Übrigens: Alphabet C (ex Google) und andere US-Aktien sind bei finanzen.net ZERO sogar bis 23 Uhr handelbar (ohne Ordergebühren, zzgl. Spreads). Jetzt kostenlos Depot eröffnen und Neukunden-Bonus sichern!

Ausgewählte Hebelprodukte auf Alphabet C (ex Google)

Mit Knock-outs können spekulative Anleger überproportional an Kursbewegungen partizipieren. Wählen Sie einfach den gewünschten Hebel und wir zeigen Ihnen passende Open-End Produkte auf Alphabet C (ex Google)

NameHebelKOEmittent
NameHebelKOEmittent
Wer­bung

Bildquellen: M DOGAN / Shutterstock.com, Below the Sky / Shutterstock.com

Nachrichten zu NVIDIA Corp.

Wer­bung

Analysen zu NVIDIA Corp.

DatumRatingAnalyst
29.09.2025NVIDIA BuyJefferies & Company Inc.
23.09.2025NVIDIA BuyUBS AG
23.09.2025NVIDIA OutperformBernstein Research
19.09.2025NVIDIA OverweightJP Morgan Chase & Co.
12.09.2025NVIDIA BuyJefferies & Company Inc.
DatumRatingAnalyst
29.09.2025NVIDIA BuyJefferies & Company Inc.
23.09.2025NVIDIA BuyUBS AG
23.09.2025NVIDIA OutperformBernstein Research
19.09.2025NVIDIA OverweightJP Morgan Chase & Co.
12.09.2025NVIDIA BuyJefferies & Company Inc.
DatumRatingAnalyst
20.08.2025NVIDIA HoldDeutsche Bank AG
10.01.2025NVIDIA HoldDeutsche Bank AG
21.11.2024NVIDIA HaltenDZ BANK
21.11.2024NVIDIA HoldDeutsche Bank AG
29.08.2024NVIDIA HoldDeutsche Bank AG
DatumRatingAnalyst
04.04.2017NVIDIA UnderweightPacific Crest Securities Inc.
24.02.2017NVIDIA UnderperformBMO Capital Markets
23.02.2017NVIDIA ReduceInstinet
14.01.2016NVIDIA UnderweightBarclays Capital
26.07.2011NVIDIA underperformNeedham & Company, LLC

Um die Übersicht zu verbessern, haben Sie die Möglichkeit, die Analysen für NVIDIA Corp. nach folgenden Kriterien zu filtern.

Alle: Alle Empfehlungen

Buy: Kaufempfehlungen wie z.B. "kaufen" oder "buy"
Hold: Halten-Empfehlungen wie z.B. "halten" oder "neutral"
Sell: Verkaufsempfehlungn wie z.B. "verkaufen" oder "reduce"
mehr Analysen