English Blog Version

Mittwoch, 2. Juli 2025

๐Ÿš€ ๐‘๐ž๐ฏ๐จ๐ฅ๐ฎ๐ญ๐ข๐จ๐ง ๐ข๐ฆ ๐Š๐ˆ-๐๐ž๐ซ๐ž๐ข๐œ๐ก: ๐’๐ž๐ฅ๐›๐ฌ๐ญ-๐š๐๐š๐ฉ๐ญ๐ข๐ฏ๐ž ๐’๐ฉ๐ซ๐š๐œ๐ก๐ฆ๐จ๐๐ž๐ฅ๐ฅ๐ž (๐’๐„๐€๐‹) – ๐ž๐ข๐ง ๐ƒ๐ฎ๐ซ๐œ๐ก๐›๐ซ๐ฎ๐œ๐ก ๐ข๐ง ๐‘๐ข๐œ๐ก๐ญ๐ฎ๐ง๐  ๐š๐ฎ๐ญ๐จ๐ง๐จ๐ฆ๐ž ๐Š๐ˆ-๐–๐ž๐ข๐ญ๐ž๐ซ๐ž๐ง๐ญ๐ฐ๐ข๐œ๐ค๐ฅ๐ฎ๐ง๐ !

Titelbild zu selbsttrainierender KI mit der Aufschrift Singularitรคt erreicht – KI trainiert sich selbst_Stefan Trauth

Gerade verรถffentlicht von MIT und Improbable AI: Die Studie „Self-Adapting Language Models (SEAL)“ stellt einen entscheidenden Paradigmenwechsel vor. Erstmals gelingt es, ein Sprachmodell so zu trainieren, dass es sich selbststรคndig weiterentwickelt – durch selbst erzeugte Trainingsdaten und autonome Gewichtsanpassungen.

๐Ÿ” Was macht SEAL so besonders?


LLMs wie GPT oder Llama werden bislang „statisch“ eingesetzt – sie kรถnnen nach dem Training zwar in neue Aufgaben eingelernt werden, aber keine eigenen Anpassungsstrategien entwickeln.

SEAL รคndert das: Das Modell generiert eigene Finetuning-Daten und entscheidet selbst, wie es sich optimal an neue Aufgaben oder Wissen anpasst.


Die Selbst-Adaption erfolgt รผber einen innovativen RL-Loop: Das Modell schreibt eigene Trainingsanweisungen (sogenannte Self-Edits), prรผft deren Wirkung und belohnt Verbesserungen direkt, ohne externe Bewertung.


๐Ÿ“ˆ Die Ergebnisse sprechen fรผr sich:

Auf SQuAD (QA, Wissensintegration) รผbertrifft SEAL nach nur 2 Trainingsdurchlรคufen sogar GPT-4.1 generierte Daten – und das mit einem kleineren Basismodell.


Bei wenigen Beispielen (Few-Shot-Lernen) erzielt SEAL einen Erfolg von 72,5 % im Vergleich zu nur 20 % bei klassischen Ansรคtzen, was das enorme Potenzial selbstgesteuerter Anpassung zeigt.


Besonders spannend: SEAL funktioniert unabhรคngig von der gewรคhlten Datenstruktur – es kann verschiedene Formate fรผr Selbst-Training und Gewichtsanpassung erlernen.


๐Ÿง  Warum ist das revolutionรคr?

Wir nรคhern uns einer Zukunft, in der Sprachmodelle neue Informationen selbststรคndig aufnehmen und intern verankern kรถnnen – ohne menschliche Anleitung, allein durch eigene Datengenerierung und -selektion. Das ist nicht nur ein groรŸer Schritt fรผr autonome KI, sondern bietet eine Antwort auf das drohende „Datenende“ beim Training immer grรถรŸerer Modelle.


๐Ÿ’ก Mein Fazit:

SEAL ist mehr als ein „Trick“ zur Effizienzsteigerung – es markiert den Einstieg in die ร„ra echter selbstoptimierender KI-Systeme. Ein Paradigmenwechsel, der enorme Folgen fรผr Forschung, Industrie und letztlich fรผr unsere gesamte digitale Infrastruktur haben wird.


๐Ÿ‘‰ Link zur Studie (open access): https://arxiv.org/abs/2506.10943

Weitere Infos & Code: https://jyopari.github.io/posts/seal


www.Stefan-Trauth.com

#KI #DeepLearning #ReinforcementLearning #MetaLearning #LLM #AutonomeKI #TrauthResearch

Keine Kommentare:

Kommentar verรถffentlichen

Mein Geburtstag: 48 Jahre – Zwischen Mensch, KI und (รœber)Leben

  Gestern blickte ich auf 48 Jahre zurรผck, die geprรคgt waren von Neugier, eigenem Kopf und dem Willen, Grenzen neu zu definieren. Das Leben ...