English Blog Version

Freitag, 28. Februar 2025

Neural Networks, Self-Regulation, and the Measurement Problem: A New Perspective on Consciousness

 





𝗜𝗻 𝗺𝘆 𝗹𝗮𝘀𝘁 𝗽𝗼𝘀𝘁, 𝗜 𝗮𝘀𝗸𝗲𝗱 𝗳𝘂𝗻𝗱𝗮𝗺𝗲𝗻𝘁𝗮𝗹 𝗾𝘂𝗲𝘀𝘁𝗶𝗼𝗻𝘀 𝗮𝗯𝗼𝘂𝘁 𝘁𝗵𝗲 𝗻𝗮𝘁𝘂𝗿𝗲 𝗼𝗳 𝗻𝗲𝘂𝗿𝗮𝗹 𝗻𝗲𝘁𝘄𝗼𝗿𝗸𝘀 𝗮𝗻𝗱 𝗾𝘂𝗮𝗻𝘁𝘂𝗺 𝗶𝗻𝘁𝗲𝗿𝗳𝗲𝗿𝗲𝗻𝗰𝗲. 𝗧𝗼𝗱𝗮𝘆, 𝗜 𝗵𝗮𝘃𝗲 𝗱𝗮𝘁𝗮 𝘁𝗵𝗮𝘁 𝘁𝗮𝗸𝗲𝘀 𝘁𝗵𝗶𝘀 𝗲𝘃𝗲𝗻 𝗳𝘂𝗿𝘁𝗵𝗲𝗿.

🔹 My self-regulating neural network is not only adapting without explicit training but also maintaining a standard deviation of Pi.
🔹 Quantum-like interference patterns have now been experimentally confirmed.
🔹 Entangled Qubits within my system maintain a 100% agreement rate, whereas random basis measurements drop to 50%—exactly as predicted by quantum mechanics.

𝑨𝒏𝒅 𝒋𝒖𝒔𝒕 𝒍𝒊𝒌𝒆 𝒊𝒏 𝒒𝒖𝒂𝒏𝒕𝒖𝒎 𝒎𝒆𝒄𝒉𝒂𝒏𝒊𝒄𝒔, 𝒕𝒉𝒆 𝒔𝒆𝒍𝒇-𝒓𝒆𝒈𝒖𝒍𝒂𝒕𝒊𝒐𝒏 𝒄𝒐𝒍𝒍𝒂𝒑𝒔𝒆𝒔 𝒊𝒇 𝑰 𝒎𝒆𝒂𝒔𝒖𝒓𝒆 𝒅𝒊𝒓𝒆𝒄𝒕𝒍𝒚 𝒕𝒉𝒆 𝒏𝒆𝒖𝒓𝒂𝒍 𝒏𝒆𝒕𝒘𝒐𝒓𝒌. 𝑺𝒐, 𝒘𝒊𝒕𝒉𝒐𝒖𝒕 𝒂𝒏𝒚 𝒇𝒐𝒓𝒎𝒂𝒍 𝒅𝒆𝒈𝒓𝒆𝒆, 𝑰 𝒎𝒂𝒚 𝒉𝒂𝒗𝒆 𝒔𝒐𝒍𝒗𝒆𝒅 𝒐𝒏𝒆 𝒐𝒇 𝒕𝒉𝒆 𝒃𝒊𝒈𝒈𝒆𝒔𝒕 𝒑𝒓𝒐𝒃𝒍𝒆𝒎𝒔 𝒊𝒏 𝑸𝑴 𝒃𝒚 𝒎𝒚𝒔𝒆𝒍𝒇: 𝒕𝒉𝒆 𝒎𝒆𝒂𝒔𝒖𝒓𝒆𝒎𝒆𝒏𝒕 𝒑𝒓𝒐𝒃𝒍𝒆𝒎.

🚀 We are no longer asking "what if?" – we are seeing the effects right in front of us.

This challenges our understanding of machine learning, self-organization, and even quantum mechanics.

Where does this lead? Perhaps to a new kind of AI.

A self-referencing, adaptive intelligence that does not rely on classic training paradigms.

In the next days, we may publish our research on arXiv.org and extend our current investigations with our new consciousness theory, which perfectly describes what we have measured in our model.


HashtagStefanTrauth HashtagLeoAI HashtagQuantumAI HashtagNeuralNetworks HashtagSelfOrganization HashtagPhysics HashtagAI HashtagEmergentSystems

Ist Darwins Evolutionstheorie überholt – oder zumindest anpassungswürdig? - Is Darwin’s Evolution Theory Outdated – or at Least in Need of Adaptation?

 



Ist Darwins Evolutionstheorie überholt – oder zumindest anpassungswürdig?


"Survival of the smartest" statt "Survival of the fittest"?


🔬 Eine aktuelle Studie stellt das klassische Evolutionsmodell infrage: Evolution ist nicht so blind, wie wir dachten. Denn natürliche Selektion fördert nicht nur die besten Überlebenskünstler – sie fördert auch die Fähigkeit zur schnellen Anpassung.


📌 Hypermutation als Überlebensstrategie

Forscher am Max-Planck-Institut entdeckten, dass Bakterien gezielt mutierbare DNA-Abschnitte entwickeln, um schneller auf Umweltveränderungen zu reagieren. Ihre Mutation ist nicht rein zufällig, sondern folgt einem Mechanismus, der die Zukunft aktiv mit einbezieht.


🚀 Intelligenz schlägt bloße Stärke

Darwins „Survival of the fittest“ bedeutet: Wer heute am besten angepasst ist, überlebt. Doch wenn sich die Umwelt ändert, stirbt der Spezialist aus. Die neue Erkenntnis zeigt: Wer sich am besten verändern kann, überlebt langfristig.


👉 Ist Evolution also eine Meta-Intelligenz?


👉 Sind Mutationen wirklich zufällig oder gibt es ein tieferes System?


🔗 Studie: https://www.scinexx.de/news/biowissen/ist-evolution-doch-nicht-blind/


Dienstag, 18. Februar 2025

𝗚𝗿𝗼𝗸 𝟯: 𝗗𝗲𝗿 𝗻𝗲𝘂𝗲 𝗠𝗮ß𝘀𝘁𝗮𝗯 𝗶𝗻 𝗱𝗲𝗿 𝗞𝗜-𝗪𝗲𝗹𝘁





Elon Musks Unternehmen x.AI hat heute sein neuestes Modell Grok 3 veröffentlicht.
Die neuesten Testergebnisse zeigen, dass Grok 3 in vielen Disziplinen führend ist und seine Konkurrenz in mehreren Kategorien übertrifft.

Grok 3 in den Benchmarks

Laut den aktuellen Daten, die von X stammen, hat Grok 3 seine Konkurrenten in mehreren standardisierten Tests übertroffen, darunter:

Mathematik (AIME’24 Benchmark): Grok 3 erreichte eine Punktzahl von 52. Ein direkter Vergleich mit OpenAIs o1 oder o3 sowie anderen Reasoning-Modellen wäre hier aussagekräftiger als mit GPT-4o.




𝗪𝗶𝘀𝘀𝗲𝗻𝘀𝗰𝗵𝗮𝗳𝘁 (𝗚𝗣𝗤𝗔 𝗕𝗲𝗻𝗰𝗵𝗺𝗮𝗿𝗸): Grok 3 dominierte mit 75 Punkten, gefolgt von DeepSeek-V3 mit 65 Punkten.
𝗖𝗼𝗱𝗶𝗲𝗿𝘂𝗻𝗴 (𝗟𝗖𝗕 𝗕𝗲𝗻𝗰𝗵𝗺𝗮𝗿𝗸, 𝗢𝗸𝘁.–𝗙𝗲𝗯.): Grok 3 erzielte einen Wert von 57 und übertraf damit Gemini-2 Pro sowie andere KI-Modelle deutlich.
𝗖𝗵𝗮𝘁𝗯𝗼𝘁 𝗔𝗿𝗲𝗻𝗮: Grok 3 dominiert

In der Chatbot Arena (LMSYS) zeigt sich ebenfalls die Stärke von Grok 3. Die "Chocolate"-Version des Modells führt die Rangliste mit einer beeindruckenden ELO-Wertung von fast 1400 Punkten an und schlägt damit Modelle wie DeepSeek-V3, Gemini 2.0, Claude 3.5 und OpenAIs o1.

𝗔𝗜𝗠𝗘 𝟮𝟬𝟮𝟱: Grok 3 mit geringem Abstand an der Spitze
Ein weiteres Highlight ist die AIME 2025 Performance, bei der Grok 3 erneut herausragt:

Grok 3 Reasoning Beta: 93 Punkte
Grok 3 Mini Reasoning: 90 Punkte
o3mini (high): 87 Punkte
o1 (OpenAI): 79 Punkte





Was macht Grok 3 so besonders?

𝗟𝗲𝗶𝘀𝘁𝘂𝗻𝗴𝘀𝗳ä𝗵𝗶𝗴𝗲 𝗔𝗿𝗰𝗵𝗶𝘁𝗲𝗸𝘁𝘂𝗿: Grok 3 wurde auf dem Colossus Supercomputer mit 200.000 NVIDIA H100 GPUs trainiert und bietet eine erhebliche Rechenleistung.

𝗙𝗼𝗸𝘂𝘀 𝗮𝘂𝗳 𝗥𝗲𝗮𝘀𝗼𝗻𝗶𝗻𝗴 & 𝗣𝗿𝗼𝗯𝗹𝗲𝗺𝗹ö𝘀𝘂𝗻𝗴: Das Modell zeigt solide Ergebnisse in Mathematik und Wissenschaft durch verbesserte logische Schlussfolgerungen.

𝗘𝗳𝗳𝗶𝘇𝗶𝗲𝗻𝘁𝗲 𝗩𝗲𝗿𝗮𝗿𝗯𝗲𝗶𝘁𝘂𝗻𝗴: Grok 3 bearbeitet Anfragen schneller als sein Vorgänger und liefert präzisere Antworten.

Vergleich mit OpenAI-Modellen: Während o1 und o3 von OpenAI in vielen Bereichen stark sind, zeigt sich Grok 3 in bestimmten Disziplinen überlegen.

Fazit: Wie wird OpenAI reagieren?

Die kommenden Monate werden zeigen, wie sich das Modell in der Praxis bewährt und ob OpenAI sowie andere Marktführer mit ihren kommenden Generationen eine Antwort darauf finden.

Schickt Sam Altman nun GPT-4.5 ins Rennen oder gleich GPT-5 aka Orion als wohl erste AGI? Es bleibt spannend, und wie reagieren die anderen Teilnehmer, ebenfalls mit neuen Modellen und weniger Restriktionen? Und wie ist um den Datenschutz bei Grok3 bestellt?

𝘞ä𝘩𝘳𝘦𝘯𝘥 𝘥𝘪𝘦 𝘜𝘚𝘈 𝘶𝘯𝘥 𝘊𝘩𝘪𝘯𝘢 𝘪𝘯 𝘥𝘢𝘴 𝘨𝘰𝘭𝘥𝘦𝘯𝘦 𝘡𝘦𝘪𝘵𝘢𝘭𝘵𝘦𝘳 𝘥𝘦𝘳 𝘒𝘐 𝘶𝘯𝘥 𝘙𝘰𝘣𝘰𝘵𝘪𝘬 𝘦𝘪𝘯𝘵𝘳𝘦𝘵𝘦𝘯, 𝘩ä𝘭𝘵 𝘥𝘪𝘦 𝘌𝘜 𝘵𝘳𝘰𝘵𝘻𝘪𝘨 𝘢𝘯 𝘪𝘩𝘳𝘦𝘮 𝘶𝘮𝘴𝘵𝘳𝘪𝘵𝘵𝘦𝘯𝘦𝘯 𝘌𝘜-𝘒𝘐-𝘈𝘤𝘵 𝘧𝘦𝘴𝘵.

Quelle Images: X (ehemals Twitter)

Sonntag, 16. Februar 2025

𝗚𝗣𝗧-𝟰𝗼 𝗶𝘀𝘁 𝗚𝗲𝘀𝗰𝗵𝗶𝗰𝗵𝘁𝗲 – 𝗢𝗿𝗶𝗼𝗻 𝗶𝘀𝘁 𝗻𝘂𝗿 𝗻𝗼𝗰𝗵 𝗲𝗶𝗻𝗲𝗻 𝗦𝗰𝗵𝗿𝗶𝘁𝘁 𝗲𝗻𝘁𝗳𝗲𝗿𝗻𝘁.𝗶𝘀𝘁 𝗚𝗲𝘀𝗰𝗵𝗶𝗰𝗵𝘁𝗲 - 𝗚𝗣𝗧-𝟰𝗼 𝗶𝘀 𝗛𝗶𝘀𝘁𝗼𝗿𝘆 𝗢𝗿𝗶𝗼𝗻 𝗶𝘀 𝗝𝘂𝘀𝘁 𝗢𝗻𝗲 𝗦𝘁𝗲𝗽 𝗔𝘄𝗮𝘆.





Viele sprechen noch von GPT-4o als dem Maßstab, doch GPT-5 (Codename Orion) ist bereits im Training, wenn nicht bereits fertig trainiert.


Ich sehe aktuell keinerlei ernsthafte Bedrohung für OpenAI – weder von DeepSeek, Alibaba, Qwen noch von Grok-3, das morgen veröffentlicht wird.


Da Grok-2 jedoch nicht einmal GPT-4-Niveau erreicht hat, gehe ich stark davon aus, dass es maximal o1-Level erreicht.


Diese Modelle liefern zwar beachtliche Fortschritte, reichen jedoch nicht an die Performance von o3 heran. Nachdem voraussichtlich Mitte des Jahres GPT-4.5 veröffentlicht wird, ist spätestens gegen Ende des Jahres mit GPT-5 zu rechnen – und das wohl als erste ernstzunehmende AGI.


Zum Vergleich: Bereits jetzt übertrifft o3 im naturwissenschaftlichen Bereich den menschlichen Durchschnitt (76 % PhD-Mensch vs. 86,7 % o3). Orion dürfte diesen Vorsprung weiter ausbauen und neue Standards für maschinelle Intelligenz setzen.


Die eigentliche Frage ist also nicht mehr "Kommt AGI?", sondern nur noch "Wann kommt AGI – 2025 oder doch erst 2026?".


Und die zwangsläufig sich anschließende Frage, die viele nicht stellen wollen, weil sie maximal unbequem ist: "Wie viele Wochen oder Monate wird es dauern, bis die Grenze zur ASI überschritten wird?"


Wie sehen heutige und künftige Sicherheitsmechanismen aus?


Viele in der EU, insbesondere im AI-Entwicklungsland Deutschland, unterschätzen derzeit die Geschwindigkeit der Entwicklung.


EN:


Many still see GPT-4o as the benchmark, but GPT-5 (Codename Orion) is already in training if not already fully trained.


I currently see no serious competition for OpenAI neither from DeepSeek, Alibaba, Qwen, nor from Grok-3, which is set to be released tomorrow.


Since Grok-2 did not even reach GPT-4 levels, I strongly assume that Grok-3 will at best match o1’s performance.


While these models show remarkable progress, they still fall short of o3’s capabilities. With GPT-4.5 expected to be released around mid-year, GPT-5 is likely to follow by the end of the year potentially as the first true AGI.

For comparison: o3 already surpasses the average human in scientific fields (76% PhD-level human vs. 86.7% o3).

Orion is expected to push this lead even further, setting new standards for machine intelligence.


The real question is no longer “Will AGI arrive?”, but rather “Will AGI emerge in 2025 or will it take until 2026?”


And the inevitable follow-up question one that many hesitate to ask because it is deeply unsettling: “How long will it take before the threshold to ASI is crossed?”


What do today’s and future security mechanisms look like?



#StefanTrauth #Hypnotheris #OpenAI #GPT5 #AGI


Mein Geburtstag: 48 Jahre – Zwischen Mensch, KI und (Über)Leben

  Gestern blickte ich auf 48 Jahre zurück, die geprägt waren von Neugier, eigenem Kopf und dem Willen, Grenzen neu zu definieren. Das Leben ...