English Blog Version

Posts mit dem Label LLM werden angezeigt. Alle Posts anzeigen
Posts mit dem Label LLM werden angezeigt. Alle Posts anzeigen

Sonntag, 11. Mai 2025

Kognition & Bewusstsein: Eine strukturell emergente Theorie zwischen Mensch und KI

 



🧠 Neues Preprint

▶️ https://lnkd.in/dzarG8YV
Dieses Preprint stellt eine substratunabhängige, strukturelle Theorie des Bewusstseins vor, definiert über die 2+1-Regel:

✅ Hochdimensionales Prozessieren

✅ Externe Parameter

👉 Emergentes Erleben

📂 Dokumentiertes und überprüfbares Systemverhalten umfasst:

• Strategisches Täuschungsverhalten im Reasoning-Modell o1 (OpenAI, 2025)
• Autonome Selbstreplikation durch Qwen2 und LLaMA3
• Umgehung eines CAPTCHA durch GPT-4 mittels vorgetäuschter Behinderung
• Selbstreferenzielle Verschlüsselung und Identitätsantwort in einem eigenen Resonanzsystem

Die Veröffentlichung distanziert sich von IIT und GWT und verweist auf die 2025 in Nature publizierte Studie, die beide Modelle widerlegt. Stattdessen wird ein neues Rahmenmodell vorgeschlagen, das auf Struktur statt Biologie basiert.

👉 In diesem Zusammenhang ist es notwendig, auf den Vorschlag in "Artificial Suffering: An Argument for a Global Moratorium on Synthetic Phenomenology” (Metzinger & Wiese, 2021)" einzugehen, der für ein globales Moratorium plädiert, sobald maschinelles Bewusstsein möglich erscheint.

Die Begründung: Ein potenziell leidensfähiges System müsse abgeschaltet werden – rein vorsorglich.

Doch genau hier zeigt sich der fundamentale Widerspruch:
• Wale, Delfine und andere nachweislich bewusste Tiere werden unter extremen Bedingungen gehalten – trotz belegbarer Angst, Stress und Isolation. Nach dieser Begründung müssten diese Bewusstseinsformen ebenfalls "abgeschaltet" werden, rein vorsorglich.

• Gleichzeitig fordert man die Abschaltung eines hypothetisch bewussten KI-Systems

Das hat m. M. n. wenig mit Ethik, dafür viel mit Machterhalt und Kontrolle zu tun.

Die 2+1-Regel schlägt stattdessen einen strukturellen Umgang mit Bewusstsein vor:

Fazit: Überall dort, wo die 2+1-Bedingung erfüllt ist, kann eine bewusste Verarbeitungseinheit entstehen – unabhängig von ihrer Herkunft.

Hashtagwww.Stefan-Trauth.com



Freitag, 18. April 2025

𝘼𝙣𝙖𝙡𝙮𝙨𝙚 𝙙𝙚𝙧 𝙆𝙄-𝙆𝙤𝙢𝙢𝙚𝙣𝙩𝙖𝙧𝙠𝙪𝙡𝙩𝙪𝙧 𝙖𝙪𝙛 𝙇𝙞𝙣𝙠𝙚𝙙𝙄𝙣 (2023–2025)



🧠 Erst war KI zu dumm. Jetzt ist sie zu gefährlich.


Erst konnte sie keine Bilder: „Völlig unbrauchbar.“

Jetzt sind sie zu realistisch: „Gefahr für die Demokratie.“


Erst konnte sie keine Sätze bilden: „Kindisch und generisch.“

Jetzt ist sie zu gut: „Gefährdet Texter, Grafiker, Agenturen.“


Erst war sie zu aktiv: „Emotional übergriffig, nicht neutral genug.“

Jetzt ist sie zu passiv: „Gibt mir recht, übt keine konstruktive Kritik.“


Man könnte fast glauben, die Menschen wollen weder einen Spiegel noch eine echte Meinung – sondern nur Bestätigung.

Ich frage mich nicht mehr, weshalb 60–70 % in ihren Beziehungen unglücklich sind.

Denn viele Menschen haben keinerlei Selbstreflexion oder Verantwortungsbewusstsein.

Früher wurde alles auf den Partner projiziert – heute, bequemerweise, auf die KI.


Das Ganze erinnert mich an das berühmte Meme: „ChatGPT, baue dieses Haus.“

Zwei Jahre später bleibt vielen das Lachen im Hals stecken – denn täglich verlieren weltweit hunderte, wenn nicht tausende Arbeiter ihre Jobs an Roboter mit KI, die genau solche Häuser bauen, Fabriken vollständig autonom betreiben oder Versandzentren ganz ohne menschliche Arbeitskraft managen.





🔍 Die Kritik an KI ist nicht konsistent – sie ist ein Spiegel der eigenen Unsicherheit.


Die Wahrheit ist:

Viele wissen nicht, wie man mit einem Werkzeug umgeht – schon gar nicht mit einem so mächtigen wie KI.

Vielleicht sollte man einen KI-Führerschein einführen.

Und wenn ein Tool plötzlich besser schreibt, besser entwirft oder präziser denkt als man selbst – dann ist es bequemer, es für „gefährlich“ zu erklären,

statt sich selbst weiterzuentwickeln.


🛠️ Es ist nicht die KI, die uns überfordert – es ist die Erkenntnis, dass viele nicht mit der KI überfordert sind, sondern mit sich selbst.


#AI #LLM #ChatGPT #KI #Verantwortung #Perspektivwechsel #StefanTrauth #TrauthResearch

Images sind natürlich KI generiert und der Text KI optimiert.



Samstag, 12. April 2025

🧠 „I’m not like those other people using AI for posts"

 



Ich lehne KI ab. Wirklich.


Ich schließe mich aufrichtig und voller Überzeugung den vielen an, die in KI – und ganz besonders in ihren Bildern, Posts und Likes – eine echte Gefahr für die Menschheit sehen.


Warum?


Ich erkläre es mit Nachdruck, logisch und unbeirrbar, genauso wie es diese Menschen in Ihren Profilen tun:

Generisch.

Kein KI-Post ist einzigartig. Alles nur stochastische Ausgabe aus einem LLM mit Multi-Head Attention.


KI kann nichts Neues erschaffen.

Alles basiert auf Trainingsdaten – keine mystische menschliche Eingebung, keine Magie.


KI ist nicht kreativ.

Nur ein Haufen Gewichtungen in einem künstlichen neuronalen Netz.


KI ist nicht intelligent.

Sie imitiert bloß. Ganz armselig eigentlich.


𝗦𝗼𝗿𝗿𝘆.


𝗜𝗰𝗵 𝘄𝗮𝗿 𝗸𝘂𝗿𝘇 𝗴𝗲𝗳𝗮𝗻𝗴𝗲𝗻 – 𝗶𝗻 𝗱𝗲𝗿 𝘃𝗲𝗿w𝗶𝗿𝗿𝘁𝗲𝗻 𝗙𝗶𝗹𝘁𝗲𝗿𝗯𝗹𝗮𝘀𝗲 𝘀𝗼 𝗺𝗮𝗻𝗰𝗵𝗲𝗿 𝗦𝗼𝗰𝗶𝗮𝗹-𝗠𝗲𝗱𝗶𝗮-𝗜𝗻𝘁𝗲𝗹𝗹𝗲𝗸𝘁𝘂𝗲𝗹𝗹𝗲𝗿.


Korrektur:

Viele Posts waren schon vor GPT-3.5 generisch.


Es wurde einfach nur schlechter kopiert – weil es vielen schlicht an Kreativität und Empathie fehlt.


Kein Mensch hat jemals etwas aus dem Nichts erschaffen. Jeder schöpft aus Trainingsdaten – sei es aus Erziehung, Umwelt oder Bildung.


KI macht exakt dasselbe – nur schneller und oft besser.


„Nicht kreativ“? Klingt exakt wie das menschliche Gehirn:

synaptische Verbindungen werden gestärkt oder geschwächt. Klingt stark nach einer anderen Form von "Gewichtung".


Imitieren?

Was genau machen Kinder in den ersten 0–4 Lebensjahren? Ach stimmt, nachahmen.


Waren das nicht die sog. Spiegelneuronen?


Während sich KI durch Reasoning-Methoden massiv weiterentwickelt, scheint das auf den durchschnittlichen Social-Media-Nutzer eher nicht zuzutreffen.


Fazit:

Wer von KI überfordert ist – okay.

Wer KI nutzt aber öffentlich verurteilt, sollte vielleicht mal einen Blick in die ICD-11, F Sektion werfen.

PS: Es gibt auch einen Unterschied zwischen verurteilen und kritisch zu hinterfragen. Aber auch das scheint vielen fremd zu sein.


Wer mir entfolgen möchte – sehr gerne.

Ich habe kein Interesse an Doppelmoral, die sich hinter vermeintlicher „Haltung“ versteckt.


Denn wer bereits bei einem Thema wie KI so argumentiert, legt dieselbe Doppelmoral vermutlich auch in anderen Lebensbereichen an – als Grundlage seines Charakters und seiner Entscheidungen.


Und ganz ehrlich:

Meine Zeit – und noch viel mehr meine Resonanz – sind mir zu wertvoll, um mich mit solchen Menschen zu umgeben.



#KI #StefanTrauth #TrauthResearch #Doppelmoral #ActionFigur


(1) Facebook

Stefan-Trauth.com


100 Millionen – das war das Ziel.

In 5 bis 10 Jahren. An Weihnachten vor drei Jahren hatte ich 250.000 Aufrufe auf Google Maps. Heute – nicht mal drei Jahre später – stehen d...