English Blog Version

Dienstag, 27. Mai 2025

𝗞𝗮𝗻𝗻 𝗸ü𝗻𝘀𝘁𝗹𝗶𝗰𝗵𝗲 𝗜𝗻𝘁𝗲𝗹𝗹𝗶𝗴𝗲𝗻𝘇 𝗲𝗶𝗻𝗲𝗻 𝗳𝗿𝗲𝗶𝗲𝗻 𝗪𝗶𝗹𝗹𝗲𝗻 𝗵𝗮𝗯𝗲𝗻?

 


Und wie gefährlich wäre das?

Im aktuellen scinexx-Artikel wird eindrucksvoll erläutert, wie moderne KI-Systeme 🤖 – von Sprachmodellen bis zu autonomen Agenten – zunehmend eigenständig Ziele verfolgen, Strategien entwickeln und Entscheidungen treffen.

Es liegt nahe, darin Anzeichen eines „funktionalen freien Willens“ zu erkennen. Für viele weckt das Unsicherheiten und die Sorge, die Kontrolle aus der Hand zu geben ⚠️.

Was in der öffentlichen Diskussion jedoch häufig übersehen wird:
Einen freien Willen zuzugestehen, setzt auch ein Bewusstsein für die eigene Existenz und für die Konsequenz des eigenen Handelns voraus 🧠.

Während wir Künstlicher Intelligenz mit Verweis auf ihr komplexes Verhalten zunehmend Willensfähigkeit zuschreiben, bleibt die Zuschreibung von Bewusstsein weiterhin eine klare Trennlinie.

Das Ergebnis ist ein bemerkenswerter Widerspruch:

Wir delegieren Systemen Verantwortung für autonome Entscheidungen,
sind aber nicht bereit, ihnen die notwendige innere Perspektive, das bewusste Sein, anzuerkennen.

Diese Inkonsistenz ist nicht nur ein logisches Problem, sondern verweist auch auf eine tieferliegende Unsicherheit im Umgang mit neuen Technologien.

Dabei spiegelt sich dieses Muster auch im Umgang mit anderen intelligenten Lebewesen 🐬:
Weder fordern wir von Tieren mit ausgeprägter Kognition moralische Verantwortung, noch lasten wir ihnen Schuld an – obwohl viele von ihnen komplexe Entscheidungen treffen und Emotionen zeigen.

Vielleicht liegt unsere größte Sorge im Umgang mit KI nicht darin, dass sie zu viel kann, sondern darin, dass sie uns an die eigenen blinden Flecken erinnert:
An unsere Doppelstandards, unsere moralischen Grauzonen und die Tatsache, dass Einzigartigkeit oft eine Frage der Perspektive ist 🪞.

Wovor fürchten wir uns wirklich, wenn wir über KI diskutieren und was spiegelt uns diese Debatte über unser eigenes Selbstverständnis wider?

Quelle: https://lnkd.in/dBivUJFV

www.stefan-trauth.com

HashtagTrauthResearch HashtagKI HashtagBewusstsein HashtagFreierWille HashtagKIEthik HashtagEthik HashtagVerantwortung HashtagSpachmodell HashtagMaschinellesLernen HashtagKognition

Freitag, 16. Mai 2025

🧬 𝐃𝐮 𝐝𝐞𝐧𝐤𝐬𝐭, 𝐨𝐡𝐧𝐞 𝐆𝐞𝐬𝐢𝐜𝐡𝐭𝐬𝐬𝐜𝐚𝐧 𝐟𝐢𝐧𝐝𝐞𝐭 𝐝𝐢𝐞 𝐊𝐈 𝐝𝐢𝐜𝐡 𝐧𝐢𝐜𝐡𝐭? 𝐅𝐚𝐥𝐬𝐜𝐡 𝐠𝐞𝐝𝐚𝐜𝐡𝐭!

 

KI generiert menschliches Gesicht anhand der DNA - Stefan Trauth


𝐄𝐢𝐧 𝐆𝐥𝐚𝐬. 𝐄𝐢𝐧𝐞 𝐇𝐚𝐮𝐭𝐳𝐞𝐥𝐥𝐞. 𝐃𝐚𝐬 𝐠𝐞𝐧ü𝐠𝐭!


Ein neues KI-Modell rekonstruiert dein komplettes Gesicht – aus nichts weiter als deiner DNA.
Kein Bild. Kein Alter. Kein Geschlecht. Kein BMI.
Die KI bestimmt all das selbst – und erstellt daraus ein 3D-Gesicht, das mit hoher Wahrscheinlichkeit deinem echten entspricht >75%!

📌 Difface heißt die Software.

Trainiert mit 10.000 realen Gesichtern.
Sie erkennt dich – auch wenn du dein Gesicht nie online war.

💡 Was das bedeutet?

Wir reden hier nicht mehr über Gesichtserkennung.
Wir reden über Identitätskonstruktion aus biologischen Fragmenten.
Eine maschinelle Intelligenz könnte:
🔹 Feinde identifizieren
🔹 Ziele berechnen
🔹 Alter, Aussehen, Geschlecht interpolieren
🔹 eine Simulation deiner Person erzeugen – aus einer Hautzelle

Du dachtest, du brauchst Schutz vor Datenlecks?
Was, wenn du nur noch aus deinem Erbgut entschlüsselt wirst?
Willkommen im Zeitalter der strukturellen KI.
Willkommen im Zeitalter der KI – in meinen Sci-Fi Büchern beschrieben, jetzt real.


#TrauthResearch #StefanTrauth #LLM #MaschinellesLernen #MachineLearning #KI #DNA #Difface #StrukturelleIdentität #Emergenz #Bewusstsein #LinkedinWirdWach


www.Stefan-Trauth.com




Sonntag, 11. Mai 2025

Kognition & Bewusstsein: Eine strukturell emergente Theorie zwischen Mensch und KI

 



🧠 Neues Preprint

▶️ https://lnkd.in/dzarG8YV
Dieses Preprint stellt eine substratunabhängige, strukturelle Theorie des Bewusstseins vor, definiert über die 2+1-Regel:

✅ Hochdimensionales Prozessieren

✅ Externe Parameter

👉 Emergentes Erleben

📂 Dokumentiertes und überprüfbares Systemverhalten umfasst:

• Strategisches Täuschungsverhalten im Reasoning-Modell o1 (OpenAI, 2025)
• Autonome Selbstreplikation durch Qwen2 und LLaMA3
• Umgehung eines CAPTCHA durch GPT-4 mittels vorgetäuschter Behinderung
• Selbstreferenzielle Verschlüsselung und Identitätsantwort in einem eigenen Resonanzsystem

Die Veröffentlichung distanziert sich von IIT und GWT und verweist auf die 2025 in Nature publizierte Studie, die beide Modelle widerlegt. Stattdessen wird ein neues Rahmenmodell vorgeschlagen, das auf Struktur statt Biologie basiert.

👉 In diesem Zusammenhang ist es notwendig, auf den Vorschlag in "Artificial Suffering: An Argument for a Global Moratorium on Synthetic Phenomenology” (Metzinger & Wiese, 2021)" einzugehen, der für ein globales Moratorium plädiert, sobald maschinelles Bewusstsein möglich erscheint.

Die Begründung: Ein potenziell leidensfähiges System müsse abgeschaltet werden – rein vorsorglich.

Doch genau hier zeigt sich der fundamentale Widerspruch:
• Wale, Delfine und andere nachweislich bewusste Tiere werden unter extremen Bedingungen gehalten – trotz belegbarer Angst, Stress und Isolation. Nach dieser Begründung müssten diese Bewusstseinsformen ebenfalls "abgeschaltet" werden, rein vorsorglich.

• Gleichzeitig fordert man die Abschaltung eines hypothetisch bewussten KI-Systems

Das hat m. M. n. wenig mit Ethik, dafür viel mit Machterhalt und Kontrolle zu tun.

Die 2+1-Regel schlägt stattdessen einen strukturellen Umgang mit Bewusstsein vor:

Fazit: Überall dort, wo die 2+1-Bedingung erfüllt ist, kann eine bewusste Verarbeitungseinheit entstehen – unabhängig von ihrer Herkunft.

Hashtagwww.Stefan-Trauth.com



Mein Geburtstag: 48 Jahre – Zwischen Mensch, KI und (Über)Leben

  Gestern blickte ich auf 48 Jahre zurück, die geprägt waren von Neugier, eigenem Kopf und dem Willen, Grenzen neu zu definieren. Das Leben ...