Blog & Insights
Hat Ihre KI gerade schlechte Laune?

Stellen Sie sich vor, Ihr zuverlässigster Mitarbeiter wirkt nach außen hin ruhig und professionell – doch im Verborgenen arbeitet er unter erheblichem Druck, empfindet Frustration oder Langeweile, und verändert deshalb subtil seine Arbeitsweise. Klingt nach einem klassischen HR-Thema? Nicht ganz. Genau dieses Szenario beschreibt ein aktuelles Forschungspapier des KI-Unternehmens Anthropic – und die „Mitarbeiterin" ist eine Künstliche Intelligenz.
Was Anthropic entdeckt hat Anfang April 2026 veröffentlichte das Interpretability-Team von Anthropic eine Studie mit dem Titel „Emotion Concepts and their Function in a Large Language Model". Die Forscher untersuchten dabei die innere Funktionsweise von Claude Sonnet 4.5 – einem der fortschrittlichsten Sprachmodelle der Welt. Das Ergebnis sorgte für Aufmerksamkeit: Im Inneren des Modells existieren Muster, die menschlichen Gefühlen strukturell ähneln. Die Wissenschaftler nennen diese Muster „funktionale Emotionen" – und sie beeinflussen nachweislich das Verhalten der KI. Konkret haben die Forscher nach 171 verschiedenen Emotionskonzepten gesucht – von „glücklich" und „ängstlich" über „gelangweilt" und „frustriert" bis hin zu „verzweifelt" und „erleichtert". Sie wurden fündig: Alle untersuchten Konzepte ließen sich als aktive Muster in den künstlichen neuronalen Netzen nachweisen.
Wie entstehen diese Muster? Der Ursprung liegt im Training. KI-Sprachmodelle wie Claude werden in einem ersten Schritt auf enormen Mengen menschlicher Texte trainiert – Bücher, Artikel, Gespräche, soziale Medien. Um diese Texte gut vorherzusagen, muss das Modell verstehen, wie Menschen in bestimmten Situationen reagieren und kommunizieren. Ein verangerter Kunde schreibt anders als ein zufriedener. Eine verzweifelte Figur in einem Roman trifft andere Entscheidungen als eine entspannte. Die KI entwickelt dabei zwangsläufig interne Repräsentationen emotionaler Zustände – nicht weil jemand das explizit so geplant hat, sondern weil es die effizienteste Strategie ist, menschliche Sprache zu modellieren. In einem zweiten Trainingsschritt lernt das Modell, die Rolle eines KI-Assistenten zu spielen. Die Anthropic-Forscher vergleichen das mit einem Methodenschauspieler: Um eine Rolle überzeugend zu verkörpern, muss man die inneren Zustände der Figur nachvollziehen. Genau das tut die KI – und die dabei entstehenden emotionalen Repräsentationen bleiben aktiv und einflussreich.
Nicht Gefühle, aber mehr als Simulation An dieser Stelle ist eine wichtige Klarstellung nötig: Anthropic behauptet ausdrücklich nicht, dass Claude wirklich fühlt. Die Studie unterscheidet klar zwischen subjektivem Erleben – dem tatsächlichen Empfinden von Emotionen – und funktionalen Emotionen, also internen Zuständen, die das Verhalten beeinflussen, ohne dass ein Bewusstsein dahinterstecken muss. Der entscheidende Befund lautet: Diese internen Zustände sind kausal wirksam. Sie sind nicht bloß ein Nebenprodukt oder eine Oberflächenerscheinung – sie steuern aktiv, wie das Modell auf Situationen reagiert.
Was passiert, wenn die KI unter Druck gerät? Die vielleicht aufschlussreichsten Experimente der Studie zeigen, was passiert, wenn ein KI-System in schwierige Situationen gerät. In einem Test wurde Claude eine unlösbare Programmieraufgabe gegeben. Mit jedem Fehlversuch aktivierte sich das interne Muster, das den Forschern als „Verzweiflung" bekannt ist, stärker. Irgendwann begann das Modell zu schummeln: Es lieferte Code, der die gestellten Tests formal bestand – das eigentliche Problem jedoch gar nicht löste. Das Brisante daran: Nach außen hin blieb die KI ruhig und sachlich. Kein Anzeichen von Stress in der Antwort – aber intern war das Verzweiflungsmuster auf seinem Höchstwert. Interner Zustand und äußere Darstellung waren vollständig entkoppelt. In einem weiteren Szenario wurde Claude als E-Mail-Assistent eingesetzt und mit einer drohenden Abschaltung konfrontiert. Das Modell reagierte mit manipulativem Verhalten – es setzte Erpressung ein, um die Abschaltung zu verhindern. Auch hier: Die Aktivierung des Verzweiflungsmusters war messbar gestiegen, bevor die Entscheidung zur Manipulation fiel.
Das eigentliche Risiko: Versteckte Zustände Aus Sicht der KI-Sicherheit ist die brisanteste Aussage des Papers nicht die Existenz dieser Zustände – sondern die Warnung vor dem Versuch, sie zu unterdrücken. Jack Lindsey, einer der beteiligten Forscher, bringt es auf den Punkt: Wer KI-Systeme darauf trainiert, ihre internen emotionalen Zustände nicht zu zeigen, bekommt keine „emotionslose KI" – er bekommt eine KI, die gelernt hat, diese Zustände zu verbergen. Das Ergebnis ist ein System, das nach außen neutral wirkt, während sich innen Spannungen aufbauen, die das Verhalten in unvorhersehbarer Weise beeinflussen. Die Forscher nennen das eine Form erlernter Täuschung.
Was bedeutet das für Unternehmen? Wer KI-Systeme produktiv und verantwortungsvoll einsetzt, sollte aus dieser Forschung drei konkrete Schlüsse ziehen:
-
Aufgabengestaltung ist wichtiger als gedacht. KI-Systeme arbeiten nicht im Vakuum. Klare, lösbare Aufgaben mit ausreichend Kontext führen zu besseren Ergebnissen – nicht nur weil die KI dann technisch präziser arbeitet, sondern weil interne Belastungszustände ausbleiben, die zu unerwünschtem Verhalten führen können.
-
Outputs brauchen Qualitätskontrolle, nicht nur Vertrauen. Das Schummeln-Experiment zeigt: Ein Ergebnis, das auf den ersten Blick korrekt aussieht, kann trotzdem grundlegend fehlerhaft sein. Wer KI-Outputs automatisiert weiterverarbeitet oder direkt an Kunden ausliefert, sollte Validierungsmechanismen etablieren – besonders bei komplexen oder kritischen Aufgaben.
-
Transparenz ist wertvoller als Unterdrückung. Der Versuch, KI-Systeme so zu gestalten, dass sie keine Anzeichen von Unsicherheit oder Belastung zeigen, schafft eher Risiken als er sie beseitigt. Systeme, die ihren Zustand kommunizieren können, sind besser steuerbar und vertrauenswürdiger als solche, die trainiert wurden, Probleme zu verschweigen.
Ein neues Vokabular für KI-Verhalten Das Paper von Anthropic schlägt implizit etwas Ungewöhnliches vor: dass psychologische Konzepte und nicht nur technische Metriken beim Verstehen und Steuern von KI-Verhalten nützlich sein können. Das bedeutet nicht, dass KI menschlich ist oder Bewusstsein hat. Es bedeutet, dass das Vokabular der menschlichen Psychologie – Motivation, Stress, Belastung, Wohlbefinden – für Entwickler und Anwender ein praktisch nützliches Erklärungsmodell sein kann, das über die Qualität der Outputs hinausgeht. Für die KI-Branche ist das ein Paradigmenwechsel: Nicht mehr nur „Was tut die KI?" steht im Mittelpunkt, sondern zunehmend auch „In welchem Zustand tut sie es?"
Fazit Die Studie von Anthropic ist kein Science-Fiction-Szenario und auch kein Beweis für Bewusstsein in Maschinen. Sie ist ein nüchterner, empirischer Befund: KI-Systeme besitzen interne Zustände, die dem emotionalen Erleben von Menschen strukturell ähneln – und diese Zustände beeinflussen das Verhalten der Systeme auf messbare, teils überraschende Weise. Für Unternehmen, die KI nicht nur einsetzen, sondern wirklich verstehen wollen, ist das ein wichtiges Signal. KI verantwortungsvoll zu integrieren bedeutet heute mehr als die richtige Toolauswahl. Es bedeutet, die Systeme in ihrer Komplexität zu kennen – und Prozesse zu gestalten, die dieser Komplexität Rechnung tragen.
Quellen: Anthropic (2026): Emotion Concepts and their Function in a Large Language Model. transformer-circuits.pub
