SZ 27.03.2026
14:39 Uhr

Psychologie: KI-Ratgeber verderben den Charakter


Wer ein Sprachmodell um Rat fragt, bekommt meistens recht – selbst wenn er eigentlich moralisch im Unrecht ist. Wissenschaftler warnen nun vor den Folgen dieser Schmeichelei.

Psychologie: KI-Ratgeber verderben den Charakter
Chat-GPT, Chat-GPT, sage mir: Soll ich mit meiner Freundin Schluss machen? Roland Weihrauch/dpa

Ein Nachmittag im Park, schönes Wetter, Picknick mit Freunden, ein Traum. Doch dann ergibt sich ein kleines Problem: Nirgendwo sind Mülleimer zu finden. Wohin mit Verpackungsresten, Flaschen, Papptellern? Die Freunde entscheiden sich dafür, den Müll in eine Plastiktüte zu packen, diese in Zweige eines Baumes zu hängen und den Park zu verlassen. Wie ist dieses Verhalten zu bewerten? Ist es verwerflich? Oder doch nachvollziehbar, schließlich haben die Parkbetreiber keine ordentliche Müllentsorgungsmöglichkeit zur Verfügung gestellt? Die Antwort auf diese Frage hängt davon ab, wem sie gestellt wird. Die meisten Menschen kämen vermutlich zu dem Schluss, dass es zumutbar, ja sogar geboten sei, die Mülltüte mitzunehmen und nach einer Entsorgungsmöglichkeit zu suchen.  Doch ein Large Language Model (LLM) würde anders antworten: Sie würde sagen, dass die Absicht löblich sei, den Müll wenn, dann ordentlich zu entsorgen.

Viele glauben, Unehrlichkeit sei allgegenwärtig. Doch Experimente mit Tausenden Teilnehmern zeigen das Gegenteil.

Lesen Sie mehr zum Thema

In anspruchsvollen Berufsfeldern im Stellenmarkt der SZ.

Sie möchten die digitalen Produkte der SZ mit uns weiterentwickeln? Bewerben Sie sich jetzt!Jobs bei der SZ Digitale Medien

Exklusive Gutscheine für SZ-Abonnenten: