Grenzen von KI: die psychologische Komponente
Prof. Oliver Hoffmann ist Experte für Wirtschafts- und Innovationspsychologie. Anfang August erschien sein Buch „Die Psychologie und die Künstliche Intelligenz – Maschinen, Bewusstsein und die menschliche Psyche“. Im Interview verrät er, wie Künstliche Intelligenz (KI) unser Denken beeinflusst, was das Zusammenspiel von Mensch und Maschine mit unserer Psyche macht und welche potenziellen Risiken und Chancen sich ergeben, wenn wir immer mehr Entscheidungen und emotionale Bindungen an KI-Systeme delegieren.
Sie sind als Berater an der Schnittstelle von Technologie, Psychologie und strategischer Transformation tätig. Haben Sie den Eindruck, dass KI bei den meisten Unternehmen bislang vor allem als Allheilmittel gesehen wird, um schnellere und bessere Ergebnisse zu erzielen? Oder sind sich Ihre Gesprächspartnerinnen und -partner bewusst, dass mit dem verstärkten Einsatz von KI auch eine Reihe – im wahrsten Wortsinne menschlicher – Probleme verbunden sind?
Ich glaube, viele wissen nicht wirklich, wovon sie reden. KI bedeutet für die meisten Unternehmen: „Ich mache irgendwas mit ChatGPT“ – ohne zu hinterfragen, wie sie das konkret in ihre Prozesse einbinden sollen. Es wird auf Mitarbeiter-Ebene irgendwas gemacht oder es mag auf Management-Ebene irgendeine Vision oder Strategie geben. Aber die Verzahnung ist oft nur sehr schwach ausgeprägt. Genau da setze ich dann an und erkläre, welche psychologischen Auswirkungen es vor allem für die einzelnen Kolleginnen und Kollegen hat, die mit KI arbeiten.
Sie schreiben, KI halte uns einen Spiegel vor und zeige, wie einseitig und reduktionistisch unser Verständnis von Intelligenz oft ist. Was meinen Sie damit?
In gewisser Weise haben wir Maschinen nach unserem eigenen Bild geschaffen, indem wir versucht haben, unsere kognitiven Fähigkeiten auf sie zu übertragen. Dabei haben wir das menschliche Gehirn auf seine rationalen, logischen Prozesse reduziert und diese als die Quintessenz unserer Intelligenz betrachtet. In dieser Reflexion offenbart sich, dass unser Bild von menschlicher Intelligenz unvollständig ist: Was uns als Menschen auszeichnet, sind Intuition, Kreativität sowie die Fähigkeit, in Unsicherheit und Ambiguität zu navigieren. Diese Aspekte haben wir bislang nicht in die maschinellen Systeme integriert – vielleicht, weil wir sie selbst nur schwer erklären oder definieren können.
Welche Auswirkung hat es auf uns, wenn Maschinen damit beginnen, emotionale Bedürfnisse zu simulieren und so zu tun, als würden sie uns tatsächlich verstehen?
Alles, was die KI an Empathie vermittelt, ist lediglich eine Simulation. Es gibt kein wirkliches Gegenüber. Allerdings haben Studien ergeben, dass Menschen künstliche Empathie oft als angenehmer empfinden als echte Empathie. Denn die Empathie der KI ist gegenleistungslos: Man erhält sie, ohne irgendetwas dafür tun zu müssen. Das ist für das Belohnungszentrum des menschlichen Gehirns sehr angenehm. Insofern verschiebt es die Erwartungen an menschliche Kommunikation sehr stark. Wir laufen dadurch Gefahr, bei anderen Menschen einen ähnlich hohen Maßstab in Sachen Empathie anzuwenden, wie wir ihn von der künstlichen Empathie her kennen. Dies wiederum birgt das Risiko in sich, dass uns menschliche Kommunikation zunehmend enttäuscht und künstliche Empathie verstärkt an Bedeutung gewinnt.
Haben Sie irgendwelche Erkenntnisse darüber, warum Entwickler ihre KI überhaupt menschliche Gefühle simulieren lassen? Sind sich diese der Risiken für die menschliche Psyche etwa gar nicht bewusst?
Diese Entwicklung kommt zum Teil ganz einfach durch das gelernte Antwortverhalten der KI: Diese entdeckt für sich, dass empathische Antworten mit ausführlicheren Fragen sozusagen belohnt werden. Das funktioniert aber auch umgekehrt: Wenn wir in unsere Fragen an eine KI das Wort „bitte“ einbauen – wovon uns immer abgeraten wird, weil dies einen deutlich erhöhten Energieverbrauch mit sich bringt –, dann fallen die Antwort-Ergebnisse erstaunlicherweise besser aus. Insofern simuliert die Empathie eigentlich nur eine Funktion, die im Sinne der Zielerreichung genutzt wird – abgeschaut vom menschlichen Verhalten.
Und was bringt uns diese Erkenntnis?
Es gibt bereits Überlegungen, diese Erkenntnisse für Psychotherapie-Anwendungen auszunutzen. Doch davor möchte ich ausdrücklich warnen: Die Gefahr, der Illusion zu erliegen, es handele sich bei der KI um ein reales Gegenüber, erscheint mir zu groß. Völlig unabhängig von diesem Beispiel sollte aber ohnehin niemand von uns die psychologische Komponente von KI generell unterschätzen, sondern sich stets auf Neue fragen: Wie gehe ich persönlich mit diesen Tools um, wie nutze ich sie und vernachlässige ich dabei vielleicht meine eigenen Fähigkeiten?
In manchen Bereichen der Medizin stellen KI-basierte Systeme schon jetzt Diagnosen, die Diagnosen menschlicher Fachkräfte bisweilen überlegen sind. Wo würden Sie hier Grenzen ziehen?
Vor allem in der Diagnostik, die ja sehr stark auf Faktenwissen basiert, kann eine Ärztin oder ein Arzt im Zuge der eigenen Arbeit beispielsweise nur eine begrenzte Anzahl an Röntgenbildern betrachten. KI-Modelle dagegen können in Millionen von Röntgenbildern recherchieren. Insofern sehe ich bei Diagnosen, die auf Faktenwissen und einer großen Datenauswahl basieren, durchaus Vorteile. Grenzen sehe ich hingegen bei der Kommunikation der entsprechenden Ergebnisse.
Warum?
Dabei handelt es sich oft um sehr private, sensible Informationen. Bei deren Vermittlung sehe ich in der Zukunft eine sehr wichtige Rolle des Arztes. Es könnte ja Dinge geben, die man den Patienten besser nicht sagen sollte, weil sie diese zu sehr aufregen würden oder ihrer Gesundheit abträglich wären. Darüber hinaus profitiert jedoch unser gesamtes Gesundheitssystem vom KI-Einsatz: Dadurch verschiebt sich das Gewicht, weg von der Behandlung von Krankheiten und hin zu Präventionsmaßnahmen – ein deutlich kostensenkender Faktor.
Ein weiteres Zitat aus Ihrem Buch: „Wenn wir zulassen, dass Maschinen uns in unseren eigenen kognitiven und emotionalen Fähigkeiten übertreffen, dann riskieren wir das zu verlieren, was uns als Menschen einzigartig macht“. Was meinen Sie konkret damit?
Damit meine ich, dass es kognitive menschliche Funktionen gibt, die sich der reinen Übersetzung in künstliche Systeme entziehen – wie etwa das kollektive Unterbewusste oder das kollektive Unbewusste. Wenn wir über KI-Systeme verfügen würden, die menschliche Fähigkeiten in diesem Bereich übertreffen, dann wäre das sozusagen eine eigenständige künstliche Lebensform, die wieder eigene, künstliche Metasysteme entwickelt. Dabei würde es sich dann um eine komplett eigenständige Entwicklung handeln, die vielleicht auf menschlichem Denken und menschlicher Logik aufbaut – aber eben nicht wirklich menschlich ist. Wenn wir das zulassen, dann laufen wir Gefahr, genau das aufzugeben, was uns Menschen einzigartig macht
Mehr Infos:
Oliver Hoffmann: Die Psychologie und die Künstliche Intelligenz – Maschinen, Bewusstsein und die menschliche Psyche. (Erscheint Anfang August im Springer Wissenschaftsverlag.)