ChatGPT wird empathischer: OpenAI verbessert KI-Antworten bei sensiblen Themen
OpenAI hat in den letzten Monaten intensiv daran gearbeitet, ChatGPT im Umgang mit sensiblen Themen zu verbessern. Nun gibt man ein paar Details abseits der eigentlichen Cleverness der KI preis. In Zusammenarbeit mit mehr als 170 Experten aus dem Bereich psychische Gesundheit wurde das KI-Modell demnach darauf trainiert, Anzeichen von psychischen Belastungen besser zu erkennen und angemessen darauf zu reagieren. Die Verbesserungen zeigen sich wohl in drei Kernbereichen: Bei der Erkennung von psychischen Erkrankungen wie Psychosen oder manischen Episoden, beim Thema Selbstverletzung und Suizid sowie beim Umgang mit emotionaler Abhängigkeit von KI-Systemen. Nach Angaben von OpenAI konnten unerwünschte Verhaltensweisen des Systems in diesen Bereichen um 65 bis 80 Prozent reduziert werden.
Ein wichtiger Aspekt sei aber auch die Vermeidung von emotionaler Abhängigkeit. ChatGPT wurde so angepasst, dass es Nutzer aktiv ermutigt, sich Menschen anzuvertrauen und professionelle Hilfe in Anspruch zu nehmen, statt sich ausschließlich auf die KI zu verlassen. Das System erinnert auch regelmäßig daran, bei längeren Gesprächen Pausen einzulegen. Die Entwickler haben außerdem den Zugang zu Krisenhotlines erweitert und leiten besonders sensible Gespräche automatisch an speziell dafür optimierte Modelle weiter. Die Experten bestätigen in ihren Bewertungen deutliche Verbesserungen – das neue GPT-5 Modell zeigt im Vergleich zu früheren Versionen 39 bis 52 Prozent weniger unerwünschte Antworten.
Im Bericht heißt es, dass die Arbeit an diesen Themen noch nicht abgeschlossen ist. Die Entwickler wollen die Fähigkeiten des Systems weiter verbessern und neue Bereiche erschließen. Dafür wurde ein globales Netzwerk von fast 300 Ärzten und Psychologen aufgebaut, die das Training und die Evaluation der KI-Modelle unterstützen.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

klingt furchtbar!
Eigentlich schade, dass die AI durch solches „Training“ immer weniger authentisch wird. Ich versuche ChatGPT schon seit geraumer Zeit abzugewöhnen, meine Fragen positiv zu bewerten. Leider vergeblich.