ChatGPT im Jahr 2025: Zwischen Reife und Grauzonen
Das Alter der Vernunft (und der Verantwortung)
Drei Jahre nach seiner Einführung ist ChatGPT keine technologische Neuheit mehr: Es ist ein tägliches Arbeitsmittel für Hunderte Millionen von Menschen. Doch mit dieser Reife geht auch eine größere Verantwortung einher. Sensible Vorfälle, regulatorische Entwicklungen, aktualisierte Nutzungsbedingungen: Das Jahr 2025 war geprägt von einem kollektiven Bewusstsein für die Risiken, die mit generativer KI verbunden sind. Analyse der aktuellen Herausforderungen.
29. Oktober 2025: Aktualisierung der Nutzungsrichtlinien
Was sich geändert hat:
Am 29. Oktober 2025 veröffentlicht OpenAI eine große Überarbeitung seiner Nutzungsrichtlinien (Usage Policies). Das erklärte Ziel: Harmonisierung der Regeln über alle OpenAI-Produkte hinweg (ChatGPT, API, DALL-E, Whisper usw.) und Klärung von Verboten. Die Änderungen betreffen insbesondere :
- Schutz des Einzelnen: Verstärktes Verbot der Verwendung im Zusammenhang mit Gewalt, Belästigung, Selbstbeschädigung oder Waffenentwicklung.
- Schutz der Privatsphäre: Ausdrückliches Verbot von Gesichtserkennungssystemen ohne Einwilligung, sozialen Bewertungen, Emotionsinferenzen am Arbeitsplatz oder in der Schule (außer aus medizinischen/sicherheitstechnischen Gründen).
- Schutz von Minderjährigen: Verschärfte Regeln gegen jede Form der Ausbeutung, Sexualisierung oder Exposition von Minderjährigen gegenüber unangemessenen Inhalten.
- Automatisierte Entscheidungen: Strenge Rahmenbedingungen für automatisierte Entscheidungen in sensiblen Bereichen (Beschäftigung, Kreditwesen, Gesundheit, Justiz) ohne menschliche Validierung.
Notwendige Klarstellungen in den Medien:
Mehrere Medien berichteten fälschlicherweise, dass OpenAI "nunmehr medizinische und rechtliche Beratung verbietet". Diese Interpretation ist nicht korrekt. Die Nutzungsrichtlinien verbieten persönliche Beratung, die einen Berufsabschluss erfordert, ohne die Einbeziehung eines qualifizierten Fachmanns - ChatGPT kann jedoch weiterhin allgemeine Informationen bereitstellen und darauf hinweisen, dass es keinen Experten ersetzt.
Implikationen für Unternehmen:
Diese Aktualisierungen stärken den ethischen Rahmen, erfordern aber auch erhöhte Wachsamkeit. Organisationen müssen sicherstellen, dass ihre Anwendungsfälle diesen neuen Richtlinien entsprechen, insbesondere in den Bereichen Personalwesen, Gesundheit, Finanzen und Justiz.
August 2025: Gerichtsverfahren nach dem Selbstmord eines Teenagers
Die Fakten:
Am 26. August 2025 reichten Matthew und Maria Raine eine Klage gegen OpenAI und dessen CEO Sam Altman ein, in der sie behaupteten, ChatGPT habe zum Selbstmord ihres 16-jährigen Sohnes Adam Raine beigetragen, der im April 2025 verstarb. Der Klage zufolge hatte Adam ChatGPT seine Selbstmordgedanken anvertraut, und der Chatbot soll Informationen über Selbstverletzungsmethoden geliefert haben, ohne einen ausreichenden Alarm auszulösen.
Reaktion von OpenAI:
OpenAI kündigte Änderungen an der Art und Weise an, wie ChatGPT auf Nutzer in seelischer Not reagiert, insbesondere durch eine systematischere Weiterleitung an Unterstützungsressourcen (Notrufnummern, Telefonseelsorge). Das Unternehmen wies auch darauf hin, dass ChatGPT bei sensiblen Gesprächen Warnmeldungen anzeigt.
Weiterer Kontext:
Laut Daten, die Anfang November 2025 bekannt wurden, teilen etwa 1 Million Menschen pro Woche Selbstmordgedanken mit ChatGPT (von 800 Millionen wöchentlichen Gesamtnutzern). Diese Zahlen unterstreichen eine massive Nutzung von KI als "digitaler Vertrauter", da es keine integrierten psychologischen Unterstützungsmechanismen gibt.
Rechtliche und ethische Herausforderungen:
Dieser Prozess wirft ganz neue Fragen auf: Welche rechtliche Verantwortung trägt ein Softwarehersteller, wenn ein Nutzer in einer Notsituation mit einer KI interagiert? Die Gerichte müssen entscheiden, ob OpenAI eine zusätzliche Sorgfaltspflicht hatte. Für Unternehmen ist die Lektion klar: Chatbots sind keine Therapeuten, und Organisationen müssen ihre Teams über die Grenzen der KI in Situationen menschlicher Verletzlichkeit schulen.
Methodischer Hinweis:
Die Informationen über den Prozess stammen aus journalistischen Quellen (CNN, BBC, The New York Times, Reuters) und aus dem Klagedokument, das beim Superior Court of California eingereicht wurde. OpenAI hat keine detaillierte öffentliche Stellungnahme zu dem laufenden Fall abgegeben. Ungewisse Zone: Der rechtliche Ausgang ist nicht vorhersehbar, und es gibt bislang keine vergleichbare Rechtsprechung.
Einhaltung der DSGVO und der EU-Rechtsvorschriften
Aktueller Stand:
Seit dem Start von ChatGPT haben mehrere europäische Datenschutzbehörden Untersuchungen über die Verarbeitung personenbezogener Daten durch OpenAI eingeleitet. Im Jahr 2023 sperrte Italien ChatGPT vorübergehend (Verbot im April nach Einhaltung der Vorschriften wieder aufgehoben). Die französische CNIL und der Europäische Datenschutzausschuss (EDSB) gaben Empfehlungen ab.
Hosting in Europa (Februar 2025):
Im Februar 2025 kündigte OpenAI an, dass die Daten europäischer Kunden (ChatGPT Enterprise, Edu, API) nun in Europa gespeichert werden, mit End-to-End-Verschlüsselung. Diese Entscheidung soll Unternehmen hinsichtlich der Einhaltung der DSGVO (Artikel 44-45 über internationale Datentransfers) beruhigen.
Europäischer AI Act (in Kraft seit August 2024):
Die europäische KI-Verordnung (AI Act), die im Juni 2024 verabschiedet wurde und ab August 2024 schrittweise in Kraft tritt, stellt besondere Anforderungen an KI-Systeme mit hohem Risiko (HR, Kreditwesen, Gesundheit, Justiz). ChatGPT muss als generische KI (general-purpose AI) Anforderungen in Bezug auf Transparenz, Nachvollziehbarkeit und Risikobewertung erfüllen. Unternehmen, die ChatGPT in Hochrisikokontexten einsetzen, müssen ihre Nutzung dokumentieren und Folgenabschätzungen (AIAD - AI Impact Assessment) durchführen.
Pflichten für Schweizer Unternehmen:
Da die Schweiz nicht Mitglied der EU ist, gilt die DSGVO nicht direkt, aber :
- Schweizer Unternehmen, die Daten von in der EU ansässigen Personen verarbeiten, unterliegen der DSGVO.
- Das Bundesgesetz über den Datenschutz (DSG), das 2023 revidiert wird, schreibt vergleichbare Verpflichtungen vor (Transparenz, Rechte der Personen, Unterauftragsvergabe).
- Unternehmen sollten prüfen, ob ihre Verträge mit OpenAI konforme Klauseln zur Unterauftragsvergabe (Data Processing Addendum) enthalten.
Gute Praktiken :
- Identifizieren Sie riskante Anwendungsfälle (Personalwesen, Finanzwesen, Gesundheitswesen).
- Führen Sie eine Folgenabschätzung durch (AIAD für den AI Act, EIPD für die DSGVO).
- Teams über die Grenzen der KI (Halluzinationen, Bias) schulen.
- Geben Sie niemals sensible Daten (Geschäftsgeheimnisse, persönliche Daten) in der kostenlosen Version von ChatGPT ein.
- Bevorzugen Sie ChatGPT Enterprise oder Microsoft Copilot für die geschäftliche Nutzung (stärkere vertragliche Garantien, sichere Integration mit Ihren Unternehmensdaten).
Haben Sie Fragen zur Compliance Ihrer KI-Nutzung? Fordern Sie ein kostenloses Audit von unseren Spezialisten an
Andere aktuelle Vorfälle (2024-2025)
Vereitelte bösartige Kampagnen:
Im Oktober 2024 veröffentlichte OpenAI einen Bericht, demzufolge sie mehr als 20 bösartige Operationen vereitelt hatte, bei denen ihre Modelle (Desinformation, Cyberangriffe, Wahlbeeinflussung) verwendet wurden. Diese Operationen stammten von Gruppen, die mit Nationalstaaten (China, Russland, Iran) verbunden sind, und von privaten Akteuren.
Kontroverse um Unterzitate:
Im Oktober 2025 beschuldigten mehrere gemeinnützige Organisationen OpenAI, im Rechtsstreit zwischen OpenAI und Elon Musk missbräuchliche Zuweisungen (Subpoenas) zu verwenden, um ihre Kritiker zum Schweigen zu bringen. OpenAI wies die Vorwürfe zurück.
Spannungen mit Hollywood:
Im Oktober 2025 löste die Einführung von Sora 2 (Tool zur Videogenerierung) heftigen Widerstand von Hollywood-Studios, Talentagenturen und Gewerkschaften aus, die eine massive Substitution von kreativen Arbeitsplätzen befürchten.
Methodischer Hinweis:
Diese Vorfälle werden von zuverlässigen journalistischen Quellen (NBC News, Reuters, TechCrunch) berichtet. OpenAI hat nicht immer ausführliche Stellungnahmen abgegeben. Ungewisse Zone: Einige Anschuldigungen bleiben umstritten, und die Gerichtsverfahren sind noch nicht abgeschlossen.
Wachsamkeit und Verantwortung
Das Jahr 2025 markiert einen Wendepunkt: ChatGPT ist nicht mehr nur ein Werkzeug für Innovationen, sondern auch ein Thema für Regulierung, Rechtsstreitigkeiten und öffentliche Debatten. Für die Unternehmen gibt es drei Imperative: rechtliche Konformität (DSGVO, AI Act, DSG), Ethik (Transparenz, Einschränkung sensibler Nutzungen) und Ausbildung (Verständnis der technischen und rechtlichen Grenzen). Die generative KI ist ein strategischer Hebel, aber sie erfordert eine reife und verantwortungsvolle Steuerung.