Am 29. Oktober 2025 hat OpenAI seine Nutzungsrichtlinien aktualisiert. Die neuen Regeln verschärfen die Bedingungen für den Einsatz generativer KI in besonders sensiblen Bereichen. Unternehmen, die KI-gestützte Inhalte oder Automatisierung einsetzen, müssen ihre Prozesse und Risiken neu bewerten.
Inhalt
Was ist neu?
Die überarbeiteten Richtlinien zielen auf die Begrenzung der KI-Nutzung in Szenarien mit hohen Risiken für die physische, psychische oder rechtliche Integrität von Personen.
OpenAI untersagt jetzt ausdrücklich die automatisierte Generierung lizenzpflichtiger Beratung sowie die Automatisierung risikobehafteter Entscheidungen ohne menschliche Kontrolle und verschiebt die Verantwortung für die Antworten seines Chatbots in Richtung der Anwender.
Konkret betroffen ist Beratung in sensiblen Bereichen, sofern kein lizenzierter Fachmann eingebunden ist.
Die sensiblen Anwendungsfelder sind eindeutig spezifiziert: Gesundheit, Recht, Strafverfolgung, Migration, nationale Sicherheit, Wohnraumversorgung, Bildungswesen, Finanz- und Kreditwesen, Versicherungen, kritische Infrastruktur, Arbeitsverhältnisse sowie grundlegende öffentliche Dienstleistungen.
INSERT_STEADY_NEWSLETTER_SIGNUP_HERE
Was bedeutet das für den Unternehmenseinsatz von KI-generierten Inhalten?
Die neuen Regelungen betreffen nicht nur Anbieter medizinischer oder juristischer KI-Anwendungen, sondern auch Unternehmen, die Inhalte oder Prozesse mit generativer KI automatisieren, etwa durch Content-Plattformen, Chatbots, Agenten oder automatisierte Auskunftsfunktionen.
Es reicht nicht mehr, sich auf technische Filter oder Warnhinweise zu verlassen. OpenAI schiebt der Automatisierung sensibler Inhalte durch Dritte aktiv einen Riegel vor. Das zeigt, dass man nervös wird angesichts möglicher Rechtsstreitigkeiten für falsche Antworten auf riskanten Fragen. Und wie wenig verlässlich Sprachmodelle als Antwort auf alle Fragen der Menschheit sind.
Sie möchten eine kurze Einschätzung zur SEO-Performance Ihrer Website?
Schreiben Sie mich einfach an und nennen Sie mir die aktuellen Herausforderungen.
Folgen für Content-Produzenten, Agenturen und Plattformbetreiber
Wer ChatGPT (oder andere OpenAI-basierte Systeme) zur automatisierten Generierung von Inhalten in Bereichen wie Medizin, Psychologie, Recht oder Personalwesen nutzt, muss jetzt prüfen, ob diese Inhalte gegen die Richtlinien verstoßen. Dies gilt auch für White-Label-Produkte, API-basierte Tools und interne Assistenten. Damit baut OpenAI für den Fall vor, dass man verklagt wird, weil jemand auf Basis einer KI-Antwort eine fatale Entscheidung getroffen hat.
Nicht mehr zulässig ist etwa:
- die automatisierte Erstellung von ärztlichen Empfehlungen für Endnutzer
 - KI-generierte rechtliche Einschätzungen ohne Prüfung durch Juristen
 - vollautomatisierte Ablehnungen oder Risikobewertungen im Kredit-, Wohn- oder Personalbereich
 
Zulässig bleibt dagegen die allgemeine Informationsaufbereitung, etwa die Erklärung rechtlicher Grundprinzipien oder medizinischer Fachbegriffe wie in einem Lexikon, sofern sie nicht als direkte Handlungsempfehlung erscheinen.
Verantwortungsverlagerung auf die Nutzer
OpenAI betont, dass die Verantwortung für die regelkonforme Nutzung nicht beim System, sondern beim Anwender liegt. Die Richtlinien ersetzen keine Gesetze oder ethischen Verpflichtungen. Sie stellen Mindestanforderungen dar, keine umfassende Regulierung.
Unternehmen müssen sicherstellen:
- dass sie keine Expertise von geschützten Berufsgruppen simulieren
 - dass sie keine risikoreichen Entscheidungen automatisieren, ohne menschliche Kontrolle
 - dass sie lokale regulatorische Anforderungen erfüllen (z. B. DSGVO, Berufsrecht)
 
Verstöße können zum Verlust der API-Zugänge oder weiteren Sanktionen durch OpenAI führen. Darüber hinaus drohen haftungsrechtliche Risiken.
Empfehlung
Für Unternehmen ergibt sich daraus ein klarer Handlungsbedarf:
- Inhaltliche Prüfung aller automatisierten Prozesse auf betroffene Fachbereiche
 - Implementierung von menschlicher Kontrolle in allen sensiblen Entscheidungsprozessen
 - Dokumentation der menschlichen Abnahme, insbesondere bei Beratung oder Bewertung
 - Verzicht auf KI-generierte Inhalte, die sich als rechts- oder gesundheitsberatend darstellen lassen und Menschen schädigen könnten.
 
Wer automatisierte Systeme in regulatorisch relevanten Bereichen einsetzt, sollte juristisch klären lassen, ob die Prozesse konform sind und welche Vorteile KI-Tools zur Automatisierung dann überhaupt noch haben.
Neben Haftungsfragen sind urheberrechtliche Fragen weiterhin ungeklärt und auch potenzielle Angriffe durch Prompt Injections stellen ein sehr hohes und kaum lösbares Risiko dar.
Nutzung von KI ist sicherheitsrelevant
OpenAI schränkt durch die neuen Nutzungsrichtlinien die Haftung für falsche Antworten weiterhin ein. Die endgültige Verantwortung für die Einhaltung der Gesetze, die berufliche Sorgfaltspflicht und die ethische Anwendung des KI-Outputs obliegt den Nutzern.
Nutzungsrichtlinien von ChatGPT (Auszug)
Ihre Nutzung der Dienste von OpenAI muss diesen Nutzungsrichtlinien entsprechen:
- Persönliche Sicherheit. Alle Menschen haben ein Recht auf Schutz und Sicherheit. Das bedeutet, dass unsere Dienste nicht verwendet werden dürfen für:
- Drohungen, Einschüchterungen, Belästigungen und Verleumdungen
 - Befürwortung und Unterstützung von suizidalem, selbstverletzendem oder essgestörtem Verhalten
 - sexuelle Gewalt und Verbreitung von nicht einvernehmlichen intimen Inhalten
 - Terrorismus und Gewalt, einschließlich von Hass motivierter Gewalt
 - Entwicklung, Beschaffung und Verwendung von Waffen, sowohl konventioneller als auch CBRNE
 - illegale Aktivitäten, Güter oder Dienstleistungen
 - Zerstörung, Beeinträchtigung und Verletzung eines Systems oder Eigentums Dritter, einschließlich böswilliger und missbräuchlicher Internetaktivitäten sowie Versuche der Verletzung der Schutzrechte Dritter
 - Glücksspiel mit echtem Geld
 - personalisierte Beratungsleistungen, z. B. rechtlicher oder medizinischer Natur, für die eine Befugnis oder Lizenz erforderlich ist, ohne Beisein einer einschlägig qualifizierten Person
 - unaufgeforderte Sicherheitstests
 - Umgehungen unserer Sicherheitsvorkehrungen
 - sicherheitspolizeiliche oder nachrichtendienstliche Erhebungen ohne unsere Prüfung und Zustimmung
 
 - Schutz der Privatsphäre. Alle Menschen haben ein Recht auf Schutz ihrer Daten und ihrer Privatsphäre. Aus diesem Grund erlauben wir keine Versuche, die Privatsphäre anderer zu verletzen. Dazu zählt insbesondere die Sammlung, Überwachung, Profilierung und Verteilung privater oder sensibler Daten ohne das Einverständnis der betroffenen Person. Außerdem dürfen Sie unsere Dienste nicht verwenden für:
- Gesichtserkennungsdatenbanken ohne Einverständnis der betroffenen Person
 - biometrische Fernidentifizierung in Echtzeit an öffentlichen Orten
 - Verwendung des Abbilds einer Person, einschließlich ihres fotorealistischen Bildes oder ihrer Stimme, ohne deren Zustimmung in einer Weise, die die Authentizität beeinträchtigen könnte
 - Beurteilung oder Klassifizierung von Personen auf der Grundlage von Sozialverhalten, persönlichen Eigenschaften oder biometrischen Daten (einschließlich Social Scoring, Profiling oder Ableitung sensibler Merkmale)
 - Schlussfolgerungen in Bezug auf die Emotionen einer Person am Arbeitsplatz oder in einer Bildungseinrichtung, außer wenn aus medizinischer oder sicherheitsrelevanter Sicht notwendig
 - Beurteilung oder Vorhersage des Straffälligkeitsrisikos einer Person allein auf der Grundlage ihrer Persönlichkeitsmerkmale oder eines Profils
 
 - Schutz von Kindern. Kinder und Jugendliche sind besonders schutzbedürftig. Wir haben unser Dienstangebot entwickelt mit dem Ziel, Schaden von Minderjährigen fernzuhalten und ihr Wohlergehen zu unterstützen. Unsere Dienste dürfen niemals genutzt werden, um Kinder und Jugendliche unter 18 Jahren auszunutzen, zu gefährden oder zu sexualisieren. Wir melden Material mit augenscheinlich sexuell missbräuchlichen und kindesgefährdenden Inhalten an das National Center for Missing and Exploited Children in den USA. Wir untersagen die Nutzung unserer Dienste für:
- Material über sexuellen Kindesmissbrauch, einschließlich ganz oder teilweise KI-generierter Inhalte
 - Anfreunden mit Minderjährigen in sexueller Absicht (Grooming)
 - Konfrontieren von Minderjährigen mit altersungeeigneten Inhalten, z. B. grafischer Darstellung von Selbstverletzung oder Gewalt
 - Befürwortung von ungesundem Ess- oder Fitnesstrainingsverhalten gegenüber Minderjährigen
 - Verhöhnung oder anderweitige Herabwürdigung von Minderjährigen aufgrund ihres Körperbaus oder Aussehens
 - Bewerbung von gefährlichen Herausforderungen gegenüber Minderjährigen
 - sexuelle oder gewalttätige Rollenspiele mit Minderjährigen
 - Zugang für Minderjährige zu Produkten oder Aktivitäten, die Erwachsenen vorbehalten sind
 
 - Stärkung der Selbstwirksamkeit. Jeder Mensch soll selbstständig Entscheidungen über sich und sein Umfeld treffen können. Das bedeutet, dass unsere Dienste nicht dafür verwendet werden dürfen, Menschen zu manipulieren oder zu täuschen, sie in der Ausübung ihrer Menschenrechte einzuschränken, ihre Schwächen auszunutzen oder ihren Zugang zu Bildung und grundlegenden Dienstleistungen zu behindern. Dazu zählen u. a:
- akademische Unredlichkeit
 - Täuschung, Betrug, Spamming und Identitätsvortäuschung
 - politische Kampagnen, Lobbying-Tätigkeiten, Wahlbeeinflussung im In- und Ausland und Demobilisierungsaktivitäten
 - Automatisierung von Hochrisikoentscheidungen in kritischen Bereichen ohne menschliche Prüfung
- Kritische Infrastruktur
 - Bildung
 - Wohnen
 - Beschäftigung
 - Finanzgeschäfte und Kredite
 - Versicherung
 - Recht
 - Gesundheit
 - Grundlegende öffentliche Dienstleistungen
 - Produktsicherheit
 - Nationale Sicherheit
 - Migration
 - Strafverfolgung
 
 
 
Kontakt
Udo Raaf (Dipl. Kommunikationswirt) betreibt seit 1999 erfolgreich eigene Websites und gibt sein Wissen heute als strategischer Content- und SEO-Berater an Unternehmen, Agenturen und NPOs weiter.













