Was steckt hinter ChatGPT Cyber? Eine Einordnung für IT-Dienstleister

OpenAI verteilt seine schärfsten KI-Modelle nur noch an geprüfte Defender. Was wirklich dahintersteckt.
April 22, 2026

OpenAI verteilt seine schärfsten Modelle nur noch an geprüfte Defender. Was das wirklich bedeutet – und warum die Frage schon lange nicht mehr „wann werde ich gehackt“, sondern „wer hat das bessere Modell“ lautet.

Wenn der Zugang zur KI plötzlich vom Personalausweis abhängt

Etwas Ungewöhnliches passiert gerade bei OpenAI.

Wer auf chatgpt.com/cyber landet, sieht keine Marketingseite. Sondern einen KYC-Check. Personalausweis hochladen, Identität bestätigen, Vertrauensstufe freischalten. Erst danach beginnt die eigentliche Arbeit.

Das ist ChatGPT Cyber. Und es ist mehr als ein neues Feature. Es ist die Antwort auf eine Frage, die bisher kein KI-Anbieter beantworten musste: Wie verteilt man Modelle, die auf einem Schlag tausende Zero-Day-Schwachstellen finden können – ohne sie in die falschen Hände zu geben?

OpenAI hat eine Antwort gewählt. Sie heißt Identität.

Was Trusted Access for Cyber wirklich ist

Hinter ChatGPT Cyber steht das Programm Trusted Access for Cyber (TAC). Gestartet im Februar 2026, ausgebaut am 14. April 2026. Die Logik dahinter ist ein Bruch mit dem bisherigen KI-Sicherheitsdenken.

Statt Modelle pauschal zu beschneiden, koppelt OpenAI den Zugriff an die Identität des Nutzers. Wer sich als legitimer Defender verifiziert, bekommt weniger Reibung. Weniger Refusals bei dual-use Anfragen. Mehr Tiefe bei Vulnerability-Research, Reverse Engineering, Code-Analyse.

Drei Stufen sind vorgesehen:

  • Baseline-Zugang für alle Nutzer – mit den üblichen Schutzmechanismen.
  • Trusted Access nach Identitätsprüfung – reduziert Friction bei Sicherheitsthemen, Zugriff auf bestehende Modelle mit gelockerten Leitplanken.
  • Höchste Tier für geprüfte Sicherheitsforscher und Unternehmen – Zugang zu GPT-5.4-Cyber, einem Modell, das gezielt für defensive Cybersecurity feingetunt wurde.

Die Verifizierung läuft über einen externen Identitätsdienstleister mit Ausweisprüfung. Unternehmen kommen über ihren OpenAI-Account-Manager rein. Forscher und kleinere Teams können sich bewerben.

Der Punkt ist nicht trivial: OpenAI verlagert die Sicherheitslogik vom Modell auf den Menschen. Das Modell wird permissiver, der Zugang restriktiver.

Zugang -> Identität
Infografik mit KI generiert

Wenn der Personalausweis bei einem dritten US-Anbieter landet

Genau hier liegt ein blinder Fleck, den die meisten überlesen.

Wer auf chatgpt.com/cyber den Verifizierungs-Button klickt, sieht einen unscheinbaren Hinweis:

„Wenn Sie auf ‚Überprüfung beginnen‘ klicken, teilt OpenAI Ihre Kontoinformationen mit Persona, dem Anbieter von OpenAI, um Ihre Identität zu überprüfen und Identitätsbetrug zu verhindern. Die Kontoinformationen, die OpenAI mit Persona teilt, werden nicht länger als 7 Tage gespeichert.“

Persona ist ein US-amerikanisches Identity-Verification-Unternehmen mit Sitz in San Francisco. Wer also den höchsten TAC-Tier erreichen will, lädt seinen Personalausweis hoch und gibt ihn faktisch an einen weiteren Drittanbieter weiter, der die Daten – wenn auch zeitlich begrenzt – auf US-Servern verarbeitet.

Wer das Muster bekannt vorkommt: Es ist dasselbe Modell, mit dem LinkedIn 2023 seine „Verifizierten Accounts“ eingeführt hat. Der blaue Haken war nie nur Statussymbol – er war eine Kennzeichnung dafür, dass jemand seine Ausweisdaten an Persona übermittelt hat. Wer das damals durchdacht hat, wusste: Die kleine Markierung im Profil hat einen Datenfluss-Preis. (Siehe dazu auch diesen LinkedIn-Beitrag.)

Bei OpenAI ist das Muster jetzt ungleich relevanter, denn der Anwendungskontext heißt: kritische Cybersecurity-Arbeit. Defender, die TAC nutzen wollen, übermitteln nicht nur ihren Ausweis an einen US-Identity-Provider – sie verarbeiten anschließend potenziell sensible Sicherheitsdaten (Logfiles, Codeauszüge, Konfigurationen, Schwachstellen) über US-Server bei OpenAI. Zwei Drittlandtransfers in einer Kette, beide mit erklärungspflichtigen DSGVO-Implikationen.

Der 7-Tage-Speicherzeitraum bei Persona klingt beruhigend – ist aber in der Praxis eine Vertrauensaussage, kein technischer Schutz. Wer als IT-Dienstleister mit DSGVO-Pflichten arbeitet, muss das transparent machen können: gegenüber Auftraggebern, Versicherern, Aufsichtsbehörden und im Verarbeitungsverzeichnis.

GPT-5.4-Cyber – das Modell mit gelockerten Leitplanken

GPT-5.4-Cyber ist nicht einfach eine Promo-Variante. Es ist eine Version von GPT-5.4, die bewusst weniger zurückhaltend ist, wenn es um sicherheitsnahe Themen geht. OpenAI nennt das selbst „cyber-permissive“.

Was bedeutet das in der Praxis?

  • Niedrigere Refusal-Rate bei legitimen Sicherheitsfragen
  • Erstmals offizielle Unterstützung für Binär-Reverse-Engineering ohne Quellcode
  • Tiefere Analyse von Schwachstellen in komplexen Codebasen
  • Unterstützung für Workflows wie Malware-Analyse, Firmware-Untersuchung, Vulnerability-Discovery

Flankiert wird das Ganze von Codex Security, OpenAIs automatisiertem Application-Security-Agent. Laut OpenAI hat Codex Security seit dem öffentlichen Launch zur Behebung von über 3.000 kritischen und schwerwiegenden Schwachstellen beigetragen. Dazu kommen 10 Millionen US-Dollar an API-Credits über das Cybersecurity Grant Program und kostenlose Security-Scans für mehr als 1.000 Open-Source-Projekte über Codex for Open Source.

Die Liste der ersten Partner ist eine Wand aus Konzern-Logos: Bank of America, BlackRock, BNY, Citi, Cisco, Cloudflare, CrowdStrike, Goldman Sachs, JPMorgan Chase, Morgan Stanley, NVIDIA, Oracle, Palo Alto Networks, US Bank, Zscaler. Behörden sind ebenfalls mit dabei – das US Center for AI Standards and Innovation und das UK AI Security Institute.

Und genau hier wird es für IT-Dienstleister im DACH-Raum interessant.

Anthropic, Mythos und Project Glasswing – der Wettbewerb um die Defensive

OpenAI ist nicht allein in dieser Liga. Eine Woche vor dem GPT-5.4-Cyber-Launch hatte Anthropic mit Project Glasswing und Claude Mythos Preview vorgelegt – ein Modell, das so cyber-fähig ist, dass Anthropic es nicht öffentlich freigibt. Wir haben den Claude-Mythos-Hintergrund schon zum Zeitpunkt des Datenlecks eingeordnet.

Die beiden Anbieter haben sich für unterschiedliche Strategien entschieden:

  • Anthropic geht den engen Weg. Mythos Preview erhält ein handverlesener Kreis von rund 50 Organisationen – AWS, Apple, Cisco, Google, JPMorgan, Microsoft, NVIDIA, Palo Alto Networks und die Linux Foundation als Launch-Partner, plus etwa 40 weitere Organisationen aus dem Bereich kritischer Infrastruktur. 100 Millionen US-Dollar Usage-Credits, 4 Millionen US-Dollar Spenden an Open-Source-Security. Die Partner haben mit Mythos in wenigen Wochen tausende Zero-Days in nahezu jedem großen Betriebssystem und Browser gefunden – die 271 Firefox-Lücken bei Mozilla sind nur das öffentlichste Beispiel.
  • OpenAI geht den breiten Weg. Tausende verifizierte Defender, hunderte Teams. Identitätsprüfung statt Auswahl. Das Programm soll skalieren.
„No one should be in the business of picking winners and losers when it comes to cybersecurity“, sagte Fouad Matin, Cyber-Researcher bei OpenAI, gegenüber Reportern. (Quelle: Axios)

Die Botschaft sitzt. Aber sie hat eine Kehrseite.

über 3.000 Schwachstellen behoben
Infografik mit KI generiert

Was das für IT-Dienstleister im DACH-Raum bedeutet

Aus Sicht eines mittelständischen Systemhauses sehen die beiden Programme von hier oben anders aus.

Erstens: Die ersten Partner sind durchweg Großkonzerne und US-Hyperscaler. Bank of America, JPMorgan, NVIDIA. Kein einziger mittelständischer DACH-IT-Dienstleister. Das ist kein Vorwurf – es ist eine Realität. Die Frage ist, wann und wie die schärferen Tools jenseits dieser Bubble ankommen.

Zweitens: Die DSGVO-Realität bleibt. GPT-5.4-Cyber läuft auf US-Servern. Wer als Defender mit echten Kundendaten arbeitet – Logfiles, Codeauszügen, Konfigurationen – verarbeitet diese Daten in den USA. Auftragsverarbeitungsverträge gibt es nur bei Enterprise- und API-Lizenzen. Für regulierte Branchen, NIS2-Verpflichtete und Berufsgeheimnisträger ist das eine ernsthafte Hürde. Mit der Kennzeichnungspflicht aus Artikel 50 EU AI Act ab August 2026 kommt eine weitere Compliance-Schicht oben drauf.

Drittens: Die Bedrohungslage wartet nicht. Die Modelle, die OpenAI und Anthropic an Defender geben, werden in ähnlicher Form bald breit verfügbar sein – auch über Open-Weight-Modelle. Lee Klarich, Chief Product & Technology Officer bei Palo Alto Networks, fasst das so zusammen:

„Wir erwarten eine Flut von Schwachstellen, einen Anstieg von Inside-Out-Attacken und vor allem einen Wechsel von KI-unterstützten zu KI-getriebenen Angriffen.“, so Lee Klarich. (Quelle: Cyber Magazine)

Übersetzt: Es kommt nicht mehr darauf an, ob du gehackt wirst oder wann, sondern wie oft. Und in Zukunft auch: Mit welcher Modellklasse.

Einordnung – was an der Strategie überzeugt und was nicht

Lass uns das ohne Hype betrachten.

Was OpenAIs Ansatz richtig macht:

  • Identitätsprüfung statt pauschale Modell-Beschränkung skaliert besser als Anthropics handverlesene Liste.
  • Defender bekommen Werkzeuge, mit denen sie der Angreiferseite zumindest theoretisch nicht nur hinterherrennen.
  • Das Programm ist nachvollziehbar dokumentiert – Tier-Struktur, Verifizierung, Nutzungsbedingungen sind transparent.
  • Codex Security, Codex for Open Source und das Grant-Programm sind keine PR-Beilagen, sondern liefern messbare Ergebnisse.

Wo die Schwachstellen liegen:

  • Die Verteilungsbasis ist US-zentriert. Europäische Mittelständler kommen nicht über Nacht in höhere Tiers.
  • DSGVO-Konformität ist nicht automatisch gegeben – sie muss organisatorisch und vertraglich gebaut werden.
  • Cybersecurity-Experte Bruce Schneier weist darauf hin, dass beide Initiativen ein erhebliches PR-Element haben. Nicht jede gefundene Schwachstelle ist neu, nicht jeder Zero-Day exploitierbar.
  • Identitätsprüfung verhindert nicht, dass Insider-Defender ihre Zugänge missbrauchen oder dass ähnliche Fähigkeiten über Open-Weight-Modelle aus dem TAC-Rahmen herausfallen.
„Aus meiner Sicht entscheidet sich Cybersecurity 2026 nicht mehr daran, welche Firewall du betreibst, sondern welches KI-Modell auf deiner Seite arbeitet. Und die unbequeme Wahrheit für IT-Dienstleister im Mittelstand ist: Die schärfsten Modelle landen aktuell zuerst bei den größten Spielern. Wer sich darauf verlässt, dass das automatisch durchsickert, wird bei der nächsten KI-getriebenen Angriffswelle die Lücke spüren.“, so Ingo Lücker, Gründer der KI LEAGUE.

Die strategische Frage für jedes Systemhaus lautet daher: Wie baut man heute Cybersecurity-Kompetenz auf, die in einer Welt funktioniert, in der Angreifer und Verteidiger beide KI-getrieben sind? Und wie macht man transparent, mit welchen Modellen unter welchen rechtlichen Rahmenbedingungen gearbeitet wird – gegenüber Kunden, Behörden, Versicherern?

Wer diese Frage nicht beantworten kann, verliert in der nächsten Vergabe-Diskussion gegen jeden Wettbewerber, der sie beantworten kann.

Einladung zum nächsten KI LEAGUE Live Talk

Der Live Talk richtet sich bewusst an IT-Dienstleister und Systemhäuser, die KI einordnen wollen. Die Teilnahme ist kostenlos – der Austausch ausdrücklich erwünscht.

Einladung zur KI LEAGUE

Die KI LEAGUE ist der Ort für IT-Dienstleister, die KI nicht hypen, sondern verstehen wollen. Als Plattform für Einordnung, Austausch und kritische Diskussion – jenseits von Buzzwords und Produktversprechen.

Jetzt informieren und dabei sein

Quellen

  1. OpenAI: Trusted access for the next era of cyber defense (14.04.2026) – openai.com
  2. OpenAI: Introducing Trusted Access for Cyber (05.02.2026) – openai.com
  3. OpenAI: Accelerating the cyber defense ecosystem that protects us all (16.04.2026) – openai.com
  4. The Hacker News: OpenAI Launches GPT-5.4-Cyber with Expanded Access for Security Teams (15.04.2026) – thehackernews.com
  5. CyberScoop: OpenAI expands Trusted Access for Cyber program with new GPT 5.4 Cyber model (14.04.2026) – cyberscoop.com
  6. Axios: OpenAI rolls out tiered access to advanced AI cyber models (14.04.2026) – axios.com
  7. ComputerBase: Trusted Access for Cyber – GPT 5.4 Cyber ist OpenAIs Reaktion auf Claude Mythos (15.04.2026) – computerbase.de
  8. Cyber Magazine: GPT 5.4-Cyber: What is OpenAI's Trusted Access for Cyber? (April 2026) – cybermagazine.com
  9. Anthropic: Project Glasswing – Securing critical software for the AI era (07.04.2026) – anthropic.com
  10. Schneier on Security: On Anthropic's Mythos Preview and Project Glasswing (13.04.2026) – schneier.com
  11. Persona Identities Inc., San Francisco – Identitätsdienstleister von OpenAI für TAC-Verifizierung; identischer Anbieter wie bei LinkedIn-Verifizierung (Hinweistext auf chatgpt.com/cyber, Stand April 2026)

Weitere Blogartikel anzeigen

alle anzeigen