OpenAI veröffentlicht GPT-5.4-Cyber-Modell für ausgewählte Nutzer, speziell für Cybersicherheitsverteidigung
2026-04-16 09:06
Merken

de.wedoany.com-Bericht: Am 14. April 2026 lokaler Zeit kündigte OpenAI die Einführung des GPT-5.4-Cyber-Modells an, einer feinabgestimmten Variante seines neuesten Flaggschiffmodells GPT-5.4, die speziell für defensive Cybersicherheitsaufgaben entwickelt wurde. Erst eine Woche zuvor, am 7. April, hatte der Konkurrent Anthropic sein fortschrittliches KI-Modell Mythos veröffentlicht und einen geschlossenen Beta-Test im Rahmen seines Project Glasswing gestartet. OpenAI erklärte, dass GPT-5.4-Cyber zunächst ausgewählten, geprüften Sicherheitsanbietern, Organisationen und Forschern zugänglich gemacht wird. In der Anfangsphase werden Hunderte von Nutzern zum Testen zugelassen, in den kommenden Wochen soll die Zahl auf Tausende erweitert werden.

GPT-5.4-Cyber senkt in Cybersicherheits-Verteidigungsszenarien die Ablehnungsgrenzen des Modells und reduziert die Einschränkungen für legitime Sicherheitsbefehle erheblich. Laut offizieller OpenAI-Erklärung unterstützt das Modell erweiterte Verteidigungsworkflows wie Reverse Engineering von Binärcode und ermöglicht es Sicherheitsexperten, kompilierte Software ohne Quellcode zu analysieren, um potenzielle Schwachstellen und Malware-Risiken zu erkennen. OpenAI führte netzwerkspezifisches Sicherheitstraining ab der GPT-5.2-Version ein und stufte die Cybersicherheitsfähigkeiten in GPT-5.4 als „hoch“ ein. Die Ablehnungsrate für netzwerkbezogene Anfragen beim Basismodell GPT-5.4 liegt bei etwa 8 %, während GPT-5.4-Cyber bei legitimen Verteidigungsaufgaben eine Ablehnungsrate von nur etwa 1 % aufweist. Dies erhöht die Praktikabilität des Modells für sensible Aufgaben wie Schwachstellenforschung und -analyse erheblich.

Das Mythos-Modell von Anthropic hat seit seiner Veröffentlichung bereits starke Fähigkeiten zur Schwachstellenerkennung gezeigt. Das Modell erreichte in Cybersicherheits-Benchmarks für die Reproduktion von Schwachstellen eine Punktzahl von 83,1 %, deutlich mehr als die 66,6 % von Claude Opus 4.6, und identifizierte Tausende kritischer Schwachstellen in großen Betriebssystemen, Browsern und Basissystemsoftware. Aus Sorge vor Missbrauch durch Hacker und böswillige Akteure hat sich Anthropic gegen eine öffentliche Veröffentlichung entschieden und gewährt nur wenigen Partnern wie Amazon und Apple über sein Project Glasswing Zugang für defensive Zwecke. Die Veröffentlichung von GPT-5.4-Cyber durch OpenAI, nur eine Woche nach der Ankündigung des Konkurrenzprodukts, spiegelt die zunehmende Rivalität zwischen beiden Unternehmen im Bereich der Cybersicherheits-KI wider.

OpenAI knüpft den Zugang zu GPT-5.4-Cyber an das im Februar dieses Jahres gestartete Programm „Trusted Access for Cybersecurity“. Das Unternehmen hat für dieses Programm einen neuen gestuften Zugangsmechanismus eingeführt. Nutzer, die die höchste Prüfstufe bestehen, erhalten Zugang zu GPT-5.4-Cyber und unterliegen bei der Bearbeitung von Schwachstellenforschung und -analyse deutlich geringeren Modellbeschränkungen. Privatnutzer können sich über die OpenAI-Website verifizieren und um Teilnahme am Programm bewerben. Unternehmenskunden können über einen speziellen Ansprechpartner Vertrauenszugang für ihre Teams beantragen. OpenAI betont gleichzeitig, dass die erweiterten Berechtigungen des Modells in Anwendungsfällen mit mangelnder Transparenz, wie etwa „Zero Data Retention“, oder bei Zugriff über Drittanbieterplattformen eingeschränkt sein können.

Auf strategischer Sicherheitsebene hat OpenAI für GPT-5.4-Cyber drei Kernprinzipien festgelegt: breiter Zugang, iterative Bereitstellung und Ökosystem-Resilienz. Das Unternehmen entscheidet über den Zugang zu erweiterten Funktionen anhand objektiver Kriterien wie der „Know Your Customer“-Identitätsprüfung, um subjektive Urteile über die Zugangsberechtigung legitimer Nutzer zu vermeiden. Im Bereich des Ökosystemaufbaus startete OpenAI 2023 ein Cybersicherheits-Förderprogramm und führte in diesem Jahr das Tool Codex Security ein, das Code-Repositories automatisch überwacht und Lösungsvorschläge macht. Es hat bereits bei der Behebung von über 3000 kritischen und schwerwiegenden Schwachstellen geholfen. Angesichts der dualen Nutzung von KI sowohl für Angriffs- als auch Verteidigungszwecke ist OpenAI der Ansicht, dass Sicherheitsmaßnahmen mit den Modellfähigkeiten Schritt halten müssen. Die begrenzte Bereitstellungsstrategie für GPT-5.4-Cyber ist ein Versuch, die Balance zwischen Sicherheit und Leistungsfähigkeit zu finden.

Dieser Artikel wurde von Wedoany übersetzt und bearbeitet. Bei jeglicher Zitierung oder Nutzung durch künstliche Intelligenz (KI) ist die Quellenangabe „Wedoany“ zwingend vorgeschrieben. Sollten Urheberrechtsverletzungen oder andere Probleme vorliegen, bitten wir Sie, uns unverzüglich zu benachrichtigen. Wir werden den entsprechenden Inhalt umgehend anpassen oder löschen.

E-Mail: news@wedoany.com