Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
OpenAI hat kürzlich die Forschungs-Preview von Codex Security vorgestellt, einem neuen KI-gesteuerten Agenten, der darauf abzielt, die Anwendungssicherheit durch automatisierte Erkennung, Validierung und Behebung von Schwachstellen zu revolutionieren. Dieses System, das aus dem früheren Projekt "Aardvark" hervorgegangen ist, repräsentiert einen bedeutsamen Schritt in der Entwicklung von KI-gestützten Sicherheitslösungen.
Codex Security unterscheidet sich von herkömmlichen Sicherheitstools durch seinen kontextbasierten Ansatz. Nach der Konfiguration eines Scans analysiert der Agent ein Code-Repository, um die sicherheitsrelevante Struktur des Systems zu verstehen. Auf dieser Grundlage erstellt er ein projektspezifisches Bedrohungsmodell, das detailliert aufzeigt, welche Funktionen das System erfüllt, welchen Komponenten es vertraut und wo es potenziellen Angriffen am stärksten ausgesetzt ist. Dieses Bedrohungsmodell kann von den Nutzern angepasst werden, um die Ausrichtung des Agenten an spezifische Teamanforderungen zu gewährleisten.
Ein zentrales Merkmal ist die Fähigkeit, potenzielle Schwachstellen in isolierten Sandbox-Umgebungen zu testen und zu validieren. Dies ermöglicht es Codex Security, relevante Sicherheitsprobleme von Fehlalarmen zu unterscheiden und somit den "Rausch" an irrelevanten Meldungen, der Sicherheitsteams oft überfordert, erheblich zu reduzieren. Bei der Identifizierung von Problemen generiert der Agent zudem Proof-of-Concept-Exploits, um die Auswirkungen der Schwachstellen zu bestätigen, und schlägt präzise, systemkonforme Korrekturen vor, die die Sicherheit verbessern und gleichzeitig Regressionen minimieren sollen. Diese Vorschläge können von den Teams überprüft und direkt in den Code integriert werden.
Darüber hinaus ist Codex Security lernfähig. Wenn Nutzer die Kritikalität eines Befunds anpassen, nutzt der Agent dieses Feedback, um sein Bedrohungsmodell zu verfeinern und die Präzision bei zukünftigen Scans zu verbessern. Dies trägt dazu bei, dass das System kontinuierlich lernt, welche Aspekte in einer spezifischen Architektur und Risikoposition am wichtigsten sind.
Während der Beta-Phase, in der das System noch unter dem Namen "Aardvark" bekannt war, zeigte Codex Security nach Angaben von OpenAI bemerkenswerte Ergebnisse. Interne Tests führten zur Entdeckung einer kritischen SSRF-Schwachstelle (Server-Side Request Forgery) und einer Authentifizierungsschwachstelle über mehrere Mandanten hinweg, die innerhalb weniger Stunden behoben werden konnten. Die Präzision der Scans verbesserte sich erheblich: In einem Fall wurde der "Rausch" um 84 % reduziert, die Rate überbewerteter Schwachgrade um über 90 % und die Fehlalarmrate bei Erkennungen um mehr als 50 %.
In den letzten 30 Tagen der Beta-Phase scannte Codex Security über 1,2 Millionen Commits in externen Repositories und identifizierte dabei 792 kritische und 10.561 hochrelevante Schwachstellen. Kritische Probleme traten in weniger als 0,1 % der gescannten Commits auf, was die Fähigkeit des Systems unterstreicht, große Code-Mengen effizient zu verarbeiten und gleichzeitig eine niedrige Fehlalarmrate beizubehalten.
Ein früher Tester, NETGEAR, äußerte sich positiv über die Integration von Codex Security. Chandan Nandakumaraiah, Head of Product Security bei NETGEAR und Mitglied des CVE Board, betonte, dass die Befunde "beeindruckend klar und umfassend" gewesen seien und den Eindruck vermittelten, ein erfahrener Produktsicherheitsforscher arbeite mit dem Team zusammen.
OpenAI setzt Codex Security auch aktiv zur Stärkung der Open-Source-Software-Lieferkette ein. Das Unternehmen hat festgestellt, dass Open-Source-Maintainer häufig mit einer großen Menge minderwertiger Fehlerberichte konfrontiert sind. Daher wurde Codex Security so konzipiert, dass es sich auf umsetzbare, hochgradig vertrauenswürdige Schwachstellen konzentriert. Im Rahmen dieser Initiative wurden bereits 14 CVEs (Common Vulnerabilities and Exposures) in weit verbreiteten Open-Source-Projekten wie OpenSSH, GnuTLS, GOGS, Thorium, libssh, PHP und Chromium entdeckt und gemeldet.
Um die Unterstützung weiter auszubauen, hat OpenAI das Programm "Codex for OSS" ins Leben gerufen, das Open-Source-Maintainern kostenlose ChatGPT Pro- und Plus-Konten, Code-Review-Unterstützung und Zugang zu Codex Security bietet. Projekte wie vLLM nutzen Codex Security bereits, um Probleme in ihren Arbeitsabläufen zu finden und zu beheben.
Codex Security wird schrittweise für ChatGPT Enterprise-, Business- und Edu-Kunden über die Codex-Weboberfläche als Forschungs-Preview bereitgestellt. Im ersten Monat ist die Nutzung kostenfrei. Für Open-Source-Maintainer gibt es separate Zugangsmöglichkeiten über das "Codex for OSS"-Programm.
Die Einführung von Codex Security positioniert OpenAI in einem wachsenden Markt für KI-gestützte Code-Sicherheitstools. Es wird erwartet, dass der Einsatz solcher Agenten die Art und Weise, wie Software entwickelt und gesichert wird, grundlegend verändern könnte, indem Entwickler sich auf komplexere Aufgaben konzentrieren können, während repetitive Sicherheitsprüfungen automatisiert werden.
Obwohl die Vorteile von Codex Security vielversprechend erscheinen, ist es wichtig zu beachten, dass sich das Tool noch in einer Forschungs-Preview befindet. Die Qualität der anfänglichen Bedrohungsmodelle hängt davon ab, wie gut ein Repository strukturiert ist und wie viel Kontext die Teams bereitstellen. Tiefere Validierungsfunktionen erfordern zudem eine projektspezifische Umgebungskonfiguration, was für kleinere Teams ohne dediziertes Sicherheitspersonal einen zusätzlichen Einrichtungsaufwand bedeuten könnte. Der Zugang für Open-Source-Maintainer ist derzeit ebenfalls auf eine anfängliche Gruppe beschränkt, wobei eine Ausweitung geplant ist.
Die Entwicklung von KI-Agenten im Bereich der Cybersicherheit ist ein dynamisches Feld. Während diese Tools das Potenzial haben, die Effizienz und Gründlichkeit von Sicherheitsprüfungen erheblich zu steigern, bleibt die menschliche Expertise für die Interpretation komplexer Befunde, die strategische Risikobewertung und die kontinuierliche Anpassung an neue Bedrohungslandschaften weiterhin unerlässlich.
Die Einführung von Codex Security durch OpenAI stellt einen weiteren Meilenstein in der Anwendung von künstlicher Intelligenz zur Lösung kritischer Herausforderungen in der Softwareentwicklung und Cybersicherheit dar. Die kontinuierliche Weiterentwicklung und Anpassung dieser Technologien wird entscheidend sein, um den sich ständig wandelnden Anforderungen an die digitale Sicherheit gerecht zu werden.
Bibliographie
- OpenAI. (2026, 6. März). Codex Security: now in research preview. - Sabin, S. (2026, 6. März). OpenAI introduces Codex Security to fast-track code reviews. Axios. - Bang, A. (2026, 6. März). OpenAI Releases AI Agent Security Tool for Research Preview. Bloomberg. - Adwaitx. (2026, 7. März). OpenAI Codex Security Launch: AI Agent That Catches Missed Vulnerabilities. - Cyber Press. (2026, 7. März). OpenAI Rolls Out Codex Security in Research Preview for Context‑Aware Vulnerability Detection. - Ventura, L. (2026, 6. März). OpenAI lança Codex Security: o novo agente de IA para cibersegurança. Olhar Digital. - OpenAI. (2025, 16. Mai). Introducing Codex. - OpenAI. (2026, 2. Februar). Introducing the Codex app. - Popa, R. A., & Flynn, F. (2025, 6. Oktober). Introducing CodeMender: an AI agent for code security. Google DeepMind.Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen