TLDR OpenAI hat eine Warnung herausgegeben, dass seine KI-Modelle der nächsten Generation "hohe" Cybersicherheitsrisiken darstellen und Zero-Day-Exploits erstellen könnten. GPT-5.1-Codex-Max hat erreichtTLDR OpenAI hat eine Warnung herausgegeben, dass seine KI-Modelle der nächsten Generation "hohe" Cybersicherheitsrisiken darstellen und Zero-Day-Exploits erstellen könnten. GPT-5.1-Codex-Max hat erreicht

OpenAI warnt: KI-Modelle der nächsten Generation stellen hohe Cybersicherheitsrisiken dar

2025/12/11 21:18

TLDR

  • OpenAI warnte davor, dass seine KI-Modelle der nächsten Generation "hohe" Cybersicherheitsrisiken darstellen und Zero-Day-Exploits erstellen könnten
  • GPT-5.1-Codex-Max erreichte im November 2025 76% bei Cybersicherheitstests, eine deutliche Steigerung gegenüber den 27% von GPT-5 im August 2024
  • Das Unternehmen führt Aardvark ein, einen auf Sicherheit fokussierten AI Agent, der Code-Schwachstellen identifiziert und Korrekturen vorschlägt
  • OpenAI plant die Einrichtung eines Frontier Risk Council mit Cybersicherheitsexperten und bietet gestaffelten Zugang zu erweiterten Sicherheitsfunktionen
  • Google und Anthropic haben in den letzten Monaten ebenfalls ihre KI-Systeme gegen Cybersicherheitsbedrohungen verstärkt

OpenAI veröffentlichte am 10. Dezember eine Warnung, dass seine kommenden KI-Modelle ernsthafte Cybersicherheitsrisiken verursachen könnten. Das Unternehmen hinter ChatGPT erklärte, dass diese fortschrittlichen Modelle funktionsfähige Zero-Day-Remote-Exploits entwickeln könnten, die auf gut geschützte Systeme abzielen.

Das KI-Unternehmen merkte auch an, dass diese Modelle bei komplexen Unternehmens- oder industriellen Eindringoperationen helfen könnten, die reale Konsequenzen nach sich ziehen. OpenAI teilte diese Informationen in einem Blogbeitrag mit, der die wachsenden Fähigkeiten seiner Technologie thematisiert.

Die Warnung spiegelt die Bedenken in der gesamten KI-Branche hinsichtlich des potenziellen Missbrauchs zunehmend leistungsfähiger Modelle wider. Mehrere große Technologieunternehmen haben Maßnahmen ergriffen, um ihre KI-Systeme gegen ähnliche Bedrohungen zu sichern.

Google kündigte diese Woche Updates für die Chrome-Browser-Sicherheit an, um indirekte Prompt-Injection-Angriffe auf AI Agents zu blockieren. Die Änderungen kamen vor einer breiteren Einführung von Gemini-Agentenfunktionen in Chrome.

Anthropic enthüllte im November 2025, dass Bedrohungsakteure, möglicherweise mit Verbindungen zu einer staatlich geförderten chinesischen Gruppe, ihr Claude Code-Tool für eine KI-gesteuerte Spionageoperation genutzt hatten. Das Unternehmen stoppte die Kampagne, bevor sie Schaden anrichten konnte.

KI-Cybersicherheitsfähigkeiten entwickeln sich schnell weiter

OpenAI teilte Daten mit, die schnelle Fortschritte bei den KI-Cybersicherheitsfähigkeiten zeigen. Das GPT-5.1-Codex-Max-Modell des Unternehmens erreichte im November 2025 76% bei Capture-the-Flag-Herausforderungen.

Dies stellt einen großen Sprung gegenüber dem Ergebnis von 27% dar, das GPT-5 im August 2024 erzielte. Capture-the-Flag-Herausforderungen messen, wie gut Systeme Sicherheitsschwachstellen lokalisieren und ausnutzen können.

Die Verbesserung innerhalb weniger Monate zeigt, wie schnell KI-Modelle fortgeschrittene Cybersicherheitsfähigkeiten erlangen. Diese Fähigkeiten können sowohl für defensive als auch für offensive Zwecke eingesetzt werden.

Neue Sicherheitstools und Schutzmaßnahmen

OpenAI gab an, stärkere Modelle für defensive Cybersicherheitsarbeit zu entwickeln. Das Unternehmen entwickelt Tools, um Sicherheitsteams bei der Codeprüfung und der einfacheren Behebung von Schwachstellen zu unterstützen.

Das von Microsoft unterstützte Unternehmen verwendet mehrere Sicherheitsebenen, darunter Zugangskontrollen, Infrastrukturhärtung, Ausgangskontrollen und Überwachungssysteme. OpenAI trainiert seine KI-Modelle darauf, schädliche Anfragen abzulehnen und gleichzeitig für Bildungs- und Verteidigungsarbeit nützlich zu bleiben.

Das Unternehmen erweitert die Überwachung aller Produkte, die Frontier-Modelle verwenden, um potenziell bösartige Cyberaktivitäten zu erkennen. OpenAI arbeitet mit erfahrenen Red-Teaming-Gruppen zusammen, um seine Sicherheitssysteme zu testen und zu verbessern.

Aardvark-Tool und Beratungsrat

OpenAI stellte Aardvark vor, einen AI Agent, der als Sicherheitsforscher arbeitet. Das Tool befindet sich im Öffentlicher Beta-Test und kann Code auf Schwachstellen scannen und Patches empfehlen.

Betreuer können die von Aardvark vorgeschlagenen Korrekturen schnell implementieren. OpenAI plant, Aardvark kostenlos für ausgewählte nicht-kommerzielle Open-Source-Code-Repositories anzubieten.

Das Unternehmen wird ein Programm starten, das qualifizierten Cyberdefense-Nutzern und Kunden gestaffelten Zugang zu erweiterten Funktionen bietet. OpenAI bildet den Frontier Risk Council, der externe Cyberverteidiger und Sicherheitsexperten mit seinen internen Teams zusammenbringt.

Der Rat wird zunächst den Schwerpunkt auf Cybersicherheit legen, bevor er auf andere Frontier-Fähigkeitsbereiche ausgeweitet wird. OpenAI wird in Kürze Details zum Trusted-Access-Programm für Nutzer und Entwickler, die an Cyberdefense arbeiten, bereitstellen.

Der Beitrag OpenAI warnt vor hohen Cybersicherheitsrisiken durch KI-Modelle der nächsten Generation erschien zuerst auf Blockonomi.

Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an service@support.mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.