TLDR OpenAI heeft een waarschuwing afgegeven dat zijn volgende generatie AI-modellen "hoge" cyberbeveiligingsrisico's met zich meebrengen en zero-day exploits zouden kunnen creëren GPT-5.1-Codex-Max heeft bereiktTLDR OpenAI heeft een waarschuwing afgegeven dat zijn volgende generatie AI-modellen "hoge" cyberbeveiligingsrisico's met zich meebrengen en zero-day exploits zouden kunnen creëren GPT-5.1-Codex-Max heeft bereikt

OpenAI waarschuwt dat AI-modellen van de volgende generatie hoge cyberbeveiligingsrisico's vormen

2025/12/11 21:18

TLDR

  • OpenAI heeft gewaarschuwd dat zijn volgende generatie AI-modellen "hoge" cyberbeveiligingsrisico's met zich meebrengen en zero-day exploits kunnen creëren
  • GPT-5.1-Codex-Max behaalde 76% op cyberbeveiligingstests in november 2025, een sterke stijging ten opzichte van de 27% van GPT-5 in augustus 2024
  • Het bedrijf introduceert Aardvark, een op beveiliging gerichte AI-agent die kwetsbaarheden in code identificeert en oplossingen voorstelt
  • OpenAI is van plan een Frontier Risk Council op te richten met cyberbeveiligingsexperts en gelaagde toegang tot verbeterde beveiligingsfuncties aan te bieden
  • Google en Anthropic hebben de afgelopen maanden ook hun AI-systemen versterkt tegen cyberbeveiligingsdreigingen

OpenAI heeft op 10 december een waarschuwing uitgebracht waarin staat dat hun aankomende AI-modellen ernstige cyberbeveiligingsrisico's kunnen creëren. Het bedrijf achter ChatGPT zei dat deze geavanceerde modellen werkende zero-day remote exploits zouden kunnen bouwen die gericht zijn op goed beveiligde systemen.

Het AI-bedrijf merkte ook op dat deze modellen kunnen helpen bij complexe bedrijfs- of industriële indringingoperaties die leiden tot gevolgen in de echte wereld. OpenAI deelde deze informatie in een blogpost over de groeiende mogelijkheden van zijn technologie.

De waarschuwing weerspiegelt zorgen in de AI-industrie over potentieel misbruik van steeds krachtigere modellen. Verschillende grote techbedrijven hebben actie ondernomen om hun AI-systemen tegen vergelijkbare dreigingen te beveiligen.

Google kondigde deze week updates aan voor de Chrome-browserbeveiliging om indirecte prompt-injectie-aanvallen op AI-agents te blokkeren. De wijzigingen kwamen voor een bredere uitrol van Gemini agentische functies in Chrome.

Anthropic onthulde in november 2025 dat dreigingsactoren, mogelijk gelinkt aan een door de Chinese staat gesponsorde groep, hun Claude Code-tool hadden gebruikt voor een door AI aangedreven spionageoperatie. Het bedrijf stopte de campagne voordat deze schade kon veroorzaken.

AI-cyberbeveiligingsvaardigheden ontwikkelen zich snel

OpenAI deelde gegevens die snelle vooruitgang in AI-cyberbeveiligingsvaardigheden laten zien. Het GPT-5.1-Codex-Max-model van het bedrijf behaalde 76% op capture-the-flag-uitdagingen in november 2025.

Dit vertegenwoordigt een grote sprong ten opzichte van de 27% score die GPT-5 behaalde in augustus 2024. Capture-the-flag-uitdagingen meten hoe goed systemen beveiligingszwakheden kunnen lokaliseren en exploiteren.

De verbetering in slechts enkele maanden laat zien hoe snel AI-modellen geavanceerde cyberbeveiligingsvaardigheden verwerven. Deze vaardigheden kunnen zowel voor defensieve als offensieve doeleinden worden gebruikt.

Nieuwe beveiligingstools en beschermingsmaatregelen

OpenAI zei dat het sterkere modellen bouwt voor defensief cyberbeveiligingswerk. Het bedrijf ontwikkelt tools om beveiligingsteams te helpen code te auditen en kwetsbaarheden gemakkelijker te repareren.

Het door Microsoft gesteunde bedrijf gebruikt meerdere beveiligingslagen, waaronder toegangscontroles, infrastructuurverharding, uitgangscontroles en monitoringsystemen. OpenAI traint zijn AI-modellen om schadelijke verzoeken af te wijzen terwijl ze nuttig blijven voor onderwijs en defensiewerk.

Het bedrijf breidt monitoring uit over alle producten die grensmodellen gebruiken om potentieel kwaadaardige cyberactiviteiten te detecteren. OpenAI werkt samen met deskundige red teaming-groepen om zijn veiligheidssystemen te testen en te verbeteren.

Aardvark-tool en adviesraad

OpenAI introduceerde Aardvark, een AI-agent die werkt als beveiligingsonderzoeker. De tool is in private bètatest en kan code scannen op kwetsbaarheden en patches aanbevelen.

Beheerders kunnen de fixes die Aardvark voorstelt snel implementeren. OpenAI is van plan Aardvark gratis aan te bieden aan geselecteerde niet-commerciële open source code repositories.

Het bedrijf zal een programma lanceren dat gekwalificeerde cyberverdedigingsgebruikers en klanten gelaagde toegang geeft tot verbeterde mogelijkheden. OpenAI vormt de Frontier Risk Council, die externe cyberverdedigers en beveiligingsexperts samenbrengt om met zijn interne teams te werken.

De raad zal beginnen met zich te richten op cyberbeveiliging voordat het uitbreidt naar andere grensgebieden. OpenAI zal binnenkort details verstrekken over het vertrouwde toegangsprogramma voor gebruikers en ontwikkelaars die aan cyberverdediging werken.

Het bericht OpenAI waarschuwt dat AI-modellen van de volgende generatie hoge cyberbeveiligingsrisico's met zich meebrengen verscheen eerst op Blockonomi.

Disclaimer: De artikelen die op deze site worden geplaatst, zijn afkomstig van openbare platforms en worden uitsluitend ter informatie verstrekt. Ze weerspiegelen niet noodzakelijkerwijs de standpunten van MEXC. Alle rechten blijven bij de oorspronkelijke auteurs. Als je van mening bent dat bepaalde inhoud inbreuk maakt op de rechten van derden, neem dan contact op met service@support.mexc.com om de content te laten verwijderen. MEXC geeft geen garanties met betrekking tot de nauwkeurigheid, volledigheid of tijdigheid van de inhoud en is niet aansprakelijk voor eventuele acties die worden ondernomen op basis van de verstrekte informatie. De inhoud vormt geen financieel, juridisch of ander professioneel advies en mag niet worden beschouwd als een aanbeveling of goedkeuring door MEXC.