Google's AI Big Sleep vindt 20 kritieke bugs voordat hackers dat doen.

Big Sleep is Googles nieuwste pareltje in de jacht op de gevaarlijkste bugs van het web. Maar dit keer hebben we het niet over een team van ervaren hackers die slapeloze nachten achter hun computer doorbrengen: het is kunstmatige intelligentie.
Google introduceert AI Big Sleep om bugs op te lossen: verrassende eerste resultatenBig Sleep , ontwikkeld door DeepMind in samenwerking met Google's legendarische Project Zero-team , heeft zojuist zijn eerste rapport gepubliceerd: 20 kwetsbaarheden ontdekt in populaire opensourcesoftware zoals FFmpeg en ImageMagick. Elk lek werd door de AI-agent gevonden en gereproduceerd zonder enige menselijke tussenkomst. Uiteraard houdt Google een menselijke expert in de gaten om de kwaliteit van de rapporten te controleren voordat ze worden ingediend, maar de eerste ontdekking is volledig geautomatiseerd.
Dit toont een nieuwe grens aan in de geautomatiseerde detectie van kwetsbaarheden
, schreef Royal Hansen, vicepresident engineering bij Google. En hij heeft gelijk. Terwijl menselijke hackers vertrouwen op intuïtie, ervaring en vaak geluk, kan Big Sleep duizenden regels code met chirurgische precisie en onvermoeibaarheid analyseren.
Omdat deze bugs nog niet zijn opgelost, kan Google nog niet zeggen hoe ernstig ze zijn. Het is standaardprocedure: zolang de problemen bestaan, maken ze geen details bekend om te voorkomen dat iemand er misbruik van maakt. Maar de details zijn niet het belangrijkste. Het gaat erom dat een AI echte kwetsbaarheden in echte code heeft gevonden, niet in laboefeningen.
De beperkingen van AI-bugjagersBig Sleep is niet de enige op dit gebied. Tools zoals RunSybil en XBOW maken al furore. Cybersecurity begint te veranderen. Maar het is niet alles wat blinkt, goud. Verschillende softwareprojectbeheerders klagen over het ontvangen van bugmeldingen die AI- hallucinaties blijken te zijn.
Punto Informatico