A Google azonosítja az első AI által kifejlesztett nulladik napi exploitot

A Google megerősítette az első ismert esetet, amikor egy mesterséges intelligencia segítségével kifejlesztett nulladik napi exploitot találtak. A vállalat Threat Intelligence Groupja, a GTIG 2026. május 11-én tette közzé az AI Threat Tracker című jelentését, amelyben részletezi, hogy egy ismert kiberbűnözői csoport hogyan használt egy mesterséges intelligencia modellt egy népszerű nyílt forráskódú webes adminisztrációs eszköz biztonsági hibájának azonosítására és fegyverként való felhasználására. A sebezhetőség megkerülte a kétfaktoros hitelesítést. A Google együttműködött az érintett gyártóval a javítás érdekében, és úgy véli, hogy beavatkozása megzavarhatta a csoport tervezett tömeges kihasználási kampányát, mielőtt az elindult volna.
A GTIG kijelentette nagy a valószínűsége annak, hogy a Python exploit szkriptet nem emberi kutató, hanem egy mesterséges intelligenciamodell írta. A kód elárulta azt. Rengeteg oktatói docstringet, hallucinált CVSS súlyossági pontszámot, részletes súgómenüket és a nagy nyelvi modellek képzési adataira jellemző tiszta, strukturált formázási stílust tartalmazott. Ezek nem olyan dolgok, amelyeket egy támadási eszközt író ember tartalmazna. Maga a célzott hiba egy szemantikai logikai hiba volt - egy fejlesztő keményen kódolt egy bizalmi feltételezést a hitelesítési folyamatba, ellentmondást hozva létre a 2FA végrehajtási logikájával, amit a hagyományos biztonsági szkennerek nem vettek észre, de amit az AI nyilvánvalóan a fejlesztő szándékának olvasásával, nem pedig a kód mechanikus elemzésével szúrt ki. A jelentés szerint sem a Google saját Gemini modelljeit, sem az Anthropic Mythos modelljét nem használták a támadók.
Miért működött majdnem, és miért nem működött
A támadók tömeges kihasználási kampányt terveztek, és az AI által generált exploittal a nyílt forráskódú eszközt célozták meg széles körben. Úgy tűnik, hogy a GTIG proaktív ellenfelfedezése keresztbe vágott ennek a tervnek, mielőtt az teret nyert volna. Valószínűleg az exploit megvalósításában elkövetett hibák is közrejátszottak. "Mindenki más számára az a kínos, hogy ez még mindig az ügyetlen korai fázisnak tűnik" - jegyezte meg a The Register a tudósításában. A végrehajtási hibák ezúttal sok potenciális áldozatot mentettek meg. Ez nem biztos, hogy kitart. A GTIG vezető elemzője, John Hultquist világosan fogalmazott: "Tévhit, hogy a mesterséges intelligencia sebezhetőségi versenye küszöbön áll. A valóság az, hogy már elkezdődött. Minden egyes nulladik nap, amelyet az AI-ra tudunk visszavezetni, valószínűleg sokkal több van odakint"
A kihasználás középpontjában álló szemantikai logikai hiba valami sokkal aggasztóbbra utal, mint egy egyszeri incidens. A hagyományos szkennerek úgy vannak kialakítva, hogy észleljék a süllyedéseket, az összeomlásokat és a memóriakárosodásokat. Nem úgy olvassák a kódot, ahogyan azt a fejlesztő írja. Az LLM-ek igen. Össze tudják vetni a szándékot a megvalósítással, képesek ellentmondásokat felfedezni a tervezés és a végrehajtás között, és olyan szunnyadó logikai hibákat is felszínre hoznak, amelyek minden jelenleg használt automatizált eszköz számára funkcionálisan helyesnek tűnnek. A GTIG ezt olyan növekvő képességként írta le, amellyel szemben a hagyományos biztonsági eszközök strukturálisan nem rendelkeznek megfelelő eszközökkel.
A GTIG-jelentés tágabb képe
A nulladik napi eset egy nagyobb mintázat része, amelyet a jelentés dokumentál. Az APT45 észak-koreai csoport több ezer ismétlődő kérést küldött a mesterséges intelligencia modelleknek, hogy rekurzívan elemezzék a sebezhetőségeket, és olyan méretű exploit-arzenált építsenek ki, amelyet gyakorlatilag nem lenne célszerű kézzel kezelni. Egy UNC2814 néven azonosított, Kínához köthető szereplő szakértői személyiségű jailbreak-felszólításokat használt arra, hogy a Gemini-t arra késztesse, hogy a TP-Link router firmware-ében lévő, hitelesítés előtti távoli kódfuttatási hibákat kutassa. Orosz csoportok mesterséges intelligenciával generált hangot használtak legitim hírfelvételekbe illesztve befolyásolási műveletekhez. Ezektől függetlenül a GTIG dokumentálta a Android hátsó ajtókat amelyek Gemini API-hívásokat használnak a fertőzött eszközök önálló navigálására, valamint olyan kártevőcsaládokat, amelyeket kifejezetten az elemzés megzavarására mesterséges intelligencia által generált kóddal töltöttek ki.
2026 márciusában a TeamPCP bűnözői csoport egy széles körben használt AI gateway könyvtárat, a LiteLLM-et kompromittálta, mégpedig úgy, hogy mérgezett PyPI csomagok és rosszindulatú pull-kérelmek segítségével hitelesítő adatok lopását ágyazta be. Az ellopott AWS kulcsokat és GitHub tokeneket zsarolóprogram-partnerségeken keresztül pénzzé tették. A támadás nem magukat a modelleket, hanem az AI-rendszerek körüli integrációs réteget célozta meg, ami a GTIG szerint egyre inkább szokványossá válik. A határmodelleket nehéz közvetlenül kompromittálni. A körülöttük lévő csatlakozók, wrapperek és API-rétegek viszont nem.
A mesterséges intelligenciát nem csak a támadók használják fegyverként. Csalinak is használják. A Notebookcheck azt vizsgálta, hogy egy hamis Claude AI weboldal a múlt héten a Beagle Windows hátsó ajtót a Google szponzorált keresési találatain keresztül terjesztette, egy trójai telepítő segítségével egy távoli hozzáférési eszközt telepítve, amely a Claude Code eszközöket kereső fejlesztőket célozta meg
» A Top 10 multimédiás noteszgép - tesztek alapján
» A Top 10 játékos noteszgép
» A Top 10 belépő szintű üzleti noteszgép
» A Top 10 üzleti noteszgép
» A Top 10 notebook munkaállomása
» A Top 10 okostelefon - tesztek alapján
» A Top 10 táblagép
» A Top 10 Windows tabletje
» A Top 10 subnotebook - tesztek alapján
» A Top 10 300 euró alatti okostelefonja
» A Top 10 120 euró alatti okostelefonja
» A Top 10 phabletje (>5.5-inch)
» A Top 10 noteszgép 500 EUR (~160.000 HUF) alatt
» A Top 10 "pehelysúlyú" gaming notebookja







