Notebookcheck Logo

A Google azonosítja az első AI által kifejlesztett nulladik napi exploitot

A Google Threat Intelligence Group megerősítette az első ismert, mesterséges intelligencia segítségével kifejlesztett nulladik napi exploitot, amely egy népszerű nyílt forráskódú webes adminisztrációs eszköz 2FA megkerülését célozza.
ⓘ Freepik.com
A Google Threat Intelligence Group megerősítette az első ismert, mesterséges intelligencia segítségével kifejlesztett nulladik napi exploitot, amely egy népszerű nyílt forráskódú webes adminisztrációs eszköz 2FA megkerülését célozza.
A Google GTIG megerősítette az első mesterséges intelligencia által kifejlesztett nulladik napi exploitot, amely a 2FA-t célozza egy webes adminisztrációs eszközben. Egy tömeges kihasználási kampányt még a megjelenése előtt megszakítottak.
AI Business Windows Software Science Laptop / Notebook Desktop

A Google megerősítette az első ismert esetet, amikor egy mesterséges intelligencia segítségével kifejlesztett nulladik napi exploitot találtak. A vállalat Threat Intelligence Groupja, a GTIG 2026. május 11-én tette közzé az AI Threat Tracker című jelentését, amelyben részletezi, hogy egy ismert kiberbűnözői csoport hogyan használt egy mesterséges intelligencia modellt egy népszerű nyílt forráskódú webes adminisztrációs eszköz biztonsági hibájának azonosítására és fegyverként való felhasználására. A sebezhetőség megkerülte a kétfaktoros hitelesítést. A Google együttműködött az érintett gyártóval a javítás érdekében, és úgy véli, hogy beavatkozása megzavarhatta a csoport tervezett tömeges kihasználási kampányát, mielőtt az elindult volna.

A GTIG kijelentette nagy a valószínűsége annak, hogy a Python exploit szkriptet nem emberi kutató, hanem egy mesterséges intelligenciamodell írta. A kód elárulta azt. Rengeteg oktatói docstringet, hallucinált CVSS súlyossági pontszámot, részletes súgómenüket és a nagy nyelvi modellek képzési adataira jellemző tiszta, strukturált formázási stílust tartalmazott. Ezek nem olyan dolgok, amelyeket egy támadási eszközt író ember tartalmazna. Maga a célzott hiba egy szemantikai logikai hiba volt - egy fejlesztő keményen kódolt egy bizalmi feltételezést a hitelesítési folyamatba, ellentmondást hozva létre a 2FA végrehajtási logikájával, amit a hagyományos biztonsági szkennerek nem vettek észre, de amit az AI nyilvánvalóan a fejlesztő szándékának olvasásával, nem pedig a kód mechanikus elemzésével szúrt ki. A jelentés szerint sem a Google saját Gemini modelljeit, sem az Anthropic Mythos modelljét nem használták a támadók.

Miért működött majdnem, és miért nem működött

A támadók tömeges kihasználási kampányt terveztek, és az AI által generált exploittal a nyílt forráskódú eszközt célozták meg széles körben. Úgy tűnik, hogy a GTIG proaktív ellenfelfedezése keresztbe vágott ennek a tervnek, mielőtt az teret nyert volna. Valószínűleg az exploit megvalósításában elkövetett hibák is közrejátszottak. "Mindenki más számára az a kínos, hogy ez még mindig az ügyetlen korai fázisnak tűnik" - jegyezte meg a The Register a tudósításában. A végrehajtási hibák ezúttal sok potenciális áldozatot mentettek meg. Ez nem biztos, hogy kitart. A GTIG vezető elemzője, John Hultquist világosan fogalmazott: "Tévhit, hogy a mesterséges intelligencia sebezhetőségi versenye küszöbön áll. A valóság az, hogy már elkezdődött. Minden egyes nulladik nap, amelyet az AI-ra tudunk visszavezetni, valószínűleg sokkal több van odakint"

A kihasználás középpontjában álló szemantikai logikai hiba valami sokkal aggasztóbbra utal, mint egy egyszeri incidens. A hagyományos szkennerek úgy vannak kialakítva, hogy észleljék a süllyedéseket, az összeomlásokat és a memóriakárosodásokat. Nem úgy olvassák a kódot, ahogyan azt a fejlesztő írja. Az LLM-ek igen. Össze tudják vetni a szándékot a megvalósítással, képesek ellentmondásokat felfedezni a tervezés és a végrehajtás között, és olyan szunnyadó logikai hibákat is felszínre hoznak, amelyek minden jelenleg használt automatizált eszköz számára funkcionálisan helyesnek tűnnek. A GTIG ezt olyan növekvő képességként írta le, amellyel szemben a hagyományos biztonsági eszközök strukturálisan nem rendelkeznek megfelelő eszközökkel.

A GTIG-jelentés tágabb képe

A nulladik napi eset egy nagyobb mintázat része, amelyet a jelentés dokumentál. Az APT45 észak-koreai csoport több ezer ismétlődő kérést küldött a mesterséges intelligencia modelleknek, hogy rekurzívan elemezzék a sebezhetőségeket, és olyan méretű exploit-arzenált építsenek ki, amelyet gyakorlatilag nem lenne célszerű kézzel kezelni. Egy UNC2814 néven azonosított, Kínához köthető szereplő szakértői személyiségű jailbreak-felszólításokat használt arra, hogy a Gemini-t arra késztesse, hogy a TP-Link router firmware-ében lévő, hitelesítés előtti távoli kódfuttatási hibákat kutassa. Orosz csoportok mesterséges intelligenciával generált hangot használtak legitim hírfelvételekbe illesztve befolyásolási műveletekhez. Ezektől függetlenül a GTIG dokumentálta a Android hátsó ajtókat amelyek Gemini API-hívásokat használnak a fertőzött eszközök önálló navigálására, valamint olyan kártevőcsaládokat, amelyeket kifejezetten az elemzés megzavarására mesterséges intelligencia által generált kóddal töltöttek ki.

2026 márciusában a TeamPCP bűnözői csoport egy széles körben használt AI gateway könyvtárat, a LiteLLM-et kompromittálta, mégpedig úgy, hogy mérgezett PyPI csomagok és rosszindulatú pull-kérelmek segítségével hitelesítő adatok lopását ágyazta be. Az ellopott AWS kulcsokat és GitHub tokeneket zsarolóprogram-partnerségeken keresztül pénzzé tették. A támadás nem magukat a modelleket, hanem az AI-rendszerek körüli integrációs réteget célozta meg, ami a GTIG szerint egyre inkább szokványossá válik. A határmodelleket nehéz közvetlenül kompromittálni. A körülöttük lévő csatlakozók, wrapperek és API-rétegek viszont nem.

A mesterséges intelligenciát nem csak a támadók használják fegyverként. Csalinak is használják. A Notebookcheck azt vizsgálta, hogy egy hamis Claude AI weboldal a múlt héten a Beagle Windows hátsó ajtót a Google szponzorált keresési találatain keresztül terjesztette, egy trójai telepítő segítségével egy távoli hozzáférési eszközt telepítve, amely a Claude Code eszközöket kereső fejlesztőket célozta meg

Please share our article, every link counts!
Mail Logo
> Magyarország - Kezdőlap > Hírek > News Archive > Newsarchive 2026 05 > A Google azonosítja az első AI által kifejlesztett nulladik napi exploitot
Darryl Linington, 2026-05-12 (Update: 2026-05-12)