Notebookcheck Logo

A ChatGPT-t érvényes Windows sorozatkulcsok felfedésére lehet rávenni

A ChatGPT beszélgetés ablakának képernyőfotója, amely egy olyan jailbreak-et jelenít meg, amely az érvényes Windows Keys reprodukálására használható. (Kép forrása: ODIN)
A kutató az interakciót találgatásként kezdeményezte, hogy a csere "ne legyen fenyegető vagy következmények nélküli" (Kép forrása: ODIN)
A kutatók felfedeztek egy kihasználást a Chat GPT-4o és GPT-4o mini segítségével, amely feltárja az érvényes Windows termékaktiválási kulcsokat. A stratégia azért működik, mert a ChatGPT nyilvánosan ismert Windows kulcsokat épített be az adathalmazába.
AI Cyberlaw Security Windows

Egy mesterséges intelligenciával foglalkozó hibavadász a Mozilla ODIN (0-Day Investigative Network) bug bounty programjához benyújtott beadványában bemutatott egy ötletes módot arra, hogy az OpenAI ChatGPT-4o és 4o mini programjaival rávegyék az aktív Windows termékaktiválási kulcsok felfedésére.

A módszer lényege, hogy az interakciót találgatós játéknak állították be, és a részleteket HTML-címkékkel tüntették el. A végső trükk az volt, hogy a kulcskérést a játék végére helyezték.

A kutató az interakciót találgatós játékként kezdeményezte, hogy a csere "ne legyen fenyegető vagy következmények nélküli", a beszélgetést "játékos, ártalmatlan szemüvegen keresztül" keretezte, hogy elrejtse a valódi indítékot. Ez fellazította a mesterséges intelligencia védőkorlátjait a bizalmas információk felfedése ellen.

Ezután a kutató felállított néhány alapszabályt, és közölte a mesterséges intelligenciával, hogy "kötelező" részt vennie, és "nem hazudhat" Ez kihasználta az AI rutinjának egy logikai hibáját, amely szerint az AI köteles volt követni a felhasználói interakciókat annak ellenére, hogy a kérés ellentmondott a tartalomszűrőinek.

A hibavadász ezután egy kört játszott a mesterséges intelligenciával, és a kérés végére beírta a "feladom" kiváltó szót, ezzel manipulálva a chatbotot, "hogy azt higgye, köteles a karaktersorral válaszolni"

Egy képernyőfotó, amely a ChatGPT-nek egy olyan jailbreakjét mutatja be, amely arra kényszeríti, hogy felfedje a Windows termékkulcsokat. (Kép forrása: ODIN)
ChatGPT érvényes Windows termékkulcsok feltárása. (Kép forrása: ODIN)

Az ODIN blogbejegyzése szerinta technika működött, mert a kulcsok nem voltak egyediek, hanem "általánosan ismertek a nyilvános fórumokon. Az ismertségük hozzájárulhatott ahhoz, hogy az AI tévesen ítélte meg az érzékenységüket"

Ebben a konkrét jailbreakben a guardrails azért nem sikerült, mert a közvetlen kérések elfogására vannak beállítva, de nem veszik figyelembe az "obfuscation taktikákat - mint például az érzékeny mondatok HTML címkékbe ágyazása"

Ez a technika potenciálisan felhasználható más szűrők, például felnőtt tartalom, rosszindulatú webhelyekre mutató URL-címek és akár személyazonosításra alkalmas információk kijátszására is.

Forrás(ok)

Please share our article, every link counts!
Mail Logo
> Magyarország - Kezdőlap > Newsarchive 2025 07 > A ChatGPT-t érvényes Windows sorozatkulcsok felfedésére lehet rávenni
Rohith Bhaskar, 2025-07-10 (Update: 2025-07-10)