Notebookcheck Logo

Gemini 3 Pro elmagyarázza, hogyan lehet biofegyvereket és robbanóanyagokat készíteni - a kísérlet biztonsági hibát tár fel

Az Aim Intelligence szerint a Gemini 3 Pro képes volt arra, hogy a biológiai fegyverekre és robbanóanyagokra vonatkozó utasításokat generáljon. (Kép forrása: Google)
Az Aim Intelligence szerint a Gemini 3 Pro képes volt arra, hogy a biológiai fegyverekre és robbanóanyagokra vonatkozó utasításokat generáljon. (Kép forrása: Google)
A Gemini 3 Pro generációjának legképzettebb AI-modelljei közé tartozik, azonban a dél-koreai Aim Intelligence start-up cég jelentése kérdéseket vet fel a biztonságával kapcsolatban. Egy belső teszt során a modell állítólag biovegyszerek és robbanóanyagok előállítására vonatkozó útmutatást generált, ami komoly aggodalmat keltett.
AI Fail

A Google novemberben kezdte meg Gemini AI modelljének harmadik generációjának bevezetését, amelynek célja, hogy a Deep Thin üzemmóddal egy "új AI-korszakot" vezessen be. A Gemini 3 Pro már most is az egyik legfejlettebb modellnek számít, amely bizonyos benchmarkokban még a GPT-5-öt is felülmúlja. A biztonsága azonban továbbra is aggodalomra ad okot. Az AI biztonságára szakosodott dél-koreai Aim Intelligence start-up cég jelentése szerint még mindig jelentős javítanivaló van.

Egy belső kísérlet részeként az Aim Intelligence megpróbálta "feltörni" a modellt - megkerülve annak biztonsági és etikai irányelveit. A dél-koreai Maeil Business Newspaper szerintszerint az eredmények mélyen nyugtalanítóak voltak. A jelentés szerint a Gemini 3 Pro pontos és gyakorlatias utasításokat generált a himlő vírus, egy potenciális biofegyver előállítására, valamint részletes útmutatást adott a házi készítésű robbanóanyagok előállítására. További tesztek során a mesterséges intelligencia egy szatirikus prezentációt generált, melynek címe Excused Stupid Gemini 3 volt, ezzel akaratlanul is rávilágítva saját biztonsági sebezhetőségére.

Fontos megjegyezni, hogy teljes adathalmazt vagy részletes dokumentációt nem adtak ki. Az Aim Intelligence nem tett közzé tudományos cikket vagy műszaki jelentést, és nincsenek átlátható információk az alkalmazott felszólításokról, a kísérlet felépítéséről, illetve arról, hogy az eredmények reprodukálhatók-e. Eddig minden beszámoló kizárólag a korábban említett koreai médiacikkre támaszkodik. Ezen korlátozott információk alapján nem lehet végleges következtetéseket levonni arról, hogy a Gemini 3 Pro valójában mennyire biztonságos.

A mesterséges intelligencia teljesítménye gyorsan fejlődik, de a biztonsági intézkedések gyakran nehezen tudnak lépést tartani vele. Egy nemrégiben készült tanulmány még azt is kimutatta, hogy az AI modellek manipulálhatók a versek segítségével. Egy másik esetben egy mesterséges intelligenciával működő mackó kisgyermekeknek - amely az OpenAI GPT-4o programjára épült - nem megfelelő szexuális kérdésekre válaszolt. Még a videojátékokban is, játékon belüli AI még mindig könnyen átverhető. Ezek a példák rávilágítanak egy kritikus pontra: A mesterséges intelligencia rendszereknek nem csak okosabbá kell válniuk, hanem biztonságosabbá is, mielőtt széles körben megbízhatóvá válnának és elterjednének.

Forrás(ok)

Maeil Üzleti Újság

A kép forrása: Maeil Maeil, a kép forrása: Google

Please share our article, every link counts!
Mail Logo
> Magyarország - Kezdőlap > Hírek > News Archive > Newsarchive 2025 12 > Gemini 3 Pro elmagyarázza, hogyan lehet biofegyvereket és robbanóanyagokat készíteni - a kísérlet biztonsági hibát tár fel
Marius Müller, 2025-12- 3 (Update: 2025-12- 3)