Notebookcheck Logo

Az Anthropic szembeszáll a Pentagonnal, hogy megnyissa Claude AI-t a pilóta nélküli fegyverrendszerek vagy a tömeges megfigyelés számára

A Textron Aerosonde Mk. 4.7 UAS drón.
ⓘ Textron Systems
A Textron Aerosonde Mk. 4.7 UAS drón.
Az Anthropic valószínűleg továbbra is a vezető mesterséges intelligenciával foglalkozó vállalat marad, ha modelljeinek biztonságáról és társadalmi felelősségéről van szó. A lehetséges következmények ellenére elutasította a Pentagon kérését, hogy a Claude AI-ügynökében rejlő, a katonai felhasználás és a megfigyelés elleni védőkorlátokat megszüntesse.
AI

A mesterséges intelligencia óriáscég Anthropic hagyja elmúlni a Pentagon által kitűzött február 27-i határidőt, hogy a katonai felhasználásra szánt Claude modelljét megfossza minden biztosítéktól.

Az Anthropic vezérigazgatója, Dario Amodei szerint az AI-vállalat "jó lelkiismerettel" nem nyithatja meg a Claude-ot pilóta nélküli fegyverrendszerek működtetésére vagy amerikai állampolgárok tömeges megfigyelésére, mivel az nem eléggé biztonságos és nem elég megbízható ahhoz, hogy megfeleljen a célnak.

Az Anthropic Claude egyszerre az egyik vezető AI-ügynök és a legbiztonságorientáltabb, beépített védőkorláttal rendelkezik az AI-eszközeinek rosszindulatú felhasználása ellen. Az Egyesült Államok hadügyminisztériuma (DoW) azonban követeli hogy az általa vásárolt AI modellek ne tartalmazzanak semmilyen más, csak a saját homályos "törvényes felhasználási" korlátozást:

Ezért nem alkalmazhatunk olyan mesterséges intelligenciamodelleket, amelyek ideológiai "hangolást" tartalmaznak, amely akadályozza őket abban, hogy objektív, igaz válaszokat adjanak a felhasználói kérésekre.

A minisztériumnak olyan modelleket is használnia kell, amelyek mentesek a felhasználási politika olyan korlátaitól, amelyek korlátozhatják a törvényes katonai alkalmazásokat. Ezért utasítom a CDAO-t, hogy 90 napon belül határozzon meg referenciaértékeket a modellek objektivitására mint elsődleges beszerzési kritériumra vonatkozóan, és utasítom a beszerzési és fenntartási ügyekért felelős hadügyminisztert, hogy 180 napon belül építse be a "bármilyen jogszerű felhasználás" standard megfogalmazását minden olyan hadügyminisztériumi szerződésbe, amelyen keresztül AI-szolgáltatásokat szereznek be.

A Pentagon most olyan súlyos következményekkel fenyegette meg az Anthropicot, amelyek túlmutatnak a mérlegére gyakorolt hatáson. Amellett, hogy veszélybe kerül a Pentagon számára az AI-eszközök szállítására vonatkozó jelenlegi 200 millió dolláros plafonszerződés, az Anthropic azt kockáztatja, hogy az ellátási lánc kockázatának minősül, vagy felkérik, hogy szüntesse meg a Claude katonai felhasználásra vonatkozó akadályait az 1950-es évekbeli törvény alapján, amelyet arra terveztek, hogy az amerikai vállalatokat nemzetbiztonsági okokra hivatkozva a koreai háború idején megfelelésre kényszerítsék.

Az ellátási lánc kockázatának minősítés jellemzően olyan vállalatok számára van fenntartva, amelyek potenciális kapcsolatban állnak rosszindulatú állami szereplőkkel, mint például a kínai Huawei vagy az orosz Kaspersky, így az Anthropic felkerülése erre a listára jelentős csapást mérhet a kereseti potenciáljára. Annak ellenére, hogy fennáll a veszélye annak, hogy a Fehér Ház jelenlegi kormánya AI-páriává válik, Amodei ragaszkodik ahhoz, hogy a jelenlegi"határ menti AI-rendszerek egyszerűen nem elég megbízhatóak ahhoz, hogy teljesen autonóm fegyvereket működtessenek", míg"e rendszerek tömeges belföldi megfigyelésre való felhasználása összeegyeztethetetlen a demokratikus értékekkel"

Az Anthropic Claude volt a legmegfelelőbb modell, amikor a kormány először akart AI-eszközöket használni a titkos információk átvizsgálására, és segítségére volt a Maduro venezuelai erős embert elfogó rajtaütés megtervezésekor, ezért Dario Amodei azt mondta, reméli, hogy a Pentagon átgondolja álláspontját a két vörös vonalas forgatókönyvvel kapcsolatban, amelyet továbbra is korlátozni fog az AI-modellekben.

Forrás(ok)

Please share our article, every link counts!
Mail Logo
> Magyarország - Kezdőlap > Hírek > News Archive > Newsarchive 2026 02 > Az Anthropic szembeszáll a Pentagonnal, hogy megnyissa Claude AI-t a pilóta nélküli fegyverrendszerek vagy a tömeges megfigyelés számára
Daniel Zlatev, 2026-02-27 (Update: 2026-02-27)