Az Anthropic szembeszáll a Pentagonnal, hogy megnyissa Claude AI-t a pilóta nélküli fegyverrendszerek vagy a tömeges megfigyelés számára

A mesterséges intelligencia óriáscég Anthropic hagyja elmúlni a Pentagon által kitűzött február 27-i határidőt, hogy a katonai felhasználásra szánt Claude modelljét megfossza minden biztosítéktól.
Az Anthropic vezérigazgatója, Dario Amodei szerint az AI-vállalat "jó lelkiismerettel" nem nyithatja meg a Claude-ot pilóta nélküli fegyverrendszerek működtetésére vagy amerikai állampolgárok tömeges megfigyelésére, mivel az nem eléggé biztonságos és nem elég megbízható ahhoz, hogy megfeleljen a célnak.
Az Anthropic Claude egyszerre az egyik vezető AI-ügynök és a legbiztonságorientáltabb, beépített védőkorláttal rendelkezik az AI-eszközeinek rosszindulatú felhasználása ellen. Az Egyesült Államok hadügyminisztériuma (DoW) azonban követeli hogy az általa vásárolt AI modellek ne tartalmazzanak semmilyen más, csak a saját homályos "törvényes felhasználási" korlátozást:
Ezért nem alkalmazhatunk olyan mesterséges intelligenciamodelleket, amelyek ideológiai "hangolást" tartalmaznak, amely akadályozza őket abban, hogy objektív, igaz válaszokat adjanak a felhasználói kérésekre.
A minisztériumnak olyan modelleket is használnia kell, amelyek mentesek a felhasználási politika olyan korlátaitól, amelyek korlátozhatják a törvényes katonai alkalmazásokat. Ezért utasítom a CDAO-t, hogy 90 napon belül határozzon meg referenciaértékeket a modellek objektivitására mint elsődleges beszerzési kritériumra vonatkozóan, és utasítom a beszerzési és fenntartási ügyekért felelős hadügyminisztert, hogy 180 napon belül építse be a "bármilyen jogszerű felhasználás" standard megfogalmazását minden olyan hadügyminisztériumi szerződésbe, amelyen keresztül AI-szolgáltatásokat szereznek be.
A Pentagon most olyan súlyos következményekkel fenyegette meg az Anthropicot, amelyek túlmutatnak a mérlegére gyakorolt hatáson. Amellett, hogy veszélybe kerül a Pentagon számára az AI-eszközök szállítására vonatkozó jelenlegi 200 millió dolláros plafonszerződés, az Anthropic azt kockáztatja, hogy az ellátási lánc kockázatának minősül, vagy felkérik, hogy szüntesse meg a Claude katonai felhasználásra vonatkozó akadályait az 1950-es évekbeli törvény alapján, amelyet arra terveztek, hogy az amerikai vállalatokat nemzetbiztonsági okokra hivatkozva a koreai háború idején megfelelésre kényszerítsék.
Az ellátási lánc kockázatának minősítés jellemzően olyan vállalatok számára van fenntartva, amelyek potenciális kapcsolatban állnak rosszindulatú állami szereplőkkel, mint például a kínai Huawei vagy az orosz Kaspersky, így az Anthropic felkerülése erre a listára jelentős csapást mérhet a kereseti potenciáljára. Annak ellenére, hogy fennáll a veszélye annak, hogy a Fehér Ház jelenlegi kormánya AI-páriává válik, Amodei ragaszkodik ahhoz, hogy a jelenlegi"határ menti AI-rendszerek egyszerűen nem elég megbízhatóak ahhoz, hogy teljesen autonóm fegyvereket működtessenek", míg"e rendszerek tömeges belföldi megfigyelésre való felhasználása összeegyeztethetetlen a demokratikus értékekkel"
Az Anthropic Claude volt a legmegfelelőbb modell, amikor a kormány először akart AI-eszközöket használni a titkos információk átvizsgálására, és segítségére volt a Maduro venezuelai erős embert elfogó rajtaütés megtervezésekor, ezért Dario Amodei azt mondta, reméli, hogy a Pentagon átgondolja álláspontját a két vörös vonalas forgatókönyvvel kapcsolatban, amelyet továbbra is korlátozni fog az AI-modellekben.
Forrás(ok)
» A Top 10 multimédiás noteszgép - tesztek alapján
» A Top 10 játékos noteszgép
» A Top 10 belépő szintű üzleti noteszgép
» A Top 10 üzleti noteszgép
» A Top 10 notebook munkaállomása
» A Top 10 okostelefon - tesztek alapján
» A Top 10 táblagép
» A Top 10 Windows tabletje
» A Top 10 subnotebook - tesztek alapján
» A Top 10 300 euró alatti okostelefonja
» A Top 10 120 euró alatti okostelefonja
» A Top 10 phabletje (>5.5-inch)
» A Top 10 noteszgép 500 EUR (~160.000 HUF) alatt
» A Top 10 "pehelysúlyú" gaming notebookja









