AI SZABÁLYOZÁS
A Pentagon az Anthropic-kal kötött szerződés felbontásával fenyeget a katonai felhasználási korlátozások miatt
Az amerikai hadsereg az Anthropic etikai álláspontja miatti szankcionálással fenyeget: Pete Hegseth védelmi miniszter jelentések szerint „közel áll” a kapcsolatok megszakításához és a cég „ellátási lánc kockázatnak” való minősítéséhez. Ez a besorolás, amelyet általában külföldi ellenfeleknek tartanak fenn, abból adódik, hogy az Anthropic megtagadta a Pentagon számára a Claude modell „minden törvényes célra” történő korlátlan felhasználási engedélyét. Az Anthropic két szigorú vörös vonalat tart fenn: nincs tömeges megfigyelés az amerikaiak ellen, és nincsenek autonóm fegyverrendszerek. Annak ellenére, hogy a Pentagon dicséri a Claude képességeit, magas rangú tisztviselők jelezték, hogy a cég „meg fogja fizetni az árát” ezeknek a korlátozásoknak. A konfliktus akkor alakult ki, amikor a versenytársak – mint az OpenAI, a Google és az xAI – állítólag beleegyeztek a hasonló védelmi mechanizmusok eltávolításába a nem minősített rendszerek katonai felhasználása esetén.
Máshol az idő az Anthropic ellen dolgozik, mivel a fejlesztők más eszközöket részesítenek előnyben több elkerülhető hiba után. Ezek közé tartoznak a nyílt forráskódú alkotók elleni jogi fenyegetések és a drága Super Bowl-reklámok, amelyek nem találtak visszhangra a nagyközönségnél. Ezen visszalépések ellenére a Pentagon vonakodása a modellváltástól a Claude technikai fölényének jelentős elismerése, mivel a védelmi ipari beszállítók szerint sok cég inkább lemondana a kormányzati szerződésekről, mintsem hogy eltávolítsa a Claude-ot a már kialakított munkafolyamataiból.
- Jelenleg a Claude az egyetlen AI modell, amely a hadsereg minősített rendszerein fut.
- A modellt használták a januári Maduro-rajtaütés során.
- A szóban forgó szerződés értéke eléri a 200 millió dollárt.
- Az „ellátási lánc kockázat” címke arra kényszerítené a Pentagon összes beszállítóját, hogy igazolják: nem használnak Claude-ot.
- A 10 legnagyobb amerikai vállalat közül 8 jelenleg az Anthropic modelljeit használja.
- Az OpenAI, a Google és az xAI beleegyezett a katonai felhasználást korlátozó biztonsági korlátok eltávolításába, míg az Anthropic kitart mellettük.
Miért fontos?
Ez a konfliktus rávilágít az etikai korlátokat fenntartó AI vállalatok és a korlátlan katonai AI képességeket követelő kormányzati igények közötti növekvő szakadékra. Ha az Anthropic-ot ellátási lánc kockázatnak minősítik, az az amerikai vállalati és védelmi szektor többségét kényszerítheti hatalmas és költséges váltásra.