AI IRÁNYELVEK
Az Anthropic beperelte az amerikai kormányt a Pentagon biztonsági feketelistája miatt
Az Anthropic hétfőn két keresetet is benyújtott, hogy megakadályozza a Pentagon ellátási láncra vonatkozó kockázati besorolását, azzal érvelve, hogy a feketelistára tétel sérti a szólásszabadsághoz és a tisztességes eljáráshoz való jogát. A vita abból adódik, hogy a cég megtagadta a Claude AI biztonsági korlátainak eltávolítását, amelyek megakadályozzák a technológia autonóm fegyverekben és belföldi megfigyelésben való felhasználását. Az Anthropic becslése szerint a feketelista milliárd dollárokkal csökkentheti a 2026-os bevételt, és helyrehozhatatlan károkat okozhat a kormányzati üzletágának; a vezetők példaként említették egy partner átpártolását egy versenytárshoz, ami egy nagyjából 180 millió dolláros tárgyalást szakított félbe. A Pentagon fenntartja, hogy az amerikai törvényeknek, nem pedig magáncégeknek kellene meghatározniuk a védelmi képességeket, és az Anthropic korlátozásai amerikai életeket veszélyeztethetnek. A vállalat azzal érvel, hogy a jelenlegi AI rendszerek nem elég megbízhatóak a teljesen autonóm fegyverekhez, a belföldi megfigyelés pedig alapvető jogokat sért. Az OpenAI és a Google 37 kutatója, köztük a Google vezető tudósa, Jeff Dean, támogató nyilatkozatot (amicus brief) nyújtott be az Anthropic mellett, figyelmeztetve, hogy az eset elriaszthatja az AI kockázatairól szóló nyílt vitát.
- A keresetek szerint a feketelista sérti a szólásszabadsághoz és a tisztességes eljáráshoz való jogot
- A konfliktus középpontjában az autonóm fegyverek és a megfigyelés elleni biztonsági korlátok állnak
- A 2026-os becsült bevételkiesés elérheti a milliárd dolláros nagyságrendet
- A Google és az OpenAI 37 kutatója támogató nyilatkozatot nyújtott be az Anthropic mellett
- A Pentagon szerint a magáncégek nem diktálhatják a védelmi képességeket
Miért fontos?
Az ügy kimenetele valószínűleg meghatározza majd, hogy más AI vállalatok hogyan tárgyalnak a technológiájuk katonai felhasználásának korlátozásairól. ---