ANTHROPIC
Elmérgesedett az Anthropic és a Pentagon vitája a katonai AI-használat korlátozásai miatt
A jelentések szerint a Pentagon „közel áll” ahhoz, hogy megszakítsa a kapcsolatot az Anthropic-kal, és a céget „ellátási láncbeli kockázatnak” minősítse – ez a megbélyegzés általában csak külföldi ellenségeknek jár –, mivel a vállalat korlátozásokat vezetett be a Claude katonai célú felhasználására vonatkozóan.
- Az „ellátási láncbeli kockázat” besorolás, ha életbe lép, minden amerikai védelmi beszállítót arra kényszerítene, hogy megszakítsa a kapcsolatot az Anthropic-kal – ami súlyosan érintené az AI-vállalat üzleti tevékenységét.
- A védelmi tisztviselők ragaszkodnak a joghoz, hogy az AI-t „minden törvényes célra” felhasználhassák, miközben az Anthropic kitart a széles körű engedélyek megtagadása mellett.
- Az Axios jelentése szerint a cég nyitott a korlátozások enyhítésére, de garantálni akarja, hogy az AI-t ne használják amerikai állampolgárok utáni kémkedésre vagy autonóm fegyverek fejlesztésére.
- Jelenleg a Claude az egyetlen AI a Pentagon titkosított rendszerein, és állítólag a Palantir-on keresztül használták Nicolás Maduro januári elfogásához is.
Miért fontos?
A szakértők már régóta figyelmeztetnek az AI hadviselésben történő ellenőrizetlen alkalmazásának veszélyeire. Ez a patthelyzet jelentős pillanat, amely megmutatja a vállalatok felelősségteljes használatra vonatkozó irányelvei és a hadsereg műveleti igényei közötti növekvő súrlódást. Csak az idő fogja eldönteni, melyik oldal alakítja majd az AI szabályait a nemzetbiztonság területén.