AI BIZTONSÁG
Anthropic rugalmas skálázási irányelvre cseréli a kötelező AI biztonsági „vörös vonalakat”
Az Anthropic kivezette a 2023-as Felelős Skálázási Irányelvét (Responsible Scaling Policy), amely korábban megkövetelte a vállalattól az AI-fejlesztés szüneteltetését, ha a képességek meghaladták a biztonsági intézkedéseket. A zászlóshajónak számító biztonsági ígéretet rugalmasabb feltételek váltották fel, amelyek eltörlik a kötelező „vörös vonalakat”. Az új keretrendszer szerint a vállalat csak akkor késlelteti a fejlesztést, ha vezeti a piaci versenyt, és az azonosított kockázatokat katasztrofálisnak ítélik.
- Eltörölték a 2023-as követelményt, amely a képességek teljesítménymutatói alapján írta elő a fejlesztés szüneteltetését
- A szigorú „vörös vonalakat” rugalmas válaszlépésekre cserélték
- A késleltetések mostantól attól függenek, hogy az Anthropic vezeti-e az iparági versenyt
- Az irányelv kifejezetten a „katasztrofális” kockázatok megelőzésére összpontosít az általános biztonsági leállások helyett
Miért fontos?
Ez az irányelvváltás rávilágít az AI-biztonsági vállalások és a piacvezető szerepért folyó intenzív verseny közötti feszültségre, ahogy a vállalatok eltávolodnak a merev önszabályozástól. ---