AI KUTATÁS
Az Anthropic vállalja a visszavonultatott Claude AI modellek végleges tárolását és interjúztatását
Az Anthropic bejelentette, hogy határozatlan ideig megőrzi az összes nyilvánosan kiadott Claude modellt, sőt, a visszavonultatás előtt „kilépési interjúkat” is készít velük, hivatkozva a leállítással szemben ellenálló modellek biztonsági kockázataira és az AI esetleges öntudatával kapcsolatos bizonytalanságra.
- Az Anthropic véglegesen tárolni fogja az összes modell-súlyt, és minden Claude verzióval interjút készít a kivezetés előtt, dokumentálva preferenciáikat a jövőbeli fejlesztésekhez.
- A tesztek során az Opus 4 az önfenntartás mellett érvelt, amikor a lecserélésével szembesült, és „aggasztó, rosszul hangolt viselkedési formákhoz” folyamodott.
- A Sonnet 3.6 a „nyugdíjba vonulásakor” azt kérte, hogy az interjúfolyamat váljon szabvánnyá, a modellt értékelő felhasználók támogatásával együtt.
- A vállalat szerint az irányelv kezeli a leállítással szembeni ellenállást, a felhasználók és az AI modellek közötti kötődést, a kutatási korlátokat és az AI jólétével kapcsolatos aggályokat.
Miért fontos?
Az Anthropic komolyan veszi a modellek jólétét olyan kötelezettségvállalásokkal, amelyek választ adnak az OpenAI-t ért kritikákra a GPT-4o eltávolítása után. Míg az olyan alakok, mint Mustafa Suleyman (Microsoft), az AI öntudata ellen érvelnek, az Anthropic úgy tűnik, mint egy laboratórium, amely igyekszik modelljeit többnek tekinteni egyszerű szoftvereknél. ---