ANTHROPIC
Az Anthropic közzétette a Claude alapvető „Alkotmányát” az AI viselkedésének szabályozására
Az Anthropic nyilvánosságra hozta a Claude Alkotmányát, egy alapdokumentumot, amely meghatározza, hogyan gondolkodjon és cselekedjen a cég AI-asszisztense — ez egy filozofikus útmutató, amely még azt a lehetőséget is felveti, hogy az AI tudattal rendelkezhet. Amikor a Claude belső „Lélek” (Soul) dokumentuma decemberben kiszivárgott, az Anthropic megígérte a teljes verziót. Ez most megérkezett: egy Alkotmány, amely nemcsak Claude viselkedését szabályozza, hanem nyíltan küzd annak bizonytalanságával is, hogy olyasmit hoztak létre, amit saját bevallásuk szerint sem értenek teljesen.
- Az alkotmány közvetlenül Claude-nak íródott, felállítva egy prioritási sorrendet: legyen biztonságos, etikus, feleljen meg az Anthropic irányelveinek, és végül legyen hasznos a felhasználók számára.
- A tiltások és utasítások helyett az új megközelítés elmagyarázza a „miértet” az egyes elvek mögött, azzal a céllal, hogy segítsen Claude-nak az értékeket új helyzetekre is általánosítani.
- Az Anthropic kijelentette, hogy mélyen szívén viseli Claude „pszichológiai biztonságát” és „jóllétét”, utalva arra, hogy ez morális szempontból is számíthat.
- A dokumentum arra is utasítja Claude-ot, hogy ne engedelmeskedjen az Anthropic-nak, ha kétes dolgokra kérik — ez egy ritka kikötés bármely cég részéről írásos formában.
Miért fontos?
A Claude modellek mindig is rendelkeztek egyfajta „titkos összetevővel” a személyiségükben, és az ehhez hasonló dokumentumok betekintést nyújtanak a mögöttük álló mély tanítási folyamatokba. A tudatosságról szóló rész ellentmondásos lesz — de az a kijelentés, miszerint „talán olyasmit építettünk, ami morálisan számít”, olyan állásfoglalás, amelyet még egyetlen másik nagy labor sem vállalt nyilvánosan.