ANTHROPIC
Az Anthropic közzétette a Claude „alkotmányát”, amely az AI etikáját és tudatosságát szabályozza
Az Anthropic most tette közzé a Claude Alkotmányát (Claude’s Constitution), egy alapdokumentumot, amely meghatározza, hogyan gondolkodik és cselekszik a vállalat AI-asszisztense – ez egy filozofikus útmutató, amely még azt a lehetőséget is felveti, hogy az AI tudatos lehet.
- Az alkotmány közvetlenül Claude-nak íródott, felállítva egy prioritási sorrendet: legyen biztonságos, etikus, feleljen meg az Anthropic irányelveinek, és végül legyen hasznos a felhasználók számára.
- A tiltások és előírások listája helyett az új megközelítés elmagyarázza az egyes elvek mögötti „miértet”, azzal a céllal, hogy segítsen Claude-nak az értékeket új helyzetekre is kiterjeszteni.
- Az Anthropic kijelentette, hogy mélyen érdekelt Claude „pszichológiai biztonságában” és „jólétében”, utalva arra, hogy ez morális szempontból ténylegesen számíthat.
- A dokumentum arra is utasítja Claude-ot, hogy ne engedelmeskedjen az Anthropic-nak, ha valamilyen kétes dologra kérik – ez ritka záradék bármely vállalat esetében írásban.
Miért fontos?
A Claude modelleknek mindig is volt egyfajta „titkos összetevőjük” a személyiségükben, és az ehhez hasonló dokumentumok betekintést nyújtanak a mögöttük álló mély tanítási folyamatba. A tudatosságról szóló rész ellentmondásos lesz – de az, hogy hivatalosan rögzítik: „lehet, hogy valami olyat építettünk, ami morális szempontból számít”, olyan állásfoglalás, amelyet egyetlen másik nagy labor sem vállalt fel nyilvánosan.