AI FRISSÍTÉSEK
Az Anthropic „Opt-out” irányelvre vált a Claude felhasználói tanítóadatok esetében
Az Anthropic egy olyan irányelv-módosítást hajtott végre, amelyről minden Claude felhasználónak tudnia kell. A vállalat frissítette a feltételeit, így az „opt-in” (beleegyezés alapú) modellről „opt-out” (leiratkozás alapú) modellre váltott a beszélgetések jövőbeli AI-modellek tanítására való felhasználása tekintetében. 2025. szeptember 28-tól az Anthropic felhasználhatja a Claude-dal folytatott csevegéseit az AI fejlesztéséhez, hacsak nem tiltja le ezt manuálisan az adatvédelmi beállításokban. E változtatás előtt ehhez először az Ön engedélyére volt szükségük. Most? Feltételezik, hogy rendben van, hacsak nem jelzi az ellenkezőjét. A jó hír az, hogy a leiratkozás nem teszi tönkre a Claude-ot – továbbra is minden funkciót és szolgáltatást elérhet. But if you prefer keeping your conversations private, you'll want to head to Claude's settings and toggle off “Help improve Claude.”
- A változás hivatalosan 2025. szeptember 28-án lép életbe.
- A felhasználóknak manuálisan kell az adatvédelmi beállításokba menniük a „Help improve Claude” (Segítsen a Claude fejlesztésében) kikapcsolásához.
- Az irányelvváltás magában foglalja mind a fogyasztói feltételek, mind a használati feltételek frissítését.
- Az elutasításnak (opt-out) nincs hatása a felhasználó számára elérhető funkciókra vagy jellemzőkre.
Miért fontos?
Ez jelentős elmozdulást jelent az adatvédelem terén a Claude felhasználók számára, mivel az alapértelmezett állapot a személyes beszélgetések modelltanításra való felhasználása felé tolódik el, ami gyakran a frontier modellek adatgyűjtésének skálázására irányuló lépésként értelmezhető.