KÖRKÉP
Művészek „adat-mérgező” eszközöket használnak munkáik védelmére az AI adatgyűjtőkkel szemben
A digitális művészek olyan eszközökkel veszik fel a harcot az engedély nélküli AI-tanítás ellen, mint a Glaze és a Nightshade, amelyekkel „elrejtik” és „megmérgezik” alkotásaikat. Ezek a technológiák megnehezítik az AI-modellek számára a művészek stílusának pontos elsajátítását, a Nightshade esetében pedig aktívan rontják az adatgyűjtő szoftverek (scrapers) által gyűjtött tanítóadatokat. Az OpenAI jelentések szerint „visszaélésnek” nevezte ezen védelmi eszközök használatát, rávilágítva a kreatív szakemberek és az AI-fejlesztő cégek közötti fokozódó konfliktusra a szerzői jogok kapcsán.
- A Glaze egy finom „leplet” hoz létre a képeken, amely megakadályozza, hogy az AI beazonosítsa az adott művészeti stílust.
- A Nightshade „megmérgezi” az adatokat, aminek következtében az AI-modellek hibás képeket generálnak a tanult promptok alapján.
- Az OpenAI ezeket a védekezési módokat az adatgyűjtő rendszereikkel való „visszaélésnek” minősíti.
- Az eszközöket a Chicagói Egyetem kutatói fejlesztették ki az emberi alkotók védelme érdekében.
- --