MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

A Taylor Swift AI-deepfake-ek egy mélyen gyökerező problémára világítanak rá

Múlt szerdán Taylor Swiftről készült explicit AI-deepfake képek váltottak ki óriási felháborodást, miután virálisan terjedni kezdtek az X-en. Az egyik bejegyzés több mint 45 millió megtekintést ért el, és 17 órán át (!) elérhető maradt az X felületén az eltávolítása előtt, ami elég nagy port kavart ahhoz, hogy felkeltse a Microsoft vezérigazgatójának ÉS a Biden-adminisztrációnak a figyelmét is. Szóval mi a fene történt?! A 404 Media nyomozása ezeket a képeket a 4chan-re és olyan Telegram csoportokba vezette vissza, amelyek nők beleegyezés nélküli szexuális ábrázolásainak megosztásáról ismertek. Bár a legtöbb nagy szövegből képet generáló eszköznek, mint amilyen a Microsofté is, vannak szabályai az ilyen tartalmak ellen, számos kiskapu létezik – például a hírességek nevének szándékos elírása. És akkor még nem is beszéltünk az X/Twitter/Elon Musk „biztonsági öv nélküli hullámvasútjáról”. Még miután nagy nehezen eltávolítottak néhány posztot, további képek terjedtek tovább az oldalon alternatív fiókokon keresztül. (Tegnap az X bejelentette, hogy 100 új tartalommoderátort vesz fel. Véletlen? Kötve hiszem...).
Miért fontos?

Bár ez az eset riasztó, egy sokkal szélesebb, aggasztó trend része, amely a beleegyezés nélküli szexuális AI-deepfake-ek terjedését mutatja az elmúlt években. A WIRED megállapította, hogy az elmúlt 7 évben több mint 244 625 beleegyezés nélküli deepfake pornográf videót töltöttek fel. Az AI-generált pornográf fotók száma 2018 óta 290%-kal nőtt, és az áldozatok közül sokan tinédzser lányok. Ha a fejlesztés a megfelelő óvintézkedések nélkül gyorsul fel, ezek a problémák csak súlyosbodni fognak.

Eredeti forrás megtekintése (angol) →