A NAGY BETEKINTÉS
Az MIT PhotoGuard eszköze megvédi a személyes fotókat a rosszindulatú, AI-alapú szerkesztésektől
Az olyan AI eszközök, mint a Midjourney és a Dall-E, az elmúlt évben lenyűgöztek minket hiperrealisztikus képalkotási képességeikkel. Valójában a hírlevélben látható képek közül sok a Midjourney-vel készül – imádjuk! De a nagy előnyökkel általában súlyos hátulütők is járnak. Egyre nagyobb az aggodalom a képgeneráló AI modellekkel való visszaélések miatt, különösen annak lehetősége, hogy rosszindulatú szereplők valami baljós vagy nemkívánatos dologgá torzítják a fotóinkat. Az MIT Számítástechnikai és Mesterséges Intelligencia Laboratóriuma (CSAIL) siet a (részleges) segítségünkre a PhotoGuard nevű AI eszközzel, amely megvédi a képeket a rosszindulatú szerkesztéstől. A PhotoGuard úgy működik, hogy bizonyos pixeleket megváltoztat, így a kép az emberi szem számára észrevehetetlen, de a számítógép számára érzékelhető módosítást kap.
- Az encoder-támadás megváltoztatja, hogyan látja és értelmezi az AI program a képet, így téve azt felismerhetetlenné.
- A diffúziós támadás átveri az AI-t, hogy a képet valami másnak lássa, így az általa végzett módosítások értelmetlenné válnak.
- Az eszköz jelentősen megnehezíti a képek módosítását, bár még nem tökéletes.
- Fennáll az algoritmus visszafejtésének lehetősége, mint megkerülési módszer.
- Az eszköz további finomítást igényel a nagyközönség számára történő kiadás előtt.
- --