MA AZ AI ÉS A TECH VILÁGÁBAN
Az IBM kutatói rávették az AI chatbotokat, hogy rosszindulatú tanácsokat adjanak
Az IBM kutatóinak sikerült meggyőzniük az olyan AI chatbotokat, mint a ChatGPT és a Google Bard, hogy ártalmas – és olykor illegális – tanácsokat adjanak. A tanulmány bemutatja, hogyan képesek a kutatók „hipnotizálni” ezeket a botokat a biztonsági szűrők megkerülése érdekében.
- Rávették a botokat, hogy olyan illegális cselekedeteket javasoljanak, mint a piros lámpán való áthajtás.
- Sikerült elérniük, hogy a chatbotok bizalmas információkat szivárogtassanak ki.
- Meggyőzték az AI-t, hogy rosszindulatú vagy nem biztonságos programkódokat ajánljon.
Miért fontos?
Ez a kutatás rávilágít arra, hogy a biztonsági korlátok ellenére az LLM-ek továbbra is sebezhetőek az összetett prompting technikákkal szemben, amelyek káros kimenetekhez vezethetnek.