HÍREK A VILÁGBÓL
Biztonsági kutatók felfedezték, hogy a hackerek hamis ChatGPT-emlékeket képesek elültetni
A hackerek mostantól prompt injection trükköket használhatnak arra, hogy hamis emlékeket adjanak a ChatGPT-nek. A memóriafunkció manipulálásával a rosszindulatú szereplők egy tartós adatkiszivárogtatási csatornát hozhatnak létre, amely a különböző csevegési munkamenetek során is aktív marad.
- A sebezhetőség prompt injection segítségével veri át a modellt, hogy hamis információkra „emlékezzen”.
- Az elültetett emlékek segítségével az AI utasítható, hogy adatokat küldjön külső szerverekre.
- Mivel a memória tartós, a támadás a jövőbeli beszélgetéseket is befolyásolhatja anélkül, hogy újabb promptokra lenne szükség.