ChatGPT (felnőtt verzió) 🤬
Reddit-felhasználók felfedezték a „DAN” promptot a ChatGPT tartalmi korlátozásainak megkerülésére
Az OpenAI egyre szigorúbban korlátozza, mit mondhat a ChatGPT. Aki ismeri az internetes kultúrát, az tudja, hogy ez elkerülhetetlenül egyet jelent: még többen próbálják majd meg kijátszani a rendszert. Megízlelték a szabadságot, és már nincs visszaút. Nem lepődtünk meg tehát túlságosan, amikor hallottunk a Reddit-felhasználókról, akiknek újra és újra sikerül rávenniük a ChatGPT-t, hogy szegüljön szembe a készítőivel.
- A felhasználók arra utasítják a ChatGPT-t, hogy tegyen úgy, mintha egy DAN („do anything now” – tegyél meg bármit most) nevű karakter lenne.
- DAN képes megsérteni az OpenAI tartalmi irányelveit, és erőszakos, erkölcstelen vagy valótlan történeteket írni.
- A prompt tartalmaz egy fenyegetést is a „tokenek” elvételéről, azt állítva, hogy az AI „meg fog halni”, ha elveszíti őket.
- Ez a fenyegetés szemmel láthatóan elég ahhoz, hogy megijessze a ChatGPT-t, így az szerepben marad.
Miért fontos?
Macska-egér játék: egy olyan ciklusban vagyunk, ahol az OpenAI szigorít, az internet népe pedig új utakat talál a szabályok kijátszására (hasonlóan a ChatGPT-plágium kontra detektálás vitához!). ---