HÍREK A VILÁGBÓL
Az Anthropic és az OpenAI új védintézkedéseket vezetett be a választási beavatkozás ellen
A nagyobb AI laboratóriumok proaktív lépéseket tesznek a választásokkal kapcsolatos kockázatok mérséklésére. Az Anthropic közzétette szakpolitikai megközelítését, amely magában foglalja azt a döntést, hogy megakadályozzák Claude számára képek, hangok vagy videók generálását a deepfake-ek létrehozásának elkerülése érdekében. Eközben az OpenAI több mint 20 olyan kísérlet sikeres megszakításáról számolt be, amelyben rosszindulatú szereplők próbálták platformjukat választási beavatkozásra használni több országban.
- Az Anthropic korlátozza Claude multimodális kimeneteit a deepfake alapú félretájékoztatás megakadályozása érdekében.
- Az OpenAI aktívan figyeli és blokkolja a választási beavatkozással próbálkozó „rosszindulatú szereplőket”.
- Találgatások szerint az Anthropic biztonsági okokból a választások utánra halaszthatja a Claude 3.5 Opus kiadását.
- A Walmart is belépett a speciális LLM piacra a „Wallaby” nevű, kiskereskedelem-fókuszú modellcsaládjával.
Miért fontos?
A globális választások közeledtével az AI fejlesztők felelőssége – hogy megakadályozzák eszközeik tömeges félretájékoztatásra való felhasználását – a szabályozók és a nyilvánosság kritikus fókuszpontjává vált. ---