MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

A kutatók veszélyes hallucinációkra figyelmeztetnek az AI orvosi leiratozásaiban

Számos kutató fejezte ki aggodalmát, miután megállapították, hogy az OpenAI Whisper nevű leiratozó eszköze gyakran hallucinál, és olyan szövegeket talál ki, amelyek soha nem hangzottak el a felvételeken, annak ellenére, hogy széles körben alkalmazzák az egészségügyben.
Miért fontos?

A hallucinációk jelenleg az AI-rendszerek sajnálatos velejárói – és amíg nem sikerül őket 100%-ban megbízhatóan orvosolni, a nagy kockázatú környezetben történő alkalmazásuk katasztrófához vezethet. Úgy tűnik azonban, hogy a kereskedelmi nyomás megelőzi a megfelelő óvintézkedéseket, mivel minden iparág igyekszik meglovagolni az AI-hullámot. ---

Eredeti forrás megtekintése (angol) →