MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

← Vissza a főoldalra

A Google AI Overviews kritikát kap a hallucinált és szatirikus keresési eredmények miatt

Nehéz felismerni a szatírát és a túlzásokat egy számítógép képernyőjén keresztül. További kontextus – és korábbi tapasztalatok – nélkül könnyen összetéveszthető egy vicc a valósággal. A világ legnagyobb keresőmotorja most a nehezebb úton tanulja ezt meg, mivel új, AI által generált „Áttekintés” (Overview) szekciója nehezen tesz különbséget aközött, amit komolyan kell venni, és ami nem. Ez nem újdonság: a hallucinációk – amikor egy modell magabiztosan oszt meg téves információkat – olyan dolog, amellyel minden AI vállalat szembesül, és régóta folyik a vita arról, mennyire lehet ezeket valójában kontrollálni. A kritikusok szerint a különbség az, hogy a felhasználók nem tudják könnyen kikapcsolni ezeket az AI által generált válaszokat, mint más keresőplatformokon. A licencszerződések újragondolása: Sok nehézségekkel küzdő médiavállalat és platform partnerségeket kötött, amelyek lehetővé teszik az AI vállalatok számára, hogy anyagukat training célokra használják fel kompenzáció fejében. De nincs garancia arra, hogy az információ nem elfogult vagy hibás: Az a ragasztóval leöntött pizza ajánlás valószínűleg egy vicces Reddit posztból származott, egy „f—smith” nevű felhasználótól – azaz valószínűleg nem a legmegbízhatóbb forrásból. Fontos megjegyezni: Néhány felhasználó addig provokálja a rendszert, amíg egy abszurd választ nem kap. A legtöbb ember valószínűleg nem fog találkozni ilyen típusú válaszokkal, hacsak nem direkt keresi őket. Ironikus módon, amikor a felhasználók felszínre hozzák a téves információkat, az segít a vállalatnak azonosítani és kijavítani ezeket a problémákat – némi reményt adva arra, hogy a pontosság javulhat a következő hetekben és hónapokban.
Eredeti forrás megtekintése (angol) →