MI VÁRHATÓ AZ AI-BAN
Tizenhat AI-vállalat egyezett meg biztonsági „vörös vonalakról” a szöuli csúcstalálkozón
A novemberi globális AI-biztonsági csúcstalálkozó az iparág Met-gálájához hasonlított, olyan tech-hírességekkel, mint Elon Musk és Sam Altman, hogy nemzetközi figyelmet irányítsanak az AI potenciális veszélyeire. Az esemény folytatása ma kezdődik Szöulban, bár a kritikusok megjegyzik, hogy bizonyos országok, például Hollandia és Kanada részvétele alacsonyabb, a Google DeepMind pedig hallgat a jelenlétéről. Az alacsonyabb profil ellenére a csúcstalálkozó már eredményezett egy történelmi megállapodást, amelyben tizenhat meghatározó AI-vállalat – köztük a Microsoft, az OpenAI, a Google és az Amazon – egyezett meg olyan „vörös vonalakról”, amelyeket soha nem szabad átlépni. A kormányok is lépnek: az Egyesült Államok összefog az Egyesült Királysággal, Japánnal és másokkal, hogy biztonsági intézeteket hozzanak létre a lehetséges kockázatok kutatására.
- Tizenhat globális AI-óriás állapodott meg abban, hogy leállítják az olyan modellek fejlesztését, amelyek képesek nagyszabású kibertámadások vagy biológiai fegyverek generálására.
- Az USA nemzetközi partnerségeket jelentett be dedikált AI-biztonsági kutatóintézetek létrehozására.
- A kritikusok aggódnak, hogy bizonyos nemzetek alacsonyabb részvétele az AI-biztonságra irányuló globális fókusz lanyhulását jelzi.
- A megállapodás az első alkalom, amikor nagy versenytársak közös álláspontra helyezkedtek konkrét fejlesztési korlátok tekintetében.
Miért fontos?
Szakértők rámutatnak, hogy valószínűleg időbe telik, amíg mindenki azonos célok mentén sorakozik fel, különösen a világ szuperhatalmai közötti jelenlegi geopolitikai feszültségek miatt. „Semmit sem fog érni, ha nem vezet tettekhez” – mondta Carissa Véliz, az AI-etika kutatója a Fast Company-nak. „És szerintem ez még a jövő zenéje.” ---