ANTHROPIC
Az Anthropic kutatási programot indít a modellek jólétének és a potenciális AI-tudatosságnak a vizsgálatára
Az Anthropic új kutatási programot indított a „modellek jólétének” szentelve, feltárva azokat az összetett etikai kérdéseket, hogy a jövőbeli AI-rendszerek szert tehetnek-e tudatra, vagy érdemelnek-e erkölcsi figyelmet a jövőben.
- A kutatási területek közé tartozik a tudatosság felmérésére szolgáló keretrendszerek kidolgozása, az AI preferenciáira és szenvedésére utaló jelek tanulmányozása, valamint az intervenciók feltárása.
- Az Anthropic 2024-ben felvette első AI-jóléti kutatóját, Kyle Fish-t, hogy az AI tudatosságát vizsgálja – aki 15%-os esélyt lát arra, hogy a modellek tudatosak.
- A kezdeményezés az AI-képességek növekedését és egy nemrégiben készült jelentést követ (melynek társszerzője Fish), amely szerint az AI-tudatosság közeli lehetőség.
- Az Anthropic hangsúlyozta a mély bizonytalanságot e kérdések körül, megjegyezve, hogy nincs tudományos konszenzus arról, hogy a jelenlegi vagy jövőbeli rendszerek tudatosak lehetnek-e.
Miért fontos?
Sam Altman korábban egyfajta idegen intelligenciához hasonlította az AI-t. Hamarosan ezek a modellek elérhetnek egy olyan szintet, amely megváltoztatja a tudatosságról és az irányukba tanúsított etikáról alkotott elképzeléseinket. Valószínűleg polarizált megosztottságot fogunk látni – különösen mivel nincs meghatározott küszöbérték arra, hogy mikor tekinthető egy AI „tudatosnak” vagy jogokra érdemesnek.