AI ADATVÉDELEM
Sam Altman szerint az OpenAI elmozdul a titkosított csevegések és az AI-titoktartás irányába
Sam Altman elárulta, hogy az OpenAI „nagyon komolyan” fontolgatja a titkosítás bevezetését a ChatGPT-ben, valószínűleg az ideiglenes csevegésekkel kezdve. Az ok? „Az emberek a legérzékenyebb egészségügyi problémáikat vagy bármi egyebet is kiöntenek a ChatGPT-nek” – mondta Altman az Axiosnak, hozzátéve, hogy ez a tapasztalat arra sarkallta, hogy az „AI-titoktartást” (AI privilege) kiemelt fontosságú célként kezelje. Az OpenAI ugyanazokat a jogi védelmeket szeretné elérni az AI-beszélgetések számára, mint amilyeneket az orvosok és ügyvédek élveznek. A valódi titkosítás azonban továbbra is bonyolult kérdés, mivel az AI-szolgáltatónak hozzá kell férnie az adatokhoz az olyan funkciókhoz, mint a memória vagy a tanítás. A GPT-4o és GPT-5 körüli vita rávilágított arra is, hogy túl sok felhasználási módot zsúfolunk egyetlen termékbe. A felhasználók hiányolják a „gondolkodó partnert” a steril asszisztenssel szemben, ami olyan specializált termékek szükségességét sugallja, mint a GPT Personal és a GPT Professional.
- Az OpenAI vizsgálja a titkosítást az ideiglenes csevegéseknél az érzékeny felhasználói adatok védelme érdekében.
- Altman az „AI-titoktartás” mellett érvel, amely az ügyvéd-ügyfél titoktartáshoz hasonló jogi védelmet biztosítana az AI-beszélgetéseknek.
- A felhasználói visszajelzések szerint növekszik a szakadék az érzelmi támogatást és a professzionális hatékonyságot keresők között.
- A jelenlegi termékstruktúra szétválhat olyan specializált verziókra, mint a GPT Doctor vagy a GPT Lawyer.
Miért fontos?
Mivel a felhasználók egyre inkább bizalmasként kezelik az AI-t orvosi és jogi kérdésekben, a titkosítás és a jogi titoktartás hiánya komoly adatvédelmi és felelősségi kockázatokat jelent. ---