MICROSOFT
A Microsoft véletlenül 38 TB privát adatot szivárogtatott ki egy AI kutatási hiba során
A Wiz Research fedezte fel, hogy a Microsoft AI csapatának egyetlen rosszul konfigurált tokenje állítólag 38 TB privát adatot tett közzé a GitHubon, beleértve az alkalmazottak számítógépes biztonsági mentéseit és üzeneteit.
- A token teljes hozzáférést biztosított egy Azure tárhelyfiókhoz, nem csak a tervezett nyílt AI adatkészletekhez.
- A Wiz Research biztonsági mentéseket talált az adatok között jelszavakkal, kulcsokkal és több mint 30 000 belső Teams üzenettel.
- A Microsoft közzétett egy blogbejegyzést, amelyben megnyugtatták a felhasználókat, hogy nem szivárogtak ki ügyféladatok, és az ügyfeleknek nincs teendőjük.
Miért fontos?
Bár az esetnek nem volt széleskörű hatása, az adatszivárgás fontos emlékeztető a szervezetek számára az AI biztonsági korlátok szigorítására. Ahogy hatalmas mennyiségű adat hajtja az új AI innovációkat, az adatok körüli biztonságnak is skálázódnia kell. ---