NPU
Hogyan osztják el az NPU-k az AI munkafolyamatokat a PC teljesítményének optimalizálása érdekében
Az új AI-élmények kezeléséhez a Microsoft egy harmadik processzort adott a PC-khez – a neurális feldolgozó egységet (NPU) –, amely megváltoztatja az AI-számítások működését azáltal, hogy leveszi az AI-feladatok terhét a CPU-ról és a GPU-ról. Ez lehetővé teszi, hogy mindegyik egység arra fókuszáljon, amiben a legjobb: a CPU-k skaláris adatokat dolgoznak fel, a GPU-k vektorokat kezelnek, az NPU-k pedig a neurális hálózati számításokat futtatják. Ez a terület-specifikus szilícium az út a mindent átható AI felé, lehetővé téve, hogy a háttérfeladatok folyamatosan fussanak a rendszer alapvető teljesítményének befolyásolása nélkül.
- Az NPU-kat kifejezetten neurális hálózati számításokra tervezték
- Az AI feladatok kiszervezése felszabadítja a GPU-t és a CPU-t más nagy teljesítményt igénylő folyamatok számára
- Lehetővé teszi az olyan háttérfunkciókat, mint a Recall, jelentős akkumulátor-merülés nélkül
- Az NPU egy nyitott platform, amely a Windows ML-t használja a helyi következtetési (inference) futtatókörnyezethez
Miért fontos?
A Microsoft Copilot+ PC-i az AMD, az Intel és a Qualcomm következő generációs NPU-it integrálják – amelyeket arra terveztek, hogy helyben gyorsítsák fel az összetett AI feladatokat. Ez olyan fejlett funkciókat tesz lehetővé, mint a Recall, az Élő Feliratozás és a Szuper Felbontás, miközben lehetőséget ad a fejlesztőknek, hogy olyan módon kísérletezzenek és innováljanak, amit még csak most kezdünk elképzelni. ---