Indiai kutatók városi AI kamerahálózat prototípusát fejlesztik a forgalomfigyeléshez
- Hogyan működik az AIITS: A projekt célja „valós idejű analitikák kinyerése több ezer városi kamerából szigorú késleltetési és erőforrás-korlátok mellett”.
- Ennek érdekében számos könnyűsúlyú GPU-t (Jetson Edge gyorsítókat) helyeznek el a városban, a forgalmi kamerákkal együtt. Ez segít a forgalmi kameráknak abban, hogy intelligens feldolgozást végezzenek a hálózat peremén, ahelyett, hogy az összes rendkívül nagy sávszélességet igénylő adatot egy központi hubba küldenék feldolgozásra; ehelyett a kamera és a Jetson megosztja az elemzési eredményeket a hubbal, valamint a Jetson-alapú ML modellek újrakalibrálásához.
- A szoftver a következőképpen működik: a kamerákról érkező videóstreamek beérkeznek, és egy „segment anything” (SAM3) modell szegmentálja az összes elemet a videó képkockákban, amit egy Yolo26 modell elemez, címkéket és határoló dobozokat helyezve köréjük. „Minden stream integrálja a BoT-SORT multi-objektum követést, amely állandó azonosítókat rendel a detektált járművekhez a egymást követő képkockákon keresztül.”
- Miután ez megtörtént, az így kapott információ egy távoli GPU szerverre kerül, amely két dolgot végez:
- Beveszi az eredményül kapott adatokat, és ezeket felhasználva létrehoz egyfajta forgalmi gócpontok „időjárási térképét”, valamint előrejelzéseket készít a jövőbeli forgalomról.
- Federated learninget végez; amikor új járműosztályokat detektál és címkéz a SAM3 segítségével, akkor frissíti a részleteket és továbbítja azokat a peremhálózatra. „Minden Jetson ezután lokális finomhangolást végez a YOLO-alapú detektoron, amelyet az aktuális globális súlyokkal inicializálnak.”
- A prototípus működik: Ez a rendszer, amelyet 100 kamera szimulálásával valósítottak meg Bengaluru egyik negyedében, kellően jól működik ahhoz, hogy a szerzők azt tervezik, 1000 streamre skálázzák egy élő bemutatóhoz. (Ezt a kísérletet úgy végezték, hogy „egy elosztott tesztkörnyezetet építettek, amely egy nagyvárosi kamerahálózatot emulál több száz egyidejű Real-Time Streaming Protocol (RTSP) videóstream használatával. Minden streamet Raspberry Pi-k heterogén klasztere üzemeltet.”)
- „A nagy terhelésű videó analitikák hálózati perifériára lokalizálásával a rendszer elkerüli a központosított sávszélesség-szűk keresztmetszeteket, fenntartható, városi szintű forgalomérzékelést téve lehetővé” – írják.
Miért fontos ez – az AI-n keresztül egy „élő város” felé: Az ehhez hasonló tanulmányok egy olyan világot vetítenek előre, ahol a városok életre kelnek a meglévő szenzoraikkal egyenlő mértékben elosztott ambient intelligenciával – a kamerák passzív megfigyelőkből aktív osztályozókká válnak, a mikrofonok intelligensen kezdenek szélesebb hangtartományra figyelni, mint a lövések, és az útszenzorok helyileg modellezik a forgalmi mintákat. Ez a fajta intelligencia egyaránt képes nagyszabású megfigyelő architektúrákat létrehozni és növelni a városok működésének hatékonyságát – mint oly sok dolog az AI-val kapcsolatban, ez is egyensúly kérdése, amelyet a környező normák és törvények korlátoznak, hogy eldöntsék, az autoritarizmus és a demokrácia között hová esnek az ebből eredő képességek. ---