Az LM Studio felvásárolja a Locally AI-t, kiterjesztve az offline mobil AI képességeket
a local AI lecsúszik a laptopról és bekúszik a tényleges életedbe. Az LM Studio szerint a cél az, hogy a saját modelljeid és ügynökeid „az eszközeiden, bárhol is legyél” működjenek, míg a Locally AI már most is támogatja az offline, eszközön történő használatot olyan modellekhez, mint a Llama, Gemma, Qwen és DeepSeek Apple hardvereken. Fordítás: az AI jövője talán nem csak nagyobb felhő alapú modellekről szól majd – lehet, hogy a személyes modeled is, amely az eszközeiden fut, és az adataid a helyükön maradnak. A nagyobb változás itt az, hogy a privát AI felhasználóbaráttá válik. Ami korábban a haladó felhasználók hobbijának tűnt, az most egy igazi termékkategóriává kezd válni: eszközökön átívelő, mindig elérhető, és kevésbé függ a Big Tech bérelt agyától az égben. Ha az LM Studio jól oldja meg az asztali és mobil közötti átmenetet, a local AI-ból „menő demó” helyett „miért fizetek havonta, hogy összefoglalja a bevásárlólistámat?” érzés lehet. ---