MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

2024. február 17.
AI alkalmazások optimalizálása látencia és számítási költség szempontjából
A látencia és a hosztolási költségek kritikus tényezők, amikor LLM-alapú alkalmazásokat visznek éles környezetbe (production). A kisebb modellek általában…
Navigálás a Hugging Face Open LLM ranglistáján
A Hugging Face Open LLM Leaderboardja az open-source nyelvi modellek rangsorolásának elsődleges forrásává vált. Számos benchmarkon és méreten keresztül követi…
2024. február 12.
Az Allen Institute kiadja az OLMo-t, a valóban nyílt forráskódú nagy nyelvi modellt
Az Allen Institute for AI megalkotta az OLMo-t, a „valóban nyílt” nyelvi modellek családját. Az OLMo modellek különlegessége a „minden részletre kiterjedő”…
A KU Leuven közzéteszi a FindingEmo adatkészletet a társas érzelemfelismeréshez
A KU Leuven kutatói létrehozták és közzétették a FindingEmo-t, egy olyan adatkészletet, amelynek célja az AI rendszerek megtanítása az emberek érzelmeinek…
A Google DeepMind kutatói buffer overflow támadásokat mutattak be MoE modelleken
A Google DeepMind kutatói bemutatták, hogyan lehet megmérgezni a Mixture of Experts (MoE) modelleket úgy, hogy egy támadó megváltoztassa a modell előrejelzését…
Az új BioDrone adatkészlet a szárnycsapkodó drónok célkövetésére összpontosít
Számos intézmény kutatói létrehozták a BioDrone-t, az első bionikus drónalapú vizuális benchmarkot az egyedi tárgykövetéshez (SOT). Az adatkészletet egy…
Az Allen Institute for AI közzéteszi a nyílt OLMo nyelvi modellcsaládot
Az Allen Institute for AI létrehozta az OLMo-t, egy „valóban nyílt” nyelvi modellcsaládot, amelynek célja a tanítási folyamat demisztifikálása. Sok „nyílt”…
Kutatók ütemtervet javasolnak a plurális összehangoláshoz az AI rendszerekben
New research from the University of Washington, Stanford, MIT, and AllenAI lays out a framework for 'Pluralistic Alignment.' The motivating idea is that as a…
2024. február 8.
A Nomic AI kiadta a Nomic Embed-et, egy hosszú kontextusú, nyílt embedding modellt
A Nomic AI megjelentette a Nomic Embed-et, az első olyan open-source szöveges embedding modellt, amely hatalmas, 8 192 tokenes kontextusablakot támogat. A…
Az Abacus AI kiadta a Smaug-72B-t, amely túlszárnyalja a Claude 2-t és a GPT-3.5-öt
Az Abacus AI bejelentette a Smaug-72B megjelenését, egy új nyelvi modellt, amely jelentős mérföldkövet ért el: ez az első open-source modell, amely 80 feletti…
Az AI2 elindította az OLMo-t, a teljesen nyílt forráskódú, csúcskategóriás nyelvi modellt
Az Allen Institute for AI (AI2) közzétette az OLMo-t (Open Language Model), egy valóban nyílt forráskódú, 7 milliárd paraméteres modellt. Sok más „nyíltnak”…
A MotherDuck és a Numbers Station kiadta a DuckDB-NSQL Text-to-SQL modellt
A MotherDuck és a Numbers Station együttműködéséből megszületett a DuckDB-NSQL, egy 7 milliárd paraméteres modell, amelyet kifejezetten a természetes nyelv…
A MultiOn új API-t indít autonóm AI böngésző ágensekhez
A MultiOn bemutatta az új „Agentic” API-ját, amely lehetővé teszi a fejlesztők számára olyan ágensek építését, amelyek képesek önállóan navigálni az…
Az Altera bemutatja a Project Sid szimulációt 1000 autonóm AI ágenssel
Az Altera bemutatta a Project Sid-et, egy masszív multi-ágens szimulációt, amely egy digitális világot népesít be több mint 1000 autonóm AI ágenssel. Ebben a…
2024. február 5.
A Google a Gemini LLM-et használja a szoftversebezhetőségek automatikus javítására
A Google nemrégiben nyelvi modelleket kezdett használni a C/C++, Java és Go kódjaiban található hibák felderítésére és kiszűrésére. Az eredmények biztatóak: a…
Yoshua Bengio sürgeti a kormányokat, hogy építsenek milliárd dolláros állami szuperszámítógépeket
A Turing-díjas AI-úttörő, Yoshua Bengio szerint a kormányoknak milliárd dolláros szuperszámítógépekbe kellene fektetniük az AI rendszerek fejlesztésének és…
A Microsoft Project Silica projektje 1000 évig tárolja a digitális adatokat üvegben
A Microsoft a Project Silica nevű projekt keretében bemutatott egy módszert a hosszú távú adattárolásra üvegkorongokon a szalagos tárolás helyett. A Silica egy…
Kínai kutatók kifejlesztették a CMMU multimodális érvelési benchmarkot
A Beijing Academy of AI és más intézmények kutatói létrehozták a CMMU-t, a Massive Multi-discipline Multimodal Understanding (MMMU) benchmark kínai változatát.…
Az Apple bemutatja a WRAP technikát az adatállományok szintetikus adatokkal való bővítésére
Az Apple kutatói kifejlesztették a Web Rephrase Augmented Pre-training (WRAP) eljárást, amely egy módszer a szöveges adatkészletek szintetikusan generált…
2024. február 4.
Az Alibaba kiadta a Qwen-VL-Max vision modellt, amely felveszi a versenyt a zárt forráskódú SOTA modellekkel
Januárban jelentős előrelépés történt a multimodális AI területén olyan modellek megjelenésével, amelyek képesek képek értelmezésére és dokumentumok…