MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

2024. február 26.
Az Amazon AGI csapata milliárdos paraméterszámú BASE modellel skálázza a szövegfelolvasást
Az Amazon egy nagy szövegfelolvasó modellcsaládot épített 100 ezer órányi közkinccsé tett beszédadaton. A modell, a Big Adaptive Streamable TTS with Emergent…
2024. február 19.
Az OpenToM benchmark a nagy nyelvi modellek tudatelméleti következtetési képességeit értékeli
Rendelkezik-e a nyelvi modelled tudatelmélettel – „annak felismerésével, hogy mások máshogy érzékelik a világot, és azzal a képességgel, hogy nyomon kövesse…
Kutatók nyílt modelleket adaptálnak sebezhetőség-észlelésre korlátozott számítási kapacitás mellett
A Huawei Orosz Kutatóintézetének kutatói megpróbáltak nyíltan hozzáférhető nyelvi modelleket használni sebezhetőség-észlelésre. Munkájuk útmutatóként és…
A DeepMind Mixture-of-Experts architektúrával skálázza a megerősítéses tanulást
A Google DeepMind, a Mila, a Montreali Egyetem, az Oxfordi Egyetem és a McGill Egyetem kutatói rájöttek, hogyan integrálják a Mixture-of-Expert (MoE)…
2024. február 17.
Navigálás a Hugging Face Open LLM ranglistáján
A Hugging Face Open LLM Leaderboardja az open-source nyelvi modellek rangsorolásának elsődleges forrásává vált. Számos benchmarkon és méreten keresztül követi…
AI alkalmazások optimalizálása látencia és számítási költség szempontjából
A látencia és a hosztolási költségek kritikus tényezők, amikor LLM-alapú alkalmazásokat visznek éles környezetbe (production). A kisebb modellek általában…
Átfogó útmutató a megfelelő AI modell kiválasztásához
A generatív AI gyors fejlődése a saját fejlesztésű (proprietary) és az open-source modellek robbanásszerű elterjedéséhez vezetett, ami megnehezíti a fejlesztők…
2024. február 12.
Kutatók ütemtervet javasolnak a plurális összehangoláshoz az AI rendszerekben
New research from the University of Washington, Stanford, MIT, and AllenAI lays out a framework for 'Pluralistic Alignment.' The motivating idea is that as a…
Az Allen Institute for AI közzéteszi a nyílt OLMo nyelvi modellcsaládot
Az Allen Institute for AI létrehozta az OLMo-t, egy „valóban nyílt” nyelvi modellcsaládot, amelynek célja a tanítási folyamat demisztifikálása. Sok „nyílt”…
Az új BioDrone adatkészlet a szárnycsapkodó drónok célkövetésére összpontosít
Számos intézmény kutatói létrehozták a BioDrone-t, az első bionikus drónalapú vizuális benchmarkot az egyedi tárgykövetéshez (SOT). Az adatkészletet egy…
A Google DeepMind kutatói buffer overflow támadásokat mutattak be MoE modelleken
A Google DeepMind kutatói bemutatták, hogyan lehet megmérgezni a Mixture of Experts (MoE) modelleket úgy, hogy egy támadó megváltoztassa a modell előrejelzését…
A KU Leuven közzéteszi a FindingEmo adatkészletet a társas érzelemfelismeréshez
A KU Leuven kutatói létrehozták és közzétették a FindingEmo-t, egy olyan adatkészletet, amelynek célja az AI rendszerek megtanítása az emberek érzelmeinek…
Az Allen Institute kiadja az OLMo-t, a valóban nyílt forráskódú nagy nyelvi modellt
Az Allen Institute for AI megalkotta az OLMo-t, a „valóban nyílt” nyelvi modellek családját. Az OLMo modellek különlegessége a „minden részletre kiterjedő”…
2024. február 8.
Az Altera bemutatja a Project Sid szimulációt 1000 autonóm AI ágenssel
Az Altera bemutatta a Project Sid-et, egy masszív multi-ágens szimulációt, amely egy digitális világot népesít be több mint 1000 autonóm AI ágenssel. Ebben a…
A MultiOn új API-t indít autonóm AI böngésző ágensekhez
A MultiOn bemutatta az új „Agentic” API-ját, amely lehetővé teszi a fejlesztők számára olyan ágensek építését, amelyek képesek önállóan navigálni az…
A MotherDuck és a Numbers Station kiadta a DuckDB-NSQL Text-to-SQL modellt
A MotherDuck és a Numbers Station együttműködéséből megszületett a DuckDB-NSQL, egy 7 milliárd paraméteres modell, amelyet kifejezetten a természetes nyelv…
Az AI2 elindította az OLMo-t, a teljesen nyílt forráskódú, csúcskategóriás nyelvi modellt
Az Allen Institute for AI (AI2) közzétette az OLMo-t (Open Language Model), egy valóban nyílt forráskódú, 7 milliárd paraméteres modellt. Sok más „nyíltnak”…
Az Abacus AI kiadta a Smaug-72B-t, amely túlszárnyalja a Claude 2-t és a GPT-3.5-öt
Az Abacus AI bejelentette a Smaug-72B megjelenését, egy új nyelvi modellt, amely jelentős mérföldkövet ért el: ez az első open-source modell, amely 80 feletti…
A Nomic AI kiadta a Nomic Embed-et, egy hosszú kontextusú, nyílt embedding modellt
A Nomic AI megjelentette a Nomic Embed-et, az első olyan open-source szöveges embedding modellt, amely hatalmas, 8 192 tokenes kontextusablakot támogat. A…
2024. február 5.
Az Apple bemutatja a WRAP technikát az adatállományok szintetikus adatokkal való bővítésére
Az Apple kutatói kifejlesztették a Web Rephrase Augmented Pre-training (WRAP) eljárást, amely egy módszer a szöveges adatkészletek szintetikusan generált…