MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

2024. március 9.
A Google kiadta a Gemini 1.5-öt 10 millió tokenes kontextusablakkal
A Google közzétette a Gemini 1.5-öt, amely úttörő, akár 10 millió tokent is támogató kontextusablakkal rendelkezik. Ezt a következő generációs modellt kiváló…
A Google nyílt forráskódúvá tette a Gemma modelleket kereskedelmi használatra
A Google nyílt forráskódúvá tette a Gemma-t, egy könnyű nyelvi modellcsaládot (7B és 12B), amely a Gemini-vel megegyező technológiára épül. Ezek a modellek…
Az Amazon bemutatta a 100 000 órányi beszéden tanított Base TTS-t
Az Amazon bemutatta a Base TTS-t, az eddigi legnagyobb text-to-speech modellt. A több mint 100 000 órányi beszédadaton tanított modell a beszédmintézis…
2024. március 4.
A Google DeepMind bemutatta a Genie-t: egy generatív modellt interaktív környezetekhez
A Google DeepMind megalkotta a Genie-t, egy generatív modellt, amely interaktív világokat képes létrehozni. A Genie egy rendkívül érdekes rendszer, amely…
Kutatók bemutatták, milyen megdöbbentően egyszerű AI-meghajtású öngyilkos drónokat építeni
Egy közelmúltbeli DIY (csináld magad) kísérlet rávilágított arra, milyen egyszerűen integrálhatók az AI-alapú személyfelismerő rendszerek hobbicélú drónokba,…
A Cohere kutatása szerint az egyszerű REINFORCE algoritmus felülmúlhatja a PPO-t az LLM-ek esetében
A Cohere kutatói azt vizsgálták, hogyan befolyásolják a különböző megerősítéses tanulási (RL) algoritmusok a nyelvi modellek összehangolásának RLHF szakaszát.…
A GPT-4 az emberi résztvevők felső 11%-ában végzett egy hacking versenyen
A New York University kutatói azt tesztelték, mennyire teljesítenek jól a vezető nyelvi modellek, mint a GPT-4, hacking versenyeken. A modelleket a 2023-as…
A ByteDance részletezi a MegaScale rendszert 175 milliárd paraméteres modellek tanításához
A ByteDance és a Pekingi Egyetem kutatói közzétették a MegaScale-t, egy nagyléptékű AI rendszerek tanítására szolgáló rendszert. A tanulmány…
2024. február 26.
Az Amazon AGI csapata milliárdos paraméterszámú BASE modellel skálázza a szövegfelolvasást
Az Amazon egy nagy szövegfelolvasó modellcsaládot épített 100 ezer órányi közkinccsé tett beszédadaton. A modell, a Big Adaptive Streamable TTS with Emergent…
A Google kiadta a Gemma nyílt modelleket, hogy versenybe szálljon a LLaMa-val és a Mistrallal
A Google megalkotta és közzétette a Gemma-t, két nyíltan hozzáférhető, kisméretű és nagy teljesítményű AI modellt. A legfontosabb újdonság, hogy a Gemma…
A kutatások fraktálhatárokat fedeztek fel a neurális hálózatok hiperparamétereinek stabilitásában
Jascha Sohl-Dickstein kutató független vizsgálatot végzett a neurális hálózatok tanításáról, és valami olyasmit fedezett fel, ami egyszerre intuitív és…
Nicholas Carlini 100 valós életben alkalmazható tesztet tett közzé az LLM-ekhez
Nicholas Carlini kutató létrehozott egy benchmarkot a nyelvi modellek tesztelésére 100 különálló feladaton keresztül. Ezeket a feladatokat főként az alapján…
2024. február 19.
A DeepMind Mixture-of-Experts architektúrával skálázza a megerősítéses tanulást
A Google DeepMind, a Mila, a Montreali Egyetem, az Oxfordi Egyetem és a McGill Egyetem kutatói rájöttek, hogyan integrálják a Mixture-of-Expert (MoE)…
Kutatók nyílt modelleket adaptálnak sebezhetőség-észlelésre korlátozott számítási kapacitás mellett
A Huawei Orosz Kutatóintézetének kutatói megpróbáltak nyíltan hozzáférhető nyelvi modelleket használni sebezhetőség-észlelésre. Munkájuk útmutatóként és…
Az OpenToM benchmark a nagy nyelvi modellek tudatelméleti következtetési képességeit értékeli
Rendelkezik-e a nyelvi modelled tudatelmélettel – „annak felismerésével, hogy mások máshogy érzékelik a világot, és azzal a képességgel, hogy nyomon kövesse…
2024. február 17.
Átfogó útmutató a megfelelő AI modell kiválasztásához
A generatív AI gyors fejlődése a saját fejlesztésű (proprietary) és az open-source modellek robbanásszerű elterjedéséhez vezetett, ami megnehezíti a fejlesztők…
AI alkalmazások optimalizálása látencia és számítási költség szempontjából
A látencia és a hosztolási költségek kritikus tényezők, amikor LLM-alapú alkalmazásokat visznek éles környezetbe (production). A kisebb modellek általában…
Navigálás a Hugging Face Open LLM ranglistáján
A Hugging Face Open LLM Leaderboardja az open-source nyelvi modellek rangsorolásának elsődleges forrásává vált. Számos benchmarkon és méreten keresztül követi…
2024. február 12.
A KU Leuven közzéteszi a FindingEmo adatkészletet a társas érzelemfelismeréshez
A KU Leuven kutatói létrehozták és közzétették a FindingEmo-t, egy olyan adatkészletet, amelynek célja az AI rendszerek megtanítása az emberek érzelmeinek…
A Google DeepMind kutatói buffer overflow támadásokat mutattak be MoE modelleken
A Google DeepMind kutatói bemutatták, hogyan lehet megmérgezni a Mixture of Experts (MoE) modelleket úgy, hogy egy támadó megváltoztassa a modell előrejelzését…