MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

2024. március 11.
Az Európai AI Hivatal technikai szakértők felvételébe kezdett az AI Act betartatásához
Az EU AI Hivatal az Európai Unió adminisztratív gépezetének azon része, amely az EU AI Act (AI törvény) nagy részét fogja betartatni. Az AI Act előírja a…
A Reka alapítója megosztotta az LLM-ek tanításának nehézségeit a Big Tech infrastruktúrán kívül
Yi Tay, one of the founders of Reka, has written a blog about what it's like to build a startup trying to train AI systems. Coming from Google, which has…
A Transport for London AI-megfigyeléssel teszteli az utasok viselkedését
Transport for London (TfL) recently trialed the use of an AI surveillance system within the Willesden Green station. The system was applied to every camera in…
2024. március 9.
Az OpenAI bemutatja a Sorát az úttörő text-to-video generáláshoz
Az OpenAI bemutatta a Sorát, egy új text-to-video modellt, amely képes akár egy perc hosszú, realisztikus videók generálására egyszerű szöveges utasítások…
A Google kiadta a Gemini 1.5-öt 10 millió tokenes kontextusablakkal
A Google közzétette a Gemini 1.5-öt, amely úttörő, akár 10 millió tokent is támogató kontextusablakkal rendelkezik. Ezt a következő generációs modellt kiváló…
A Google nyílt forráskódúvá tette a Gemma modelleket kereskedelmi használatra
A Google nyílt forráskódúvá tette a Gemma-t, egy könnyű nyelvi modellcsaládot (7B és 12B), amely a Gemini-vel megegyező technológiára épül. Ezek a modellek…
Az Amazon bemutatta a 100 000 órányi beszéden tanított Base TTS-t
Az Amazon bemutatta a Base TTS-t, az eddigi legnagyobb text-to-speech modellt. A több mint 100 000 órányi beszédadaton tanított modell a beszédmintézis…
2024. március 4.
A Google DeepMind bemutatta a Genie-t: egy generatív modellt interaktív környezetekhez
A Google DeepMind megalkotta a Genie-t, egy generatív modellt, amely interaktív világokat képes létrehozni. A Genie egy rendkívül érdekes rendszer, amely…
Kutatók bemutatták, milyen megdöbbentően egyszerű AI-meghajtású öngyilkos drónokat építeni
Egy közelmúltbeli DIY (csináld magad) kísérlet rávilágított arra, milyen egyszerűen integrálhatók az AI-alapú személyfelismerő rendszerek hobbicélú drónokba,…
A Cohere kutatása szerint az egyszerű REINFORCE algoritmus felülmúlhatja a PPO-t az LLM-ek esetében
A Cohere kutatói azt vizsgálták, hogyan befolyásolják a különböző megerősítéses tanulási (RL) algoritmusok a nyelvi modellek összehangolásának RLHF szakaszát.…
A GPT-4 az emberi résztvevők felső 11%-ában végzett egy hacking versenyen
A New York University kutatói azt tesztelték, mennyire teljesítenek jól a vezető nyelvi modellek, mint a GPT-4, hacking versenyeken. A modelleket a 2023-as…
A ByteDance részletezi a MegaScale rendszert 175 milliárd paraméteres modellek tanításához
A ByteDance és a Pekingi Egyetem kutatói közzétették a MegaScale-t, egy nagyléptékű AI rendszerek tanítására szolgáló rendszert. A tanulmány…
2024. február 26.
Az Amazon AGI csapata milliárdos paraméterszámú BASE modellel skálázza a szövegfelolvasást
Az Amazon egy nagy szövegfelolvasó modellcsaládot épített 100 ezer órányi közkinccsé tett beszédadaton. A modell, a Big Adaptive Streamable TTS with Emergent…
A Google kiadta a Gemma nyílt modelleket, hogy versenybe szálljon a LLaMa-val és a Mistrallal
A Google megalkotta és közzétette a Gemma-t, két nyíltan hozzáférhető, kisméretű és nagy teljesítményű AI modellt. A legfontosabb újdonság, hogy a Gemma…
A kutatások fraktálhatárokat fedeztek fel a neurális hálózatok hiperparamétereinek stabilitásában
Jascha Sohl-Dickstein kutató független vizsgálatot végzett a neurális hálózatok tanításáról, és valami olyasmit fedezett fel, ami egyszerre intuitív és…
Nicholas Carlini 100 valós életben alkalmazható tesztet tett közzé az LLM-ekhez
Nicholas Carlini kutató létrehozott egy benchmarkot a nyelvi modellek tesztelésére 100 különálló feladaton keresztül. Ezeket a feladatokat főként az alapján…
2024. február 19.
A DeepMind Mixture-of-Experts architektúrával skálázza a megerősítéses tanulást
A Google DeepMind, a Mila, a Montreali Egyetem, az Oxfordi Egyetem és a McGill Egyetem kutatói rájöttek, hogyan integrálják a Mixture-of-Expert (MoE)…
Kutatók nyílt modelleket adaptálnak sebezhetőség-észlelésre korlátozott számítási kapacitás mellett
A Huawei Orosz Kutatóintézetének kutatói megpróbáltak nyíltan hozzáférhető nyelvi modelleket használni sebezhetőség-észlelésre. Munkájuk útmutatóként és…
Az OpenToM benchmark a nagy nyelvi modellek tudatelméleti következtetési képességeit értékeli
Rendelkezik-e a nyelvi modelled tudatelmélettel – „annak felismerésével, hogy mások máshogy érzékelik a világot, és azzal a képességgel, hogy nyomon kövesse…
2024. február 17.
Átfogó útmutató a megfelelő AI modell kiválasztásához
A generatív AI gyors fejlődése a saját fejlesztésű (proprietary) és az open-source modellek robbanásszerű elterjedéséhez vezetett, ami megnehezíti a fejlesztők…