MI Történik?

Mesterséges intelligencia hírek magyarul — naponta frissülve

2024. január 22.
A Meta önjutalmazó visszacsatolási hurkokat használ a LLaMa 2 teljesítményének fokozására
A Facebook kutatói kidolgoztak egy „Self-Rewarding Language Models” (Önjutalmazó Nyelvi Modellek) nevű technikát, amely során nyelvi modelleket használnak…
A Meta a nyílt forráskódú általános mesterséges intelligencia fejlesztése felé fordul
A Facebook több GPU-fürtöt épít ki, amelyek az év végére összesen körülbelül 350 ezer H100-as GPU-t fognak tartalmazni, így a közösségi hálózat rendelkezik…
2024. január 15.
A REBUS benchmark komplex szó-kép rejtvényekkel teszteli a látás-nyelvi modelleket
Független kutatók egy csoportja – ketten a Cavendish Labshoz és a MATS-hez kötődnek – egy rendkívül nehéz tesztet dolgozott ki a látás-nyelvi modellek (VLM-ek,…
A DeepSeek AI a GPT-3.5-tel és a LLaMa2-vel rivalizáló, nagy teljesítményű nyelvi modelleket adott ki
A DeepSeek AI, egy kínai AGI vállalat kutatói olyan nagy nyelvi modellcsaládot hoztak létre, amelynek teljesítménye állításuk szerint vetekszik a ChatGPT…
A BIOPROT adatkészlet az LLM-ek képességét értékeli a tudományos biológiai laboratóriumi protokollok automatizálására
Az Align to Innovate, a Francis Crick Institute, a Future House és az University of Oxford kutatói olyan adatkészletet hoztak létre, amellyel azt tesztelik,…
2024. január 13.
LLM költségek és látencia csökkentése szemantikus gyorsítótárazással
A nyelvi modellek kontextusában a gyorsítótárazás (caching) magában foglalja a promptok és a hozzájuk tartozó válaszok adatbázisban történő tárolását későbbi…
A Microsoft Orca modelljei szintetikus adatokat használnak a logikai következtetés tanítására
A Microsoft Orca és Orca 2 modelljei testreszabott, kiváló minőségű szintetikus adatokat használtak fel, hogy a kisebb nyelvi modelleket fejlettebb logikai…
A Mistral 7B új mércét állít fel a kisméretű modellek hatékonyságában
A Mistral AI megjelentette a Mistral 7B-t, egy teljesen open-source modellt, amely felülmúlta az összes elérhető nyílt forráskódú modellt 13 milliárd…
A Meta Segment Anything Modellje (SAM) forradalmasítja a képszegmentálást
A Segment Anything projekt bemutatta a Segment Anything Modellt (SAM) és a hatalmas SA-1B adatbázist. Ez a projekt forradalmasította a computer vision…
A ControlNet precíz térbeli kondicionálást hoz a text-to-image diffúziós modellekbe
A Stanford kutatói bemutatták a ControlNet-et, egy úttörő architektúrát, amely térbeli kondicionálást integrál a text-to-image diffúziós modellekbe. Ez az…
A Meta LLaMA modellje felpezsdíti az open-source LLM közösséget
A Meta megjelentette a LLaMA-t, egy 65 milliárd paraméteres nyílt forráskódú Large Language Modellt, amelyet 1,4 billió tokenen tanítottak. A modell kisebb…
2023 SOTA jelentés: A generatív AI nagy ugrásának éve
2023-ban a generatív AI területe példátlan növekedést mutatott mind a kereskedelmi vállalatok, mind az open-source közösség körében. Az év során több mint 1100…
2024. január 11.
Az OpenAI elindította a GPT Store-t és egy új bevételi programot a készítőknek
Az OpenAI hivatalosan is megnyitotta a GPT Store-t a ChatGPT Plus, Team és Enterprise felhasználók számára, létrehozva egy központi piacteret az egyedi AI…
2024. január 8.
A Stanford Mobile ALOHA robotja bizonyítja a megfizethető, komplex feladatautomatizálást
A Stanford Egyetem kutatói egy olcsó robotot építettek Mobile ALOHA néven a robot-utánzásos tanulás (imitation learning) kutatására. Azt is bebizonyították,…
Az Isomorphic Labs 3 milliárd dolláros gyógyszerkutatási megállapodásokat írt alá
A DeepMind spinoff Isomorphic Labs megállapodásokat kötött az Eli Lilly és a Novartis gyógyszeripari óriásokkal, amelyek összértéke az Isomorphic Labs számára…
A Mickey-1928 modell közkincsnek számító verziókat generál az ikonikus rajzfilmfiguráról
Nemrégiben Mickey egér egyik korai inkarnációja közkinccsé vált. Egy vállalkozó szellemű fejlesztő, Alexander Doria ezt kihasználva létrehozta a…
Nagyszabású felmérés tárja fel az AI-kutatók félelmeit és jövőbeli várakozásait
Az AI Impacts nevű szervezet 2778 kutatót kérdezett meg, akik hat vezető AI-publikációs fórumhoz kötődnek, hogy felmérjék a konszenzust az emberi szintű AI…
A PowerInfer lehetővé teszi a nagy sebességű LLM-következtetést (inference) lakossági GPU-kon és CPU-kon
A sanghaji Jiao Tong Egyetem kutatói kidolgozták, hogyan tehető sokkal hatékonyabbá a nyelvi modellekből történő mintavételezés lakossági PC-ken. A PowerInfer…
2024. január 6.
Az Upstage bemutatja a SOLAR 10.7B-t az újszerű Depth Up-Scaling technológiával
A koreai AI startup, az Upstage bemutatta a SOLAR 10.7B-t, egy olyan modellt, amely a Depth Up-Scaling nevű technikát alkalmazza. Ez a megközelítés lehetővé…
A DeciAI nyílt forráskódúvá tette a DeciLM 7B-t, mint a leggyorsabb nagy teljesítményű modellt
A DeciAI nyílt forráskódúvá tette a DeciLM 7B-t, amelyet jelenleg a leggyorsabb és legköltséghatékonyabb elérhető 7B paraméteres előtanított modellként…