NYÍLT FORRÁSKÓDÚ LLM-EK
A Falcon 180B új mércét állít fel a legnagyobb nyílt forráskódú LLM-ként
A TII kiadta a Falcon 180B-t, amely jelenleg a valaha volt legnagyobb nyílt forráskódú nyelvi modell. 3,5 billió tokenen tanították, és jelentős ugrást jelent a nyílt hozzáférésű számítási teljesítményben, felvéve a versenyt a jelentős zárt forráskódú modellek képességeivel. A kiadást több más regionális és speciális nyílt forráskódú modell is kísérte, ami az AI-fejlesztés globális diverzifikációja felé mutat.
- A Falcon 180B felülmúlja a Llama 2-t, és a Google PaLM 2/Bard szintjén teljesít
- Az Egyesült Arab Emírségek nyílt forráskódúvá tette a Jais-t és a Jais-chat-et, az első jelentős arab nyelvi modelleket 13 milliárd paraméterrel
- A Stability AI kiadta a Japanese StableLM-et, amely élvonalbeli eredményeket ért el japán nyelvű feladatoknál
- A Boston University közzétette a Platypus modellcsaládot, amely a Hugging Face Open LLM ranglistájának élére került
- Bemutatták a Clinical Camel-70B-t mint orvosi kutatásokra szakosodott nyílt forráskódú modellt
Miért fontos?
A Falcon 180B bizonyítja, hogy a nyílt forráskódú közösség és az USA-n kívüli entitások is képesek olyan modelleket létrehozni, amelyek közvetlenül versenyeznek a Google és az OpenAI legmagasabb szintű zárt modelljeivel. ---