OPENAI
Az OpenAI aranyérmes szintű teljesítményt ért el a Nemzetközi Matematikai Diákolimpia értékelésén
Az OpenAI aranyérmes szintű teljesítményről számolt be a 2025-ös Nemzetközi Matematikai Diákolimpia (IMO) alapján készített értékelésen, ahol „kísérleti általános érvelő LLM”-jét tesztelték az emberi versenyen használt feladatokon. Bár az OpenAI pontozásával kapcsolatban maradtak kérdések, az IMO-n elért haladás egy újabb lépést jelent a matematikai szuperintelligencia felé – amely egy nap talán olyan problémákat is megold, amelyeket az embereknek még nem sikerült.
- Az LLM-et az emberekre vonatkozó szabályok szerint tesztelték: két 4,5 órás vizsga során természetes nyelven írt bizonyításokat feladatokra, segédeszközök és internet nélkül.
- Az OpenAI állítása szerint a névtelen modell a 6 feladatból 5-öt sikeresen megoldott, 35/42 pontot elérve, ami elég lenne egy aranyéremhez a hivatalos olimpián.
- Minden választ három korábbi IMO-érmes pontozott függetlenül, a végső pontszámokat pedig egyhangú konszenzussal határozták meg.
- A Google DeepMind részéről elutasították az aranyéremre vonatkozó állítást, mondván, az IMO belső értékelési irányelvekkel rendelkezik, és ezek nélkül nem lehet ilyen kijelentést tenni.
Miért fontos?
Az érvényességgel kapcsolatos kritikák elkerülhetetlenek, mivel az aranyérem megszerzése az IMO-n régóta cél az AI számára, és egykor szinte lehetetlennek tartották. Érdekesség, hogy ezt a célt egy olyan kísérleti modellel érték el, amely még nem nyilvános, ami azt jelenti, hogy az OpenAI-nak biztosan vannak még aduászok a tarsolyában. ---