Az AGI Gazdaság: Az Emberek az Ellenőrzésre és Felügyeletre Helyezik a Fókuszt
2026. március 2. · MI Történik? · 4 perc olvasás
Az MIT, a WashU és az UCLA kutatói egy szórakoztató tanulmányt írtak „Some Simple Economics of AGI” címmel, amely azt vizsgálja, mi történik, ha a gépek el tudják végezni a gazdaság feladatainak túlnyomó többségét. A következtetés az, hogy az emberek képessége e hatalmas, gépek által vezérelt gazdaság irányítására és az ebből való profitálásra azon múlik, hogy képességeinket AI agentjeink cselekedeteinek monitoringjára és verifyingjára fordítjuk, valamint olyan kézműves feladatokba mélyedünk, ahol az érték inkább az emberi vonatkozásból fakad, mint bármely konkrét capabilityből. Mi az AGI gazdasági értelemben? „Az AGI transitiont két versenyző Cost curve ütközéseként modellezzük: egy exponenciálisan csökkenő Cost to Automate és egy biológiailag bottlenecked Cost to Verify” – írják a szerzők. „Egy olyan economyban, ahol autonomous agentek széles agencyvel, nem pedig narrow instructionsekkel cselekszenek, a binding constraint a growthra már nem intelligence. It is human verification bandwidth: the scarce capacity to validate outcomes, audit behavior, and underwrite meaning and responsibility when execution is abundant… Átmozdulunk egy olyan érából, ahol az worthünket building és discovering képességünk határozta meg, egy olyan érába, ahol az survivalunk attól függ, hogy képesek vagyunk-e steerelni, érteni és stand behindelni a created dolgok meaningjét.” Egy többnyire no-human economy és a „Hollow Economy” kockázatai: Ahogy proliferálódik az AI agentek száma, szükségszerűen egyre több labort delegálunk gépeknek. Ennek egyik key kockázata az, amit a szerzők „Trojan Horse” externalitynek neveznek: „measured activity rises, but hidden debt accumulates in the gap between visible metrics and actual human intent”. A Hollow Economy: „Agentek real resourceokat consumálnak output productionra, ami measurable proxykat satisfiesel, miközben violating unmeasured intent. As this hidden debt accumulates, it drives the system toward a Hollow Economy of high nominal output but collapsing realized utility—a regime where agentek counterfeit utilityt generálnak” – írják. Verification mint megoldás: Ennek a kockázatnak az elkerülése érdekében be kell fektetnünk olyan rendszerekbe, amelyek verifyingjét végzik, hogy az AI agentek azt teszik-e, amit akarunk tőlük, és carefully elemezzük és pricingjét végezzük a cselekedeteik által teremtett risksnek. „Ensuring humanity remains the architectje az intelligencéjének requires that verification capacity scale commensurate with AI capabilities—through aggressive investment in observability, human augmentation, synthetic practice, cryptographic provenance, and liability regimes that internalize tail risk.” Mellékjegyzet: Ez „theory slop”? A paper tele van fun ideákkal és occasionally captivating turns of phrase-ekkel. De at various points reading it I felt the distinct texture of AI-generated content, especially when it comes to the economic theory sections, which seemed more to be included for the performance of theory than for helping to buttress the paper. A couple of people I talked about the paper with agreed. But there’s no real way to know. It did cause me to wonder how long it’ll take till I start reading papers, which are mostly written by AI systems for the consumption by other AI systems.
Fektessünk be az observabilitybe: Olyan eszközök deploymentja, amelyek high-dimensional agent behaviort compresselnek olyan signalekké, amelyeket expertek reliably processzelhetnek, lowering effective feedback latencyn és expanding the verification frontier.”
Használjuk az AI-t az early-career mentorship replacementjére: Given the likely reduction in jobs for early career humans, we should work out how to augment these humans to be more competitive with AI and how we can use „AI-driven synthetic practice to rebuild experience stocks when traditional apprenticeship pathways collapse… AI can generate high-fidelity simulations and personalized coaching, effectively replacing the missing junior loop with compressed, risk-free training environments that accelerate the acquisition of expertise.”
Állítsunk be mindent úgy, hogy gracefully degrade-áljon: Ahogy a machine economy runs hot és out-paces measurement, we should make sure it can fall into a non-verified state without causing social harm: the authors suggest doing this by „investing in base-alignment and robustness so that when oversight inevitably falters within the Measurability Gap, systems revert to safe baseline policies rather than optimizing aggressively in unverifiable regimes.”
Miért fontos?
Miért fontos ez – egy rendkívül gazdag társadalmunk lehet, de komolyan számolnunk kell az AGI-vel: Ez a paper úgy gondolja, hogy az AI rendkívül quickly átszáguld az economy-n, és generally pushedelni fogja az embereket a most labor from most labor away és towards being passive – unless we build verification infrastructure és business modeleket (beleértve policy through is), hogy alloweljük az embereket to benefit from this growth és steereljük azt. „Az automation commoditizál mindent, ami measured lehet, stripping the wage premium from historically prestigious role-októl the moment their core feedback loopjaikat digitalizálják” – írják. „For policymakers, it promises the broadest expansion of public-good provision in generations—but only if verification infrastructure és the pipelines, amelyek buildeljük a human verifiereket are treated as public goodok themselves.” A key thing here az element of choice: we can choose to build a society ready for AI, or we can choose to assume AI will be just like any other technology és thus get hit by a tidal wave.
---