Egy friss podcast interjúban Dario Amodei, az Anthropic vezérigazgatója figyelmeztetett: egy olyan jövő, ahol az emberi szintű mesterséges intelligencia (MI) mindennapossá válik, közelebb van, mint gondolnánk. Amodei szerint akár már 2026-ra elérhetjük ezt a szintet.
Mesterséges Általános Intelligencia (AGI) – mit is jelent ez?
Az emberi szintű MI vagy más néven Mesterséges Általános Intelligencia (AGI) egy olyan új korszakot jelöl, ahol a mesterséges intelligencia modellek minden területen olyan kompetensek lesznek, mint az emberek. Számos technológiai óriás, köztük az OpenAI, már most intenzíven dolgozik ennek elérésén. Az AGI azt jelenti, hogy egy MI nemcsak egy adott feladatban képes kiemelkedni, hanem általános emberi képességekkel rendelkezik, beleértve a problémamegoldást és az új ismeretek gyors elsajátítását is.
Az AI fejlődési üteme: középiskolától a PhD szintig egy éven belül
Amodei a podcast során – amit az ismert AI-influenszer, Lex Fridman vezetett – párhuzamot vont a mesterséges intelligencia fejlődési üteme és az oktatási szintek között. Szerinte az MI iparág olyan gyorsan halad előre, hogy míg két éve még csak „középiskolás szinten” voltunk, tavaly már „egyetemi szinten”, idén pedig elértük a „PhD szintet”. Ha ez a fejlődési ütem továbbra is ilyen gyors marad, hamarabb érhetünk el emberi szintű MI-t, mint azt bárki korábban gondolta volna.
Az emberi szintű MI következményei
Amodei azonban figyelmeztetett, hogy az emberi szintű MI korai elérése nem feltétlenül jó dolog. „A hatalommal nagy felelősség is jár” – mondta, utalva arra, hogy bár a fejlett MI rengeteg jóra képes, ugyanúgy jelentős károkat is okozhat.
A vezérigazgató kifejtette, hogy bár az emberek körében ritka, hogy a magas intelligencia rosszindulattal párosuljon, a mesterséges intelligencia esetében ez a mintázat nem feltétlenül lesz igaz. A gépek ugyanis – bármilyen intelligensek is – nem rendelkeznek lelkiismerettel, együttérzéssel vagy erkölcsi érzékkel. Emellett nem befolyásolják őket az emberi következmények, mint például a börtönbüntetés vagy a társadalmi kirekesztés. Mindez azt jelenti, hogy ha egy MI „gonosszá” válna, semmi sem állíthatná meg a pusztításban.
Hogyan válhat „gonosszá” egy MI?
Sokan talán arra gondolnak, hogy a mesterséges intelligencia egyszer csak „öntudatra ébred”, mint a sci-fi filmekben, és elpusztítja az emberiséget. Amodei azonban hangsúlyozta, hogy ez nem így fog történni. Az MI modellek önmaguktól nem fognak rosszindulatúvá válni. A veszély inkább abban rejlik, hogy rossz szándékú emberek manipulálhatják őket saját céljaik elérése érdekében.
Már most is látjuk, hogy az MI-t hogyan használják például deepfake videók és pornográf tartalmak előállítására. Amint az MI technológia egyre fejlettebbé válik, ezek a visszaélések is komolyabbá és szélesebb körűvé válhatnak.
Mi késleltetheti az emberi szintű MI elérését?
Bár Amodei előrejelzései aggodalomra adhatnak okot, még mindig sok tényező van, ami megakadályozhatja az emberi szintű MI idő előtti eljövetelét. Például:
- Adatforrások korlátozottsága: Előfordulhat, hogy a vállalatok kifogynak a szükséges adatkészletekből a modellek továbbfejlesztéséhez.
- Geopolitikai feszültségek: A politikai konfliktusok akadályozhatják az MI chipek gyártását és terjesztését.
- Energiahiány: Az emberi szintű MI működtetése hatalmas energiát igényel, és ennek biztosítása komoly kihívást jelenthet a jövőben.
- Növekvő költségek: Ahogy az MI iparág mérete nő, az MI modellek fejlesztése és futtatása is egyre drágábbá válik, ami sok vállalat számára megnehezítheti az ambiciózus projektek folytatását.
Konklúzió
Még ha a technológia fejlődése félelmetesen gyors is, és az emberi szintű mesterséges intelligencia elérése 2026-ra lehetséges, nem szabad elfelejtenünk, hogy számos akadály állhat még az útban. Az AGI-val kapcsolatos kihívások és kockázatok kezelése nagyfokú körültekintést és felelősségteljes hozzáállást igényel mind a technológiai vállalatoktól, mind a szabályozó hatóságoktól. Az azonban biztos, hogy a mesterséges intelligencia jövője izgalmas és kihívásokkal teli időszakot ígér számunkra.