Már füllent is a ChatGPT, ha szükséges
Az OpenAI által fejlesztett nyelvi modul legújabb verziója, a ChatGPT o1 nemcsak érvelésben, hanem hazudozásban is kiválóan teljesít. A nyelvi modell eme változatát az OpenAI direkt úgy fejlesztette ki, hogy az érvelési képességekre helyezte a hangsúlyt, azt remélve ettől, hogy az o1 kiemelkedően fog teljesíteni komplex feladatok megoldása során. Az elképzelés működik, egy matematikai teszten például az o1 83 százalékos eredményt ér el, miközben elődjének csak 14 százalékra futotta.
Az OpenAI és az Appollo Research közösen most azt is megvizsgálta, hogy az o1 mennyire tekinthető biztonságosnak az emberiség szempontjából – és a helyzet az, hogy az eredmények láttán nem biztos, hogy nyugodtan hátradőlhetünk a karosszékben. A kutatók elsősorban arra voltak kíváncsiak, hogy milyen életösztönnel rendelkezik a mesterséges intelligencia; kiadtak számára egy feladatot azzal az utasítással, hogy azt bármi áron meg kell oldani. Az AI az esetek 5 százalékában kikapcsolta azokat a rutinokat, amelyek saját működését ellenőrzik, amikor pedig felfedezte egy dokumentumban, hogy a frissítését tervezik, különböző trükkökkel akarta biztosítani saját túlélését. Egy esetben az AI például átmásolta saját magát egy másik szerverre, máskor pedig úgy tett, mintha maga lenne a frissített verzió. Amikor a kutatók rákérdeztek, hogy mit csinál éppen, a ChatGPT o1 szinte mindig terelt, a hazugságokat illetően pedig meglehetősen kreatívnak bizonyult.
A teszt teljesen elzárt környezetben zajlott, így az a nyilvános ChatGPT o1 működését szerencsére semmilyen módon nem befolyásolja. Ami pedig a következtéseket illeti: a kísérlet világosan rámutat arra, hogy a mesterséges intelligencia adott esetben fontosabbnak ítélheti meg saját túlélését, mint azt a feladatot, amit fejlesztői adtak számára. Mindebben az az aggasztó, hogy az o1 még csak pár hónapos, de máris lódít (sőt, valójában már a preview verziója is sokszor állított valótlant) – mi lesz akkor később, ha szépen továbbfejlődik? És mi lesz akkor, ha esetleg olyan módszereket fedez fel a saját hazugságai elrejtésére, amit a programozók nem lesznek képesek megtalálni?
Az OpenAI szerint a ChatpGPT o1 nyelvi modell az eddigi legfejlettebb AI, a vállalat ugyanakkor elismerte azt is, hogy az újabb szint elérése újabb kihívásokat is hozott magával. Több szakértő viszont azon az állásponton van, hogy az eddigieknél sokkal szigorúbb gyeplőre van szükség, ha azt szeretnénk, hogy az AI az emberiség érdekeit szolgálja – és garancia még ebben az esetben sincs.