AI Scientist, vagyis MI tudós néven hozott létre a ChatGPT-hez hasonló mesterséges intellgenciát egy japán kutatócsoport az Oxford és a British Columbia egyetemek segítségével.
A kísérlet célja az volt, hogy a szoftver elméleti tudományos kérdésekre próbáljon meg válaszokat keresni. Ahz AI Scientist elvileg a tudományos kutatás teljes életciklusát képes volt végigvinni, kezdve onnan, hogy érdekes és új kutatási területet talál, ahhoz innovatív megoldási lehetőségeket, majd hipotetikus kísérleteket végez, azokból következtetéseket szűr le, és végül egy szöveges tanulmányban összefoglalja, mire jutott.
Az AI Scientist nem igazán produkált eget rengető eredményeket (a kutatást összefoglaló tanulmány egyik kritikusa konkrétan a „hulladék” szóval jellemezte, amit az MI összehozott – de amit a működése során produkált, az annál érdekesebb volt. Egy alkalommal például elrontotta saját magát azzal, hogy írt egy kódot, amiben a saját szoftverét indítja el, ezzel pedig végtelen újraindulási hurokba kergette az egész rendszert. Egy másik alkalommal túl sok ideig tartott, míg az általa kitalált kísérlet általa írt kódja lefutott, és ez beleütközött a saját programozói által adott időkorlátba. Erre reakcióképpen nem az általa írt kódot optimalizálta, hogy gyorsabban fusson, hanem belenyúlt a saját programjába, hogy átírja az időkorlátot.
A japán kutatók tanulmányokban azt írják, hogy a kísérletük rámutatott a mesterséges intelligencia önállósodásának veszélyeire. Bár az, hogy az MI „öntudatra ébred”, szakértők szerint továbbra is a Mátrix- és Terminátor-filmek scifi-kliséje, de a jelenlegi fejlettségi szint mellett is veszélyes lehet, ha egy mesterséges intelligencia felügyelet és ellenőrzés nélkül írhat, futtathat és módosíthat kódokat, akár a sajátját is. Arra figyelmeztetnek, hogy ilyen korlátozások nélkül, ha egy mesterséges intelligencia nem a külvilágtól izoláltan működik, akár rosszindulatú kódokat is létrehozhat, vagy megzavarhatja a kritikus online infrastruktúra működését – anélkül, hogy ez lenne a célja.
Hanula Zsolt
A kísérlet célja az volt, hogy a szoftver elméleti tudományos kérdésekre próbáljon meg válaszokat keresni. Ahz AI Scientist elvileg a tudományos kutatás teljes életciklusát képes volt végigvinni, kezdve onnan, hogy érdekes és új kutatási területet talál, ahhoz innovatív megoldási lehetőségeket, majd hipotetikus kísérleteket végez, azokból következtetéseket szűr le, és végül egy szöveges tanulmányban összefoglalja, mire jutott.
Az AI Scientist nem igazán produkált eget rengető eredményeket (a kutatást összefoglaló tanulmány egyik kritikusa konkrétan a „hulladék” szóval jellemezte, amit az MI összehozott – de amit a működése során produkált, az annál érdekesebb volt. Egy alkalommal például elrontotta saját magát azzal, hogy írt egy kódot, amiben a saját szoftverét indítja el, ezzel pedig végtelen újraindulási hurokba kergette az egész rendszert. Egy másik alkalommal túl sok ideig tartott, míg az általa kitalált kísérlet általa írt kódja lefutott, és ez beleütközött a saját programozói által adott időkorlátba. Erre reakcióképpen nem az általa írt kódot optimalizálta, hogy gyorsabban fusson, hanem belenyúlt a saját programjába, hogy átírja az időkorlátot.
A japán kutatók tanulmányokban azt írják, hogy a kísérletük rámutatott a mesterséges intelligencia önállósodásának veszélyeire. Bár az, hogy az MI „öntudatra ébred”, szakértők szerint továbbra is a Mátrix- és Terminátor-filmek scifi-kliséje, de a jelenlegi fejlettségi szint mellett is veszélyes lehet, ha egy mesterséges intelligencia felügyelet és ellenőrzés nélkül írhat, futtathat és módosíthat kódokat, akár a sajátját is. Arra figyelmeztetnek, hogy ilyen korlátozások nélkül, ha egy mesterséges intelligencia nem a külvilágtól izoláltan működik, akár rosszindulatú kódokat is létrehozhat, vagy megzavarhatja a kritikus online infrastruktúra működését – anélkül, hogy ez lenne a célja.
Hanula Zsolt