Mesterséges intelligencia

2024.08.07. 17:30

Kordában szeretnék tartani az MI-t

Már évek óta folyik egy világszintű polémia a mesterséges intelligenciáról, arról, hogy az MI használata, térnyerése vajon áldás-e, vagy inkább átok. A veszélyek, a különféle visszaélések elharapózásának visszaszorítása érdekében új jogszabályt alkotott az Európai Parlament és az Európai Unió Tanácsa.

Tarnavölgyi Gergely

Az MI-rendszereket négy kockázati kategóriába sorolják be

Fotó: Illusztráció: Shutterstock

A részletekről Párkányiné dr. Csurka Edinát, a Szabolcs-Szatmár-Bereg Vármegyei Kereskedelmi és Iparkamara főtitkárát kérdeztük.

Kockázatos is lehet

– Az MI-rendszerek elterjedése komoly lehetőségeket rejt magában a mind a társadalmi előnyök, mind a gazdasági növekedés, valamint az uniós innováció és a globális versenyképesség fokozása szempontjából. Bizonyos esetekben azonban egyes MI-rendszerek sajátos jellemzői új kockázatokat teremthetnek a felhasználói biztonsággal, többek között a fizikai biztonsággal és az alapvető jogokkal kapcsolatban. Egyes, széles körben használt MI-modellek akár rendszerszintű kockázatokat is jelenthetnek – kezdte tájékoztatását a főtitkár.

Hozzátette, az augusztus elsejével hatályba lépő jogszabály bevezeti a mesterséges intelligencia előretekintő fogalommeghatározását, amely termékbiztonságon és kockázatalapú megközelítésen alapul. Ennek alapján a jogalkotó négy kockázati kategóriába sorolja be az egyes MI-rendszereket.

Párkányiné dr. Csurka Edina szerint az első kategóriába a minimális kockázatú rendszerek kerülnek bele. A legtöbb mesterséges intelligencia alapú rendszer, például az ajánlórendszerek és a spamszűrők tartoznak ide. A következő szint az egyedi átláthatósági kockázat: a mesterséges intelligencia rendszereknek, például a csevegőrobotoknak egyértelműen közölniük kell a felhasználókkal, hogy gépekkel lépnek kapcsolatba. A szolgáltatóknak oly módon kell kialakítaniuk rendszereiket, hogy a szintetikus audio-, video-, szöveges és képi tartalmak gépileg olvasható formátumban címkézhetők legyenek, és felismerhető legyen, hogy mesterségesen előállított vagy manipulált tartalmakról van szó.

Emberi felügyelet

A nagy kockázatúnak besorolt MI-rendszereknek szigorú követelményeknek kell megfelelniük, beleértve többek közt a kockázatcsökkentő rendszerek használatát, a tevékenységek naplózását, a részletes dokumentációt és az emberi felügyeletet.

– Az elfogadhatatlan kockázatú, az emberek alapvető jogait egyértelműen fenyegető mesterséges intelligencia rendszerek be lesznek tiltva – emelte ki a vármegyei kereskedelmi és iparkamara főtitkára. Ide tartoznak az olyan MI-rendszerek vagy -alkalmazások, amelyek a felhasználók szabad akaratának megkerülése érdekében manipulálják az emberi viselkedést, mint például a kiskorúak veszélyes magatartását ösztönző, hangsegítést használó játékok. Nem lesz megengedett a biometrikus szisztémák bizonyos típusú felhasználása sem, ilyen például az érzelemfelismerő rendszerek munkahelyi alkalmazása, vagy az embereket kategorizáló rendszerek valamelyikének a bevezetése.

Nemzeti hatóságok

A tagállamoknak 2025. augusztus 2-ig kell kijelölniük az illetékes nemzeti hatóságokat, amelyek felügyelik az MI-rendszerekre vonatkozó szabályok alkalmazását és piacfelügyeleti tevékenységeket végeznek. A bizottság MI-hivatala lesz a mesterséges intelligenciáról szóló jogszabály uniós szintű végrehajtásának fő szerve.
– Azokra a vállalkozásokra, amelyek nem tartják be a szabályokat, pénzbírságot szabnak ki. A bírságok a tiltott mesterséges intelligencia alkalmazások megsértése esetén a globális éves forgalom 7 százalékát, az egyéb kötelezettségek megsértése esetén akár 3 százalékát, a helytelen információk szolgáltatása esetén pedig akár 1,5 százalékát is elérhetik – zárta Párkányiné dr. Csurka Edina, a Szabolcs-Szatmár-Bereg Vármegyei Kereskedelmi és Iparkamara főtitkára.

 

Hírlevél feliratkozás
Ne maradjon le a szon.hu legfontosabb híreiről! Adja meg a nevét és az e-mail-címét, és mi naponta elküldjük Önnek a legfontosabb híreinket!

Rovatunkból ajánljuk

További hírek a témában