Weboldalunk a használat elősegítése és a jobb felhasználói élmény érdekében sütiket, "cookie"-kat használ.
További információkat Adatkezelési nyilatkozatunkban talál.

Mesterséges intelligencia: új jogszabályt fogadtak el a képviselők

  • Forrás: Európai Parlament
  • Szerző: Lucz Bianka

A Parlament jóváhagyta a mesterséges intelligenciáról szóló jogszabályt, amely úgy ad lendületet az innovációnak, hogy közben garantálja biztonságunkat és alapvető jogainkat.

A tagállamokkal tavaly decemberben egyeztetett rendeletjavaslatot 523 szavazattal, 46 ellenszavazattal és 49 tartózkodás mellett fogadták el az EP-képviselők. A jogszabály célja az alapvető jogok, a demokrácia, a jogállamiság és a környezeti fenntarthatóság védelme a magas kockázatú mesterséges intelligenciával (MI) szemben, miközben serkenteni az innovációt és megteremti Európa vezető szerepét a mesterséges intelligencia területén. A rendelet a mesterséges intelligencia lehetséges kockázatai és hatásai alapján állapít meg kötelezettségeket az alkalmazásra vonatkozóan.

Tiltott alkalmazások

Az új szabályok értelmében nem lesznek megengedettek az olyan mesterséges intelligencia alkalmazások, amelyek sérthetik a polgárok jogait. Ilyen például az érzékeny személyes adatokon alapuló biometrikus kategorizálás vagy az arcfelismerő adatbázisok létrehozása olyan arcképek felhasználásával, amelyeket az internetről vagy zártláncú televíziós hálózatok felvételeiből nem célirányosan válogatnak le. Tilos lesz továbbá a munkahelyen és az iskolákban gépi érzelemfelismerő rendszereket alkalmazni. Nem lehet pontozni a polgárokat kockázati profiljuk vagy társadalmi hovatartozásuk alapján, és ugyanígy szabályellenes a profilalkotásra, illetve a bűnözői előéletre alapozott prediktív rendészet is, valamint az olyan rendszerek alkalmazása, amelyek képesek befolyásolni az emberek viselkedését, vagy a sebezhetőségüket használják ki.

A bűnüldöző szervek jogosítványai

A távoli biometrikus azonosító (RBI) rendszereket – néhány jól körülhatárolt kivételtől eltekintve – a bűnüldöző szervek sem vehetik igénybe. Valós idejű RBI csak szigorú biztosítékok mellett lesz alkalmazható: például időben és földrajzilag korlátozottan, külön bírói vagy hatósági engedéllyel. Akkor jöhet szóba, ha például eltűnt személyt keresnek, vagy terrortámadást próbálnak megelőzni. Az ilyen rendszerek utólagos (a bűnelkövetés tényének megállapítását követő) használata magas kockázatúnak minősül, ezért bírói engedélyhez kötött.

Magas kockázatú rendszerekre vonatkozó követelmények

Az új rendelet egyértelmű kötelezettségeket állapít meg az olyan mesterségesintelligencia-rendszerekkel kapcsolatban, amelyek jelentős veszélyt jelentenek az egészségre, a biztonságra, az alapvető jogokra, a környezetre, a demokráciára vagy a jogállamiságra. Magas kockázatúnak számítanak a kritikus infrastruktúrák, az oktatás és a szakképzés, a foglalkoztatás, az alapvető magán- és közszolgáltatások (pl. egészségügyi és banki szolgáltatások), a bűnüldözés, a migráció és a határigazgatás területén, valamint az igazságszolgáltatásban és a demokratikus folyamatokban (pl. a választások befolyásolására) használt mesterséges intelligencia alkalmazások. Az ilyen rendszerek esetében a rendelet rendszeres kockázatértékelést és -mérséklést ír elő. Az üzemeltetőnek naplóznia kell a rendszer használatát, és a rendszer átláthatósága és pontossága mellett annak emberi felügyeletét is biztosítania kell. A polgároknak ezentúl joguk lesz panasszal élni az mesterséges intelligencia rendszerek alkalmazásával szemben, valamint részletes tájékoztatást kapni az alapvető jogaikra jelentősen kiható olyan döntésekről, amelyek magas kockázatú MI-rendszerek bevonásával születtek.

Átláthatósági követelmények

Az általános célú mesterségesintelligencia-rendszereknek és az alapjukat képező MI-modelleknek meg kell majd felelniük bizonyos átláthatósági követelményeknek is, és a modellek betanítása során be kell tartani az uniós szerzői jogi szabályokat. Az erősebb MI-modellekre, amelyek rendszerszintű kockázatokat jelenthetnek, további követelmények is vonatkoznak majd. Ezek közé tartozik a modellek értékelése, a rendszerszintű kockázatok értékelése és mérséklése, valamint a rendkívüli eseményekre vonatkozó jelentéstétel. Ezenkívül kötelező lesz a mesterséges vagy manipulált (deepfake) képi, hang- és videotartalmakat egyértelműen akként megjelölni.


Vissza az előző oldalra