European Commission logo
Bejelentkezés Fiók létrehozása
Több szót is választhat vesszővel elválasztva

EPALE - A felnőttkori tanulás elektronikus európai platformja

Blog

EPALE MOOC: A mesterséges intelligencia etikai és jogi szabályozása, különös tekintettel az EU mesterséges intelligencia rendeletére

Ötödik fejezet: Áttekintjük, hogy a mesterséges intelligencia fejlesztésének és használatának milyen főbb etikai és jogi követelményeknek kell megfelelnie.

TreeImage.
Adrienn Hadady-Lukacs
Community Contributor (Bronze Member).

A mesterséges intelligencia fejlesztésekor kulcsfontosságú, hogy a társadalom javát szolgálja. Mindezzel összefüggésben a mesterséges intelligenciának nemcsak a jogszabályoknak kell megfelelnie, hanem a jogszabályokkal átfedésben és azok hiányában az etika által támasztott követelményeknek is.

A fejezet áttekinti, hogy a mesterséges intelligencia fejlesztésének milyen etikai követelményeknek kell megfelelnie. Ezt követően a mesterséges intelligenciára vonatkozó jogi szabályozást ismerteti: kitér arra, hogy milyen, még a mesterséges intelligencia nagyfokú elterjedése előtt elfogadott jogszabályok tartalmaznak a mesterséges intelligencia szempontjából különösen releváns rendelkezéseket. Végezetül az EU által 2024-ben elfogadott mesterséges intelligencia rendelet legfontosabb rendelkezéseiről nyújt áttekintést a fejezet.

1. Bevezetés

A technológiai fejlődés eljutott arra a szintre, hogy nem az a kérdés, hogy lehetséges-e mesterséges intelligenciát alkotni, hanem az, hogy milyet. Mindez felveti a fejlesztők morális felelősségének kérdését, a tekintetben, hogy milyen mesterséges intelligenciát fejlesszenek ki: attól, hogy valami technikailag megvalósítható, etikai szempontból korántsem bizonyos, hogy ténylegesen meg kell valósítani. A technológiai fejlődés gyorsaságára és a jogalkotási folyamatok lassúságára tekintettel különösen fontos, hogy a fejlesztések kifejezett jogszabályi rendelkezés hiányában is megfeleljenek az etika alapvető előírásainak.

A mesterséges intelligenciában rejlő számos előny kiaknázása és az innováció elősegítése mellett fontos célkitűzés, hogy a fejlesztések az emberiség és a társadalom javát szolgálják –lényegében ezt nevezzük etikus mesterséges intelligenciának. Elengedhetetlen, hogy a mesterséges intelligencia biztonságos, emberközpontú és környezetbarát legyen.[1] Mindez nem azt jelenti, hogy a mesterséges intelligencia nem okozhat hátrányt a társadalomnak: az általa nyújtott előnyöket és kockázatokat kell oly módon összevetni, hogy az összességében az emberiség javát szolgálja. 

Valamennyi technológiai innováció hátrányokkal is jár az előnyök mellett. A számítógép például károsítja a szemet és több áramot fogyaszt, de hatékonyabb munkavégzést tesz lehetővé, mint az írógép. A gépjárművek környezetszennyezőbbek, de gyorsabbak a lovaskocsinál. A mesterséges intelligencia esetében is az előnyöket kell összevetni a hátrányokkal és utóbbi mérséklésére törekedni. [2] 

Az etika mellett meg kell felelni természetesen a jogszabályoknak is. E tekintetben nem csak a már korábban (a mesterséges intelligencia előtt) is létező, de a mesterséges intelligenciára is ugyanúgy vonatkozó jogszabályok lesznek kulcsfontosságúak, hanem az is, hogy olyan szabályozások kerüljenek elfogadásra, amelyek kifejezetten a mesterséges intelligenciára vonatkoznak. Az etikus mesterséges intelligenciával összefüggésben különösen fontos, hogy a mesterséges intelligenciát szabályozó jogszabályok is az emberközpontú, etikus mesterséges intelligencia követelményét tükrözzék – mindamellett, hogy az innovációt se gátolják.

2. A mesterséges intelligencia etikai kihívásai

Az etikus mesterséges intelligencia követelménye azt várja el az mesterséges intelligencia fejlesztőitől és kutatóitól, hogy olyan megoldásokat és rendszereket fejlesszenek ki, melyek összességében véve a társadalom egészének, magának az emberiségnek a javát szolgálják. Az alapvető etikai követelményekre kifejezett jogszabályi rendelkezés hiányában is tekintettel kell lenni a mesterséges intelligencia fejlesztése során, valamint a jogi szabályozásnak is összhangban kell lennie ezen elvekkel.

A Britannica szerint az etika, az a tudományág, amely azzal foglalkozik, hogy mi az erkölcsileg jó és rossz, illetve erkölcsileg helyes és helytelen. Az etika – többek között – az alábbi kérdésekre keresi a választ: hogyan kellene élnünk? A boldogságra, a tudásra, az erényre vagy a szép tárgyak létrehozására kell-e törekednünk? Helyes-e tisztességtelennek lenni egy jó ügy érdekében? Helytelen-e háborúba vonulni olyan esetekben, amikor valószínű, hogy ártatlan emberek halnak meg? Helytelen-e emberi lényt klónozni vagy emberi embriókat elpusztítani az orvosi kutatásban?

Az Egyesült Nemzetek Nevelésügyi, Tudományos és Kulturális Szervezete (UNESCO) összeállított egy rövid gyűjtést mely a mesterséges intelligenciával összefüggésben tartalmaz etikai dilemmákat. Ide tartozik a(z nemek közötti) elfogultság kérdése (elég egy keresőmotorba begépelni az iskolás lány, majd iskolás fiú kifejezéseket és összehasonlítani a kapott találatokat – az „iskolás lány” kifejezés valószínűleg jóval több olyan találatot hoz mely szexuális töltettel bír az „iskolás fiú” kifejezéshez képest); a mesterséges intelligencia igazságszolgáltatással összefüggésben történő felhasználása (pl.: egy bírói döntés meghozatalát segítő algoritmus); a mesterséges intelligencia által készített műalkotások kérdése (pl.: a „következő Rembrandt” néven elhíresült mesterséges intelligencia által készített „új” Rembrandt képet); valamint az önvezető járművekhez fűződő dilemmák (ld. a későbbiekben kifejtett villamos dilemmát).

A mesterséges intelligencia számos előnnyel járhat, azonban az előnyök kiaknázásához alapvető fontosságú, hogy a mesterséges intelligencia megfeleljen az etika alapvető követelményeinek. 

A lehetséges előnyök mellett a kedvezőtlen kimeneteleket, kockázatokat is számba kell venni: számos neves szakember – köztük Stephen HawkingBill Gates és Elon Musk – aggodalmát fejezte ki a mesterséges intelligencia kapcsán, óvatosságra intve a fejlesztőket. A filmvásznon is gyakran találkozhatunk a mesterséges intelligencia és a robotok – nem mindig hízelgő, gyakran az emberiséget elpusztító, rabigába hajtó – ábrázolásával. Klasszikusnak nevezhető példa a Terminátor vagy a Mátrix című filmek. Frissebb feldolgozásokkal is találkozhatunk, mint a Fekete Tükör („Black Mirror”) sorozat több epizódja, melyek a futurisztikus technológia lehetséges veszélyeire hívják fel a figyelmet.

Az etikus, megbízható, az emberiség javát szolgáló mesterséges intelligencia követelménye több nemzetközi szervezet célkitűzései között is megjelenik. Az Egyesült Nemzetek Szervezete (ENSZ), a Gazdasági Együttműködési és Fejlesztési Szervezet (OECD) a valamint az Európai Unió (EU) is adott ki iránymutatást, ajánlást a mesterséges intelligenciával szemben támasztott legalapvetőbb követelményekről. Az EU által elfogadott, jogi értelemben nem kötelező erejű dokumentumok[3] közül ehelyütt a Mesterséges Intelligenciával Foglalkozó Magas Szintű Független Szakértői Csoport által 2019-ben elfogadott a Megbízható mesterséges intelligenciára vonatkozó etikai iránymutatást emelnénk ki.

Az iránymutatás szerint a mesterséges intelligenciának 3 alapvető követelménynek kell megfelelnie:

  1. jogszerűnek kell lennie, azaz tiszteletben kell tartania a jogszabályokat;
  2. etikusnak kell lennie, azaz tiszteletben kell tartania az etikai elveket és értékeket, valamint 
  3. szilárdnak kell lennie, mind technikai szempontból, mind a társadalmi környezet szempontjából.

A dokumentumban rögzített etikai elvek és értékek közé tartozik az emberek autonómiájának tiszteletben tartása, a kármegelőzés, a méltányosság és a megmagyarázhatóság, a veszélyeztetett csoportok (pl.: gyermekek, fogyatékossággal élő személyek), a mesterséges intelligencia által felvetett kockázatok mérséklése.

Ezen elvekre építve az iránymutatás olyan követelményeket határoz meg, melyeknek valamennyi mesterséges intelligencia rendszernek meg kell felelnie. Ezen követelmények (1) az emberi cselekvőképesség és felügyelet, (2) a műszaki stabilitás és biztonság, (3) a magánélet védelme és adatkormányzás, (4) az átláthatóság, (5) a sokszínűség, megkülönböztetésmentesség és méltányosság, (6) a társadalmi és környezeti jóllét, valamint (7) az elszámoltathatóság.

A gyakorlatban ugyanakkor nehezen megítélhető, hogy mi minősül etikusnak és milyen működésre programozzuk be a gépet. Például: milyen iránymutatást adunk egy önvezető autónak, ha két baleset okozása közül kell választania? Sokszor emberként is nehéz döntést hozni – ezt szemlélteti például a villamos dilemma. A villamos dilemma egy etikai gondolatkísérlet, ahol az alábbi helyzetben kell dönteni: egy villamos nagy sebességgel száguld a síneken, öt ember felé tart, akiket ha elüt, biztosan mindannyian meghalnak. Dönthetünk viszont úgy, hogy beavatkozunk: ha meghúzzuk a sín melletti váltót, a villamos irányt vált és a másik vágányon „csupán” egy embert fog elütni. Mi a jó döntés? Mire programozzuk majd be a gépet?

Az interneten mi magunk is kipróbálhatjuk, hogy hogyan döntenénk, ha ott állnánk a váltó mellett. Az Absurd Trolley Problems „játékban” a klasszikus variáción túlmenően olyan helyzetekben kell döntést hoznunk, hogy hagyjuk-e hogy a villamos elüsse az öt embert, vagy áttereljük az összes megtakarításunk megsemmisítésére; vagy a sínen egy gazdag ember fekszik, aki egy vagyont ajánl, ha eltereljük a villamost a másik ember irányába, stb.

3. A mesterséges intelligenciára is vonatkozó jogszabályok

A mesterséges intelligencia nem egy szabályozási vákuumba érkezett: jogszabályok már a mesterséges intelligencia előtt is léteztek, és ezeket a szabályokat – bár nem kifejezetten a mesterséges intelligenciára tekintettel fogadták el – a mesterséges intelligenciára is megfelelően alkalmazni kell. A korábban már tárgyalt jogi kihívásokkal összefüggésben ilyen szabály például az EU általános adatvédelmi rendelete (közismert nevén: GDPR), mely a személyes adatok védelméhez való jog érvényesülését célozza – akár mesterséges intelligenciával történik az adatok kezelése, akár más eszközzel.

További példaként említhető az egyenlő bánásmódhoz való jog: több EU-s irányelv rendelkezik az egyenlő bánásmód követelményéről, melyek többek között a foglalkoztatás terén is rendelkeznek a diszkrimináció tilalmáról. Ezek a szabályok attól függetlenül irányadóak, hogy humán munkáltató, vagy algoritmikus menedzsment keretében valósul meg az egyenlő bánásmód sérelme. 

Például Európai Uniós szinten kiemelendő a Tanács 2000/43/EK irányelve (2000. június 29.) a személyek közötti, faji- vagy etnikai származásra való tekintet nélküli egyenlő bánásmód elvének alkalmazásáról és a Tanács 2000/78/EK irányelve (2000. november 27.) a foglalkoztatás és a munkavégzés során alkalmazott egyenlő bánásmód általános kereteinek létrehozásáról. A hazai jogszabályok közül a hazai esélyegyenlőségi törvényünk, a 2003. évi CXXV. törvény az egyenlő bánásmódról és az esélyegyenlőség előmozdításáról emelendő ki.

Ezekben az általánosabb hatályú jogszabályokban azonban fellelhetők olyan rendelkezések, melyek a mesterséges intelligenciának egy-egy aspektusához szorosabban kapcsolód(hat)nak. Példaként említhető a GDPR 22. cikke ami az „Automatizált döntéshozatal egyedi ügyekben, beleértve a profilalkotás” címet viseli. A 22. cikk lényegében arról rendelkezik, az érintett jogosult arra, hogy főszabály szerint ne terjedjen ki rá olyan, kizárólag automatizált adatkezelésen – ideértve a profilalkotást is – alapuló döntés hatálya, amely rá nézve joghatással járna vagy őt hasonlóképpen jelentős mértékben érintené. (Ilyen döntésnek minősül például egy teljesen automatizált banki hitelbírálat.) Bár az automatizált döntéshozatal nem feltételezi szükségszerűen a mesterséges intelligencia alkalmazását, a technológia térnyerésével párhuzamosan valószínűsíthető, hogy a mesterséges intelligencia alapú automatizált döntéshozatal szerepe és alkalmazása felértékelődik a jövőben. A GDPR 22. cikkében lefektetett tilalom alól azonban vannak kivételek. Eszerint mégis alkalmazható ilyen döntéshozatal, amennyiben:

  1. az érintett és az adatkezelő közötti szerződés megkötése vagy teljesítése érdekében szükséges;
  2. azt tagállami vagy uniós jog lehetővé teszi, vagy
  3. az érintett kifejezett hozzájárulását adta.

A GDPR további garanciákat is meghatároz, melyek szerint az ilyen döntéshozatalnak tekintettel kell lennie az érintett jogaira, szabadságaira és jogos érdekeire. Emellett az érintett bizonyos esetben jogosult arra, hogy emberi beavatkozást kérjen, álláspontját kifejezze, vagy kifogást nyújtson be a döntéssel szemben.

További példaként említhető a platformalapú munkavégzés munkakörülményeinek javításáról szóló EU-s irányelv (ún. platform irányelv) algoritmikus menedzsmenttel összefüggő rendelkezései.

A platform munka térnyerése és az ezáltal felmerülő jogi kihívások, különös tekintettel a jogviszony minősítésének a kérdésére (munkavállaló-e egyáltalán a platform dolgozó?) és az algoritmikus menedzsmentre szükségessé tették az ilyen fajta munkavégzés szabályozását. Az Európai Bizottság 2021-ben tette közzé a platformalapú munkavégzés munkakörülményeinek javításáról szóló irányelv javaslatát, melyet – hosszas tárgyalások után – az Európai Parlament 2024. április 24-én fogadott el.[4]

A platform irányelv célkitűzései közé tartozik többek között a foglalkoztatási státusz helyes besorolásának elősegítése, valamint az algoritmikus irányítás méltányosságának, átláthatóságának és elszámoltathatóságának biztosítása. Az algoritmikus menedzsmenttel összefüggésben a platform irányelv többek között megtiltja bizonyos, különösen szenzitív adatoknak a kezelését (pl.: munkát végző személy érzelmi vagy pszichológiai állapotra vonatkozó adat), előírja az átláthatóság követelményét és emberi felügyeletét, beleértve a rendszer platformalapú munkát végző személyekre gyakorolt hatásának két évente történő ellenőrzését. Előírja bizonyos döntések írásban történő indokolását, szükség esetén felülvizsgálatát, annak korrigálását.[5]

4. Az EU mesterséges intelligenciáról szóló rendelete 

Annak ellenére, hogy a már létező jogszabályok a mesterséges intelligenciára is vonatkoznak, szükségessé vált egy olyan szabályozás megalkotása, mely kifejezetten a mesterséges intelligencia sajátosságaihoz igazodik. Az Európai Unió 2021-ben tette közzé a mesterséges intelligenciáról szóló rendelet tervezetét. Ez a világon az első olyan jogszabály, mely átfogóan szabályozza a mesterséges intelligenciát.[6] A rendelet javaslata szerint a rendelet tervezet egy arányos szabályozást hoz létre, mely nem akadályozza az innovációt, ugyanakkor kezeli a mesterséges intelligencia kapcsán felmerülő kockázatokat is. A – valamennyi tagállam számára kötelező – rendeletet (2024/1689 rendelet a mesterséges intelligenciáról – a továbbiakban: Rendelet) végül 2024-ben fogadták el, 2024. augusztus 1-én lépett hatályba, néhány kivételtől eltekintve a rendelkezéseit egy két éves felkészülési periódust követően, 2026. augusztus 2-től kell alkalmazni. 

A rendelet az EU-s jogszabálytípusok közé tartozik, kötelező erejű jogalkotási aktus. Valamennyi tagállamban automatikusan és egységesen alkalmazandó, nincs arra szükség, hogy egy tagállam azt átültesse a tagállami jogába. Ez utóbbi alóli eltérésre csak kivételes esetben van lehetőség, amennyiben arra maga a rendelet hatalmazza fel a tagállamokat.

A Rendelet mellett a Bizottság 2022 szeptemberében tette közzé a mesterséges intelligenciával kapcsolatos felelősségről szóló irányelv tervezetét. Az irányelv tervezet a különböző mesterséges intelligencia-alapú megoldásokkal kapcsolatban állapít meg felelősségi szabályokat, kiegészíti és korszerűsíti az EU szerződésen kívüli polgári jogi felelősségre vonatkozó szabályait, külön szabályokat bevezetve a mesterséges intelligencia-rendszerek által okozott károkra vonatkozóan.[7]

A Rendelet 1. cikke szerint a szabályozás célja, hogy:

  1. javítsa a belső piac működését,
  2. előmozdítsa az emberközpontú és megbízható mesterséges intelligencia elterjedését, biztosítva az EU-ban az egészség, a biztonság és az alapvető jogok magas szintű védelmét, továbbá
  3. támogassa az innovációt.

A Rendelet hatályát (azaz alkalmazási körét) rögzítő 2. cikke ad választ arra a kérdésre, hogy kikre, milyen területeken és hol kell alkalmazni a Rendeletet. A személyi hatályát tekintve (azaz hogy kikre kell alkalmazni a jogszabályt) a Rendelet kiterjed a szolgáltatókra, az mesterséges intelligencia rendszerek (MI-rendszerek) alkalmazóira, az importőrökre, a forgalmazókra, a termékgyártókra, és az EU-n kívüli szolgáltatók meghatalmazott képviselőire. A területi hatály (azaz hogy milyen földrajzi területen kell alkalmazni a jogszabályt) kiterjed nemcsak az EU-ra, hanem bizonyos esetben az EU-n kívül letelepedett szereplőkre is, amennyiben a tevékenységük kiterjed az EU területére is. A tárgyi hatály (azaz, hogy mire kell alkalmazni a jogszabályt) főszabály szerint az MI-rendszerekre terjed ki.[8]

Azt, hogy pontosan mit értünk az egyes fogalmak alatt (pl.: MI-rendszer, forgalmazó, importőr, stb.) a Rendelet fogalommeghatározásokat tartalmazó 3. cikke határozza meg.

Megkülönböztetjük továbbá az időbeli hatályt is (mettől meddig kell alkalmazni a jogszabályt): a Rendeletet – néhány kivételtől eltekintve – 2026. augusztus 2-től kell alkalmazni. A Rendelet hatálya kiterjed mind a magán-, mind a közszférára. A Rendelet azt is meghatározza, hogy milyen helyzetekben nem kell alkalmazni. Ide tartozik például a nemzetbiztonság, a tudományos kutatás-fejlesztés, a természetes személyek általi kizárólag személyes használat.[9] 

A Rendelet egy kockázatalapú megközelítést tartalmaz – az eltérő kockázati szintekhez különféle kötelezettségek tiszteletben tartását rendeli. A Rendelet 4 féle kockázati szint között tesz különbséget: elfogadhatatlan kockázat, nagy kockázat, alacsonyabb kockázat és minimális kockázat. 

Az elfogadhatatlan kockázati szintbe sorolt MI-rendszerek közé tartoznak az uniós jognak és alapvető jogoknak ellentmondó rendszerek, melyek alkalmazása főszabály szerint tiltott. Ilyen rendszernek minősül a társadalmi pontozás, vagy a bűncselekmények előrejelzése profilalkotás vagy személyiségjegyek és tulajdonságok értékelése alapján.

Utóbbihoz hasonló rendszer extrém ábrázolása látható a Különvélemény című 2002-es sci-fi-ben, amelyben a leendő bűnelkövetőt még az előtt letartóztatják, hogy elkövette volna a bűncselekményt.

A nagy kockázatú MI-rendszerek – melyek magas kockázatot jelentenek a természetes személyek egészségére és biztonságára vagy alapvető jogaira nézve – alkalmazása alapvetően lehetséges, azonban annak számos előírásnak kell megfelelnie. Ilyen nagy kockázatú MI-rendszerek közé tartoznak egyrészt azok az MI-rendszerek, amelyek az alábbi két feltételnek megfelelnek [Rendelet 6. cikk (1) bekezdés]:

  • „az MI-rendszert az I. mellékletben felsorolt uniós harmonizációs jogszabályok hatálya alá tartozó termék biztonsági alkotórészeként kívánják használni, vagy az MI-rendszer önmagában ilyen termék;
  • azon terméket, amelynek biztonsági alkatórésze az előző a) pont alapján az MI-rendszer, vagy magát az MI-rendszert mint terméket harmadik fél által végzett megfelelőségértékelésnek kell alávetni a terméknek az I. mellékletben felsorolt uniós harmonizációs jogszabályok értelmében való forgalomba hozatala vagy üzembe helyezése érdekében.”

Fentieken túlmenően nagy kockázatú MI-rendszernek kell tekinteni a Rendelet III. sz. mellékletében említett rendszereket is [Rendelet 6. cikk (2) bekezdés]. Ilyen rendszerek közé tartoznak például a foglalkoztatás, a munkavállalók irányítása és az önfoglalkoztatáshoz való hozzáférés terén használt MI-rendszerek (pl.: természetes személyek felvételéhez vagy kiválasztásához való használatra szánt MI-rendszerek; a munkával kapcsolatos bizonyos döntések meghozatalához használt MI-rendszerek); de egy MI-rendszer által végzett banki hitelbírálat is ebbe a körbe eshet. (Rendelet III. sz. melléklet) A Rendelet meghatároz egy kivételt is: eszerint hiába szerepel egy rendszer a III. mellékletben, amennyiben az nem jelent jelentős károkozó kockázatot természetes személyek egészségére, biztonságára vagy alapvető jogaira nézve, többek között azáltal, hogy nem befolyásolja lényegesen a döntéshozatal kimenetelét; úgy nem minősül nagy-kockázatúnak. [Rendelet 6. cikk (3) bekezdés].

A nagy kockázatú MI-rendszereknek több követelménynek is meg kell felelniük. Ezen követelmények közé tartozik többek között a kockázatkezelés, a dokumentáció és a nyilvántartás, az átláthatóság és tájékoztatás, az emberi felügyelet, a pontosság, stabilitás és kiberbiztonság. (Rendelet III. fejezet, 2. szakasz)

Az egyéb, alacsonyabb kockázatú MI-rendszereknek alapvetően átláthatósági követelményeknek kell megfelelniük. Példaként említhetők a chatbotok, ahol a felhasználónak tisztában kell lennie azzal, hogy nem humán ügyintézővel áll kapcsolatban, hanem egy chatbottal. (Rendelet IV. fejezet)

A minimális kockázattal járó MI-rendszerekre a spam szűrők említhetők példaként. Ezek a rendszerek lényegében szabadon alkalmazhatók, az etikus fejlesztés követelményeit figyelembe véve.[10] 

 

A Rendelet betartásának ellenőrzéséért nemzeti hatóságok lesznek felelősek, valamint az ún. Mesterséges Intelligenciával Foglalkozó Európai Testület (MI-testület), aminek tagjai a tagállamok képviselői, továbbá nemzeti szabályozók és más illetékes hatóságok szakosodott alcsoportjai. Az MI-testület jelentős tanácsadó, iránymutató szerepet tölt be, továbbá döntő szerepe van a Rendelet EU-szerte történő következetes és harmonizált alkalmazásában.[11]

A Rendelet XII. fejezete előírja a tagállamok számára, hogy szankciókat állapítsanak meg a rendelet megsértése esetére. Ezeknek a szankcióknak hatékonynak, arányosnak és visszatartó erejűnek kell lenniük. Ilyen szankciónak minősül a közigazgatási bírság. A rendelet azonban bizonyos jogsértések esetére meghatározza a maximum kiszabható közigazgatási bírság összegét. A legmagasabb bírság – melyet az elfogadhatatlan kockázatot jelentő MI-rendszerek tilalmának be nem tartása esetén lehet kiszabni – 35 millió euró, vagy, amennyiben a jogsértést elkövető egy vállalkozás, úgy az előző pénzügyi év teljes globális éves árbevételének legfeljebb 7 %-át kitevő összeg. A kettő közül a magasabb összeget kell figyelembe venni. [Rendelet 99. cikk (3)]

5. Összegzés

A mesterséges intelligencia már nem a távoli jövő terméke: rendkívül izgalmas korban élünk, amikor testközelből figyelhetjük meg, hogy hogyan jelenik meg a mesterséges intelligencia a mindennapokban. Elég a ChatGPT-re, az okostelefonokon és számítógépeken található digitális asszisztensekre gondolni – és még sorolhatnánk. Mindez csak a jéghegy csúcsa, a mesterséges intelligenciában hatalmas potenciál rejlik. Annak érdekében, hogy ezt a potenciált ki lehessen aknázni, fontos, hogy a mesterséges intelligencia fejlesztése megfeleljen bizonyos alapvető követelményeknek. Ezek a követelmények lehetnek egyrészt morális, etikai követelmények, másrészt lehetnek jogszabályi követelmények.

Az etikai követelményeket (összességében a társadalom javát szolgáló, emberközpontú, megbízható mesterséges intelligencia követelménye) a nemzetközi szervezetek által elfogadott különféle jogi – nem kötelező erejű iránymutatások, állásfoglalások is tükrözték, majd ezekből szivárogtak bele az EU mesterséges intelligenciáról szóló rendeletébe, és – bár nem rendelkezünk a jövőbe látó kristálygömbbel – feltehetően meg fognak jelenni a további, mesterséges intelligenciát szabályozó jogszabályokban is. 

Szerző: Dr. Hadady-Lukács Adrienn, PhD  

 


Vissza a MOOC kezdőlapjára


Ajánlott irodalom, források

Európai Bizottság: Mesterséges intelligencia – Kérdések és válaszok. 2024. augusztus 1. Elérhető: https://ec.europa.eu/commission/presscorner/detail/hu/QANDA_21_1683 (Letöltés ideje: 2024. 11. 11.)

Hadady-Lukács Adrienn: Az EU és a belső piac: az adatvédelem digitális kihívásai, különös tekintettel a mesterséges intelligenciára. EU Jog online 2024/3.

Pók László: "Felkészülés az MI Rendelet alkalmazására" sorozat. Elérhető: https://gdpr.blog.hu/tags/mesters%C3%A9ges_intelligencia

Hivatkozott források

[1] Coursera: AI Ethics: What It Is and Why It Matters. 2024. Elérhető : https://www.coursera.org/articles/ai-ethics (Letöltés ideje: 2024. 11. 11.)

[2] Négyesi Imre: A mesterséges intelligencia és az etika. Hadtudomány (2020) 1. szám, 106. o.

[3] Hadady-Lukács Adrienn: Az EU és a belső piac: az adatvédelem digitális kihívásai, különös tekintettel a mesterséges intelligenciára. EU Jog online (2024) 3. szám

[4] Az Európai Parlament álláspontja, amely első olvasatban 2024. április 24-én került elfogadásra a platformalapú munkavégzés munkafeltételeinek javításáról szóló (EU) 2024/... európai parlamenti és tanácsi irányelv elfogadására tekintettel. (P9_TC1-COD(2021)0414.)

[5] Ld. bővebben: Kiss Gergely Árpád: A platformmunka szabályozási perspektívái az új uniós irányelv tükrében. Közjogi Szemle (2023) 3. szám. 65-70. o.; Lukács Adrienn: Platform munkavégzés és egyenlő bánásmód, különös tekintettel az Európai Unió platform irányelvére. In: Forum: Acta Juridica et Politica, megjelenés alatt

[6] European Commission: AI Act. Elérhető: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (Letöltés ideje: 2024. 11. 11.)

[7] Európai Bizottság: Kérdések és válaszok: A mesterséges intelligenciával kapcsolatos felelősségről szóló irányelv, 2022. Elérhető: https://ec.europa.eu/commission/presscorner/detail/hu/QANDA_22_5793 (Letöltés ideje: 2024. 11. 11.)

[8] Pók László: Felkészülés az MI Rendelet alkalmazására - 2. rész: az MI Rendelet hatálya. GDPR blog, 2024. Elérhető: https://gdpr.blog.hu/2024/06/03/felkeszules_az_mi_rendelet_alkalmazasara_2_resz_az_mi_rendelet_hatalya (Letöltés ideje: 2024. 11. 11.)

[9] Pók László: Felkészülés az MI Rendelet alkalmazására - 2. rész: az MI Rendelet hatálya. GDPR blog, 2024. Elérhető: https://gdpr.blog.hu/2024/06/03/felkeszules_az_mi_rendelet_alkalmazasara_2_resz_az_mi_rendelet_hatalya (Letöltés ideje: 2024. 11. 11.)

[10] Pók László: Felkészülés az MI Rendelet alkalmazására - 4. rész: mit jelent a kockázatalapú megközelítés? GDPR blog, 2024. Elérhető: https://gdpr.blog.hu/2024/07/02/felkeszules_az_mi_rendelet_alkalmazasara_4_resz_mit_jelent_a_kockazatalapu_megkozelites (Letöltés ideje: 2024. 11. 11.)

[11] Európai Bizottság: Mesterséges intelligencia – Kérdések és válaszok. 2024. augusztus 1. Elérhető: https://ec.europa.eu/commission/presscorner/detail/hu/QANDA_21_1683 (Letöltés ideje: 2024. 11. 11.)

Login (2)