A jogalkotás csak lohol a technológia után – mi vár Európában a ChatGPT-re?
A ChatGPT nyilvános megjelenése óta alig fél év telt el, azóta világszerte a mesterséges intelligencia számít a legforróbb témának a techpiacon. Annak ellenére, hogy az alkalmazás világszenzációként hatott, már számos nemzetgazdaság tiltólistájára került, mely felveti azt a kérdést, hogy mik azok a tényezők, melyek a mesterséges intelligencia térhódításának gátat szabhatnak. Az eddigi tapasztalatok alapján az adatvédelem ígérkezik a legkritikusabb szempontnak.
A ChatGPT tilalmát egyelőre az alábbi országok vezették be az előző időszakban: Észak-Korea, Irán, Oroszország, Szíria, Kuba és Kína, valamint egy uniós ország, Olaszország is. A tilalom mögött különböző motivációk állnak. Kína és Olaszország kivételével a tiltás tulajdonképpen kétoldalú: az OpenAI sem kíván terjeszkedni ezekben az országokban. Kína esetében a nyugati tartalmak szűrése áll a háttérben, míg Olaszország esete adatvédelmi aggályokon alapul.
Március 31 -én közleményben jelentette be az olasz adatvédelmi hatóság, hogy azonnali hatállyal átmenetileg betiltják a ChatGPT használatát Olaszországban. A hatóság megállapította, hogy az OpenAI sérti az adatvédelmi szabályokat a személyes adatok gyűjtésére vonatkozó gyakorlatával: „nem azonosítottak jogalapot a nagy mennyiségű személyes adat gyűjtésére és tárolására, ami a felület működtetéséért felelős algoritmusok tanítását szolgálja”. Ezen túlmenően a korhatár ellenőrzésének hiányát is kifogásolta az olasz adatvédelmi hatóság, mivel az applikáció nem kéri, következésképpen nem is ellenőrzi a felhasználók életkorát és ez kiszolgáltatottá teszi a kiskorúakat. A fenti szigorú intézkedéshez valószínűleg hozzájárult a március 20-án történt adatvédelmi incidens is, melynek során a fizetős ChatGPT Plus előfizetők 1,2 százalékának személyes adatai kerülhettek nyilvánosságra, így az aktív felhasználók kereszt- és vezetékneve, e-mail címe, valamint a számlázási adatai, tehát a hitelkártyaszám utolsó négy számjegye és annak lejárati dátuma. A hibára az OpenAI gyorsan reagált, és mintegy 10 órára offline állapotba helyezte a chatbotot, ami alatt megszüntette a problémát. Az olasz adatvédelmi hatóság 20 napot adott az OpenAI-nak, hogy változtassanak azokon a gyakorlataikon, amelyeket a hatóság aggályosnak talált.
„Az EU-s szabályok nem engedik meg, hogy az MI korlátlanul, bármilyen adatból tanuljon. A lehetséges kapcsolódó kockázatok csökkentése érdekében, valamely MI eszköz használatát megelőzően kiemelten fontos ügyelni arra, hogy az adatvédelmi szempontok már a tervezési fázisban a projekt részévé váljanak, beépüljenek, és megfelelő hangsúly kerüljön többek között az adatkezelési célok világos kijelölésére, a lehetséges adatbiztonsági kockázatok azonosítására és kezelésére, illetve, hogy figyelembe vegyük az adattakarékossági elvárásokat is” – hívta fel a figyelmet dr. Nagy Dániel Attila, a Deloitte Legal adatvédelmi és technológiai csoportjának vezető ügyvédje.
Ha az olasz adatvédelmi hatóság megállapításai igaznak bizonyulnak, akkor ez egyben azt is jelenti, hogy az összes európai országban, sőt, a világ más régióiban is jogellenesnek minősülhet az applikáció által alkalmazott gyakorlat, ahol hasonló szabályozások vannak érvényben.
„Az egységes uniós adatvédelmi szabályozási keretből adódóan, ha valamely EU-s adatvédelmi felügyeleti hatóság megállapítja az adatvédelmi megfelelés hiányát valamely MI eszközzel kapcsolatban, valószínűsíthető, hogy azonos álláspontra fog helyezkedni a többi EU tagállam adatvédelmi hatósága is – ami azt jelentheti, hogy egy adott MI eszközt hasznosító szolgáltató akár a teljes uniós piachoz nem fog tudni hozzáférni” – tette hozzá dr. Albert Lili, a Deloitte Legal adatvédelmi és technológiai csoportjának ügyvédje.
Több európai ország is fontolgatja az applikáció használatának felülvizsgálatát, így például a francia és ír adatvédelmi hatóságok felvették a kapcsolatot az olasz társszervekkel, hogy részletesen tájékozódjanak a tilalom alapjáról. Németország is követheti Olaszország példáját, és adatvédelmi aggályok miatt betilthatja a ChatGPT-t.
Világszerte egyre többen hívják fel a figyelmet a mesterséges intelligencia veszélyeire és működésének, működtetésének szabályos keretek közé történő terelésének fontosságára. Az EU jelenleg is dolgozik az ún. AI Act-en, melynek célja a mesterséges intelligencia rendszerek szabályozása. A jelentések szerint azonban egyrészt annyira gyorsan változik a technológia, hogy problémát jelent a szöveg véglegesítése, továbbá számos jelentős kérdésben nem tudnak megegyezni a jogalkotók.
Az Europol elemzésében pedig sötét jövőre figyelmeztet a kiberbűnözés, adathalászat, tévinformációk, propaganda kapcsán. Elon Musk és számos etikus hacker nyílt levélben hívja fel a figyelmet, hogy mindenki által átvett biztonsági protokollokra van szükség, amelyeket független szakértők alakítanak, a fejlesztőknek pedig a kormányzatokkal és hatóságokkal kellene együtt dolgozniuk.
A fentiekből jól látható, hogy a mesterséges intelligenciát alkalmazó rendszerek fejlődésének sebessége messze meghaladja a jogalkotást. Ugyan az AI Act végleges szövegére, és annak hatálybalépésére még várni kell, azoknak a vállalkozásoknak, amelyek mesterséges intelligencia rendszereket alkalmaznak, illetve terveznek bevezetni, kiemelt figyelmet kell fordítaniuk mind az etikai, mind a jogi megfelelésre. Az átfogó EU-s MI szabályozás ugyan még formálódik, az olasz adatvédelmi hatóság döntése intő példa arra, hogy nem szabad megfeledkezni a már ismert, hatályos és az MI eszközök kapcsán alkalmazandó szabályokról, így különösen a GDPR által meghatározott adatvédelmi és adatbiztonsági követelményekről, még ha a tengerentúlról is történik az alkalmazás fejlesztése.
„A megbízható mesterséges intelligencia egyik legfontosabb alappillére az adatvédelmi jogszabályok és előírások fokozott figyelembevétele. Az MI-t fejlesztő és alkalmazó szervezeteknek transzparensen kell kommunikálniuk, hogy milyen adatokat milyen célból gyűjtenek, és megfelelő szintű kontrollt kell biztosítaniuk az adatalanyok számára az adataik felett. Az elszámoltathatóságot alaposan megtervezett és kiforrott folyamatok végrehajtásával kell alátámasztani.” – tette hozzá Dr. Barta Gergő, a Deloitte vezető MI szakértője.