Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

Kié a felelősség, ha rosszul dönt vagy diszkriminál az AI?

Nem mindegy, hogy megregulázzuk vagy gúzsba kötjük a mesterséges intelligenciát

Tavaly év végére a globális AI-beruházások elérték a nagyságrendileg 500 milliárd dolláros álomhatárt, de ez még csak a kezdet, hiszen a mesterséges intelligencia jó úton halad afelé, hogy minden szektorban alaptechnológiává váljon. Ahogy azonban egyre több területre férkőzik be a mindennapokban, úgy merülnek fel a jogi-etikai kételyek is, így például az AI „fekete doboz” problémája, a diszkrimináció vagy éppen a felelősség kérdése.

Az Európai Unió a világon elsőként reagálva hozott létre átfogó szabályozási keretet, mégpedig kockázati alapon megközelítve a kérdést, ugyanakkor a kritikus hangok arra hívják fel a figyelmet, hogy a túlzó és bürokratikus rendelkezések ronthatják az egyébként is lemaradó kontinens versenyképességét. Miért olyan fontos az úttörő technológiát etikai szempontból is vizsgálni és hogyan biztosíthatják a cégek, hogy a fejlesztéseik ne hasaljanak el az AI Act miatt? Az AI bevezetése önmagában nem jó vagy rossz; az etikus vagy kevésbé etikus felhasználás attól függ, milyen céllal és milyen körülmények között alkalmazzuk – hangsúlyozzák a Stylers Group szakértői.

Kilőtt az AI biznisz

Dinamikusan nő a mesterséges intelligenciára épülő újabb és újabb fejlesztések száma, tavaly csak az amerikai piacon 130%-os növekedésről számoltak be a cégek 2023-hoz képest az AI büdzsék terén. Leginkább a generatív AI megoldások hasítanak, a legtöbbet pedig a szoftverek és információs szolgáltatások szegmensében, illetve a banki és kiskereskedelmi szektorban költik a mesterséges intelligenciára. Minden jel arra mutat, hogy akár már néhány éven belül AI-alapú lehet minden technológia. Ugyanakkor egyre több etikai kétely merül fel a mesterséges intelligencia használata kapcsán, melyek dinamikus térnyerésével párhuzamosan mind nagyobb aggodalmat keltenek.

Az algoritmusok pontos működése sokszor átláthatatlan, következtetései elfogultak vagy éppen diszkriminatívak lehetnek, sőt, arra is van példa, hogy az AI az emberek által elfogadott etikai normák áthágásától sem riad vissza”

– mondja Gönczy Gábor, a Stylers Group információ-technológiai cégcsoport ügyvezető-tulajdonosa. A közelmúltban például egy vizsgálat rámutatott a ChatGPT azon képességére, hogy megtévessze az embereket és megpróbálja megkerülni a leállítására irányuló parancsokat, az OpenAI egy másik mesterséges intelligenciája pedig meghackelt egy sakkjátszmát, hogy egy nála erősebb ellenfél – egyébként szintén AI – ellen győzni tudjon, holott erre semmilyen utasítást nem kapott.

„Nem nehéz belátni, hogy az algoritmusok megregulázása alapfeltétele annak, hogy biztonságos és etikus keretek között tudjuk kihasználni a bennük rejlő szinte korlátlan lehetőségeket”

– teszi hozzá Gönczy Gábor.

Kellenek a szabályok, de a szemlélet az igazán fontos

Mindez olyan etikai kérdésekhez vezet, melyek egyre inkább foglalkoztatják a szakmát és a közvéleményt is: kié a felelősség a hallucináló algoritmusokért vagy a tőlük érkező hibás, esetleg diszkriminatív döntésekért? Fontos leszögezni, hogy az AI működésével kapcsolatos következményeket – akár pozitív, akár negatív értelemben – mindig az ember viseli, még akkor is, ha döntéseit vagy cselekedeteit a mesterséges intelligenciára alapozza. Miközben kétségtelenül egyre több területen alakítja át a folyamatokat és a humán szerepköröket a technológia, napjaink egyik meghatározó félelme, hogy a gépek elveszik a munkánkat, megélhetésünket. Ha az AI-t kizárólag a munkaerő leépítésének céljával és a rövid távú profitmaximalizálás érdekében fejlesztik, annak komoly társadalmi ára lehet, de ha stratégiai szemlélettel automatizálunk és odafigyelünk a dolgozók átképzésére, akkor jelentősen hozzájárulhat a termelékenységhez és életmódunk drasztikus javulásához. Az etikus megközelítés tehát az egyensúlyt keresi az emberközpontú használat, a felelős döntéshozatal és a hosszú távú társadalmi előnyök között. 

Az ennek kapcsán felmerülő kihívások kezelésére – a világon elsőként – az AI Act, az Európai Unió Mesterséges Intelligenciáról szóló törvénye átfogó szabályozási keretet biztosít az AI-rendszerek fejlesztésére és alkalmazására, különös tekintettel az etikai normák betartására. A kockázatalapú szemlélettel megalkotott törvény főbb elvei között kitér például a megkülönböztetésmentesség és méltányosság kérdésére, illetve többszintű átláthatósági követelményeket is tartalmaz a megfelelő felügyelet érdekében. Egy jól felépített AI-fejlesztési folyamat, amely a technikai szempontokon túl magában foglalja az emberi és etikai elvárásokat is, segít elérni, hogy a rendszer biztonságos, megbízható és társadalmilag hasznos legyen. Így nemcsak a most formálódó AI Act-nek, hanem a hosszú távú fenntarthatósági elveknek is meg lehet felelni.

Az etikus fejlesztés hosszú távra tervez és bevonja a munkavállalókat is

Az etikus és az AI Act előírásainak megfelelő mesterséges intelligencia-fejlesztésekhez elengedhetetlen, hogy a folyamatot átgondolt és felelős gyakorlatok vezéreljék. Első lépésként kockázatelemzést kell végezni annak érdekében, hogy a termék vagy szolgáltatás besorolása és lehetséges hatásai egyértelműek legyenek. Fontos figyelmet fordítani az adatvédelemre, az adatminőségre és a privacy-követelmények, például a GDPR betartására. Emellett az algoritmusok tisztességes működésének érdekében gondoskodni kell a diszkrimináció megelőzéséről és az esetleges torzítások (bias) kezeléséről is. Ahhoz, hogy mindez teljes mértékben átlátható legyen, a fejlesztést megfelelő dokumentációval és belső megfelelés-kezelési folyamatokkal szükséges támogatni, az emberi felügyelet jelenléte és fenntartása pedig minden lépésénél nélkülözhetetlen.

A munka persze nem fejeződik be a fejlesztéssel, a rendszerek monitorozása és felülvizsgálata hosszú távú elkötelezettség, melynek során érdemes bevonni a releváns szereplőket is.

„Mindez egyben azt is jelenti, hogy a technológiát mélységeiben ismerő szakemberek közreműködése mellett az AI-rendszereket napi szinten használó munkavállalók is felkészülten vegyenek részt a folyamatban. Ehhez vezetői elkötelezettségre, folyamatos edukációra és célirányos képzési rendszerre van szükség, amely abban is támogatja a munkavállalókat, hogy valóban hatékony módon tudják használni a mesterséges intelligencia által kínált megoldásokat. Nem utolsó sorban, ennek komoly megtartó ereje is van: ha a kollégák kompetensnek érzik magukat az új technológiákban, az nagyban mérsékelheti félelmeiket, például azzal kapcsolatban, hogy bármikor átvehetik a helyüket az algoritmusok”

– hangsúlyozza Gönczy Gábor.

Kapcsolódó podcastok a PodCars és a Begurulva youtube, valamint videa csatornákon!