Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

A  mesterséges intelligencia használatának is vannak kockázatai a vállalatok számára

    Miközben a mesterséges intelligenciát alkalmazó eszközök elősegítik az ötletek kidolgozását, szövegek és tartalmak összefoglalását, az üzleti stratégia alapjainak megalkotását, az AI használatakor figyelembe kell venni azt is, hogy minden alkalommal, amikor kapcsolatba lép a felhasználó a chatbottal és információt kér tőle, fennáll a veszélye, hogy érzékeny adatokat oszt meg magáról vagy a vállalatról. Az ESET közleménye szerint ezért mielőtt valaki megpróbálja alkalmazni az AI eszközöket, meg kell tanulnia biztonságosan, az adatok veszélyeztetése nélkül használni.

    Az üzleti és otthoni biztonságtechnikai szoftvermegoldások nemzetközi szállítójának kutatói a közleményben arra hívják fel a figyelmet, hogy a nagy nyelvi modellek (LLM), például a ChatGPT használatakor érzékeny adatokat oszthatnak meg a felhasználók a nemzetközi nagyvállalatokkal. Ezek a rendszerek ugyanis az online szövegek felhasználásával hatékonyan képesek értelmezni és megválaszolni a felhasználók kérdéseit, és ezért lehet, hogy míg az egyik cég kifejezetten támogatja, a másik megtiltja a ChatGPT használatát a munkahelyi eszközökön.


    Felhívták a figyelmet arra is, hogy amikor egy chatbotnak kérdést tesznek fel, a beírt adatok nyilvánossá válnak. Ez nem jelenti azt, hogy a rendszerek azonnal felhasználnák a megszerzett információt a másoknak adott válaszokhoz, de az LLM szolgáltató vagy partnerei hozzáférhetnek az adatokhoz, és beépíthetik azokat a technológia következő verzióiba.


    Ugyanakkor az OpenAI, a ChatGPT mögött álló vállalat például már bevezette a csevegési előzmények kikapcsolásának lehetőségét, ami megakadályozza, hogy a felhasználói adatokat az OpenAI mesterséges intelligencia modelljeinek tanítására és fejlesztésére használják fel, s így a felhasználók nagyobb kontrollal rendelkeznek az adataik felett. Az szakértők szerint ezért az első lépés mindig legyen a csevegési előzmények kikapcsolása, amikor alkalmazottként olyan eszközöket használ valaki, mint a ChatGPT.


    Közölték azonban azt is, hogy ha még ki is kapcsolja a felhasználó a csevegési előzményeket, a chatbot külső szerverei minden prompt adatot tárolnak, ezáltal fennáll a veszélye annak, hogy hackerek jogosulatlanul érik el az információkat. Technikai hibák esetén pedig lehetséges, hogy illetéktelenek hozzáférhetnek a chatbot felhasználók adataihoz, ahogyan az például 2023 márciusában is történt, amikor a ChatGPT elismerte: pár óráig egyes felhasználók láthatták más aktív felhasználók kereszt- és vezetéknevét, e-mail címét, fizetési címét, a bankkártya utolsó négy számjegyét és lejárati dátumát, a teljes kártyaszámok azonban egyetlen pillanatban sem voltak nyilvánosak.


    A közlemény idézi Csizmazia-Darab Istvánt, az ESET termékeit forgalmazó Sicontact Kft. kiberbiztonsági szakértőjét, aki elmondta:
gyakori hiba, hogy a munkavállalók akaratlanul is érzékeny információkat osztanak meg a vállalati ügyfelekről. Éppen ezért mindig érdemes a legnagyobb mértékben anonimizálni a lekérdezéseket, mielőtt beírják azokat a chatbotokba. Az ügyféladatok védelme érdekében ellenőrizni és törölni kell minden érzékeny információt, például nevet, címet, számlaszámot a bevitt szövegekből. A lehető legjobb, ha eleve elkerüljük a személyes adatok használatát, és inkább általános kérdéseket teszünk fel – mondta.


    Mivel a chatbotok hasznos megoldást jelenthetnek nagy mennyiségű adat gyors összegzésére, vázlatok, prezentációk vagy jelentések létrehozására, kockázatos az is, ha átmásolják a dokumentumokat az intelligens rendszerekbe. Az ESET szakértői ezért az ajánlják a vállalatoknak, hogy szigorúan szabályozzák a bizalmas dokumentumok kezelését és korlátozzák a hozzáférést az iratokhoz.

A Google keresések alapján a Toyota érdekli leginkább az embereket