Az OpenAI, a ChatGPT mesterséges intelligencia chatbot mögött álló szervezet adatvédelmi panasszal szembesül Norvégiában, mivel a chatbot hamis és rágalmazó információkat generál egy egyénről. Ez az incidens rávilágít az AI által generált tartalom pontosságával és megbízhatóságával kapcsolatos folyamatos aggályokra.
Egy norvég személy felfedezte, hogy a ChatGPT koholt információkat állított elő, miszerint két gyermeke meggyilkolásáért és egy harmadik meggyilkolásának kísérletéért ítélték el. Ezek az alaptalan állítások jelentős szorongást és potenciális hírnevet sértettek az érintett személynek.
Olvassa el még:A Google Faces Competition, amikor a felhasználók a társalgási mesterséges intelligencia információért folyamodnak
A NOYB (None of Your Business) adatvédelmi jogvédő csoport az érintett személyt azzal támogatja, hogy panaszt nyújt be a norvég adatvédelmi hatósághoz, a Datatilsynethez. A NOYB azzal érvel, hogy az OpenAI ChatGPT-je pontatlan személyes adatok előállításával és terjesztésével sérti az általános adatvédelmi rendeletet (GDPR). Joakim Söderberg, a NOYB adatvédelmi ügyvédje kijelentette: "A GDPR egyértelmű. A személyes adatoknak pontosaknak kell lenniük. Ha nem, a felhasználóknak joguk van megváltoztatni azokat, hogy az az igazságot tükrözze."
A GDPR értelmében a szervezetek kötelesek biztosítani az általuk kezelt személyes adatok pontosságát. A rendelet feljogosítja a magánszemélyeket a rá vonatkozó pontatlan adatok helyesbítésére. Ebben az esetben a ChatGPT által a panaszossal kapcsolatos hamis adatok generálása e rendelkezések megsértésének tekinthető. A GDPR megerősített megsértése akár a vállalat globális éves forgalmának 4%-át is elérheti.
Nem ez az első alkalom, hogy a ChatGPT pontatlanságai, amelyeket gyakran „hallucinációnak” neveznek, jogi kihívásokhoz vezetnek:
- 2023-ban egy ausztrál polgármester jogi lépést fontolgatott, miután a ChatGPT hamisan azt állította, hogy vesztegetés miatt börtönözték be.
- 2024-ben az olasz adatvédelmi hatóság 15 millió eurós bírságot szabott ki az OpenAI-ra személyes adatok megfelelő jogalap nélküli feldolgozása miatt.
- Az Egyesült Államokban rágalmazási pert indítottak az OpenAI ellen, miután a ChatGPT jogi vádakat koholt egy rádiós műsorvezető ellen.
Ezek az incidensek rávilágítanak a mesterséges intelligencia által generált félretájékoztatás szélesebb körű problémájára és lehetséges jogi következményeire.
Az OpenAI elismerte, hogy a ChatGPT pontatlan információkat állíthat elő, és felelősségi nyilatkozatokat vezetett be, amelyek azt tanácsolják a felhasználóknak, hogy ellenőrizzék a chatbot kimeneteit. A kritikusok azonban azzal érvelnek, hogy az ilyen felelősségkizárások nem elegendőek a hamis információk által okozott károk enyhítésére. Ha a norvég adatvédelmi hatóság úgy találja, hogy az OpenAI megsérti a GDPR-t, a vállalat jelentős pénzbírságot szabhat ki, és intézkedéseket kell hoznia a jövőbeni pontatlanságok elkerülése érdekében.
A Norvégiában benyújtott panasz tovább fokozza az olyan mesterséges intelligencia-rendszerek, mint a ChatGPT, és az adatvédelmi törvények betartásának fokozott ellenőrzését. Ahogy a mesterséges intelligencia technológia folyamatosan fejlődik, a mesterséges intelligencia által generált tartalom pontosságának és megbízhatóságának biztosítása továbbra is kritikus kihívást jelent a fejlesztők és a szabályozók számára egyaránt.
Forrás:TechCrunch
