OpenAI, företaget som skapade den populära språkmodellen ChatGPT, står inför utmaningar när det gäller efterlevnad av lagar och datanoggrannhet. Detta har föranlett NOYB – European Center for Digital Rights, en ideell organisation baserad i Wien, Österrike, att lämna in ett klagomål mot OpenAI till den österrikiska dataskyddsmyndigheten (DPA).
OpenAI:s datainsamling har verkligen orsakat oro bland tillsynsmyndigheter och integritetsförespråkare. Detta drag från NOYB kan potentiellt utlösa en större konversation om den etiska användningen av data i tekniken.
OpenAI: s dataproblem avslöjar etiska utmaningar med AI
Kärnan i klagomålet ligger i OpenAI: s senaste medgivanden om ChatGPT: s begränsningar i datahantering. Enligt OpenAI kan AI-modellen inte verifiera riktigheten i den information som den genererar om individer. Dessutom kan den inte heller avslöja ursprunget till sina datainmatningar.
Mitt i den ökande AI-hype som utlöstes av lanseringen av ChatGPT i november 2022, har verktygets breda antagande exponerat kritiska sårbarheter. ChatGPT fungerar genom att förutsäga sannolika svar på användarens uppmaningar utan en inneboende mekanism för att säkerställa faktamässig noggrannhet.
Detta har lett till fall där AI:n “hallucinerar” data och fabricerar svar som kan vara vilseledande eller helt falska. Även om sådana felaktigheter kan vara obetydliga i vissa sammanhang, utgör de betydande risker när det gäller personuppgifter.
Läs mer om hur du gör: Så här bygger du din personliga AI-chatbot med hjälp av ChatGPT API
Europeiska unionens allmänna dataskyddsförordning (GDPR) föreskriver att personuppgifter ska vara korrekta och ger individer rätt att få tillgång till och korrigera felaktig information om sig själva. OpenAI:s nuvarande kapacitet uppfyller inte dessa lagkrav, vilket har lett till en debatt om de etiska konsekvenserna av AI vid hantering av känsliga uppgifter.
Maartje de Graaf, dataskyddsjurist på noyb, understryker allvaret i situationen.
“Det är tydligt att företag för närvarande inte kan få chatbottar som ChatGPT att följa EU-lagstiftningen när de behandlar uppgifter om enskilda personer. Om ett system inte kan producera korrekta och transparenta resultat kan det inte användas för att generera data om individer. Tekniken måste följa de rättsliga kraven, inte tvärtom”, förklarar de Graaf.
Problemen sträcker sig bortom de tekniska hindren till mer omfattande regleringsutmaningar. Sedan starten har generativa AI-verktyg, inklusive ChatGPT, varit föremål för intensiv granskning av europeiska integritetsskyddsmyndigheter.
Den italienska dataskyddsmyndigheten införde till exempel begränsningar för ChatGPT:s databehandling i början av 2023, med hänvisning till felaktigheter.
Detta följdes av en samordnad insats från Europeiska dataskyddsstyrelsen för att bedöma och minska de risker som är förknippade med sådana AI-plattformar.
Tidpunkten för dessa rättsliga utmaningar är särskilt anmärkningsvärd. Samtidigt förde OpenAI diskussioner om att bilda en strategisk allians med Worldcoin, ett projekt som grundades av Sam Altman, som också leder OpenAI.
Läs mer om detta: 11 bästa ChatGPT Chrome-tillägg att kolla in år 2024
OpenAI:s potentiella samarbete med Worldcoin kan dock medföra ytterligare lager av juridiska och etiska dilemman. Worldcoins inställning till användningen av biometriska data sammanfaller med OpenAI:s utmaningar när det gäller att säkerställa datasekretess och noggrannhet.
Dessutom har Worldcoin granskats av rättsliga myndigheter runt om i världen, inklusive Kenya, Spanien och Argentina, angående sin datainsamling. Därför kan denna synergi antingen bana väg för innovativa teknikanvändningar eller skapa ett prejudikat för ökade regleringsingripanden.
Disclaimer
All information på vår webbplats publiceras i god tro och endast för allmän information. Varje åtgärd som läsaren vidtar baserat på informationen på vår webbplats sker strikt på egen risk.
