Trusted

OpenAI står inför ett potentiellt lagbrott i samband med partnerskapsdiskussionen med Worldcoin

2 mins
Uppdaterad av Harsh Notariya

I korthet

  • Den populära AI-chatboten ChatGPT stöter på juridiska hinder på grund av sin oförmåga att säkerställa datanoggrannhet.
  • Europeisk integritetsgrupp uttrycker oro över potentiell spridning av felaktig information.
  • Denna fråga belyser spänningen mellan AI-utveckling och etisk användning av känsliga uppgifter.

OpenAI, företaget som skapade den populära språkmodellen ChatGPT, står inför utmaningar när det gäller efterlevnad av lagar och datanoggrannhet. Detta har föranlett NOYB – European Center for Digital Rights, en ideell organisation baserad i Wien, Österrike, att lämna in ett klagomål mot OpenAI till den österrikiska dataskyddsmyndigheten (DPA).

OpenAI:s datainsamling har verkligen orsakat oro bland tillsynsmyndigheter och integritetsförespråkare. Detta drag från NOYB kan potentiellt utlösa en större konversation om den etiska användningen av data i tekniken.

OpenAI: s dataproblem avslöjar etiska utmaningar med AI

Kärnan i klagomålet ligger i OpenAI: s senaste medgivanden om ChatGPT: s begränsningar i datahantering. Enligt OpenAI kan AI-modellen inte verifiera riktigheten i den information som den genererar om individer. Dessutom kan den inte heller avslöja ursprunget till sina datainmatningar.

Mitt i den ökande AI-hype som utlöstes av lanseringen av ChatGPT i november 2022, har verktygets breda antagande exponerat kritiska sårbarheter. ChatGPT fungerar genom att förutsäga sannolika svar på användarens uppmaningar utan en inneboende mekanism för att säkerställa faktamässig noggrannhet.

Detta har lett till fall där AI:n “hallucinerar” data och fabricerar svar som kan vara vilseledande eller helt falska. Även om sådana felaktigheter kan vara obetydliga i vissa sammanhang, utgör de betydande risker när det gäller personuppgifter.

Läs mer om hur du gör: Så här bygger du din personliga AI-chatbot med hjälp av ChatGPT API

Europeiska unionens allmänna dataskyddsförordning (GDPR) föreskriver att personuppgifter ska vara korrekta och ger individer rätt att få tillgång till och korrigera felaktig information om sig själva. OpenAI:s nuvarande kapacitet uppfyller inte dessa lagkrav, vilket har lett till en debatt om de etiska konsekvenserna av AI vid hantering av känsliga uppgifter.

Maartje de Graaf, dataskyddsjurist på noyb, understryker allvaret i situationen.

“Det är tydligt att företag för närvarande inte kan få chatbottar som ChatGPT att följa EU-lagstiftningen när de behandlar uppgifter om enskilda personer. Om ett system inte kan producera korrekta och transparenta resultat kan det inte användas för att generera data om individer. Tekniken måste följa de rättsliga kraven, inte tvärtom”, förklarar de Graaf.

Problemen sträcker sig bortom de tekniska hindren till mer omfattande regleringsutmaningar. Sedan starten har generativa AI-verktyg, inklusive ChatGPT, varit föremål för intensiv granskning av europeiska integritetsskyddsmyndigheter.

Den italienska dataskyddsmyndigheten införde till exempel begränsningar för ChatGPT:s databehandling i början av 2023, med hänvisning till felaktigheter.

Detta följdes av en samordnad insats från Europeiska dataskyddsstyrelsen för att bedöma och minska de risker som är förknippade med sådana AI-plattformar.

Tidpunkten för dessa rättsliga utmaningar är särskilt anmärkningsvärd. Samtidigt förde OpenAI diskussioner om att bilda en strategisk allians med Worldcoin, ett projekt som grundades av Sam Altman, som också leder OpenAI.

Läs mer om detta: 11 bästa ChatGPT Chrome-tillägg att kolla in år 2024

https://youtu.be/K7MQG2-ku1s?feature=shared

OpenAI:s potentiella samarbete med Worldcoin kan dock medföra ytterligare lager av juridiska och etiska dilemman. Worldcoins inställning till användningen av biometriska data sammanfaller med OpenAI:s utmaningar när det gäller att säkerställa datasekretess och noggrannhet.

Dessutom har Worldcoin granskats av rättsliga myndigheter runt om i världen, inklusive Kenya, Spanien och Argentina, angående sin datainsamling. Därför kan denna synergi antingen bana väg för innovativa teknikanvändningar eller skapa ett prejudikat för ökade regleringsingripanden.

Disclaimer

All information på vår webbplats publiceras i god tro och endast för allmän information. Varje åtgärd som läsaren vidtar baserat på informationen på vår webbplats sker strikt på egen risk.

Lynn-Wang.png
Lynn Wang är en erfaren journalist på BeInCrypto och täcker ett brett spektrum av ämnen, inklusive tokeniserade verkliga tillgångar (RWA), tokenisering, artificiell intelligens (AI), regelefterlevnad och investeringar i kryptoindustrin. Tidigare ledde hon ett team av innehållsskapare och journalister för BeInCrypto Indonesia, med fokus på antagandet av kryptovalutor och blockchain-teknik i regionen, samt regulatorisk utveckling. Dessförinnan, på Value Magazine, täckte hon makroekonomiska...
LÄS HELA BIOGRAFIN