Att fler använder AI-verktyg för att skapa deepfake-innehåll har väckt nya frågor om allmän säkerhet.
När teknologin blir mer avancerad och tillgänglig blir det också frågor om hur säkra de system för visuell identitetskontroll är som centraliserade kryptobörser använder.
Regeringar försöker stoppa deepfakes
Bedrägliga videor sprider sig snabbt på sociala medier. Detta ökar oron för en ny våg av desinformation och fejkade bilder. Den ökande användningen av teknologin hotar nu både allmänhetens säkerhet och människors personliga integritet.
Problemet har blivit större. Nu har regeringar i många länder skapat lagar som förbjuder användning av deepfakes.
Malaysia och Indonesien blev denna vecka de första länderna som begränsar tillgången till Grok, en AI-chatbot utvecklad av Elon Musks xAI. Myndigheterna sade att beslutet kom efter oro för att tekniken används till att skapa sexuellt innehåll utan samtycke.
Californias justitieminister Rob Bonta berättade om ett liknande beslut. På onsdagen bekräftade han att hans kontor utreder flera fall där personer spritt sexualiserade bilder på riktigt folk utan deras samtycke.
“Detta material, som visar kvinnor och barn nakna i sexuella situationer, har använts för att trakassera folk på internet. Jag uppmanar xAI att omedelbart agera så att detta inte fortsätter,” sade Bonta i ett uttalande.
De nya deepfake-verktygen kan nu svara direkt på frågor. De härmar ansiktsrörelser och tal på ett mycket trovärdigt sätt.
Nu räcker inte längre enkla kontroller som blinkningar, leenden eller huvudrörelser för att säkert bekräfta en användares identitet.
Dessa framsteg får direkta konsekvenser för centraliserade kryptobörser som använder visuell kontroll när nya användare registrerar sig.
Centraliserade börser under press
De ekonomiska följderna av bedrägerier med deepfakes är nu verkliga.
Experter och forskare har varnat för att AI-genererade bilder och videor nu ofta används i till exempel försäkringsärenden och rättsfall.
Kryptoplattformar som finns globalt och ofta använder automatiska registreringar kan lätt bli en måltavla, om deras skydd inte snabbt följer med teknikens utveckling.
När AI-innehåll blir mer tillgängligt räcker det inte längre att enbart lita på visuell kontroll.
Utmaningen för kryptoplattformar blir därmed att snabbt anpassa sig innan tekniken leder till att skydden inte hänger med och användare och system riskeras.