AI-agenter dominerade ETHDenver 2026, från autonom finans till kedjebaserad robotik. Men när entusiasmen för ”agentekonomier” växer, uppstår en svårare fråga: kan institutioner visa vad deras AI-system har tränats på?
Bland de startups som arbetar med det problemet finns Perle Labs. De menar att AI-system behöver en verifierbar kedja för sitt träningsdata, särskilt i reglerade och högriskmiljöer. Perle fokuserar på att bygga en granskningsbar och verifierad datainfrastruktur för institutioner. De har samlat in 17,5 miljoner USD hittills, med deras senaste investeringsrunda ledd av Framework Ventures. Andra investerare är CoinFund, Protagonist, HashKey och Peer VC. Företaget rapporterar att över en miljon annoterare har bidragit med mer än en miljard poängsatta datapunkter på plattformen.
BeInCrypto pratade med Ahmed Rashad, vd för Perle Labs, vid sidan av ETHDenver 2026. Rashad hade tidigare en ledande roll på Scale AI under företagets starka tillväxt. I samtalet berättade han om dataspårbarhet, modellkollaps, risker och varför han tror att suverän intelligens kommer att bli nödvändigt för att använda AI i känsliga system.
BeInCrypto: Du beskriver Perle Labs som ”suveränt intelligenslager för AI”. För de som inte är insatta i datainfrastrukturdebatten, vad betyder det egentligen i praktiken?
Ahmed Rashad: ”Ordet suverän är valt med omsorg, och det har flera lager.
Den mest direkta betydelsen är kontroll. Om du är en regering, ett sjukhus, en försvarsleverantör eller ett stort företag som använder AI i viktiga miljöer, behöver du äga intelligensen bakom systemet. Du ska inte lägga ut det på en svart låda som du inte kan inspektera eller granska. Suverän innebär att du vet vad din AI tränades på, vem som godkände det, och du kan bevisa det. De flesta i branschen idag kan inte säga det.
Den andra betydelsen är oberoende. Att agera utan påverkan utifrån. Det är exakt detta som myndigheter som DoD eller företag behöver när de använder AI i känsliga miljöer. Du kan inte ha grundläggande AI-infrastruktur som är beroende av datakanaler du inte kontrollerar, inte kan verifiera och inte kan skydda mot manipulation. Det är inte en teoretisk risk. NSA och CISA har båda gett rekommendationer om sårbarheter i dataleveranskedjan som en nationell säkerhetsfråga.
Den tredje betydelsen är ansvarighet. När AI går från att skapa innehåll till att fatta beslut, medicinska, finansiella eller militära, måste någon kunna svara på: varifrån kom intelligensen? Vem verifierade den? Är den dokumentationen permanent? På Perle vill vi att varje bidrag från varje expertannoterare ska registreras på kedjan. Det kan inte ändras. Den orubbligheten gör att ordet suverän passar, inte bara är ett mål.
I praktiken bygger vi ett lager för verifiering och legitimering. Om ett sjukhus använder ett AI-diagnossystem ska de kunna spåra varje datapunkt i träningsuppsättningen tillbaka till en legitimerad person som godkände den. Det är suverän intelligens. Det är det vi menar.”
BeInCrypto: Du var med på Scale AI under deras starka tillväxt, med bland annat stora försvarskontrakt och investeringen från Meta. Vad lärde du dig om var traditionella AI-datakataloger brister?
Ahmed Rashad: ”Scale var ett fantastiskt företag. Jag var där när företaget gick från 90 miljoner USD till nu 29 miljarder USD, allt det växte fram, och jag såg var sprickorna börjar synas.
Grundproblemet är att datakvalitet och skala drar åt olika håll. När du växer 100 gånger, blir pressen alltid att gå snabbt: mer data, snabbare märkning, lägre kostnad. Det gör att precision och ansvarighet ofta försvinner. Du får otydliga processer: du vet ungefär vad som matats in, har några kvalitetsmått på utdata, men mitten är en svart låda. Vem verifierade detta? Var den personen egentligen kvalificerad? Var märkningen konsekvent? Det blir nästan omöjligt att svara på i stor skala med traditionella modeller.
Det andra jag lärde mig är att man nästan alltid ser människan som en kostnad att minska, inte som en resurs att utveckla. Om man betalar per uppgift och maximerar hastighet försämras kvaliteten med tiden. Det sliter ut de bästa bidragsgivarna. De som kan ge dig genuint högkvalitativa, expertnivå-tolkningar är inte de som stannar i ett system med småuppgifter för några ören. Du måste bygga annorlunda om du vill ha den typen av input.
Den insikten ligger bakom Perle. Dataproblemet löses inte genom att bara lägga till mer arbete. Det löses genom att behandla bidragsgivare som proffs, bygga verifiering och legitimation i systemet, och göra hela processen granskningsbar från början till slut.”
BeInCrypto: Ni har nått en miljon annoterare och över en miljard datapunkter. De flesta märkningsplattformar använder anonymt massarbete. Vad är grundläggande annorlunda med ert ryktemodell?
Ahmed Rashad: ”Den stora skillnaden är att på Perle är din arbetshistorik din egen och den är permanent. När du slutför en uppgift registreras det, vilken kvalitetsnivå du klarade, hur det stämde mot experters bedömning, på kedjan. Det kan inte redigeras, inte raderas, inte ges till någon annan. Med tiden blir det en professionell legitimation som växer.
Jämför det med anonymt massarbete, där en person är utbytbar. De bryr sig inte om kvalitet för deras rykte finns inte – varje uppgift är helt fristående. Det ger exakt det du kan förvänta dig: minsta möjliga ansträngning.
Vår modell gör tvärtom. Bidragsgivare bygger upp bevisad historik. Plattformen ser och belönar specialistkunskap. Till exempel, en röntgenläkare som alltid gör högkvalitativa bildtolkningar får en profil som visar det. Det ryktet ger tillgång till mer avancerade uppgifter, bättre ersättning och mer intressanta projekt. Det skapar en snöbollseffekt: kvalitet lönar sig och växer.
Vi har passerat en miljard datapunkter över vårt nätverk av annoterare. Det är inte bara siffror, det är en miljard spårbara, attribuerade datatillskott från verifierade människor. Det är grunden för pålitlig AI-träningsdata, och det går inte att skapa med anonymt crowd-arbete.”
BeInCrypto: Modellkollaps diskuteras ofta i forskarkretsar men sällan i vanliga AI-samtal. Varför tror du att det är så, och borde fler vara oroliga?
Ahmed Rashad: ”Det diskuteras inte brett eftersom det är en långsam kris, inte en dramatisk. Modellkollaps, där AI-system som tränas mer och mer på AI-genererad data försämras, tappar nyanser och blir alltmer lika, skapar ingen nyhetsrubrik. Det ger en gradvis urholkning av kvaliteten, som är lätt att missa tills det är allvarligt.
Mekanismen är enkel: internet fylls med AI-genererat innehåll. Modeller som tränas på det lär sig från sina egna resultat i stället för på riktigt mänsklig erfarenhet. Varje generation förstärker felaktigheter från den förra. Det blir en återkopplingsslinga som inte rättas till av sig själv.
Borde fler vara oroliga? Ja, särskilt inom riskfyllda områden. När modellkollaps påverkar en algoritm för innehållsrekommendation, får du sämre förslag. När det gäller medicinska diagnoser, juridiska system eller militärt beslutsstöd, blir resultatet allvarligt annorlunda. Utrymmet för försämring försvinner.
Därför är det mänskligt verifierade datalagret inte valfritt när AI tar plats i kritisk infrastruktur. Du behöver en ständig källa av äkta, varierad mänsklig intelligens att träna mot, inte AI-svar som gått igenom en annan modell. Vi har över en miljon annotatörer med genuin expertis inom dussintals områden. Den mångfalden motverkar modellkollaps. Du kan inte lösa det med syntetisk data eller mer datorkraft.
BeInCrypto: När AI går från digitala miljöer till fysiska system, vad förändras då grundläggande kring risk, ansvar och vilka standarder som gäller?
Ahmed Rashad: Det som ändras är att saker inte går att göra ogjorda. Det är kärnan. En språkmodell som fantiserar ger fel svar. Du kan rätta, markera och gå vidare. Ett robotiserat operationssystem som agerar efter fel bedömning, ett självkörande fordon som gör en dålig klassificering eller en drönare som agerar på felaktigt identifierat mål, de misstagen går inte att ångra. Kostnaden för fel går från pinsam till katastrofal.
Det förändrar allt vad gäller vilka standarder som ska gälla. I digitala miljöer har AI-utveckling fått gå snabbt och korrigera sig själv. I fysiska system fungerar inte den modellen. Träningsdatan för sådana system behöver vara verifierad före användning, inte granskas efter ett fel.
Det förändrar även ansvarsfördelningen. I digitala miljöer kan det vara lätt att sprida ut ansvaret – var det modellen, datan eller användningen? I fysiska system, speciellt där människor skadas, kräver myndigheter och domstolar tydliga svar. Vem tränade systemet? På vilken data? Vem verifierade datan och enligt vilka standarder? De företag och myndigheter som kan svara på det får fortsätta arbeta. De som inte kan det får ansvar och risker de inte hade räknat med.
Vi skapade Perle för just den här förändringen. Mänskligt verifierad, expertgrundad, granskbar på blockkedjan. När AI börjar användas i lager, operationssalar och på slagfältet, måste lagret av intelligens under uppnå en högre nivå. Det är till den nivån vi arbetar.
BeInCrypto: Hur stor är risken för datagiftning eller fientlig manipulation av AI-system idag, särskilt på nationell nivå?
Ahmed Rashad: Det är verkligt, det är dokumenterat och det hanteras redan som en nationell säkerhetsfråga av personer med tillgång till hemlig information.
DARPA GARD-programmet (Garantier för AI-robusthet mot bedrägeri) utvecklade försvar mot fientliga attacker mot AI-system, även datagiftning. NSA och CISA gav 2025 gemensam vägledning där de varnade att sårbarheter i datakedjan och illvilligt modifierad träningsdata är trovärdiga hot mot AI-systemens integritet. Det är inte teoretiska rapporter utan praktiska rekommendationer från myndigheter som inte varnar i onödan.
Angreppsytan är stor. Om du kan kompromettera träningsdatan till ett AI-system för hotdetektion, medicinsk diagnos eller logistikoptimering, behöver du inte hacka själva systemet. Du har redan påverkat dess världsbild. Det är ett elegant och svårupptäckt angrepp jämfört med traditionella säkerhetshot.
Scale AI:s kontrakt på 300 miljoner USD med Department of Defense CDAO, för att använda AI på sekretessa nätverk, finns delvis för att staten förstår att den inte kan använda AI tränad på overifierad publik data i känsliga miljöer. Frågan om datans ursprung är inte akademisk på den nivån – den är helt avgörande.
Det som saknas i den offentliga diskussionen är att det här inte bara är ett myndighetsproblem. Alla företag som använder AI i en konkurrenssituation – finans, läkemedel, kritisk infrastruktur – har troligen datarisken utan att förstå hela hotbilden. Hotet är verkligt. Försvaret är fortfarande under utveckling.
BeInCrypto: Varför kan inte en myndighet eller ett stort företag bygga detta verifieringslager själva? Vad svarar du när någon ifrågasätter det?
Ahmed Rashad: Vissa försöker. De lär sig snabbt vad som faktiskt är svårt.
Att bygga tekniken är den enkla delen. Det svåra är nätverket. Verifierade experter – radiologer, lingvister, jurister, ingenjörer och forskare – dyker inte bara upp för att du skapat en plattform. Du måste rekrytera dem, verifiera dem, införa incitament som gör att de stannar kvar, samt utveckla metoder för kvalitetskontroll som verkligen fungerar i stor skala. Det tar flera år och kräver expertis som de flesta myndigheter och företag inte har internt.
Det andra problemet är mångfald. En myndighet som bygger sitt eget verifieringslager kommer alltid att få en begränsad och ganska homogen grupp. Värdet i ett globalt expertnätverk är inte bara kompetensbeviset utan också olika perspektiv, språk, kulturell förståelse och områdeskunskap, som du bara får om du verkar globalt i stor skala. Vi har över en miljon annotatörer. Det kan du inte återskapa internt.
Det tredje problemet är incitamenten. För att få högkvalitativa bidrag över tid krävs transparent, rättvis och programmerbar ersättning. Blockkedjeteknik gör det möjligt på ett sätt som interna system normalt inte klarar – oföränderliga bidragsregister, direkt attribution och verifierbar betalning. Ett statligt upphandlingssystem är inte skapat för det.
Det ärligt svaret när någon ifrågasätter detta är: du köper inte bara ett verktyg. Du ansluter dig till ett nätverk och ett certifieringssystem som tagit år att bygga. Alternativet är inte att bygga själv, utan att använda det som redan finns eller acceptera risken att inte ha det.
BeInCrypto: Om AI blir kärnan i nationell infrastruktur, var passar då ett självständigt intelligenslager in om fem år?
Ahmed Rashad: Om fem år tror jag att det fungerar som dagens revision i finans, ett icke förhandlingsbart verifieringslager mellan data och användning, som stöds av lagkrav och professionella standarder.
Just nu sker AI-utveckling utan motsvarande oberoende granskning som inom finansrevision. Företag rapporterar själva om sin träningsdata. Ingen oberoende verifiering, inga professionella bevis på processen, inget intyg från tredje part om att modellen nått viss intelligensnivå. Vi befinner oss i ett tidigt läge, likt finans före Sarbanes-Oxley, där allt bygger på tillit och självcertifiering.
När AI blir kritisk infrastruktur – driver elnät, hälsosystem, finansmarknader, försvarsnätverk – fungerar inte den modellen längre. Myndigheter kommer att kräva möjlighet till revision. Upphandlingar kräver verifierat datursprung före kontrakt. Ansvarssystem innebär sanktioner för dem som kunde ha undvikit fel med rätt verifiering.
Perle kommer att vara verifierings- och certifieringslagret, den aktör som kan visa obrutna, granskningsbara register över vilken data modellen tränats på, av vem och enligt vilka standarder. Det är inte en extra funktion om fem år – det kommer att vara ett krav.
Det viktigaste är att självständig intelligens inte är något för bara försvarsföretag. Det är grunden för att AI ska kunna användas i alla sammanhang där fel får riktiga konsekvenser. När AI tar plats i fler sådana områden blir den grunden den mest värdefulla delen av hela systemet.