Tillbaka

0G tränar om 107B-modell offentligt när decentraliserad AI går in i en ny fas

Välj oss på Google
author avatar

Skriven av
Bradley Peak

editor avatar

Redigerad av
Dmitriy Maiorov

27 mars 2026 14:47 UTC
  • 0G säger att deras DiLoCoX-107B-modell redan tränades i juli 2025, flera månader innan den senaste uppmärksamheten kring decentraliserad AI.
  • Forskningen rapporterade att en modell med 107 miljarder parametrar tränades över nätverkslänkar på 1 Gbps och hade 357 gånger bättre kommunikationseffektivitet än vanlig AllReduce.
  • Den offentliga omskolningssatsningen sätter öppenhet i fokus, med öppen dokumentation, verifieringspåståenden och en planerad öppen källkodsutgivning av modellvikter.

med lite uppmärksamhet.

0G säger att de passerade en viktig gräns för flera månader sedan. Nu tränar de om samma modell öppet för att visa vad decentraliserad AI kan leverera och varför deras tidigare resultat förtjänade mer uppmärksamhet.

I juli 2025 tränade 0G en 107 miljarder parametrars modell som heter DiLoCoX-107B tillsammans med China Mobile. Forskningen publicerades senare på arXiv efter granskning. Enligt artikeln nådde systemet 357 gånger bättre kommunikationseffektivitet jämfört med vanliga AllReduce-metoder. Ändå fick resultatet knappt någon uppmärksamhet på marknaden.

Teamet säger att tidpunkten arbetade emot dem. Sommaren 2025 fokuserade kryptosektorn på lanseringar av mainnets och tokennyheter, medan tekniska resultat fick mycket mindre intresse. Arbetet var seriöst, men det nådde bara en liten krets som följde området nära.

Nu, när decentraliserad AI fått nytt fokus, vill 0G lyfta fram resultatet igen.

En offentlig omskolningsinsats

Den här gången gör företaget omträningsprocessen helt öppen.

0G planerar att dokumentera varje steg, inklusive kontrollpunkter, konvergensmått och datakällor. De säger också att processen verifieras genom Trusted Execution Environments med zerogAuth. När arbetet är klart delas modellvikterna som öppen källkod.

Till slut vill 0G visa att decentraliserad AI kan granskas, återskapas och verifieras på ett sätt som de flesta slutna system inte klarar.

Mer än bara en kapplöpning om parametrar

Mycket av AI-rapporteringen kretsar fortfarande kring parameterantal. Större tal lockar uppmärksamhet, men 0G menar att en modells värde kommer från hela systemet runt den.

För teamet börjar det riktiga testet med träningen och fortsätter med verifiering, lagring, driftsättning och integration i färdiga produkter.

Ett av de viktigaste tekniska områdena är kommunikationseffektivitet. DiLoCoX använder pipeline-parallellism, dubbel optimerarpolicy för lokala och globala uppdateringar, en steg-fördröjd överlappningsmekanism och adaptiv gradientkomprimering. Det betyder att modellen minskar mängden kommunikation som krävs under distribuerad träning, vilket ofta gör systemen långsamma.

0G bygger också in modellen i en helhet där det ingår verifiering på blockkedja, decentraliserad lagring, datatillgänglighet, inferens och avräkning. Det skapar en fungerande miljö istället för bara en forskningsdemo.

Verifiering är en annan viktig del. Med Trusted Execution Environments kan användare kontrollera mer än att modellen finns. De kan granska hur den tränats och vilket data som använts. För decentraliserad AI förändrar det tilliten på ett avgörande sätt.

Den verkliga historien handlar om bandbredd

Enligt 0G var det viktigaste med DiLoCoX-107B hur modellen tränades.

Teamet säger att modellen på 107 miljarder parametrar kördes via vanliga internetanslutningar på en gigabit per sekund, inte via speciella datacenter. Det utmanar en av de största fördomarna inom AI – att avancerad träning kräver dyr och ovanlig nätverksutrustning.

Om det visar sig hålla i längden kan effekten bli stor. Lägsta tekniska krav öppnar dörren för fler deltagare som forskargrupper, företag och offentliga institutioner. I en sådan miljö blir samordning den stora utmaningen och decentraliserade system är byggda för just den sortens problem.

En annan kostnadsmodell

0G säger också att deras system sänker kostnaderna med cirka 95 % jämfört med centraliserade alternativ.

Företaget menar att besparingen beror på att dyr central administration tas bort, inte på billigare hårdvara. Om dessa siffror håller i praktiken blir avancerad modellträning tillgänglig för fler, som universitet, företag och myndigheter som inte har råd med dyra hyperskale AI-kostnader.

Det kan förändra vilka som får möjligheten att skapa avancerade modeller från början.

Kan decentraliserad AI konkurrera?

Skeptiker har länge hävdat att decentraliserad AI inte kan matcha prestanda. 0G tror att den gamla motsättningen håller på att försvagas.

När resultaten förbättras och kostnader sjunker blir diskussionen mindre ideologisk och mer fokuserad på resultat. Kan systemet träna starka modeller, verifiera dem och göra det till priser som fler har råd med?

Öppen medverkan innebär fortfarande verkliga risker. Distribuerad träning kan utsätta systemen för datagiftning, felaktig gradienthantering och varierande bidragskvalitet. 0G säger att de motverkar det med tekniska skydd, felupptäckt och kryptografisk verifiering.

Meningen är inte perfekt säkerhet utan att problem ska vara synliga och spårbara.

Vad verifierbar AI egentligen betyder

För 0G handlar verifierbar AI om att ersätta tillit via rykte med tillit via granskning.

I stället för att lita på leverantören får användarna möjlighet att själv kontrollera hur modellen tränats och fungerar. Det är särskilt värdefullt i områden där ansvar är viktigt, som finans, sjukvård och myndigheter.

Här börjar decentraliserad AI att sticka ut, med system som man kan granska i stället för att bara lita på.

Från forskningsdemo till fungerande system

Området för decentraliserad AI har utvecklats snabbt. Tidiga experiment ersätts nu av kompletta system för träning, verifiering, lagring, inferens och ekonomisk avräkning i samma miljö.

0G vill att DiLoCoX-107B blir ett bevis för den utvecklingen. Det offentliga omträningsarbetet handlar lika mycket om processen som prestandan. Företaget vill visa att decentraliserad AI kan skapa avancerade modeller och samtidigt vara öppen för insyn.

Vägen framåt

Större modeller väntar fortfarande. 0G tror att modeller med hundratals miljarder parametrar och till slut biljoner är möjliga.

Nästa steg beror mindre på ett stort vetenskapligt genombrott och mer på bättre samordning och ökat deltagande i nätverken. Inom decentraliserad AI kan organisering bli minst lika viktig som datorkraft.

Omträningen av DiLoCoX-107B är ett försök att starta en ny diskussion som 0G tycker att marknaden missade första gången. Det är också ett test för att se om öppen och verifierbar AI kan få uppmärksamhet tack vare sina resultat istället för hype.

Just nu satsar företaget på att offentlig omträning, tydlig dokumentation och öppen tillgång ska ge decentraliserad AI ett bättre utgångsläge i nästa omgång av konkurrensen.

Ansvarsfriskrivning

All information på vår webbplats publiceras i god tro och endast för allmän information. Varje åtgärd som läsaren vidtar baserat på informationen på vår webbplats sker strikt på egen risk.