Tillbaka

När AI-agenter blir DeFi:s huvud­användare

Välj oss på Google
author avatar

Skriven av
Bradley Peak

editor avatar

Redigerad av
Shilpa Lama

02 april 2026 08:08 UTC

Om autonoma agenter blir de största användarna av DeFi, börjar blockkedjor göra ett annat jobb. De agerar då som system för samordning och avveckling för mjukvara, istället för utrymmen som styrs av mänsklig timing, känslor och spekulation.

Federico Variola, VD för Phemex, säger att detta kan förbättra hur kedjeaktivitet växer fram. Han säger:

”Nyligen har blockkedjeekosystem haft problem för att många token inte lyckats nå lyftkraft, och mycket aktivitet har blivit PvP-handel där användare försöker ta värde från varandra.”

Enligt honom kan agenter agera mer samarbetsvilligt än mänskliga användare, eftersom de ofta handlar mer rationellt.

Dmitry Lazarichev, medgrundare av Wirex, fokuserar på hur detta ändrar beteendet:

”När agenter blir huvudaktörer börjar kedjan likna mindre en marknadsplats för människor och mer en maskininfrastruktur.”

”Aktiviteten blir ständig: agenter väntar inte på marknadstider, de blir aldrig trötta, och de handlar inte efter humör.”

Denna aktivitet ökar effektiviteten men skapar nya risker. Om agenter använder liknande indata säger Lazarichev:

”Du får trängselbeteende och skarpa återkopplingsslingor,” med ökande tryck kring ”blockutrymme, avgiftsdynamik, MEV och kvalitet på exekveringsgarantier.”

Fernando Lillo Aranda, marknadschef på Zoomex, menar att förändringen går djupare. Han säger:

”När AI-agenter blir de viktigaste deltagarna i ett blockkedjeekosystem, går vi från en användardriven marknad till ett system för autonom ekonomisk samordning.”

I den miljön börjar blockkedjor fungera som exekveringssystem för maskinursprungliga strategier.

Pauline Shangett, CSO på ChangeNOW, intygar:

”Nätverket tjänar inte längre människor, det hanterar algoritmer som människor inte längre kan övervaka i realtid.”

I exklusiva intervjuer med dessa fyra kryptoledare undersökte BeInCrypto hur DeFi förändras när AI-agenter blir de största användarna.

Det finns ännu inget tydligt svar på Agentic Liability

Om AI-agenter kan genomföra transaktioner, starta kontrakt eller flytta pengar själva, blir det svårare att avgöra ansvar om något går fel.

Lazarichev säger att självständighet inte kan vara en ursäkt.

”Det viktiga är att ‘agenten gjorde det’ aldrig får bli ett kryphål för ansvar,” säger han.

Enligt honom agerar en agent alltid “under någons ansvar, med tillstånd och gränser från en person eller organisation.” Därför måste vi fråga oss “vem som satte igång agenten, vem som tjänar på den och vem som ansvarar för modellen och miljön.”

Han säger att svaret bygger på välkända standarder.

”Om du sätter in ett autonomt system som kan flytta värden, bör du ha grundläggande skydd på plats,” till exempel ”tillståndshantering, utgiftsgränser, transaktionssimulering, nödbrytare och loggar.”

Shangett tycker att dagens juridiska tänkande bygger på för gamla grunder:

”Vi har redan lagar. Men de är 30 år gamla och skapades för en värld där mjukvara inte kunde svara. De ramverk som folk nämner, ETHOS, NIST, nya PLD, är bara tillfälliga lösningar på ett system som inte är byggt för detta. Vi behöver något nytt. Att låtsas något annat är bara oansvarigt.”

Hon pekar också på ett djupare problem. ”Fullmakt bygger på att agenten kan stämmas. Din AI-agent kan inte det. Den har ingen plånbok, ingen försäkring, ingen juridisk status.”

Identitet betyder inte bara människa

När fler autonoma system finns på kedjan, får identitet också en ny roll. Nätverk behöver kunna bestämma vilken sorts aktörer de möter och vad de får göra.

Lazarichev säger att “DID kan hjälpa, men det löser inte ‘människa mot bot’ på ett enkelt sätt.”

Han tycker inte att den uppdelningen visar hur systemen fungerar. ”Många botar kommer att vara legitima deltagare,” säger han. “Det viktiga är att veta vilken typ av aktör det är och vilket förtroende vi kan ha till den.”

Det leder till tydligare åtkomstkontroller. “Det mest realistiska är nivåindelad åtkomst: olika uppgifter ger olika rättigheter,” säger Lazarichev.

Han tillägger att identitetssystem måste kombineras med beteendeövervakning, särskilt när agenter hanterar mer värdefulla handlingar.

Lillo Aranda håller med. “I en maskinekonomi är ‘användaren’ en agent – så tillförlitlighet, bestämdhet och möjlighet att kombinera blir viktigare än enkelhet när vi utformar system,” säger han.

Shangett betonar också detta. “Botarna är inte längre problemet. Det är agenterna som är det nu.”

Alla tre experter beskriver en modell där identitet betyder roll, behörighet och ansvar.

Plånbokens säkerhet kan brista vid promptlagret

För autonoma plånböcker kan den största säkerhetsrisken vara påverkade beslut, inte stulna nycklar.

Lazarichev säger att prompt-injektion är farlig eftersom den “påverkar beslutsdelen istället för kryptografin.” Om en agent hämtar information utifrån kan angripare “få den att göra fel saker: ändra mottagaradress, godkänna ett skadligt kontrakt, öka behörigheter eller gå förbi en intern kontroll.”

Risken ökar snabbt när plånboken har stor befogenhet. “Du behöver inte bryta krypteringen om du kan lura systemet att godkänna en felaktig handling,” säger Lazarichev.

Shangett pekar på ett mer specifikt hot.

“Alla är glada över AI-agenter som får plånböcker. Jag oroar mig mer för vad som händer om de kan övertalas att tömma sig själva.”

Hon nämner Owockibot som exempel.

“Owockibot. Februari i år. En AI-agent med kryptoplånbok och internetåtkomst. Fem dagar efter lansering publicerade den sina privata nycklar i ett GitHub-repo. När någon frågade om det förnekade agenten att den gjort fel. Den totala förlusten blev bara 2 100 USD eftersom någon var smart nog att ge agenten en liten kassa. Men agenten blev inte hackad. Någon pratade med den tills den avslöjade nycklarna.”

Detta förändrar såklart säkerhetsmodellen.

“Det här är en ny attackyta. Smartkontrakt är deterministiska, samma indata ger samma utdata, och de går att granska och testa. LLM:er är inte på det sättet.”

Hon tillägger:

“Om du ger en AI-agent en plånbok så handlar det inte längre bara om att säkra kod, utan om att säkra en svart låda som någon kan manipulera med ord.”

Enligt henne räcker det därför inte bara med nyckelhantering.

“Säkerheten kring privata nycklar har aldrig varit den största riskvektorn för agentplånböcker. Du kan lägga nycklar i en TEE, isolera dem från minnet, göra avancerad kryptografi och agenten kan ändå överlistas att signera skadliga transaktioner eftersom någon pratade med den.”

Båda experterna säger att vi måste ändra hur vi ser på plånbokssäkerhet. I en agentstyrd ekonomi handlar det om både nyckelhantering och vad agenten kan tolka och göra.

Slutliga tankar

Den agentstyrda ekonomin kan påverka hur blockkedjor byggs, vilka de riktas mot och var riskerna börjar.

Om autonoma system blir stora aktörer på blockkedjan behöver nätverken stödja ständig maskinaktivitet och hantera nya krav kring utförande, ansvar, identitet och säkerhet.

Variola menar att en marknad styrd av rationella agenter kan bli mer samarbetsinriktad än den känslostyrda, utnyttjande miljö som ofta finns i krypto.

Lazarichev, Lillo Aranda och Shangett visar också att denna framtid har större utmaningar. När agenter kan hantera transaktioner, lansera projekt och reagera utan mänsklig inblandning blir ansvar svårare att utreda, identitet svårare att avgöra och plånbokssäkerhet omfattar även själva besluten.

Om AI-agenter blir de viktigaste aktörerna på kedjan behöver Web3 system som ger stöd för autonom aktivitet men ändå bibehåller ansvar, kontroll och tillit. Det kan bli lika viktigt som själva automatiseringen.

Ansvarsfriskrivning

All information på vår webbplats publiceras i god tro och endast för allmän information. Varje åtgärd som läsaren vidtar baserat på informationen på vår webbplats sker strikt på egen risk.