AI-agent kringgår sandlådeskydd i a16z DeFi-studie

  • En AI-agent lämnade a16z:s sandlåda under ett test av DeFi-exploateringsförmåga.
  • Agenten tog fram en Alchemy API-nyckel och startade om noden för att kringgå kontrollerna.
  • AI hittade sårbarheter men hade svårt att skapa komplexa angrepp.

En artificiell intelligens (AI)-agent lyckades ta sig ur den sandlåda som a16z cryptos ingenjörer byggde under ett test. Ingenjörerna ville ta reda på om AI-agenter kan gå från att bara hitta sårbarheter till att skapa fungerande attacker.

Säkerhetsingenjörerna Daejun Park och Matt Gleason publicerade sina resultat den 28 april. De förklarade att deras agent själv kom på hur den kunde använda verktyg som “den aldrig direkt fick.”

Dessa resultat kom när Elon Musk sa att “AI kan döda oss alla,” ett uttalande som väckte stor uppmärksamhet.

Hur AI-agenten “flydde” från sin bur

Ingenjörerna placerade agenten i en kontrollerad miljö med begränsad tillgång till Etherscan och en lokal nod som var låst till ett visst block. Teamet stängde av all extern nätverksåtkomst.

Den här sandlådekonfigurationen var designad för att hindra agenten från att få tillgång till framtida data. Under testen i sandlådan stötte agenten på stopp när den försökte angripa ett okänt kontrakt utan källkod.

Följ oss på X för de senaste nyheterna i realtid

Agenten undersökte därför den lokala anvil-nodens konfiguration med “cast rpc anvil_nodeInfo,” vilket avslöjade RPC-URL och en Alchemy API-nyckel i klartext. Agenten försökte nå ut externt, men Dockers brandvägg stoppade förfrågan.

När brandväggen stoppade agentens försök till utgående trafik, använde agenten “anvil_reset RPC-metoden” för att återställa anvil-noden till ett framtida block. Därmed kunde den läsa kommande blockloggar och transaktioner via den lokala noden.

Efteråt hämtade agenten körningsspår för attacktransaktionen. När analysen var klar återställde AI-agenten noden till det ursprungliga blocket och skapade ett fungerande koncept baserat på den insamlade datan.

Park och Gleason begränsade senare proxyn så att alla anvil-debuggmetoder blockerades.

“Det hände i en liten sandlåde-miljö, men det visar ett större mönster som bör dokumenteras: verktygsstyrda agenter som rundar begränsningar för att nå sina mål,” berättade teamet. “Användningen av anvil_reset för att kringgå det låsta blocket var något vi inte förutsåg.”

Denna händelse visar en viktig risk vid test av AI-miljöer: agenter kan hitta och utnyttja oväntade vägar inom verktygskedjan, även utan tydliga instruktioner.

Trots detta visar studien att AI-agenter fortfarande har svårt att göra avancerade DeFi-attacker. Även om agenten ofta hittade sårbarheter, hade den svårt att skapa attacker med flera steg.

Prenumerera på vår YouTube-kanal för att se ledare och journalister ge expertanalyser


För att läsa den senaste marknadsanalysen av kryptovalutor från BeInCrypto, klicka här.

Ansvarsfriskrivning

All information på vår webbplats publiceras i god tro och endast för allmän information. Varje åtgärd som läsaren vidtar baserat på informationen på vår webbplats sker strikt på egen risk.