Trusted

Vitalik Buterin varnar: Superintelligent AI kan komma tidigare än du tror

2 mins
Uppdaterad av Harsh Notariya

I korthet

  • Ethereums medgrundare betonar behovet av defensiv acceleration för att begränsa hot från superintelligent AI.
  • Buterin förespråkar AI-system kopplade till mänskligt beslutsfattande för att minimera risker för missbruk, särskilt av militären.
  • Han föreslår ansvarsregler, "mjuk paus"-knappar och AI-hårdvarukontroll för att fördröja farliga framsteg.

Ethereum-grundaren Vitalik Buterin har varnat för riskerna med superintelligent AI och behovet av ett starkt försvar.

Buterins kommentarer kommer när den snabba utvecklingen av artificiell intelligens har ökat oron för AI-säkerhet.

Buterins AI-regleringsplan: Ansvar, Pausknappar och Internationell Kontroll

I ett blogginlägg från den 5 januari beskrev Vitalik Buterin sin idé om ‘d/acc eller defensiv acceleration’, där teknik ska utvecklas för att försvara snarare än skada. Men detta är inte första gången Buterin har talat om riskerna med artificiell intelligens

“Ett sätt på vilket AI kan gå fel och göra världen sämre är (nästan) det värsta möjliga: det kan bokstavligen orsaka mänsklig utrotning,” sa Buterin 2023.

Buterin har nu följt upp sina teorier från 2023. Enligt Buterin är superintelligens bara några år bort från att existera. 

“Det verkar troligt att vi har tre år kvar till AGI och ytterligare tre år till superintelligens. Om vi inte vill att världen ska förstöras eller fastna i en oåterkallelig fälla, kan vi inte bara påskynda det goda, vi måste också bromsa det dåliga,” skrev Buterin.

För att minska AI-relaterade risker förespråkar Buterin skapandet av decentraliserade AI-system som förblir nära kopplade till mänskligt beslutsfattande. Genom att säkerställa att AI förblir ett verktyg i människors händer kan hotet om katastrofala resultat minimeras.

Buterin förklarade sedan hur militären kan vara ansvariga aktörer i ett ‘AI-domedagsscenario’. AI-användning inom militären ökar globalt, som man sett i Ukraina och Gaza. Buterin tror också att eventuell AI-reglering som träder i kraft troligen skulle undanta militären, vilket gör dem till ett betydande hot.

Ethereum-grundaren beskrev vidare sina planer för att reglera AI-användning. Han sa att det första steget för att undvika risker med AI är att göra användarna ansvariga.

“Även om kopplingen mellan hur en modell utvecklas och hur den används ofta är oklar, bestämmer användaren exakt hur AI används,” förklarade Buterin och betonade användarnas roll.

Om ansvarsreglerna inte fungerar, skulle nästa steg vara att införa “mjuka pausknappar” som tillåter AI-reglering att bromsa potentiellt farliga framsteg.

“Målet skulle vara att ha förmågan att minska globalt tillgänglig datorkraft med ~90-99 % under 1-2 år under en kritisk period, för att köpa mer tid för mänskligheten att förbereda sig.”

Han sa att pausen kan genomföras genom AI-platsverifiering och registrering.

Ett annat tillvägagångssätt skulle vara att kontrollera AI-hårdvara. Buterin förklarade att AI-hårdvara kan utrustas med ett chip för att kontrollera den.

Chippet kommer att tillåta AI-system att fungera endast om de får tre signaturer från internationella organ varje vecka. Han tillade att minst ett av organen bör vara icke-militärt.

Trots detta medgav Buterin att hans strategier har brister och bara är ’tillfälliga nödlösningar’.

Disclaimer

All information på vår webbplats publiceras i god tro och endast för allmän information. Varje åtgärd som läsaren vidtar baserat på informationen på vår webbplats sker strikt på egen risk.