Ethereum mede-oprichter Vitalik Buterin heeft gewaarschuwd voor de risico’s van superintelligente AI en de noodzaak van een sterk verdedigingsmechanisme.
Buterin’s opmerkingen komen op een moment dat, met de snelle ontwikkeling van kunstmatige intelligentie, zorgen over AI-veiligheid aanzienlijk zijn toegenomen.
Buterin’s AI-reguleringsplan: aansprakelijkheid, pauzeknoppen en internationale controle
In een blogpost van 5 januari, legde Vitalik Buterin zijn idee uit achter ‘d/acc of defensieve versnelling’, waarbij technologie ontwikkeld zou moeten worden om te verdedigen in plaats van schade te veroorzaken. Dit is echter niet de eerste keer dat Buterin zich uitspreekt over de risico’s van kunstmatige intelligentie.
“Een manier waarop AI verkeerd kan gaan en de wereld slechter kan maken, is (bijna) de slechtst mogelijke manier: het zou letterlijk menselijke uitsterving kunnen veroorzaken,” zei Buterin in 2023.
Buterin heeft nu zijn theorieën uit 2023 verder uitgewerkt. Volgens Buterin is superintelligentie mogelijk slechts een paar jaar verwijderd van bestaan.
“Het lijkt erop dat we een tijdlijn van drie jaar hebben tot AGI en nog eens drie jaar tot superintelligentie. En dus, als we niet willen dat de wereld wordt vernietigd of in een onomkeerbare val terechtkomt, kunnen we niet alleen het goede versnellen, we moeten ook het slechte vertragen,” schreef Buterin.
Om AI-gerelateerde risico’s te verminderen, pleit Buterin voor de creatie van gedecentraliseerde AI-systemen die nauw verbonden blijven met menselijke besluitvorming. Door ervoor te zorgen dat AI een hulpmiddel in handen van mensen blijft, kan de dreiging van catastrofale uitkomsten worden geminimaliseerd.
Buterin legde vervolgens uit hoe legers de verantwoordelijke actoren zouden kunnen zijn voor een ‘AI-doem’ scenario. Het gebruik van AI door het leger neemt wereldwijd toe, zoals te zien was in Oekraïne en Gaza. Buterin gelooft ook dat elke AI-regulering die van kracht wordt, waarschijnlijk legers zou vrijstellen, wat hen een aanzienlijke bedreiging maakt.
De Ethereum mede-oprichter schetste verder zijn plannen om AI-gebruik te reguleren. Hij zei dat de eerste stap om risico’s in verband met AI te vermijden is om gebruikers aansprakelijk te maken.
“Hoewel de link tussen hoe een model wordt ontwikkeld en hoe het uiteindelijk wordt gebruikt vaak onduidelijk is, beslist de gebruiker precies hoe de AI wordt gebruikt,” legde Buterin uit, waarbij hij de rol van gebruikers benadrukte.
Als de aansprakelijkheidsregels niet werken, zou de volgende stap zijn om “zachte pauze” knoppen te implementeren die AI-regulering toestaan om het tempo van potentieel gevaarlijke ontwikkelingen te vertragen.
“Het doel zou zijn om de wereldwijde beschikbare rekenkracht met ~90-99% te verminderen voor 1-2 jaar in een kritieke periode, om meer tijd te kopen voor de mensheid om zich voor te bereiden.”
Hij zei dat de pauze kan worden geïmplementeerd door AI-locatieverificatie en registratie.
Een andere benadering zou zijn om AI-hardware te controleren. Buterin legde uit dat AI-hardware kan worden uitgerust met een chip om het te controleren.
De chip zal de AI-systemen alleen laten functioneren als ze wekelijks drie handtekeningen van internationale instanties krijgen. Hij voegde eraan toe dat ten minste één van de instanties niet-militair verbonden moet zijn.
Desondanks gaf Buterin toe dat zijn strategieën gaten hebben en slechts ‘tijdelijke noodoplossingen’ zijn.
Disclaimer
Alle informatie op onze website wordt te goeder trouw en uitsluitend voor algemene informatiedoeleinden gepubliceerd. Elke actie die de lezer onderneemt op basis van de informatie op onze website is strikt op eigen risico.