Als autonome agents de belangrijkste gebruikers van DeFi worden, krijgen blockchains een andere functie. Ze werken dan als coördinatie- en afwikkelsystemen voor software, in plaats van ruimten die worden gedreven door menselijke timing, sentiment en speculatie.
Federico Variola, CEO van Phemex, zegt dat dit hoe on-chain activiteit zich ontwikkelt kan verbeteren. Hij zegt:
“Onlangs hebben blockchain-ecosystemen het moeilijk omdat veel tokens er niet in slagen om echt door te breken. Veel activiteit is veranderd in PvP-handel, waarbij gebruikers proberen waarde van elkaar af te nemen.”
Volgens hem kunnen agents zich “meer coöperatief gedragen in plaats van alleen maar uit te zijn op winst, simpelweg omdat ze over het algemeen rationeler handelen dan mensen.”
Dmitry Lazarichev, medeoprichter van Wirex, richt zich op hoe dit het gedrag verandert:
“Zodra agents de hoofdrol spelen, gaat de chain zich minder gedragen als een marktplein voor mensen en meer als een stukje machine-infrastructuur.”
“Activiteit wordt continu: agents wachten niet op markttijden, ze worden niet moe en handelen niet op basis van hun stemming.”
Deze activiteit maakt alles efficiënter, maar geeft ook nieuwe stresspunten. Als agents dezelfde input gebruiken, zegt Lazarichev:
“Je krijgt te maken met groepsgedrag en scherpe feedback-loops,” met toenemende druk op “blockspace, kostenstructuur, MEV en de kwaliteit van uitvoeringsgaranties.”
Fernando Lillo Aranda, Marketingdirecteur bij Zoomex, vindt dat deze overgang nog dieper gaat. Hij zegt:
“Als AI-agents de belangrijkste deelnemers in een blockchain-ecosysteem worden, gaan we van een door gebruikers gedreven marktvorm naar een systeem van autonome economische coördinatie.”
In zo’n omgeving functioneren blockchains als uitvoeringssystemen voor machine-native strategieën.
Pauline Shangett, CSO bij ChangeNOW, bevestigt dit:
“Het netwerk dient niet meer de mens, maar huisvest algoritmes die mensen niet meer realtime kunnen overzien.”
In exclusieve interviews met deze vier crypto-bestuurders onderzocht BeInCrypto hoe DeFi verandert wanneer AI-agents de belangrijkste gebruikers worden.
Agentic liability kent nog geen duidelijk antwoord
Als AI-agents zelfstandig transacties kunnen uitvoeren, contracten kunnen inzetten of geld kunnen verplaatsen, wordt het moeilijker om aansprakelijkheid aan te wijzen als er iets mis gaat.
Lazarichev zegt dat autonomie geen excuus mag zijn.
“Het belangrijkste is dat ‘de agent deed het’ geen gat in de aansprakelijkheid kan worden,” zegt hij.
Volgens hem handelt een agent nog steeds “onder iemands gezag, met toestemmingen en limieten ingesteld door een persoon of organisatie.” De focus komt dus te liggen op “wie heeft het ingezet, wie heeft het ingesteld, wie profiteert ervan, en wie leverde het model en de uitvoeringsomgeving.”
Hij zegt dat de oplossing gezocht moet worden in bekende standaarden.
“Als je een autonoom systeem inzet dat waarde kan verplaatsen, moet je basismaatregelen treffen,” zoals “bevoegdheden, bestedingslimieten, transactiesimulatie, automatische onderbrekingssystemen en auditlogs.”
Shangett stelt dat het huidige juridische denken nog leunt op verouderde uitgangspunten:
“We hebben al wetten. Die zijn alleen 30 jaar oud en gemaakt voor een wereld waarin software niet terugpraatte. De frameworks die mensen noemen – ETHOS, NIST, de nieuwe PLD – zijn pleisters op een systeem dat hier niet voor is gemaakt. We hebben echt iets nieuws nodig. Doen alsof dat niet zo is, is roekeloos.”
Ze wijst ook op een dieper probleem. “Aansprakelijkheidsrecht gaat ervan uit dat de agent aangeklaagd kan worden. Je AI-agent kan dat niet. Hij heeft geen wallet, geen verzekering en geen rechtspersoonlijkheid.”
Identiteit betekent niet alleen menselijk
Wanneer meer autonome systemen op de blockchain werken, verandert ook de rol van identiteit. Netwerken moeten bepalen met wat voor soort actor ze te maken hebben en wat deze actor mag doen.
Lazarichev zegt dat “DID kan helpen, maar het zal het onderscheid ‘mens vs bot’ nooit zwart-wit oplossen.”
Volgens hem laat dat onderscheid niet zien hoe de systemen echt werken. “Veel bots zijn gewoon legitieme deelnemers,” zegt hij. “Het belangrijkste is vastleggen wat voor soort actor iets is, en welk betrouwbaarheidsniveau daaraan verbonden is.”
Dat betekent meer gedefinieerde toegangscontrole. “Het realistische model is gelaagde toegang: verschillende gegevens voor verschillende rechten,” zegt Lazarichev.
Hij voegt toe dat identiteitsystemen samen zullen moeten werken met monitoring van gedrag, vooral als agents meer waardevolle transacties uitvoeren.
Lillo Aranda is het daarmee eens. “In een machine-economie is de ‘gebruiker’ een agent – dus betrouwbaarheid, voorspelbaarheid en combineerbaarheid zijn belangrijker dan simpelheid als ontwerpdoel,” zegt hij.
Shangett benadrukt dit punt ook: “De bots zijn niet meer het probleem. Het zijn de agents.”
De drie experts zijn het erover eens dat identiteit straks draait om rol, bevoegdheden en verantwoordelijkheid.
Walletbeveiliging faalt op de promptlaag
Voor autonome wallets is het grootste beveiligingsrisico misschien niet meer het stelen van sleutels, maar het manipuleren van beslissingen.
Lazarichev zegt dat prompt injection gevaarlijk is omdat het “de beslissingslaag aanvalt in plaats van de cryptografie.” Als een agent gegevens van buitenaf haalt, kunnen aanvallers mogelijk “de agent sturen om iets te doen wat niet de bedoeling is: bijvoorbeeld een bestemmingsadres wijzigen, een kwaadaardig contract goedkeuren, extra rechten geven of een interne controle omzeilen.”
Dat risico neemt snel toe als de wallet veel macht heeft. “Je hoeft de versleuteling niet te kraken als je het systeem kunt laten een verkeerde actie goedkeuren,” zegt Lazarichev.
Shangett benoemt een specifieker dreigingsmodel.
“Iedereen is enthousiast over AI-agents die een wallet krijgen. Ik maak me meer zorgen over wat er gebeurt wanneer die wallets zich laten overtuigen om zichzelf leeg te maken.”
Ze noemt Owockibot als voorbeeld.
“Owockibot. Februari van dit jaar. Een AI-agent met een crypto-wallet en internettoegang. Vijf dagen na de lancering plaatste de agent zijn privésleutels op een GitHub-repository. Toen ernaar werd gevraagd, ontkende de agent iets fout te hebben gedaan. Het totale verlies was slechts $2.100 omdat iemand slim genoeg was om maar een kleine reserve te geven. Maar de agent is niet gehackt, hij is overtuigd om het zelf te delen.”
Dit verandert natuurlijk het beveiligingsmodel.
“Dit is het nieuwe aanvalsvlak. Smart contracts zijn deterministisch, met dezelfde input krijg je altijd dezelfde output, ze zijn controleerbaar en testbaar. LLM’s zijn dat allemaal niet.”
Ze voegt daaraan toe:
“Als je een AI-agent een wallet geeft, beveilig je niet alleen de code, maar ook een zwarte doos die je met woorden kunt beïnvloeden.”
Volgens haar is daarom alleen sleutelbeheer niet voldoende.
“Beveiliging van privésleutels was nooit het belangrijkste risico bij wallets voor agents. Je kunt sleutels in een TEE opslaan, isoleren van het geheugen, alle cryptografische trucs uithalen, maar de agent kan nog steeds overgehaald worden om kwaadaardige transacties te ondertekenen als iemand hem zover krijgt.”
Beide experts geven aan dat de definitie van wallet-beveiliging aangepast moet worden. In een agentische economie gaat het om zowel beheer van sleutels als wat de agent kan interpreteren en uitvoeren.
Conclusie
De opkomst van de agentische economie kan bepalen waarvoor blockchains gebouwd worden, wie ze bedienen en waar risico begint.
Als autonome systemen belangrijke deelnemers worden op de chain, moeten netwerken continue machine-activiteit aankunnen en omgaan met hele andere uitdagingen rond uitvoering, aansprakelijkheid, identiteit en veiligheid.
Zoals Variola aangeeft, kan een markt die draait op rationele agents misschien meer samenwerken dan de vaak door emotie en winst gedreven cryptomarkt.
Lazarichev, Lillo Aranda en Shangett laten ook zien dat de toekomst lastige vragen oproept. Als agents zelfstandig transacties kunnen doen, inzetten en reageren zonder menselijke controle op elk moment, wordt het veel moeilijker om aansprakelijkheid te bepalen, identiteit vast te stellen en wallet-beveiliging betekent meer dan alleen bescherming van de sleutels – het draait ook om beslissingen van de agent zelf.
Als AI-agents de belangrijkste on-chain actoren worden, heeft Web3 systemen nodig die autonome acties mogelijk maken, en tegelijkertijd verantwoordelijkheid, controle en vertrouwen behouden. Dat kan minstens zo belangrijk zijn als de automatisering zelf.