Trusted

De toekomst van AI: inzichten van DWF Labs’ Andrei Grachev over de volgende golf van automatisering

6 min
Bijgewerkt door Harsh Notariya

In het kort

  • De snelle integratie van AI in Web3 biedt zowel transformatief potentieel als aanzienlijke uitdagingen, variërend van kwaadaardig gebruik en deepfakes tot complexe aansprakelijkheidskwesties.
  • De evolutie van AI, net als het vroege internet en Bitcoin, zal waarschijnlijk worden gekenmerkt door aanvankelijke misbruiken, wat de noodzaak benadrukt van continu leren, aanpassing en robuuste waarborgen.
  • Vertrouwen opbouwen in AI-agenten door praktische, gebruiksvriendelijke toepassingen en het aanpakken van ethische en juridische dilemma's zijn cruciaal voor verantwoord en voordelig gebruik van AI.
  • promo

De toenemende investeringen in AI-agenten wijzen op een toekomst van wijdverspreide automatisering, mogelijk nog ingrijpender dan de industriële revolutie. Net als bij elke technologische innovatie zullen AI-agenten problemen tegenkomen in hun ontwikkeling. Voortdurende verbetering zal essentieel zijn voor verantwoord gebruik en om het volledige potentieel van AI-agenten te realiseren.

Op Consensus Hong Kong interviewde BeInCrypto Andrei Grachev, Managing Partner bij DWF Labs, over de belangrijkste uitdagingen waarmee AI-agenten worden geconfronteerd bij het bereiken van massale adoptie en hoe wijdverspreid gebruik eruit zou kunnen zien.

Traditionele techsectoren en Web3 omarmen AI

Op dit moment is het veilig om te zeggen dat de adoptie van kunstmatige intelligentie (AI) binnenkort onvermijdelijk zal zijn. Techgiganten zoals Meta, Amazon, Alphabet en Microsoft hebben al plannen aangekondigd om tot $320 miljard te investeren in AI en datacenters in 2025.

Tijdens zijn eerste week in functie kondigde de Amerikaanse president Trump Stargate aan, een nieuwe particuliere joint venture gericht op de ontwikkeling van AI-datacenters. De onderneming, bestaande uit OpenAI, Softbank en Oracle, is van plan om tot 20 grote AI-datacenters in de Verenigde Staten te bouwen.

De initiële investering wordt geschat op $100 miljard, en uitbreidingsplannen kunnen het totaal tegen 2029 op $500 miljard brengen.

Web3-projecten doen ook soortgelijke investeringen in AI. In december lanceerde DWF Labs, een toonaangevend crypto-venturekapitaalbedrijf, een AI-agentenfonds van $20 miljoen om innovatie in autonome AI-technologieën te versnellen.

Eerder deze maand kondigde de NEAR Foundation, die het NEAR-protocol ondersteunt, ook een eigen fonds van $20 miljoen aan gericht op het opschalen van de ontwikkeling van volledig autonome en verifieerbare agenten gebouwd op NEAR-technologie.

“De geschiedenis laat zien dat alles wat geautomatiseerd kan worden, geautomatiseerd zal worden, en zeker zullen sommige bedrijfs- en normale levensprocessen worden overgenomen door AI-agenten,” vertelde Grachev aan BeInCrypto.

Maar naarmate de ontwikkeling van AI versnelt, wordt het potentieel voor misbruik een groeiende zorg.

Kwaadaardig gebruik van AI-agenten

In Web3 worden AI-agenten al snel mainstream. Ze bieden diverse mogelijkheden, van marktanalyse tot autonome crypto-handel.

Hun toenemende integratie brengt echter ook kritieke uitdagingen met zich mee. Misbruik van AI door kwaadwillende actoren is een grote zorg, met scenario’s variërend van eenvoudige phishingcampagnes tot geavanceerde ransomware-aanvallen.

De wijdverspreide beschikbaarheid van generatieve AI sinds eind 2022 heeft de inhoudcreatie fundamenteel veranderd en tegelijkertijd kwaadwillende actoren aangetrokken die de technologie willen uitbuiten. Deze democratisering van rekenkracht heeft de mogelijkheden van tegenstanders vergroot en mogelijk de drempel verlaagd voor minder geavanceerde dreigingsactoren.

Volgens een rapport van Entrust overtreffen digitale documentvervalsingen, gefaciliteerd door AI-tools, nu fysieke vervalsingen, met een stijging van 244% jaar-op-jaar in 2024. Ondertussen waren deepfakes verantwoordelijk voor 40% van alle biometrische fraude.

De staat van fraude in 2024.
De staat van fraude in 2024. Bron: Entrust.

“Het wordt al gebruikt voor oplichting. Het wordt gebruikt voor videogesprekken waarbij mensen en hun stemmen verkeerd worden voorgesteld,” zei Grachev.

Voorbeelden van dit soort uitbuiting hebben al de krantenkoppen gehaald. Eerder deze maand werd een financieel medewerker van een multinational in Hong Kong misleid om een betaling van $25 miljoen goed te keuren aan fraudeurs die deepfake-technologie gebruikten.

De medewerker nam deel aan een videogesprek met personen die hij dacht dat collega’s waren, waaronder de financieel directeur van het bedrijf. Ondanks aanvankelijke aarzeling ging de medewerker door met de betaling nadat de andere deelnemers authentiek leken en klonken, volgens rapporten. Later werd ontdekt dat alle aanwezigen deepfake-fabricaties waren.

Van vroege adoptie naar mainstream-acceptatie

Grachev gelooft dat dergelijk kwaadwillig gebruik onvermijdelijk is. Hij merkt op dat technologische ontwikkeling vaak gepaard gaat met aanvankelijke fouten, die afnemen naarmate de technologie volwassen wordt. Grachev gaf twee verschillende voorbeelden om zijn punt te bewijzen: de vroege stadia van het World Wide Web en Bitcoin.

“We moeten niet vergeten dat het internet begon met pornosites. Het was net als de eerste Bitcoin, die begon bij drugsdealers en daarna verbeterde,” zei hij.

Verschillende rapporten zijn het eens met Grachev. Ze suggereren dat de volwassen entertainmentindustrie een cruciale rol speelde in de vroege adoptie en ontwikkeling van het internet. Naast het bieden van een consumentenbasis, was het een pionier in technologieën zoals videorecorders, videostreaming, virtual reality en elke vorm van communicatie.

Pornografie fungeerde als een onboarding-tool. De volwassen entertainmentindustrie heeft historisch gezien de consumentenadoptie van nieuwe technologieën gestimuleerd.

De vroege omarming en toepassing van innovaties, vooral wanneer deze succesvol aan de eisen van het publiek voldoen, leidt vaak tot bredere mainstream-adoptie.

“Het begon met plezier, maar plezier heeft veel mensen aan boord gebracht. Dan kun je iets bouwen op dit publiek,” zei Grachev.

In de loop der tijd zijn er ook maatregelen genomen om de frequentie en toegankelijkheid van volwassen entertainment te beperken. Desondanks is het nog steeds een van de vele diensten die het internet vandaag de dag biedt.

Bitcoin’s reis van darknet naar disruptie

De evolutie van Bitcoin weerspiegelt nauw de vroegste toepassingen van het internet. De vroege adoptie van Bitcoin werd sterk geassocieerd met darknet-markten en illegale activiteiten, waaronder drugshandel, fraude en witwassen van geld. De pseudonieme aard en het gemak van wereldwijde geldtransfers maakten het aantrekkelijk voor criminelen.

Ondanks het voortdurende gebruik in criminele activiteiten, heeft Bitcoin talrijke legitieme toepassingen gevonden. De blockchain-technologie die cryptocurrencies ondersteunt, biedt oplossingen voor problemen in de echte wereld en verstoort traditionele financiële systemen.

Hoewel het nog steeds zeer jonge industrieën zijn, zullen cryptocurrency- en blockchain-toepassingen zich blijven ontwikkelen. Volgens Garchev zal hetzelfde gebeuren met de geleidelijke inzet van AI-technologie. Voor hem moeten fouten verwelkomd worden om ervan te leren en dienovereenkomstig aan te passen.

“We moeten altijd onthouden dat fraude eerst gebeurt en dan mensen beginnen na te denken over hoe het te voorkomen. Natuurlijk zal het gebeuren, maar het is een normaal proces, het is een leercurve,” zei Grachev.

Het weten dat deze situaties in de toekomst zullen gebeuren, roept echter ook vragen op over wie verantwoordelijk moet worden gehouden.

Aansprakelijkheidszorgen

Het bepalen van verantwoordelijkheid wanneer schade optreedt door de acties van een agent is een complex juridisch en ethisch vraagstuk. De vraag hoe AI aansprakelijk kan worden gesteld, komt onvermijdelijk naar voren.

De complexiteit van AI-systemen creëert uitdagingen bij het bepalen van aansprakelijkheid voor schade. Hun “black box”-aard, onvoorspelbaar gedrag en continue leermogelijkheden maken het moeilijk om typische ideeën over wie er schuldig is toe te passen wanneer er iets misgaat.

Bovendien bemoeilijkt de betrokkenheid van meerdere partijen bij de ontwikkeling en inzet van AI de aansprakelijkheidsbeoordelingen, waardoor het moeilijk is om de schuld van AI-fouten vast te stellen.

Verantwoordelijkheid kan liggen bij de fabrikant voor ontwerp- of productiefouten, de softwareontwikkelaar voor problemen met de code, of de gebruiker voor het niet volgen van instructies, het installeren van updates of het handhaven van de beveiliging.

“Ik denk dat het allemaal te nieuw is, en ik denk dat we ervan moeten kunnen leren. We moeten in staat zijn om sommige AI-agenten te stoppen als dat nodig is. Maar vanuit mijn oogpunt, als er geen slechte intentie was om het te maken, is niemand er verantwoordelijk voor omdat je iets echt nieuws bent,” vertelde Grachev aan BeInCrypto.

Volgens hem moeten deze situaties echter zorgvuldig worden beheerd om te voorkomen dat ze de voortdurende innovatie beïnvloeden.

“Als je deze ondernemer de schuld geeft, zou het innovaties doden omdat mensen bang zouden zijn. Maar als het op een slechte manier werkt, juist, zou het uiteindelijk kunnen werken. We moeten een manier hebben om het te stoppen, te leren, te verbeteren en opnieuw te leren,” voegde Grachev toe.

De dunne lijn blijft echter messcherp, vooral in meer extreme scenario’s.

Vertrouwenskwesties aanpakken voor verantwoorde AI-adoptie

Een veelvoorkomende angst bij het bespreken van de toekomst van kunstmatige intelligentie betreft situaties waarin AI-agenten krachtiger worden dan mensen.

“Er zijn veel films over. Als we het hebben over, laten we zeggen, politie of overheidscontroles, of een leger in een soort oorlog, is automatisering natuurlijk een grote angst. Sommige dingen kunnen zo ver geautomatiseerd worden dat ze mensen kunnen schaden,” zei Grachev.

Toen hem werd gevraagd of een dergelijk scenario zou kunnen gebeuren, zei Grachev dat het in theorie zou kunnen. Desondanks gaf hij toe dat hij niet kon weten wat er in de toekomst zou gebeuren.

Situaties zoals deze zijn echter emblematisch voor de fundamentele vertrouwensproblemen tussen mensen en kunstmatige intelligentie. Grachev zegt dat de beste manier om dit probleem aan te pakken is door mensen bloot te stellen aan gebruikssituaties waarin AI daadwerkelijk nuttig kan zijn.

“AI kan moeilijk te geloven zijn voor mensen. Daarom moet het beginnen met iets eenvoudigs, want vertrouwen in de AI-agent wordt niet opgebouwd wanneer iemand uitlegt dat het betrouwbaar is. Mensen moeten eraan wennen het te gebruiken. Als je bijvoorbeeld over crypto praat, kun je een meme lanceren, laten we zeggen op Pump.fun, maar waarom niet lanceren via een spraakbericht? Met AI-agenten, stuur gewoon een spraakbericht dat zegt ‘lanceer dit en dat’, en het is gelanceerd. En dan zou de volgende stap zijn om de agent te vertrouwen met enkele belangrijkere beslissingen,” zei hij.

Uiteindelijk zal de reis naar wijdverspreide AI-adoptie ongetwijfeld worden gekenmerkt door opmerkelijke vooruitgang en onvoorziene uitdagingen.

Het balanceren van innovatie met verantwoordelijke implementatie in deze zich ontwikkelende sector zal cruciaal zijn voor het vormgeven van een toekomst waarin AI ten goede komt aan de hele mensheid.

Beste crypto platforms in Nederland | Februari 2025
YouHodler YouHodler Ontdek
Wirex Wirex Ontdek
BYDFi BYDFi Ontdek
eToro eToro Ontdek
Beste crypto platforms in Nederland | Februari 2025
YouHodler YouHodler Ontdek
Wirex Wirex Ontdek
BYDFi BYDFi Ontdek
eToro eToro Ontdek
Beste crypto platforms in Nederland | Februari 2025
YouHodler YouHodler
Wirex Wirex
BYDFi BYDFi
eToro eToro

Disclaimer

Alle informatie op onze website wordt te goeder trouw en uitsluitend voor algemene informatiedoeleinden gepubliceerd. Elke actie die de lezer onderneemt op basis van de informatie op onze website is strikt op eigen risico.