Terug

Nansen CEO legt uit waarom AI menselijke overtuiging niet kan vervangen bij crypto-trading

author avatar

Geschreven door
Kamina Bashir

editor avatar

Bewerkt door
Harsh Notariya

22 januari 2026 13:48 UTC
  • Nansen lanceert AI-tools voor betere on-chain handelsanalyse en uitvoering.
  • Nansen CEO: AI versterkt menselijk oordeel, vervangt het niet, bij crypto analyse.
  • AI blinkt uit in schaal en patroonherkenning, terwijl mensen overtuiging en verantwoordelijkheid behouden.
Promo

Kunstmatige intelligentie heeft veel sectoren veranderd. Overal stelt men dezelfde vraag: zal het mensen vervangen? In de cryptowereld zie je de invloed al: van AI-gestuurde handelsbots tot agentic trading-systemen.

Maar volgens Alex Svanevik, CEO en medeoprichter van Nansen, is AI geen vervanging van menselijk beoordelingsvermogen, maar juist een aanvulling. In een exclusief interview met BeInCrypto vertelt Svanevik meer over deze verandering en wat er volgens hem gaat komen voor AI-gedreven analyses.

De AI-discussie in crypto: Nansen CEO pleit voor aanvulling, niet vervanging

Op 21 januari kondigde Nansen de lancering van hun AI-gedreven on-chain trading-functie aan. Dit betekent een grote stap: van een puur analyseplatform naar een product waarmee je inzichten krijgt én direct kunt handelen.

Sponsored
Sponsored

Gebouwd op een eigen dataset van meer dan 500 miljoen gelabelde wallets, stelt deze nieuwe functie gebruikers in staat hun portfolio’s te beheren, live on-chain signalen te interpreteren en datagestuurde suggesties te ontvangen. Ook kunnen gebruikers direct via Nansen trades uitvoeren.

“Getraind en geëvalueerd op Nansen’s eigen dataset, presteert Nansen AI consequent beter dan toonaangevende AI-producten op benchmarks voor on-chain analyse en trading-toepassingen. Zo zijn de inzichten niet alleen accurater, maar ook direct bruikbaar voor handelaren/investeerders, waarmee agentic intelligence een praktisch voordeel geeft,” aldus de aankondiging.

Bovendien maakt deze lancering het mogelijk wat Nansen “vibe trading” noemt. Dit is een intuïtievere methode om van inzichten direct over te gaan op on-chain uitvoering, zonder van tool te hoeven wisselen.

Naarmate AI meer analysewerk overneemt, rijst de vraag naar de rol van menselijke analisten. Volgens Svanevik is AI vooral goed in het verwerken van enorme hoeveelheden data, zoals het analyseren van honderden miljoenen wallets, cross-chain geldstromen volgen en patronen ontdekken die mensen lastig vinden.

Toch benadrukt hij dat de gebruiker altijd de beslissingen neemt. Mensen sturen het proces door de juiste vragen te stellen en acties goed te keuren.

“De grens is niet vast. Die verschuift naarmate AI beter redeneert en on-chain data rijker wordt. Maar het doel is niet om menselijk beoordelingsvermogen te vervangen. Het is bedoeld om mensen te bevrijden van het saaie werk, zodat zij zich kunnen richten op belangrijke beslissingen,” zei hij.

Wat maakt analyse geloofwaardig in een AI-first cryptomarkt

Uit onderzoek blijkt dat mensen minder kritisch leren denken als ze meer op AI vertrouwen. In de cryptomarkt, waar handelaren moeten omgaan met hoge volatiliteit en risicovolle assets, zijn de risico’s dus extra groot.

Sponsored
Sponsored

Toch kijkt Svanevik er anders naar. Hij vindt dat “goede AI” juist méér signalen boven water haalt en gebruikers aanzet tot kritischer nadenken bij de uitvoering.

“Het echte systeemrisico ontstaat als iedereen hetzelfde doet. Dat is niet alleen bij AI zo – dat gebeurt ook bij menselijke analisten. Het antwoord is diversiteit: verschillende modellen, strategieën en manieren van data interpreteren. Daarom maken wij tools die gebruikers in staat stellen zelfstandig beslissingen te nemen, niet een enkel orakel waar iedereen achteraan loopt,” voegde hij toe.

De directeur benadrukt ook dat je nooit blind moet vertrouwen op AI of op mensen. Wat telt, is of de analyse op de lange termijn overeind blijft.

Over geloofwaardigheid in een AI-gedreven markt legt de CEO uit:

“Geloofwaardigheid in een AI-tijdperk komt door meten en herhalen, niet door een naam of Twittervolgers. AI heeft als voordeel dat het eindeloos getest kan worden, op schaal, en vergeleken met de werkelijkheid – iets wat mensen niet kunnen.”

Hij vertelt dat de eenvoudigste test praktisch is. Svanevik raadt aan dat gebruikers vragen stellen die voor hen belangrijk zijn, en beoordelen of de antwoorden bruikbaar en concreet zijn. Volgens hem zijn gebruikers vaak goed in het inschatten van kwaliteit.

Sponsored
Sponsored

“Op de lange termijn zal het vertrouwen verschuiven van individuele analisten naar platforms die steeds opnieuw bewijzen dat ze signalen boven water halen en ruis verminderen. Dat is de standaard die we onszelf opleggen,” zei Svanevik tegen BeInCrypto.

Waarom AI on-chain data kan analyseren, maar menselijke overtuiging niet kan vervangen

Menselijke analisten combineren handelsbeslissingen vaak met on-chain metrieken, koersdata en andere signalen via hun oordeel en kennis van de context. AI-systemen vertrouwen juist op patronen uit het verleden.

Op de vraag of AI ooit een vergelijkbaar soort oordeel ontwikkelt, zegt Svanevik dat dit waarschijnlijk is, maar niet op een menselijke manier.

Hij legt uit dat AI zijn eigen vorm van contextueel redeneren ontwikkelt. Volgens Svanevik kan AI uiteindelijk live data uit veel meer variabelen samenbrengen dan een mens ooit kan bijhouden.

“De weg daarheen gaat via betere trainingsdata, langere contextvensters en feedback van echte uitvoering. We zien dit nu al bij onze agent. Die doet niet alleen aan patroonherkenning – hij redeneert realtime over gedragsdata. Dat is het begin van oordeel. Dit zal sterker worden naarmate de modellen ontwikkelen en we leren van miljoenen on-chain interacties,” vertelde Svanevik.

Sponsored
Sponsored

Hij ziet echter ook één aspect van on-chain analyse waar AI mensen volgens hem nooit helemaal zal vervangen: verantwoordelijkheid nemen bij onzekerheid.

Svanevik benadrukt dat AI wel patronen, kansen en scenario’s kan tonen – en beoordelen wat er is gebeurd of kan gebeuren op basis van data – maar het kan niet bepalen wat iemands risicotolerantie is, waardeoordelen vormen of de verantwoordelijkheid nemen als de uitkomst negatief is.

“On-chain analyse leidt uiteindelijk tot echte acties: kapitaal inzetten, teams steunen, publieke keuzes maken. Iemand moet de verantwoordelijkheid nemen. Dat blijft een menselijke taak,” aldus de directeur.

Hij benadrukte dat, ongeacht hoe geavanceerd AI-modellen worden, de geloofwaardigheid altijd bij mensen blijft liggen als het gaat om oordeel, verantwoordelijkheid en overtuiging. AI kan wel advies geven, maar uiteindelijk nemen mensen de beslissingen en dragen zij de gevolgen.

“Bepalen wat belangrijk is. AI kan je vertellen wat er on-chain gebeurt, maar niet wat jij belangrijk zou moeten vinden. Dat is smaak. Dat is overtuiging. Dat is menselijk,” reageerde Svanevik.

Uiteindelijk ziet Svanevik AI vooral als een krachtig hulpmiddel, niet als beslisser. AI kan patronen, kansen en inzichten op grote schaal tonen, maar menselijk oordeel blijft centraal voor risico, verantwoordelijkheid en overtuiging.

Nu AI-analyses steeds vaker voorkomen, zal vertrouwen steeds meer liggen bij platforms die voortdurend kunnen aantonen dat hun inzichten van goede kwaliteit zijn. Tegelijk blijven mensen verantwoordelijk voor wat belangrijk is en voor de gevolgen van hun keuzes.

Disclaimer

Alle informatie op onze website wordt te goeder trouw en uitsluitend voor algemene informatiedoeleinden gepubliceerd. Elke actie die de lezer onderneemt op basis van de informatie op onze website is strikt op eigen risico.

Gesponsord
Gesponsord