AI agents waren overal op ETHDenver 2026, van autonome finance tot on-chain robotica. Maar terwijl de hype over ‘agentic economies’ groeit, ontstaat er een moeilijkere vraag: kunnen instituties bewijzen waarop hun AI-systemen zijn getraind?
Een van de startups die dit probleem aanpakken is Perle Labs. Zij stellen dat AI-systemen een verifieerbare chain of custody nodig hebben voor hun trainingsdata, zeker in gereguleerde en risicovolle omgevingen. Perle richt zich op het bouwen van een controleerbare en gecertificeerde data-infrastructuur voor instituties en heeft tot nu toe $17,5 miljoen opgehaald. De laatste financieringsronde werd geleid door Framework Ventures. Andere investeerders zijn onder andere CoinFund, Protagonist, HashKey en Peer VC. Het bedrijf zegt dat meer dan één miljoen beoordelaars samen meer dan een miljard gescoorde datapunten hebben geleverd op het platform.
BeInCrypto sprak tijdens ETHDenver 2026 met Ahmed Rashad, CEO van Perle Labs. Rashad had eerder een leidende rol bij Scale AI tijdens hun hypergroeifase. In het gesprek vertelt hij over data-oorsprong, model collapse, tegenwerkende risico’s en waarom hij denkt dat soevereine intelligentie straks nodig is voor het inzetten van AI in kritieke systemen.
BeInCrypto: Je noemt Perle Labs de “soevereine intelligentielaag voor AI.” Voor lezers die niet bekend zijn met het data-infrastructuurdebat: wat betekent dat eigenlijk in de praktijk?
Ahmed Rashad: “Het woord ‘soeverein’ is bewust gekozen en heeft meerdere lagen.
De meest letterlijke betekenis is controle. Als je een overheid, ziekenhuis, defensiebedrijf of groot bedrijf bent dat AI inzet in een kritieke omgeving, moet je de controle hebben over de intelligentie in dat systeem. Je wilt het niet uitbesteden aan een black box die je niet kunt controleren of controleren. Soeverein betekent dat je weet waarop je AI is getraind, wie het heeft gevalideerd en dat je het kunt bewijzen. De meeste bedrijven kunnen dat nu niet zeggen.
De tweede betekenis is onafhankelijkheid: kunnen handelen zonder inmenging van buitenaf. Dit is cruciaal voor organisaties zoals het ministerie van defensie of grote bedrijven die AI inzetten in gevoelige situaties. Je mag je AI-infrastructuur niet laten afhangen van datapijplijnen die je niet in handen hebt, niet kunt controleren en niet kunt verdedigen tegen sabotage. Dit is geen theoretisch risico. De NSA en CISA hebben al richtlijnen uitgebracht over kwetsbaarheden in de datasupply chain als nationaal veiligheidsrisico.
De derde betekenis is verantwoordelijkheid. Als AI van alleen content maken naar het nemen van beslissingen gaat, bijvoorbeeld medisch, financieel of militair, moet iemand kunnen aangeven: waar komt de intelligentie vandaan? Wie heeft het gecontroleerd? Is dat vastgelegd? Binnen Perle willen we dat elke bijdrage van elk expert vastgelegd wordt op de chain. Het kan niet worden aangepast. Die onveranderlijkheid maakt dat soeverein hier echt klopt en niet alleen mooi klinkt.
Concreet bouwen we een verificatie- en certificeringslaag. Als een ziekenhuis bijvoorbeeld een AI-diagnosesysteem inzet, moet elk datapunt in de trainingset kunnen worden herleid naar een gekwalificeerde professional die het heeft gevalideerd. Dat is soevereine intelligentie. Dat bedoelen we.”
BeInCrypto: Je was betrokken bij Scale AI tijdens hun hypergroei, met onder andere defensiecontracten en de investering van Meta. Wat heb je daarvan geleerd over waar traditionele AI-datapijplijnen misgaan?
Ahmed Rashad: “Scale was een geweldig bedrijf. Ik werkte er tijdens de periode dat ze van $90 miljoen naar $29 miljard gingen. Ik zat op de eerste rij toen de knelpunten ontstonden.
Het grootste probleem is dat datakwaliteit en schaal elkaar tegenwerken. Als je 100x groeit, ligt de focus op snelheid: meer data, sneller labelen, lagere kosten per label. Daarbij sneuvelen precisie en verantwoordelijkheid. Je krijgt onoverzichtelijke pijplijnen: je weet globaal wat erin is gegaan, je hebt wat kwaliteitsmetingen op de output, maar het midden is een black box. Wie heeft het gevalideerd? Waren ze gekwalificeerd? Was het labelen consistent? Die vragen zijn met traditionele modellen op schaal bijna niet te beantwoorden.
Het tweede wat ik heb geleerd is dat de menselijke factor meestal wordt gezien als een kostenpost om te minimaliseren, in plaats van een kracht om te ontwikkelen. Het model ‘betaal per taak en optimaliseer doorvoer’ zorgt dat de kwaliteit langzaam achteruitgaat. Het put de beste bijdragers uit. Mensen die echt deskundige, hoogwaardige bijdragen leveren zijn niet degenen die microtaakjes voor een paar cent uitvoeren. Je moet het anders opzetten als je die kwaliteit wilt.
Dat inzicht is precies waarop Perle is gebouwd. Het data-probleem los je niet op door gewoon meer mensen in te zetten. Je lost het op door bijdragers als professionals te behandelen, hun expertise verifieerbaar te maken en het hele proces van begin tot eind controleerbaar te houden.”
BeInCrypto: Jullie hebben inmiddels een miljoen annotators en meer dan een miljard datapunten gescoord. De meeste data-labelplatformen werken met anonieme crowd workers. Wat is bij jullie model structureel anders?
Ahmed Rashad: “Het belangrijkste verschil is dat bij Perle je werkgeschiedenis echt van jou is, en die is permanent. Als je een taak afrondt, wordt de bijdrage, de kwaliteit en hoe het vergeleken is met expertconsensus vastgelegd op de chain. Het kan niet worden aangepast, verwijderd of aan iemand anders gehangen. Op termijn wordt dat een professioneel bewijsstuk dat steeds waardevoller wordt.
Vergelijk dat met anonieme crowd work: mensen zijn inwisselbaar. Ze hebben geen belang bij kwaliteit, want hun reputatie bestaat niet – elke taak staat los van de vorige. Het beloningssysteem levert precies wat je verwacht: minimale inspanning.
Ons model draait dat om. Bijdragers bouwen aan een verifieerbaar track record. De platform erkent domein-expertise. Bijvoorbeeld: een radioloog die constant hoogwaardige medische beeldannotaties levert, bouwt een profiel op dat dat laat zien. Die reputatie geeft toegang tot waardevollere taken, betere betaling en interessanter werk. Het is een vliegwiel: kwaliteit stapelt zich op omdat de beloningen dat stimuleren.
We hebben nu meer dan een miljard punten gescoord in ons annotator-netwerk. Dat is niet alleen een volumecijfer, maar een miljard herleidbare, toegekende databijdragen van gecontroleerde mensen. Dat is de basis voor betrouwbare AI-trainingsdata, en zoiets is onmogelijk te bereiken met anonieme crowd workers.”
BeInCrypto: Model collapse wordt veel besproken in onderzoek, maar je hoort het zelden buiten die kring. Waarom denk je dat dat zo is, en zouden meer mensen zich zorgen moeten maken?
Ahmed Rashad: “Het komt niet terug in de mainstream omdat het een langzaam groeiende crisis is, geen plotselinge ramp. Model collapse – wanneer AI-systemen steeds meer getraind worden op zelf gegenereerde data en daardoor verslechteren, nuance verliezen en alles op elkaar begint te lijken – zorgt niet voor één schokkend moment. Het gaat om een geleidelijke verslechtering van de kwaliteit, die je makkelijk mist totdat het serieus is.
De oorzaak is eenvoudig: het internet raakt vol met AI-gegenereerde content. Modellen die op die content trainen leren vooral van hun eigen output, niet langer van echte menselijke kennis en ervaringen. Elke generatie versterkt de fouten van de vorige. Het is een feedback-loop zonder natuurlijke correctie.
Zouden meer mensen zich zorgen moeten maken? Ja, zeker in kritieke sectoren. Als model collapse een aanbevelingsalgoritme voor content treft, krijg je slechte aanbevelingen. Maar als het gaat om een medisch AI-model, een juridisch systeem of een defensietool, zijn de gevolgen compleet anders. Dan mag kwaliteitsverlies eigenlijk niet gebeuren.
Dit is waarom de door mensen geverifieerde datalaag niet optioneel is nu AI terechtkomt in kritieke infrastructuur. Je hebt een continue bron van echte, diverse menselijke intelligentie nodig om op te trainen – niet AI-uitkomsten die zijn hergebruikt via een ander model. Wij hebben meer dan een miljoen beoordelaars die echte vakkennis in tientallen sectoren vertegenwoordigen. Die diversiteit is het tegengif voor het instorten van modellen. Je kunt het niet oplossen met synthetische data of meer rekenkracht.”
BeInCrypto: Wat verandert er fundamenteel aan risico, verantwoordelijkheid en standaarden wanneer AI van digitale omgevingen naar fysieke systemen gaat?
Ahmed Rashad: Dat je niet meer terug kan, verandert het meest. Dat is het belangrijkste verschil. Een taalmodel dat hallucineert, geeft een fout antwoord. Je kunt dat herstellen, markeren, en verdergaan. Maar een robotisch chirurgiesysteem dat op een verkeerde conclusie werkt, een zelfrijdende auto die een foutieve inschatting maakt, of een drone die een doelwit verkeerd identificeert, die fouten kun je niet ongedaan maken. De gevolgen verschuiven van gênant naar rampzalig.
Dat maakt alles anders qua standaarden die van toepassing moeten zijn. In digitale omgevingen mocht AI zich snel ontwikkelen en zichzelf corrigeren. In fysieke systemen kan dat niet. De trainingsdata van deze systemen moeten voor ingebruikname zijn geverifieerd, niet pas onderzocht worden nadat er iets is gebeurd.
Ook de verantwoordelijkheid verandert. In een digitale context is het makkelijk om verantwoordelijkheden te verspreiden: was het het model, de data, de implementatie? In fysieke systemen, zeker waar mensen worden geschaad, eisen toezichthouders en rechtbanken duidelijke antwoorden. Wie heeft dit getraind? Met welke data? Wie heeft die data goedgekeurd en volgens welke standaarden? Bedrijven en overheden die dat kunnen aantonen, mogen opereren. Wie dat niet kan, loopt risico’s waar ze niet op gerekend hadden.
Wij hebben Perle gebouwd voor precies deze situatie. Menselijk geverifieerd, door experts, op de chain controleerbaar. Zodra AI wordt ingezet in magazijnen, operatiekamers, of op het slagveld, moet de onderliggende intelligentielaag voldoen aan een andere standaard. Aan die standaard werken wij.
BeInCrypto: Hoe groot is vandaag het risico op datavergiftiging of vijandige manipulatie van AI-systemen, vooral op nationaal niveau?
Ahmed Rashad: “Het risico is echt, het is gedocumenteerd, en het wordt al gezien als een nationale veiligheidskwestie door mensen met toegang tot geheime informatie.
Het GARD-programma van DARPA (Guaranteeing AI Robustness Against Deception) werkte jarenlang aan het ontwikkelen van verdedigingsmaatregelen tegen aanvallen op AI-systemen, waaronder datavergiftiging. De NSA en CISA gaven in 2025 gezamenlijk advies uit waarin ze waarschuwden dat kwetsbaarheden in de dataketen en gemanipuleerde trainingsdata echte bedreigingen zijn voor AI-systemen. Dit zijn geen theoretische onderzoeken, maar operationele richtlijnen afkomstig van instanties die niet zomaar waarschuwen voor hypothetische risico’s.
Het aanvalsvlak is groot. Als je de trainingsdata van een AI-systeem voor bijvoorbeeld dreigingsdetectie, medische diagnoses of logistieke optimalisatie kunt beïnvloeden, hoef je het systeem zelf niet te hacken. Je hebt al beïnvloed hoe het de wereld ziet. Dat is een veel slimmere en moeilijker te ontdekken manier van aanvallen dan traditionele cyberaanvallen.
Het contract van $300 miljoen dat Scale AI heeft met het Department of Defense’s CDAO om AI uit te rollen op geheime netwerken bestaat deels omdat de overheid begrijpt dat je geen AI kunt gebruiken die is getraind op niet-gecontroleerde publieke data in gevoelige omgevingen. De vraag naar de herkomst van data is daar niet theoretisch, maar operationeel.
Wat in het algemene debat ontbreekt, is dat dit niet alleen een overheidskwestie is. Elk bedrijf dat AI inzet in een concurrerende markt, bij financiële diensten, farmacie of kritieke infrastructuur, heeft te maken met vijandige data waar ze waarschijnlijk nog geen goed beeld van hebben. De dreiging is echt. De verdedigingen worden pas net opgebouwd.”
BeInCrypto: Waarom kan een overheid of groot bedrijf deze verificatielaag niet gewoon zelf bouwen? Wat is het echte antwoord als iemand daar tegenin gaat?
Ahmed Rashad: “Sommigen proberen het. En wie het probeert, ontdekt snel wat het daadwerkelijke probleem is.
De techniek bouwen is het makkelijke deel. Het moeilijkste is het netwerk. Geverifieerde, gekwalificeerde experts, zoals radiologen, taalkundigen, juristen, ingenieurs, wetenschappers, zijn er niet zomaar omdat je een platform bouwt. Je moet ze werven, hun kwalificaties controleren, zorgen voor stimulansen om ze betrokken te houden, en kwaliteitsmechanismen ontwikkelen om waardevolle bijdrages op schaal te krijgen. Dit kost jaren en de kennis hiervoor ontbreekt bij veel overheidsinstanties en bedrijven.
Het tweede probleem is diversiteit. Een overheidsinstantie die zelf zo’n verificatielaag bouwt, zal altijd putten uit een beperkte, min of meer homogene groep. De waarde van een wereldwijd expertnetwerk zit niet alleen in de kwalificaties; het gaat ook om verschillende perspectieven, talen, culturen en specialisaties. Dat krijg je alleen op echte wereldschaal. Wij hebben meer dan een miljoen beoordelaars. Dat bouw je niet zomaar intern op.
Het derde probleem is het ontwerpen van de prikkels. Om goede bijdragers betrokken te houden, heb je transparante, eerlijke en programmeerbare beloning nodig. Blockchain-infrastructuur maakt dat mogelijk zoals interne systemen meestal niet kunnen: onveranderbare contributierecords, directe toeschrijving en verifieerbare betalingen. Een overheidsinkoopproces is hier niet efficiënt voor ingericht.
Het eerlijke antwoord is: je koopt niet zomaar een tool. Je krijgt toegang tot een netwerk en een kwalificatiesysteem dat jaren kostte om te bouwen. Het alternatief is niet ‘doe het zelf’; het is ‘gebruik wat er al is of accepteer het datarisico dat je anders loopt’.”
BeInCrypto: Als AI kern-infrastructuur wordt voor een land, waar past een eigen intelligentielaag dan in die keten over vijf jaar?
Ahmed Rashad: “Over vijf jaar lijkt het op wat de financiële auditfunctie nu is: een verplichte verificatielaag tussen data en toepassing, met wettelijke steun en professionele standaarden.
Op dit moment kan AI zich ontwikkelen zonder dat er iets bestaat dat vergelijkbaar is met financiële audits. Bedrijven rapporteren zelf over hun trainingsdata. Er is geen onafhankelijke controle, geen professionele kwalificatie van het proces, geen externe bevestiging dat de intelligentie achter een model aan een bepaalde standaard voldoet. We zitten nu in het vroege stadium, vergelijkbaar met het pre-Sarbanes-Oxley tijdperk van financiën, vooral gebaseerd op vertrouwen en zelfverklaring.
Naarmate AI kritieke infrastructuur wordt – energie, zorg, financiële markten, defensienetwerken – werkt dat model niet meer. Overheden zullen eisen stellen aan controleerbaarheid. Aanbestedingsprocessen zullen gecontroleerde dataherkomst verplichten bij contracten. Aansprakelijkheidsregels zullen gevolgen koppelen aan falen dat voorkomen had kunnen worden door goede verificatie.
Perle is in die keten de verificatie- en kwalificatielaag: het orgaan dat een onveranderbaar, controleerbaar record kan maken van waarop een model is getraind, door wie, en volgens welke standaard. Over vijf jaar is dat geen extraatje in AI-ontwikkeling. Het is een vereiste.
Het belangrijkste punt is: een eigen intelligentielaag is geen nichekwestie meer voor defensiepartijen. Het is het fundament dat AI bruikbaar maakt in elke context waar falen echte gevolgen heeft. En hoe meer AI in zulke omgevingen gebruikt wordt, hoe belangrijker dat fundament wordt binnen de keten.”