Code, blockchain en illusies: waarom AI hersenen niet zal vervangen

  • AI is een statistische voorspellingsmachine, geen denkend brein.
  • Microsoft, NEDA en Air Canada tonen wat blind AI-vertrouwen echt kost.
  • Blockchain’s ‘verifiëren, niet vertrouwen’ is het principe dat AI-gebruikers loslaten.
Promo

De literatuur probeerde ons te waarschuwen, echt waar. Al zo’n vijfhonderd jaar schreeuwt het ons dezelfde boodschap toe – van de klei-geknepen Golem uit middeleeuws Praag tot aan William Gibson’s neon-doordrenkte neurale netwerken. Het plot? Altijd hetzelfde. Dat wat je maakt om jezelf te helpen, verandert uiteindelijk jou.

We lazen het, knikten, en klapten het boek dicht – om vervolgens gewoon weer chatbots te vragen onze trouwspeeches, juridische stukken en medisch advies te schrijven.

Vandaag verkoopt de AI-hype een glanzende toekomst waarin iedereen – van beginnende verslaggevers tot indrukwekkende advocaten – opzij zou worden gezet. Maar terwijl Silicon Valley het paradijs verkoopt, geeft de werkelijkheid ons gevaarlijk verkeerd advies in een vrolijk chatvenster.

Dmitry Nikolsky, CPO van BitOK, vindt het genoeg geweest. Hij is hier om uit te leggen waarom we moeten STOPPEN met álles op de pixel-dunne “schouders” van AI te leggen.

Zelfs Elon Musk waarschuwde onlangs nog tijdens zijn getuigenis in de OpenAI-rechtszaak dat “AI ons allemaal kan vernietigen.”

Gesponsord
Gesponsord

Van de Golem tot R.U.R.: we willen altijd een kill switch

Denk je dat de angst voor kunstmatige intelligentie begon met Terminator? Denk maar opnieuw. Deze paniek is ouder dan elektriciteit zelf.

Ga terug naar het Praag van de 16e eeuw. Rabbi Loew boetseert een enorme klei-beschermer, de Golem, en ontdekt vrijwel direct dat hij de stekker eruit moet trekken. Het wezen ontspoorde. De mensheid heeft, met al haar wijsheid, AI én een noodstop uitgevonden in één gil.

Rabbi Loew wekt de Golem tot leven. Illustratie door M. Aleš. Volgens het idee van de kunstenaar schrijft Rabbi Loew het heilige woord “Emet” (waarheid) op het voorhoofd van de kleien reus. Bron: Wikipedia.
Rabbi Loew wekt de Golem tot leven. Illustratie door M. Aleš. Volgens het idee van de kunstenaar schrijft Rabbi Loew het heilige woord “Emet” (waarheid) op het voorhoofd van de kleien reus. Bron: Wikipedia.

Een kill switch is een noodstop, de grote rode paniekknop waarmee je direct alles stilzet als een systeem vastloopt, gehackt wordt of losbreekt. Het doel? De schade beperken als netjes afsluiten niet meer lukt.

Toen kwam Mary Shelley. Frankenstein is eigenlijk geen griezelverhaal, maar een perfect voorbeeld van rampzalig projectmanagement. Victor Frankenstein? Een briljante ingenieur die het technische probleem oploste, maar de gevolgen negeerde. Elke ontwikkelaar herkent dat spiegelbeeld.

Versnel naar 1920. Karel Čapek verzint het woord “robot”. In zijn verhaal komen de machines niet in opstand uit kwaadaardigheid. Nee, mensen maken zichzelf gewoon overbodig door alles uit te besteden wat ze eerst zelf deden.

De les? Als je je eigen vervanger bouwt, merk je vaak niet eens het precieze moment dat je overbodig werd.

Drie voorspellingen werden bugreports

De sci-fi grootheden van de vorige eeuw voorspelden geen technologieën. Ze voorspelden onze mislukkingen.

Isaac Asimov bedacht zijn Drie Wetten – de eerste poging tot “alignment,” het chique woord voor ervoor zorgen dat machines menselijke waarden hebben. Elke Asimov-verhaal loopt uit op een grap: perfecte logica, krankzinnig resultaat.

Nikolsky zegt dat hij het dagelijks ziet bij AML-systemen. Algoritmes blokkeren vrolijk oma’s $40 verjaardagsoverdracht, terwijl criminelen miljoenen witwassen via een offshore kanaal. Formeel klopt het. In de praktijk is het absurd.

Arthur C. Clarke gaf ons HAL 9000, de computer die niet uit slechtheid de bemanning doodt, maar doordat zijn opdrachten elkaar tegenspreken. Info verbergen. Eerlijk blijven. Kies! Voor een ingenieur is dit geen horror, maar een gewoon eisen-conflict.

Philip K. Dick stelde de vraag die ons nu achtervolgt in het deepfake-tijdperk: als een kopie niet te onderscheiden is van het origineel, maakt dat uit? Zijn oordeel: ja. Vanwege innerlijke ervaring. Machines hebben die niet. Punt.

Onder de motorkap: AI denkt niet, het rekent

Laten we alle marketingpraat wegdenken. Moderne taalmodellen zijn GEEN intelligentie. Het zijn enorme statistische gokmachines. Ze “begrijpen” geen betekenis, ze berekenen kansen.

Als ChatGPT vol vertrouwen rechtszaken noemt die nooit plaatsvonden, liegt de chatbot niet. Hij maakt gewoon statistisch logische zinnen. ChatGPT kent geen “waarheid”, alleen “waarschijnlijkheid”.

Gesponsord
Gesponsord

Voor een blockchain-ontwikkelaar klinkt dat gestoord. Wij bouwen trustless systemen juist omdat we niemand vertrouwen, en nu wordt ons gevraagd vertrouwen te hebben in een black box die niet eens weet waarom het antwoord klopte.

Blockchain leert verifiëren; AI leert blind vertrouwen

In crypto staat het gebod in steen: Niet vertrouwen. Verifiëren.

Het hele idee is dat wiskunde reputatie vervangt.

AI draait dit compleet om. Je hebt de trainingsdata nooit gezien. Je weet niets van de modelgewichten. Je snapt de redenatie niet. Om het resultaat te controleren moet je al expert zijn – en als je al expert bent, waarom vraag je het de chatbot?

In de AML-wereld noemen ze het het “vals-zekerheidsprobleem”. Analisten zien een glimmend dashboard en beginnen de cijfers meer te vertrouwen dan hun eigen gevoel. AI versterkt denken niet, maar vervangt het door de illusie van betrouwbaarheid.

Kroniek van teleurstellingen: als AI ontspoort

Dit is geen gedachte-experiment. De bewijzen stapelen zich op.

Mensen moesten worden teruggehaald om de rommel van het algoritme op te ruimen.

De bot gaf vervolgens vrolijk mensen met anorexia het advies om calorieën te tellen en af te vallen. Levensgevaarlijk advies. Iemand heeft op ”uitrollen” geklikt met de voorzichtigheid van een aap met een granaat.

Het verweer van de luchtvaartmaatschappij? De bot was “een aparte juridische entiteit”. Spoiler: de rechter trapte er niet in.

Uit onderzoek blijkt nu dat 55% van de bedrijven die snel hun personeel wilden vervangen door AI, dit stevig betreuren. De besparingen verdwenen door verloren klanten en imago-schade. Bestuurders die dromen dat “Claude en zijn vrienden” volledige teams kunnen overnemen, moeten dat cijfer nog maar eens rustig lezen.

Bron: mayhemcode
Bron: mayhemcode
Gesponsord
Gesponsord

Waar we echt bang voor moeten zijn

Vergeet Skynet. Vergeet moordrobots met rode ogen die over straat marcheren. Er komt geen opstand.

Er zal stille aftakeling zijn.

Een programmeur die jarenlang vertrouwt op Copilot, vergeet langzaam hoe je architectonisch moet denken. Een analist stopt met het lezen van originele bronnen. Een student leert nooit de pijnlijke, maar mooie uitdaging om een moeilijke tekst te begrijpen na er hard voor te werken.

Geen opstand. Alleen een langzame verandering waarbij mensen veranderen in verlengstukken van een interface.

Philip K. Dick zag het al eerder dan wij allemaal: het echte gevaar was nooit dat machines menselijk zouden worden. Het echte gevaar is dat mensen machines worden.

De rode pil is niet technologie

Dit is geen Luddieten-oproep. Automatisering en machine learning zijn krachtige hulpmiddelen. Maar er moeten wel principes gelden:

  • Blockchain-principe: Verifiëren boven geloven. Kun je niet controleren hoe een systeem tot een conclusie is gekomen? Beschouw het dan niet als de waarheid. AI is een black box, geen opperrechter.
  • Engineering-principe: Hulpmiddel, geen vervanger. Een hamer slaat spijkers in het hout, maar bepaalt niet waar het huis gebouwd wordt. Gebruik AI voor het routinematige, maar laat het nooit de uiteindelijke beslissing maken.
  • AML-principe: Kritisch filteren. Algoritmes gaan altijd de mist in bij complexe problemen, omdat ze geen ervaring hebben in de echte wereld. Laat ”digitale opwinding” niet je intuïtie en gezond verstand verdringen.

Denk even aan The Matrix. De rode pil is een keuze, de keuze om de werkelijkheid echt te zien. Het gevaar is niet dat we iets maken dat slimmer is dan wijzelf. Het gevaar is dat we iets maken waardoor wij dommer worden, en dat dan vooruitgang noemen.

De gevaarlijkste bug is diegene die een feature lijkt te zijn.

Dmitry Nikolsky is de CPO van BitOK, een analytics-platform voor compliance en on-chain onderzoek.


Om de nieuwste analyse van de cryptomarkt van BeInCrypto te lezen, klik hier.

Disclaimer

Alle informatie op onze website wordt te goeder trouw en uitsluitend voor algemene informatiedoeleinden gepubliceerd. Elke actie die de lezer onderneemt op basis van de informatie op onze website is strikt op eigen risico.

Gesponsord
Gesponsord