Gedecentraliseerde computing is naar de voorgrond gestegen nu industrieën meer flexibiliteit en autonomie eisen, buiten het bereik van traditionele cloudgiganten. Fluence, medeopgericht door Evgeny Ponomarev, daagt de dominantie van AWS, Azure en Google Cloud uit met het concept van “cloudloze computing”—het samenvoegen van wereldwijde rekenkracht via een open, gedecentraliseerd netwerk.
BeInCrypto interviewde Ponomarev om de reden achter deze baanbrekende aanpak te verkennen, waarbij obstakels, reacties uit de industrie, tokenomics en de toekomst van gedecentraliseerde infrastructuur werden besproken. Ponomarev deelde strategieën die Fluence gebruikt om kostenbesparingen te realiseren, gemeenschapsbestuur te versterken en te integreren met Web3-protocollen.
Definitie van cloudless computing en marktgaten
Bij Fluence werken we in gedecentraliseerde computing. We hebben wat we een “cloudloos” platform noemen gebouwd—een term die we gebruiken om ons alternatief voor traditionele cloudproviders zoals AWS, Azure of Google Cloud te beschrijven. In wezen is het een gedecentraliseerd fysiek infrastructuurnetwerk (DePIN) dat ontwikkelaars en bedrijven toegang biedt tot rekenbronnen zonder afhankelijk te zijn van gecentraliseerde clouddiensten.
Zie het als de Uber of Airbnb van de cloud. In plaats van te vertrouwen op één enkele provider, verzamelt ons platform rekenbronnen van een breed scala aan onafhankelijke bronnen. Het is een open-source, permissieloos protocol dat ontwikkelaars in staat stelt om deze bronnen te benutten.
Industrieën, gebruikscases en Web3-focus
Op dit moment richten we ons voornamelijk op de Web3-markt, wat een belangrijk aandachtspunt is van deze conferentie. In de Web3-ruimte is een kerngebruikscase het draaien van nodes. Of het nu gaat om layer one, layer two, roll-ups of andere blockchainoplossingen, ze vertrouwen allemaal op nodes—feitelijk instanties van databases.
Mensen draaien deze nodes in de cloud, op bare metal, of zelfs soms op persoonlijke computers. Wat wij bieden is een betrouwbaar alternatief voor traditionele cloudinfrastructuur voor het draaien van deze workloads. Specifiek zijn node-operators een belangrijke marktsegment voor ons binnen het Web3-ecosysteem.
Maar in wezen kun je dit platform gebruiken om allerlei soorten workloads te draaien zoals traditionele clouds—of het nu backends, databases, game-servers, web-apps en meer zijn.
Fluence’s differentiatie in de DePIN-ruimte
Zoals ik al zei, richten we ons puur op computing. In DePIN zie je een grote verscheidenheid aan mensen en projecten die verschillende dingen doen. Maar het hele model is dat ze middelen crowdsourcen van meerdere providers, misschien zoals consumenten, eindgebruikersapparaten, of meer professionele bedrijven. Ze aggregeren, verpakken ze in producten en vinden klanten ervoor.
Voor ons is het doel om rekenbronnen te bieden. Maar wanneer je computing biedt, is er ook een opslagcomponent—details die je verpakt in verschillende clouddiensten. Onze primaire richting is echter om rekeninfrastructuur binnen te brengen, omdat we een enorme en groeiende vraag zien, vooral met de opkomst van AI, naar rekenbronnen.
Dus we beginnen met het bieden van computing voor node-operators, maar dan groeien we veel breder, en we gaan ook AI-gebruikscases dekken.
Uitdagingen bij het bouwen van gedecentraliseerde orkestratie
De uitdaging bij het bouwen van gedecentraliseerde orkestratie komt voort uit onze vroege experimenten met verschillende oplossingen om de juiste aanpak voor cloudinfrastructuur te bepalen.
Op een gegeven moment probeerden we peer-to-peer orkestratie van verschillende berekeningen die op verschillende hardware, nodes of gebruikersapparaten plaatsvinden. Maar toen realiseerden we ons dat oplossingen op een lager niveau, zoals basisvirtualisatie van middelen, ontbraken. Dus besloten we dit eerst te leveren, en dit is wat we nu hebben.
En dan terug naar orkestratie. Maar in wezen gaat orkestratie over het verminderen van vendor lock-in. Momenteel domineren grote cloudproviders de markt, en veel bedrijven vertrouwen volledig op één enkele provider om hun applicaties te draaien. Dit creëert wat bekend staat als “platformrisico” of “vendorrisico”. Als de provider besluit te de-platformen, te verbannen of de prijzen aan te passen, kan het hele bedrijf in gevaar komen.
Dus wanneer je een gedecentraliseerd platform gebruikt in plaats van een gecentraliseerde cloud, is de continuïteit en duurzaamheid van je bedrijf veiliger.
FLT tokenomics en netwerkprikkels
De FLT-token speelt een cruciale rol bij het beveiligen van de rekenkracht en hardware binnen het netwerk. In feite moet alle nieuwe hardware die aan de aanbodzijde van het netwerk wordt toegevoegd, worden ingezet door tokenhouders, en er is een cryptoeconomische prikkel om te bewijzen dat deze hardware online en beschikbaar is en bepaalde prestaties heeft.
Staking helpt om deze betrokkenheid te hebben, waarbij providers het risico lopen hun inzet te verliezen als ze hun verplichtingen met betrekking tot hardwarebeschikbaarheid en prestaties niet nakomen. Aan de andere kant verdienen providers die hun verplichtingen succesvol nakomen staking-beloningen.
We verkennen ook aanvullende manieren om het nut van FLT te vergroten. Bijvoorbeeld door leningen mogelijk te maken die zijn onderpand in FLT, zouden we providers in staat kunnen stellen om te lenen tegen hun tokenbeloningen. Dit zou hen in staat stellen om snel nieuwe hardware aan te schaffen, deze aan het netwerk te koppelen en meer beloningen te verdienen. In de loop van de tijd kunnen ze tegen deze beloningen lenen om nog sneller te schalen.
En aan de klantzijde kun je het ook doen door prijzen voor klanten te subsidiëren. We gaan in de toekomst meer van dergelijke mechanismen introduceren.
Reacties van ontwikkelaars en bedrijven op gedecentraliseerde compute
Vanuit de klantzijde is het belangrijk voor ons om een product te bouwen dat een ervaring biedt die vergelijkbaar is met gecentraliseerde cloudplatforms. Het is gedecentraliseerd, maar de gebruikerservaring blijft hetzelfde.
Daarom staan ontwikkelaars erg open en positief tegenover ons—het is heel gemakkelijk voor hen om over te schakelen. Als ze workloads in de cloud hebben, kunnen ze deze eenvoudig hier hosten. Er is niets bijzonders of ongewoons aan de ontwikkelaarservaring.
Je implementeert je workloads eenvoudig op onze virtuele machines en virtuele servers, met behulp van SSH-sleutels en standaard autorisatieprocessen. In wezen is de ervaring vergelijkbaar.
Natuurlijk is er altijd het argument dat dit een nieuw platform is—het is een startup—dus een bepaald niveau van vertrouwen is vereist.
Het is een nieuw bedrijf. Wanneer je overstapt van een groot, gevestigd bedrijf met 20 jaar geschiedenis naar een nieuw bedrijf, is er natuurlijk een vertrouwensfactor betrokken. We werken eraan om die kloof te overbruggen door overal aanwezig te zijn, open en transparant te blijven, snelle ondersteuning te bieden en zelfs financiële hulp te bieden wanneer dat nodig is, vooral voor het binnenhalen van kleinere projecten op ons platform.
Het is allemaal onderdeel van een typisch onboardingproces.
Kostenstructuur en prijsvoordelen
Het is grappig hoeveel mensen niet beseffen hoeveel cloudplatforms in rekening brengen bovenop de werkelijke kosten van de hardware. De marges in de cloudbusiness zijn enorm.
Als je simpelweg een server direct van een fabrikant koopt en een bedrijfsmodel hanteert waarbij de server zichzelf in twee of drie jaar terugbetaalt, kun je prijzen aanbieden die meerdere keren lager zijn dan wat traditionele cloudproviders vragen. Wat zij in rekening brengen, is grotendeels hun merk, de “gratis” credits die ze aanbieden — die ze uiteindelijk terugverdienen door meer te vragen — en honderden extra diensten die ze proberen te verkopen, waardoor je nog meer betaalt.
Wat wij doen is anders: we bieden een permissionless protocol beheerd door een on-chain DAO. We rekenen geen kosten. De economie is puur gebaseerd op de kant van de provider, met redelijke — niet buitensporige — marges.
We laten providers direct toegang krijgen tot de klantenbasis, zodat ze zelf geen verkoop hoeven te doen. Daarom zijn ze comfortabel met het werken met kleinere marges — hun enige focus is het draaien van de hardware.
We nemen simpelweg de laagste prijs die ze aanbieden en geven die direct door aan de klant — geen tussenpersonen, geen extra marges. Dat is de hele magie: het gaat puur om de echte economie van hardware en computing.
Web3- en AI-samenwerkingen voor een gedecentraliseerde stack
We hebben een vrij aanzienlijke pijplijn van bedrijven in de Web3-ruimte. Het zijn voornamelijk node-operators of bedrijven die “node-as-a-service” aanbieden, wat betekent dat ze hun eindgebruikers de mogelijkheid bieden om met één klik nodes voor verschillende protocollen te implementeren.
We ondersteunen hen met compute-infrastructuur achter de schermen — deze nodes draaien in feite op onze servers. We hebben verschillende namen in de pijplijn. Ik weet niet zeker of ik ze al kan delen, maar we zullen ze binnenkort aankondigen.
Ondersteuning van AI/LLM-workloads en GPU-roadmap
Op dit moment richten we ons alleen op CPU-servers, die niet geschikt zijn voor AI-inferentie of -training. We zijn echter van plan om binnenkort GPU’s toe te voegen.
Onze providers hebben al veel GPU’s en vragen constant of ze deze kunnen aansluiten. We werken eraan om ervoor te zorgen dat wanneer we GPU’s aanbieden, ze beschikbaar zijn tegen enkele van de beste prijzen op de markt. Zodra alles klaar is, publiceren we de aanbiedingen en maken we ze beschikbaar voor gebruikers.
Om LLM’s te onboarden en inferentiegebruiksscenario’s te ondersteunen, heb je in feite alleen toegang tot GPU-capaciteit nodig en idealiter enkele extra UX-lagen om de ontwikkelaarservaring te vereenvoudigen. Dit staat al op onze roadmap.
AI in het algemeen zorgt voor een enorme vraag naar GPU-hardware, maar het verhoogt ook de vraag naar CPU-hardware — omdat taken zoals gegevensverwerking, gegevenslabeling en datasetvoorbereiding allemaal cruciale stappen zijn voordat een model wordt getraind.
Er zijn ook workloads die bekend staan als AI-agents, die in feite bots zijn die AI-modellen gebruiken. Het draaien van deze bots vereist voornamelijk CPU-servers, terwijl het aanroepen of interacteren met de modellen GPU-servers vereist.
Dus je hebt altijd zowel CPU-servers als GPU-servers nodig om deze soorten applicaties volledig te ondersteunen.
DAO-governance en communitybetrokkenheid
We hebben een vrij standaard DAO-model. Het is gebaseerd op on-chain stemmen, met bepaalde drempels. Bijvoorbeeld, je moet een gedelegeerde hoeveelheid stemkracht hebben om een voorstel te maken, en een voorstel moet een minimum aantal stemmen krijgen om te slagen.
Uitvoering gebeurt on-chain, maar we hebben ook een off-chain juridische structuur. Een governancecommissie is verantwoordelijk voor het toezicht op en het faciliteren van het uitvoeringsproces.
We volgen een model waarbij de governancecommissie elke één tot twee jaar door de gemeenschap wordt gekozen.
Over het algemeen is dit model vrij standaard — er is niets bijzonder nieuws of ongewoons aan. Het is een typisch Web3 DAO-model waarbij stemmen gewogen is op basis van het aantal tokens dat mensen bezitten.
Decentralisatie voor ondernemingen: SLA’s, certificering en fiat
Enterprise-gebruikers hebben doorgaans drie belangrijke dingen nodig: ten eerste een Service Level Agreement (SLA), die de beschikbaarheid van diensten garandeert.
Ten tweede moeten providers relevante certificeringen hebben — beveiligings- en nalevingsnormen zoals SOC 2 of ISO 27001. De meeste van onze providers hebben deze certificeringen al, en we richten ons momenteel op het werken met hardwareproviders die aan deze normen voldoen.
Ten derde willen ze natuurlijk in fiat betalen, aangezien ze ondernemingen zijn die in de Web2-wereld opereren, niet in Web3. We zorgen ervoor dat we alle noodzakelijke systemen hebben om grote ondernemingen uit de Web2-ruimte succesvol te onboarden.
We boeken goede vooruitgang op dit gebied. Als het gaat om SLA’s, zijn er verschillende manieren om ze aan te pakken. Een benadering is om een juridische overeenkomst met de onderneming aan te gaan, waarin de beschikbaarheid van diensten duidelijk wordt omschreven en gegarandeerd.
We werken ook aan een on-chain SLA, die in feite zou functioneren als een juridische overeenkomst. In dit model zouden providers on-chain toezeggen om een bepaald niveau van servicebeschikbaarheid aan klanten te garanderen.
Alles zou worden vastgelegd in een smart contract, met duidelijke regels: bijvoorbeeld, als een provider niet voldoet aan een 99% SLA, zou hij verplicht zijn een deel van de betaling aan de klant terug te betalen.
Wat betreft fiatbetalingen, er is maar zoveel dat we kunnen doen — het is een beperking waar we ons van bewust zijn.
Als ondernemingen in fiat willen betalen, accepteren we dat. We converteren de fiat vervolgens naar stablecoins en financieren de bijbehorende smart contracts.
Deze stap is op dit moment onvermijdelijk — we hebben nog geen manier gevonden om dit te omzeilen. We geloven echter dat de adoptie van stablecoins in de toekomst zal blijven groeien, wat zal helpen dit probleem, althans gedeeltelijk, op te lossen.
Onvermijdelijkheid van gedecentraliseerde cloud en de toekomst van Fluence
Ik denk niet dat er een enkel moment was waarop we ons realiseerden dat dit moest bestaan. Het was meer de algemene groei van de Web3- en cryptobeweging die het duidelijk maakte.
Gedecentraliseerde modellen hebben aangetoond dat ze soms efficiënter kunnen zijn en de toetredingsdrempels voor veel diensten en technologieën aanzienlijk kunnen verlagen.
Vooral in combinatie met de dramatische groei in de vraag naar computing, gedreven door AI, geloven we dat het essentieel is om gemakkelijke en betaalbare toegang tot computing resources te bieden aan een veel breder publiek — iets wat traditionele cloudplatforms vaak verhinderen.
Hun modellen hebben KYC-vereisten, kredietkaartbarrières en een primaire verplichting om aandeelhouders te dienen. Daarentegen bieden wij een alternatief: een DAO-beheerd, permissieloos infrastructuurmodel.
Laatste gedachten
We nodigen mensen uit om deel te nemen aan onze aankomende bèta voor virtuele servers en verzamelen momenteel aanmeldingen — je kunt je inschrijven op onze website.
We zijn enthousiast om meer mensen het te laten proberen, hun feedback te delen en ons te helpen deze open en permissieloze rekeninfrastructuur voor de mensheid te laten groeien.
Disclaimer
Alle informatie op onze website wordt te goeder trouw en uitsluitend voor algemene informatiedoeleinden gepubliceerd. Elke actie die de lezer onderneemt op basis van de informatie op onze website is strikt op eigen risico.
