El trilema de la cadena de blocs va tornar a aixecar el cap una vegada més a Consensus a Hong Kong al febrer, fins a cert punt, posant a Charles Hoskinson, el fundador de Cardano, en el peu de darrere: haver de tranquil·litzar els assistents que els hiperescalers com Google Cloud i Microsoft Azure són no un risc per a la descentralització.
Es va dir que els grans projectes blockchain necessitat hiperescaladors, i que no s’hauria de preocupar per un únic punt de falla perquè:
- La criptografia avançada neutralitza el risc
- El càlcul multipartit distribueix material clau
- La informàtica confidencial protegeix les dades en ús
L’argument es basava en la idea que “si el núvol no pot veure les dades, el núvol no pot controlar el sistema”, i es va deixar allà per limitacions de temps.
Però hi ha una alternativa a l’argument d’Hoskinson a favor dels hiperescalers que mereix més atenció.
MPC i la informàtica confidencial redueixen l’exposició
Aquest va ser una mica un bastió estratègic en l’argument de Charles: que tecnologies com la computació multipartita (MPC) i la informàtica confidencial garanteixen que els proveïdors de maquinari no tinguessin accés a les dades subjacents.
Són eines poderoses. Però ells no ho facis dissoldre el risc subjacent.
MPC distribueix material clau entre diverses parts perquè cap participant pugui reconstruir un secret. Això redueix significativament el risc d’un sol node compromès. Tanmateix, la superfície de seguretat s’expandeix en altres direccions. La capa de coordinació, els canals de comunicació i la governança dels nodes participants esdevenen crítics.
En lloc de confiar en un únic titular de claus, el sistema depèn ara d’un conjunt distribuït d’actors que es comportin correctament i que el protocol s’implementi correctament. El punt únic de fracàs no desapareix. De fet, simplement es converteix en una superfície de confiança distribuïda.
La informàtica confidencial, especialment els entorns d’execució de confiança, introdueix una compensació diferent. Les dades es xifren durant l’execució, cosa que limita l’exposició al proveïdor d’allotjament.
Però els entorns d’execució de confiança (TEE) es basen en supòsits de maquinari. Depenen de l’aïllament microarquitectònic, la integritat del microprogramari i la correcta implementació. La literatura acadèmica, per exemple, aquí i aquí, ha demostrat repetidament que les vulnerabilitats arquitectòniques i dels canals laterals continuen sorgint a través de les tecnologies d’enclavament. El límit de seguretat és més estret que el núvol tradicional, però no és absolut.
Més important encara, tant els MPC com els TEE sovint operen a sobre d’una infraestructura hiperescaladora. El maquinari físic, la capa de virtualització i la cadena de subministrament romanen concentrats. Si un proveïdor d’infraestructura controla l’accés a les màquines, l’ample de banda o les regions geogràfiques, conserva el poder operatiu. La criptografia pot impedir la inspecció de dades, però no impedeix restriccions de rendiment, tancaments o intervencions de polítiques.
Les eines criptogràfiques avançades dificulten els atacs específics, però encara no eliminen el risc de fallada a nivell d’infraestructura. Simplement substitueixen una concentració visible per una de més complexa.
L’argument “Cap L1 pot gestionar la computació global”.
Hoskinson va assenyalar que els hiperescaladors són necessaris perquè cap Capa 1 pot gestionar les demandes computacionals dels sistemes globals, fent referència als bilions de dòlars que han ajudat a construir aquests centres de dades.
Per descomptat, les xarxes de capa 1 no es van crear per executar bucles d’entrenament d’IA, motors de comerç d’alta freqüència o canalitzacions d’anàlisi empresarial. Existeixen per mantenir el consens, verificar les transicions d’estat i proporcionar disponibilitat de dades duradora.
Té raó sobre per a què serveix la capa 1. Però els sistemes globals necessiten principalment resultats que qualsevol pugui verificar, fins i tot si el càlcul es produeix en un altre lloc.
A la infraestructura criptogràfica moderna, la computació pesada es produeix cada cop més fora de la cadena. El que importa és que els resultats es puguin provar i verificar en cadena. Aquesta és la base de les acumulacions, els sistemes de coneixement zero i les xarxes informàtiques verificables.
En centrar-se en si un L1 pot executar la computació global, es perd el problema bàsic de qui controla l’execució i la infraestructura d’emmagatzematge darrere de la verificació.
Si el càlcul es fa fora de la cadena però es basa en una infraestructura centralitzada, el sistema hereta els modes de fallada centralitzats. L’assentament continua descentralitzat en teoria, però el camí per produir transicions d’estat vàlides es concentra a la pràctica.
El problema hauria de ser sobre la dependència a la capa d’infraestructura, no la capacitat computacional dins de la capa 1.
La neutralitat criptogràfica no és el mateix que la neutralitat de participació
La neutralitat criptogràfica és una idea poderosa i una cosa que Hoskinson va utilitzar en el seu argument. Significa que les regles no es poden canviar arbitràriament, no es poden introduir portes del darrere ocultes i el protocol segueix sent just.
Però la criptografia continua maquinari.
Aquesta capa física determina qui pot participar, qui es pot permetre el luxe de fer-ho i qui acaba exclòs, perquè el rendiment i la latència estan restringits en última instància per les màquines reals i la infraestructura en què funcionen. Si la producció, la distribució i l’allotjament de maquinari es mantenen centralitzats, la participació queda limitada econòmicament fins i tot quan el protocol en si és matemàticament neutral.
En sistemes d’alta informàtica, el maquinari és el que canvia el joc. Determina l’estructura de costos, qui pot escalar i la resistència sota la pressió de la censura. Un protocol neutral que s’executa en una infraestructura concentrada és neutral en teoria, però està limitat a la pràctica.
La prioritat hauria de canviar cap a la criptografia combinada amb diversificada propietat del maquinari.
Sense diversitat d’infraestructures, la neutralitat esdevé fràgil sota l’estrès. Si un conjunt reduït de proveïdors pot limitar les càrregues de treball, restringir regions o imposar portes de compliment, el sistema hereta la seva influència. L’equitat de les regles per si sola no garanteix l’equitat de participació.
L’especialització supera la generalització en mercats informàtics
Competir amb AWS sovint es planteja com una qüestió d’escala, però això també és enganyós.
Els hiperescaladors optimitzen la flexibilitat. La seva infraestructura està dissenyada per servir milers de càrregues de treball simultàniament. Capes de virtualització, sistemes d’orquestració, eines de compliment empresarial i garanties d’elasticitat: aquestes característiques són punts forts per a la computació de propòsit general, però també són capes de costos.
La prova de coneixement zero i el càlcul verificable són deterministes, densos en càlcul, restringit l’amplada de banda de memòria i sensibles a la canalització. En altres paraules, premien l’especialització.
Una xarxa de proves creada específicament competeix en proves per dòlar, prova per watt i prova per latència. Quan el maquinari, el programari de prova, el disseny de circuits i la lògica d’agregació s’integren verticalment, els compostos d’eficiència. L’eliminació de capes d’abstracció innecessàries redueix la sobrecàrrega. El rendiment sostingut en clústers persistents supera l’escala elàstica per a càrregues de treball constants i estretes.
Als mercats informàtics, l’especialització supera constantment la generalització per a tasques estables i de gran volum. AWS optimitza per opcionalitat. Una xarxa de proves dedicada s’optimitza per a una classe de treball.
L’estructura econòmica també és diferent. Preu dels hiperescaladors per als marges de l’empresa i una àmplia variabilitat de la demanda. Una xarxa alineada al voltant dels incentius del protocol pot amortitzar el maquinari de manera diferent i ajustar el rendiment en funció d’una utilització sostinguda en lloc de models de lloguer a curt termini.
La competència esdevé sobre l’eficiència estructural per a una càrrega de treball definida.
Utilitzeu hiperescaladors, però no en dependreu
Els hiperescalers no són l’enemic. Són proveïdors d’infraestructures eficients, fiables i distribuïts globalment. El problema és la dependència.
Una arquitectura resistent utilitza els principals proveïdors per a la capacitat de ràfega, la redundància geogràfica i la distribució de punta, però no ancora les funcions bàsiques a un sol proveïdor o a un petit grup de proveïdors.
La liquidació, la verificació final i la disponibilitat d’artefactes crítics haurien de romandre intactes fins i tot si una regió del núvol falla, un venedor surt d’un mercat o les restriccions de la política s’endureixin.
Aquí és on l’emmagatzematge descentralitzat i la infraestructura informàtica esdevenen una alternativa viable. Els artefactes de prova, els registres històrics i les entrades de verificació no s’han de retirar a criteri del proveïdor. En canvi, haurien de viure amb una infraestructura econòmicament alineada amb el protocol i estructuralment difícil de desactivar.
Els Hypescalers s’han d’utilitzar com a opcional accelerador en lloc d’alguna cosa fonamental per al producte. El núvol encara pot ser útil per a l’abast i les ràfegues, però la capacitat del sistema per produir proves i persistir de què depèn la verificació no està controlada per un sol proveïdor.
En aquest sistema, si un hiperescalador desapareix demà, la xarxa només s’alentiria, perquè les parts que més importen són propietat i són gestionades per una xarxa més àmplia en lloc de llogar-se des d’una gran marca.
Així és com reforçar l’ethos de la descentralització de la cripto.
