Amb la intel·ligència artificial (IA) aparentment destinada a convertir-se en central per a les aplicacions i els serveis digitals quotidians, l’ancoratge de models d’IA a les cadenes de blocs públiques pot ajudar a “establir un camí de procedència permanent”, va afirmar Michael Heinrich, director general de 0G Labs. Segons Heinrich, un rastre de procedència d’aquest tipus permet “anàlisis de seguiment a posteriori o en temps real” per detectar qualsevol manipulació, injecció de biaix o ús de dades problemàtiques durant l’entrenament del model d’IA.
Ancoratge de la IA a les ajudes de Blockchain per fomentar la confiança pública
En les seves respostes detallades a les preguntes de Bitcoin.com News, Heinrich, un poeta i enginyer de programari, va argumentar que l’ancoratge dels models d’IA d’aquesta manera ajuda a mantenir la seva integritat i fomenta la confiança del públic. A més, va suggerir que la naturalesa descentralitzada de les cadenes de blocs públiques els permet “servir com a registre a prova de manipulacions i resistent a la censura per als sistemes d’IA”.
Pel que fa a la disponibilitat de dades o la manca d’aquestes, el director general de 0G Labs va dir que això preocupa tant als desenvolupadors com als usuaris. Per als desenvolupadors que es basen en solucions de capa 2, la disponibilitat de dades és important perquè les seves respectives “aplicacions han de poder confiar en la verificació segura del client lleuger per a la correcció”. Per als usuaris, la disponibilitat de dades els assegura que “un sistema funciona com es pretén sense haver d’executar nodes complets ells mateixos”.
Malgrat la seva importància, la disponibilitat de dades segueix sent costosa, i representa fins al 90% dels costos de transacció. Heinrich ho atribueix al rendiment limitat de dades d’Ethereum, que és d’aproximadament 83 KB/s. En conseqüència, fins i tot petites quantitats de dades es tornen prohibitivament costoses de publicar a la cadena, va dir Heinrich.
A continuació es mostren les respostes detallades d’Heinrich a totes les preguntes enviades.
Bitcoin.com News (BCN): Quin és el problema de disponibilitat de dades (DA) que ha estat afectant l’ecosistema Ethereum? Per què els importa als desenvolupadors i usuaris?
Michael Heinrich (MH): El problema de disponibilitat de dades (DA) es refereix a la necessitat que els clients lleugers i altres parts fora de la cadena puguin accedir i verificar de manera eficient totes les dades i l’estat de la transacció de la cadena de blocs. Això és crucial per a solucions d’escalabilitat, com ara els paquets de capa 2 i les cadenes fragmentades que executen transaccions fora de la cadena principal d’Ethereum. Els blocs que contenen transaccions executades a les xarxes de capa 2 s’han de publicar i emmagatzemar en algun lloc perquè el client lleuger pugui realitzar una verificació addicional.
Això és important per als desenvolupadors que es basen en aquestes solucions d’escala, ja que les seves aplicacions han de poder confiar en la verificació segura del client lleuger per a la correcció. També és important per als usuaris que interactuen amb aquestes aplicacions de la capa 2, ja que necessiten la seguretat que el sistema funciona com es pretén sense haver d’executar ells mateixos nodes complets.
BCN: Segons un informe de Blockworks Research, els costos de DA representen fins al 90% dels costos de transacció. Per què les solucions d’escalabilitat existents tenen dificultats per oferir el rendiment i la rendibilitat necessaris per a les aplicacions descentralitzades d’alt rendiment (dapps)?
MH: Els enfocaments d’escala de la capa 2 existents com Optimistic i ZK Rollups lluiten per oferir una disponibilitat eficient de dades a escala a causa del fet que necessiten publicar blobs de dades sencers (dades de transaccions, arrels d’estat, etc.) a la xarxa principal d’Ethereum perquè els clients lleugers puguin mostrejar i mostrar. verificar. La publicació d’aquestes dades a Ethereum comporta costos molt elevats; per exemple, un bloc OP costa 140 dòlars per publicar només 218 KB.
Això es deu al fet que el rendiment limitat de dades d’Ethereum d’uns 83 KB/s significa que fins i tot petites quantitats de dades són molt cares de publicar a la cadena. Així, mentre que els rollups aconsegueixen escalabilitat executant transaccions fora de la cadena principal, la necessitat de publicar dades a Ethereum per a la verificació es converteix en el coll d’ampolla que limita la seva escalabilitat general i la seva rendibilitat per a aplicacions descentralitzades d’alt rendiment.
BCN: La vostra empresa, 0G Labs, també coneguda com Zerogravity, va llançar recentment la seva xarxa de proves amb l’objectiu d’aportar la intel·ligència artificial (IA) a la cadena, una càrrega de dades que les xarxes existents no són capaços de gestionar. Podríeu explicar als nostres lectors com la naturalesa modular de 0G ajuda a superar les limitacions dels algorismes de consens tradicionals? Què fa que modular sigui el camí correcte per crear casos d’ús complexos, com ara jocs en cadena, IA en cadena i finançament descentralitzat d’alta freqüència?
MH: La innovació clau de 0G és separar les dades en els carrils d’emmagatzematge de dades i de publicació de dates d’una manera modular. La capa 0G DA es troba a la part superior de la xarxa d’emmagatzematge 0G que està optimitzada per a una ingestió i recuperació de dades extremadament ràpides. S’emmagatzemen dades grans com les taques de blocs i només arriben al protocol de consens els compromisos i les proves de disponibilitat minúscules. Això elimina la necessitat de transmetre totes les taques a través de la xarxa de consens i, per tant, evita els colls d’ampolla de difusió d’altres enfocaments de DA.
A més, 0G pot escalar horitzontalment capes de consens per evitar que una xarxa de consens es converteixi en un coll d’ampolla, aconseguint així una escalabilitat DA infinita. Amb un sistema de consens disponible, la xarxa podria assolir velocitats de 300-500 MB/s, que ja són un parell de magnituds més ràpides que els sistemes DA actuals, però encara no compleixen els requisits d’amplada de banda de dades per a aplicacions d’alt rendiment, com ara la formació del model LLM que es pot fer. els 10s de GB/s.
Una creació de consens personalitzada podria aconseguir aquestes velocitats, però què passa si molts participants volen entrenar models al mateix temps? Així, vam introduir una escalabilitat infinita mitjançant la fragmentació a nivell de dades per satisfer les demandes futures d’aplicacions blockchain d’alt rendiment mitjançant la utilització d’un nombre arbitrari de capes de consens. Totes les xarxes de consens comparteixen el mateix conjunt de validadors amb el mateix estat de staking perquè mantinguin el mateix nivell de seguretat.
En resum, aquesta arquitectura modular permet escalar per gestionar càrregues de treball extremadament pesades en dades, com ara entrenament/inferència de models d’IA en cadena, jocs en cadena amb grans requisits d’estat i aplicacions DeFi d’alta freqüència amb una sobrecàrrega mínima. Aquestes aplicacions no són possibles en monolítics. cadenes avui.
BCN: La comunitat de desenvolupadors d’Ethereum ha explorat moltes maneres diferents d’abordar el problema de la disponibilitat de dades a la cadena de blocs. Proto-danksharding, o EIP-4844, es veu com un pas en aquesta direcció. Creieu que aquests no satisfan les necessitats dels desenvolupadors? En cas afirmatiu, per què i on?
MH: Proto-danksharding (EIP-4844) fa un pas important per millorar les capacitats de disponibilitat de dades d’Ethereum introduint l’emmagatzematge de blobs. El pas final serà Danksharding, que divideix la xarxa Ethereum en segments més petits, cadascun responsable d’un grup específic de transaccions. Això donarà com a resultat una velocitat DA de més d’1 MB/s. Tanmateix, això encara no satisfà les necessitats de futures aplicacions d’alt rendiment com s’ha comentat anteriorment.
BCN: Què és la disponibilitat de dades “programables” de 0G i què la diferencia d’altres DA en termes d’escalabilitat, seguretat i costos de transacció?
MH: El sistema DA de 0G pot permetre la màxima escalabilitat de qualsevol cadena de blocs, per exemple, un rendiment de dades almenys 50.000 vegades superior i uns costos 100 vegades més baixos que Danksharding al full de ruta d’Ethereum sense sacrificar la seguretat. Com que construïm el sistema 0G DA a sobre del sistema d’emmagatzematge descentralitzat de 0G, els clients poden determinar com utilitzar les seves dades. Per tant, la programabilitat en el nostre context significa que els clients poden programar/personalitzar la persistència, la ubicació, el tipus i la seguretat de les dades. De fet, 0G permetrà als clients abocar el seu estat sencer en un contracte intel·ligent i carregar-lo de nou, resolent així el problema de la inflació de l’estat que afecta a moltes cadenes de blocs actuals.
BCN: A mesura que la IA esdevé una part integral de les aplicacions Web3 i de les nostres vides digitals, és crucial garantir que els models d’IA siguin justos i fiables. Els models d’IA esbiaixats entrenats en dades manipulades o falses podrien causar estralls. Quins són els vostres pensaments sobre el futur de la IA i la naturalesa immutable de la cadena de blocs de paper que podria tenir per mantenir la integritat dels models d’IA?
MH: A mesura que els sistemes d’IA esdevenen cada cop més centrals per a les aplicacions i serveis digitals que afecten moltes vides, és primordial garantir la seva integritat, equitat i auditabilitat. Els models d’IA esbiaixats, manipulats o compromesos podrien tenir conseqüències perjudicials generalitzades si es desplegaven a escala. Imagineu un escenari de terror d’un agent malvat d’IA entrenant un altre model/agent que s’implementa directament en un robot humanoide.
Les propietats bàsiques d’immutabilità, transparència i transicions d’estat demostrables de Blockchain poden jugar un paper vital aquí. Amb l’ancoratge de models d’IA, les seves dades d’entrenament i els registres auditables complets del procés de creació/actualització de models a les cadenes de blocs públiques, podem establir un rastre de procedència permanent. Això permet que l’anàlisi de seguiment ex post o en temps real detecti qualsevol manipulació, injecció de biaix, ús de dades problemàtiques, etc. que puguin haver compromès la integritat dels models.
Les xarxes de blockchain descentralitzades, evitant punts únics de fallada o control, poden servir com a registre a prova de manipulacions i resistent a la censura per als sistemes d’IA. La seva transparència permet auditar públicament la cadena de subministrament d’IA d’una manera molt difícil amb els canals de desenvolupament d’IA centralitzats i opacs actuals. Imagineu-vos tenir un model d’IA més enllà de la intel·ligència humana; Suposem que va proporcionar algun resultat, però tot el que va fer va ser modificar les entrades de la base de dades en un servidor central sense lliurar el resultat. En altres paraules, pot fer trampes més fàcilment en sistemes centralitzats.
A més, com proporcionem al model/agent els mecanismes d’incentius adequats i el col·loquem en un entorn on no pugui ser dolent. Blockchain x AI és la resposta perquè els futurs casos d’ús social com el control del trànsit, la fabricació i els sistemes administratius puguin ser realment governats per la IA per al bé i la prosperitat de les persones.
Què en penses d’aquesta entrevista? Comparteix les teves opinions a la secció de comentaris a continuació.
