bitcoin
Bitcoin (BTC) $ 77,586.00
ethereum
Ethereum (ETH) $ 2,365.67
tether
Tether (USDT) $ 1.00
bnb
BNB (BNB) $ 640.04
usd-coin
USDC (USDC) $ 0.999881
xrp
XRP (XRP) $ 1.44
binance-usd
BUSD (BUSD) $ 0.999909
dogecoin
Dogecoin (DOGE) $ 0.096389
cardano
Cardano (ADA) $ 0.254407
solana
Solana (SOL) $ 87.31
polkadot
Polkadot (DOT) $ 1.29
tron
TRON (TRX) $ 0.332195
bitcoin
Bitcoin (BTC) $ 77,586.00
ethereum
Ethereum (ETH) $ 2,365.67
tether
Tether (USDT) $ 1.00
bnb
BNB (BNB) $ 640.04
usd-coin
USDC (USDC) $ 0.999881
xrp
XRP (XRP) $ 1.44
binance-usd
BUSD (BUSD) $ 0.999909
dogecoin
Dogecoin (DOGE) $ 0.096389
cardano
Cardano (ADA) $ 0.254407
solana
Solana (SOL) $ 87.31
polkadot
Polkadot (DOT) $ 1.29
tron
TRON (TRX) $ 0.332195

L’AI de codi obert no és el joc final: AI-ONCHAIN ​​és

-

Divulgació: Les opinions i opinions expressades aquí pertanyen únicament a l’autor i no representen les opinions i opinions de l’editorial de Crypto.News.

Al gener de 2025, el R1 de DeepSeek va superar Chatgpt com l’aplicació gratuïta més descarregada a la botiga d’aplicacions d’Apple dels Estats Units. A diferència dels models propietaris com ChatGPT, DeepSeek és de codi obert, és a dir, qualsevol pot accedir al codi, estudiar-lo, compartir-lo i utilitzar-lo per als seus propis models.

També us pot agradar: DeepSeek, Xina i Rússia AI Partnership: Western World està en compte | Opinió

Aquest canvi ha impulsat la il·lusió per la transparència en la IA, impulsant la indústria cap a una major obertura. Fa poques setmanes, el febrer de 2025, Anthropic va llançar Claude 3.7 Sonnet, un model de raonament híbrid que està parcialment obert per a les previsualitzacions de la investigació, amplificant també la conversa al voltant de la IA accessible.

Tot i que, tot i que aquests desenvolupaments impulsen la innovació, també exposen una concepció errònia perillosa: la IA de codi obert és inherentment més segura (i més segura) que altres models tancats.

La promesa i els entrebancs

Els models de IA de codi obert com el R1 de DeepSeek i els darrers agents de codificació de Replit ens mostren el poder de la tecnologia accessible. DeepSeek afirma que va construir el seu sistema per només 5,6 milions de dòlars, gairebé una desena part del cost del model de Meta LLAMA. Mentrestant, l’agent de Replit, sobrealimentat per Claude 3.5 Sonnet, permet a qualsevol, fins i tot als no codificadors, construir programari a partir de les indicacions del llenguatge natural.

Les implicacions són enormes. Això vol dir que, bàsicament, tothom, incloses empreses més petites, startups i desenvolupadors independents, ara poden utilitzar aquest model existent (i molt robust) per construir noves aplicacions de IA especialitzades, inclosos nous agents de la IA, a un cost molt inferior, a un ritme més ràpid i amb una facilitat més gran. Això podria crear una nova economia de la IA on l’accessibilitat als models és King.

Llegiu també  AxLabs actualitza neow3j a v3.23.0 amb compatibilitat Neo v3.7.x

Però, quan el codi obert brilla —accessibilitat—, també s’enfronta a un augment de l’escrutini. Accés gratuït, com es veu amb el model de 5,6 milions de dòlars de DeepSeek, democratitza la innovació, però obre la porta als riscos cibernètics. Els actors maliciosos podrien modificar aquests models per elaborar malware o explotar vulnerabilitats més ràpidament que els pegats.

AI de codi obert no té garanties de manera predeterminada. Es basa en un llegat de transparència que ha fortificat la tecnologia durant dècades. Històricament, els enginyers es van recolzar en la “seguretat mitjançant l’obfuscació”, que amaga els detalls del sistema darrere de les parets propietàries. Aquest enfocament va disminuir: les vulnerabilitats van aparèixer, sovint descobertes primer per actors dolents. El codi obert va llançar aquest model, exposant el codi, com el R1 de DeepSeek o l’agent de Reprit, a l’escrutini públic, fomentant la resiliència mitjançant la col·laboració. No obstant això, ni els models d’IA oberts ni tancats garanteixen de manera inherent una verificació robusta.

Les apostes ètiques són igual de crítiques. La IA de codi obert, com els seus homòlegs tancats, pot reflectir biaixos o produir sortides nocives arrelades a les dades de formació. Aquest no és un defecte únic per a l’obertura; És un repte de la rendició de comptes. La transparència sola no esborra aquests riscos ni impedeix plenament el mal ús. La diferència rau en la manera en què el codi obert convida a la supervisió col·lectiva, una força que sovint manquen els models propietaris, tot i que encara exigeix ​​mecanismes per assegurar la integritat.

La necessitat de verificable IA

Perquè la IA de codi obert sigui més confiança, necessita verificació. Sense això, els models oberts i tancats es poden alterar o utilitzar malament, amplificant la desinformació o les decisions automatitzades que es configuren cada cop més el nostre món. No n’hi ha prou amb que els models siguin accessibles; També han de ser auditius, a prova de manipulació i responsables.

Llegiu també  Spheron Tapes Blockchain per al pont de la potència de la potència i la interoperabilitat per a les aplicacions AI

Mitjançant l’ús de xarxes distribuïdes, les cadenes de blocs poden certificar que els models d’AI es mantenen sense alteració, les seves dades de formació es mantenen transparents i les seves sortides es poden validar amb les línies de referència conegudes. A diferència de la verificació centralitzada, que depèn de confiar en una entitat, l’enfocament criptogràfic descentralitzat i descentralitzat de Blockchain impedeix que els actors dolents s’alimentin a les portes tancades. També passa el guió sobre el control de tercers, difonent la supervisió per una xarxa i creant incentius per a una participació més àmplia, a diferència d’avui, on els col·laboradors no pagats combinen conjunts de dades de trilions de trilions sense consentiment ni recompensa, després pagueu per utilitzar els resultats.

Un marc de verificació amb blockchain aporta capes de seguretat i transparència a la IA de codi obert. Emmagatzemar models Onchain o mitjançant empremtes digitals criptogràfiques garanteix que les modificacions es facin un seguiment obertament, permetent als desenvolupadors i als usuaris confirmar que utilitzen la versió prevista.

Captar els orígens de dades de formació en una blockchain demostra que els models es basen en fonts imparcials, de qualitat, tallant riscos de biaixos ocults o entrades manipulades. A més, les tècniques criptogràfiques poden validar les sortides sense exposar els usuaris de dades personals que comparteixen (sovint sense protecció), equilibrant la privadesa amb la confiança a mesura que es reforcin els models.

La naturalesa transparent i resistent a la manipulació de Blockchain ofereix la rendició de comptes que les necessitats de l’AI de codi obert. Quan els sistemes d’AI prosperen ara a les dades d’usuari amb poca protecció, Blockchain pot premiar els col·laboradors i salvaguardar les seves entrades. En teixir proves criptogràfiques i governança descentralitzada, podem construir un ecosistema d’AI obert, segur i menys vist als gegants centralitzats.

Llegiu també  El nou sistema de prova ZK de Polygon, 'Plonky3', es presenta com a conjunt d'eines de codi obert

El futur de l’AI es basa en la confiança … onchain

L’AI de codi obert és una peça important del trencaclosques i la indústria de l’IA hauria de treballar per aconseguir encara més transparència, però no ser codi obert no és la destinació final.

El futur de l’AI i la seva rellevància es basarà en la confiança, no només l’accessibilitat. I la confiança no pot ser oberta. S’ha de construir, verificar i reforçar a tots els nivells de la pila AI. La nostra indústria ha de centrar la seva atenció en la capa de verificació i la integració de la IA segura. Per ara, portar AI onchain i aprofitar la tecnologia blockchain és la nostra aposta més segura per crear un futur més fiable.

Llegiu -ne més: La gran tecnologia és massa gran per guanyar el futur AI | Opinió

David Rank

David Rank és el cofundador i conseller delegat de Warden Protocol, una empresa que es centra en portar IA segura a Web3. Abans de cofundar Warden, va dirigir la investigació i el desenvolupament a Qredo Labs, impulsant innovacions de Web3 com ara cadenes sense estat, Webassembly i proves de coneixement zero. Abans de Qredo, va tenir funcions en producte, analítica de dades i operacions tant a Uber com a Binance. David va començar la seva carrera com a analista financer en capital de risc i capital privat, finançant startups a Internet de gran creixement. És un MBA a la Universitat Panteó-Sorbona.

L’AI de codi obert no és el joc final: AI-ONCHAIN ​​és

ÚLTIMES PUBLICACIONS

El més popular