Cap empresa important d’IA ha aprovat els robots de comerç de cripto. Cap laboratori fronterer és un model d’entrenament per a això. No obstant això, un nombre creixent de comerciants utilitzen Claude d’Anthropic per construir robots automatitzats de Polymarket, reclamant beneficis de milions. Els fils virals suggereixen que qualsevol pot fer-ho.
Però els guanyadors més forts estan utilitzant estratègies que qualsevol fons quant podria replicar durant la nit.
Tres supòsits, zero garanties
La narració es basa en tres supòsits. Les grans tecnologies eventualment crearan models de comerç fets per a aquest propòsit. Els comerciants individuals poden mantenir un avantatge contra les institucions. Els agents d’IA autònoms poden guanyar diners de manera fiable als mercats oberts.
Haseeb Qureshi, soci director de Dragonfly Capital, no està d’acord en els tres aspectes. A l’entrevista de Bankless, va assenyalar el risc de responsabilitat, l’estructura del mercat i la naturalesa mercantilitzada de la IA. En conjunt, aquestes forces fan que aquesta febre de l’or sigui molt menys prometedora del que sembla.
La trampa de la responsabilitat
Qureshi diu que construir IA per a tasques de blockchain és tècnicament trivial. Un simulador EVM pot provar els préstecs en bucle o els intercanvis de testimonis amb facilitat. Els models són capaços. Simplement no s’han apuntat a la criptografia.
El motiu és institucional, no tècnic. En primer lloc, la criptografia porta un equipatge de reputació del qual els laboratoris d’IA no volen formar part. “Crypto s’enfada”, va dir Qureshi.
Però la veritable barrera és la responsabilitat. Imagineu que Claude fa malbé un comerç apalancat i elimina 2 milions de dòlars. O envia 10.000 dòlars a una adreça de gravador per error. Cap exempció de responsabilitat seria prou fort per evitar la reacció.
“Passarà al 100%”, va dir Qureshi. “Qualsevol persona que tingui una mala experiència, es tornarà super viral”.
Va comparar la gestió de la cartera criptogràfica d’un usuari amb la injecció de pèptids xinesos no regulats. El desavantatge menysprea qualsevol ingressos a l’alça. Els consells de codificació que han anat malament són vergonyosos. Una cartera esgotada és una demanda.
Anthropic ja ha publicat investigacions sobre IA i blockchain. El seu estudi de banc SCONE va provar com els models de frontera exploten les vulnerabilitats dels contractes intel·ligents. Però això és investigació de ciberseguretat, no un full de ruta de producte.
El punt d’inflexió vindrà de la competició. Quan un laboratori decideixi que el volum de criptografia és massa estratègic per cedir als rivals, començarà l’entrenament. Fins aleshores, silenci.
El problema de Jane Street
Fins i tot sense una gran tecnologia, la narrativa comercial s’enfronta a un mur estructural. Qualsevol estratègia construïda sobre un model disponible públicament està, per definició, a l’abast de tothom, incloses les empreses quantitatives institucionals.
El punt de Qureshi és senzill. Si un bot bàsic de Claude pot trobar operacions rendibles a Polymarket, Jane Street pot executar-ne 5.000 simultàniament. L’empresa té una infraestructura més ràpida i un capital més profund. Pot escalar qualsevol avantatge rendible fins a zero abans que un comerciant minorista iniciï sessió. “Si està en el model brut, Jane Street ho està fent ara mateix”, va dir.
L’única manera de guanyar un bot minorista és amb senyals nous absents del model base. Una instància de Claude apuntada a una API no és això.
Per què “Anar a guanyar diners” no funciona
Qureshi va estendre l’argument més enllà del comerç a la fantasia més àmplia d’agents d’IA autònoms que obtenien ingressos pel seu compte.
La primera opció és contractar-se: que l’agent d’IA vengui la seva mà d’obra. Però això és econòmicament impossible. Existeixen milions d’instàncies de Claude idèntiques. Cap té una habilitat única o un avantatge d’ubicació. La contractació d’un agent d’IA és només comprar un càlcul antròpic amb passos addicionals. Cap comprador racional pagaria per sobre del preu de l’API d’Anthropic per la mateixa producció.
La segona opció és iniciar un negoci. Això sembla més prometedor, però Qureshi va argumentar que falla per una raó més subtil. Cada agent d’IA extreu idees del mateix conjunt de dades de formació. El resultat és que tots convergeixen en els mateixos plans genèrics. Demaneu una idea d’inici a deu instàncies de Claude i obtindreu deu variacions del mateix to.
L’emprenedoria real, va dir Qureshi, requereix el que Peter Thiel anomena “secrets guanyats”. Són idees que neixen d’experiències específiques en llocs concrets en moments concrets. Bankless va construir la seva marca perquè els seus fundadors tenien una combinació única d’experiència en criptografia, narració d’històries i instint comunitari. Ho van tenir exactament en el moment adequat. Un Claude acabat de filar no té cap experiència vital de la qual extreure. No té secrets guanyats.
Això porta a una conclusió incòmoda. Els agents d’IA no poden guanyar en el comerç. No es poden contractar. No poden generar idees de negoci originals. Aleshores, on és el seu autèntic avantatge sobre els humans? La resposta de Qureshi va ser deliberadament provocativa: crim. Aquest no és un futur que agraeix Qureshi. És allà on porta la lògica quan elimineu totes les baranes institucionals.
Què significa això
Els comerciants que construeixen robots de Polymarket són reals. Alguns beneficis també poden ser reals, de moment. Però les empreses quantificades institucionals arbitraran qualsevol alfa del model base. La gran tecnologia no s’entrenarà en criptografia fins que sigui forçada per la competència. I l’economia d’agents autònoms pot trobar el seu primer model viable fora de l’abast de les forces de l’ordre.
Per al comerciant mitjà que llegeix titulars sobre els robots d’IA que encunyen milions, l’aportació és implícita. La casa sempre guanya. En el comerç d’IA, la casa executa 5.000 bots amb una latència inferior a un mil·lisegon.
La publicació Per què cap expert recomanaria AI Trading Bots va aparèixer primer a BeInCrypto.
