Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Investigador independiente | Asesor @ambergroup_io | Investigador Especial @IOSGVC| Ciencia Hardcore | Anteriormente:@peckshield | DMs para Collab
#OKX @star_okx de arroz de Nochevieja China lo dijo muy bien y tocó los puntos de dolor de la industria en medio de la conversación y las risas.
Si el trasfondo de las criptomonedas es solo una cultura hostil de casinos como "stud", "PVP", "xx life" y "100x rico", entonces en realidad estamos matando el futuro de esta industria con nuestras propias manos, y también estamos vendiendo a corto el $BTC que tenemos en nuestras propias manos.
Cuando las stablecoins, RWA, AI+Crypto, DeFi, etc., se popularizan gradualmente, la cripto dejó de ser la industria marginal despreciada por los externos, sino una industria paralela que es verdaderamente equivalente a las finanzas verticales tradicionales. No disfrutes de los beneficios de la industria mientras usas vulgares "narrativas de jugadores" para estigmatizar nuestras antiguas creencias.
Negándose a eclipsarse a sí misma, Crypto merece una mejor definición.
5.37K
Me quedé sin palabras y, en menos de una semana, mi segunda cuenta de Claude fue baneada sin motivo aparente.
Pero, para ser sincera, esta vez no había olas en mi corazón, e incluso quise reírme un poco. ¿Por qué?
Porque ya ha visto a través de la lógica subyacente de estar inexplicablemente bloqueado, y porque tiene un conjunto de estrategias de afrontamiento más inteligentes en sus manos. Especialmente después de un mes trabajando en la dirección del Vibe Coding, he establecido un sistema de pensamiento maduro para controlar la IA, lo cual es suficiente para luchar con calma contra este repentino "cambio".
Hablemos primero de las razones, y las razones son obvias: no es más que el frecuente golpe al nodo VPN para activar el control remoto de riesgos, o la discrepancia entre el lugar de pago de la tarjeta Visa y la IP del terminal que activa una advertencia de seguridad, o el consumo de tokens a corto y alta frecuencia que el sistema determina simplemente y de forma burda como un bot malicioso.
Pero hay una razón más profunda: @claudeai Sea of Stars es un servicio SaaS a nivel empresarial. Se preocupa por grandes clientes como las empresas Fortune 500, y a Anthropic no le importan los usuarios individuales de Pro o Max como nosotros, que dependen mucho de la versión web, e incluso la consideran un factor de riesgo incontrolable.
Por lo tanto, no hay necesidad de seguir luchando con el tema de la prohibición. La lección más importante que me ha enseñado la IA: nunca vincules tu productividad principal a una cuenta web extremadamente volátil.
De hecho, la verdadera solución es construir un sistema de servicios de localización de IA independiente del modelo:
1) Usar OpenRouter/Antigravity para implementar el enrutamiento de acceso al modelo, degradar Claude a un motor de inferencia subyacente que pueda conmutarse en cualquier momento, para evitar atascarse;
2) Utilizar APIs de terceros equipadas con Claude Code + Skills + Cowork para reconstruir un conjunto de lógica de interacción, abandonar el método de interacción más incontrolable del front-end web, y no preocuparse por la pérdida de una gran cantidad de indicaciones/instrucciones de configuración y otros datos causados por ser baneado, y dejar que la IA resida en su sistema de archivos para ofrecer servicios;
3) Leer directamente la base de código local a través del protocolo MCP, llamar a tu base de conocimiento privada en tiempo real con Local RAG (Local Search Enhancement), e incluso ejecutar automáticamente pruebas, commits Git y bucles de corrección de errores en el terminal.
En resumen, abandonar el modelo de uso de la IA de "alquiler en la nube" y captar activamente la "soberanía local" es la forma definitiva de Vibe Coding.
¿Qué es Vibe Coding si solo controlas el modelo más fuerte pero no puedes controlar el derecho inalienable a usar el modelo?
2.01K
Durante la conferencia CES, la recién lanzada arquitectura Rubin de NVIDIA se ha convertido en el centro de las recientes discusiones de mercado, cuál es otro gran avance además de la arquitectura MOE, qué está adaptado para la era de la IA Agente, etc., lo observé más de cerca y sí sentí el olor de la "autorevolución" de Lao Huang:
1) En el pasado, Nvidia dependía de las ventajas del hardware de la GPU, aprovechando el periodo de dividendos cuando los grandes gigantes de la IA compraban frenéticamente potencia de cálculo para entrenar modelos de gran tamaño. En ese momento, la lógica era muy sencilla: quien tuviera más tarjetas gráficas podía entrenar el mejor modelo.
Pero ahora la guerra de la IA ha pasado del campo de batalla de la "potencia de cálculo" a la "inferencia", especialmente tras la llegada de la era Agentic, la IA necesita lidiar con razonamientos contextuales de alta frecuencia, varios pasos y ultralargos.
En este momento, los parámetros del modelo son billones, el rendimiento de datos es extremadamente grande, no importa lo rápido que sea la GPU, si los datos de memoria no son lo suficientemente rápidos, la GPU tiene que quedarse inactiva, que es la "pared de almacenamiento", es decir, la tarjeta gráfica ya no puede resolver el problema y sigue necesitando una alta memoria de vídeo y ancho de banda para soportarla. Eso es lo que Rubin intentaba resolver.
2) Por lo tanto, el primer HBM4 de Rubin puede soportar la cuarta generación de memoria de alto ancho de banda, lo que puede hacer que el ancho de banda alcance los 22TB/s. Pero lo más importante es que coopera con la tecnología NVLink 6 (260TB/s de ancho de banda en el rack), lo que lógicamente convierte 72 tarjetas en "un chip gigante".
¿Qué significa esto? Antes, cuando comprabas una tarjeta gráfica, comprabas componentes independientes, y la transmisión de datos entre tarjetas era como un mensajero que pasaba por varias estaciones de transferencia. Ahora Rubin utiliza interconexiones de altísimo nivel para hacer que los datos fluyan entre GPUs con casi ninguna distancia física, y 72 trabajadores ya no trabajan por separado, sino que comparten cerebro.
Creo que esta es la verdadera jugada clave de Rubin: no solo apilar parámetros de hardware, sino refactorizar el flujo de datos de todo el sistema.
3) Si MOE (Arquitectura de Modelos Expertos Híbridos) es un golpe de reducción de dimensionalidad para el modelo de negocio de "tarjetas apiladas violentas" de Nvidia por parte de estrellas emergentes como DeepSeek, entonces Rubin es un contraataque estratégico de Lao Huang, sea como sea que lo mires. Por supuesto, este truco también significa que Nvidia tiene que despedirse del viejo modelo de apilamiento violento de cartas.
Lao Huang calcula otra cuenta: si la era Agentica realmente llega a miles de industrias, debe superar el obstáculo del coste de los tokens, que es la tendencia general que Nvidia no puede mantener.
En opinión de Lao Huang, en lugar de esperar a que Google, Meta y otros grandes fabricantes se infiltren en el mercado, o que DeepSeek y otros modelos los subviertan, es mejor tomar la iniciativa para ser quien rompa el juego.
4) La pregunta es, ¿cómo se enfrentará Nvidia a sí misma después de la autorevolución? El camino también está muy claro, desde "vender tarjetas gráficas" hasta "vender sistemas", desde servir a unos pocos grandes fabricantes hasta hacer que la IA sea realmente popular.
En el pasado, cuando comprabas el H100, Nvidia ganaba dinero con la tarjeta gráfica, y Rubin te lo dirá en el futuro: tienes que comprar un conjunto completo de racks NVL72: 72 GPUs, una switch NVLink, sistema completo de refrigeración líquida, armarios e incluso pilas de software compatibles, todo empaquetado y vendido a ti.
El ábaco de Lao Huang también es muy claro: parece que el coste del hardware empaquetado es más caro, pero con la adición de una eficiencia de razonamiento extrema, el coste unitario de la IA del comprador se reduce y, naturalmente, no perderá cuota de mercado.
Pero el umbral para jugadores pequeños y medianos también es más alto. Solo los grandes fabricantes y proveedores de servicios en la nube pueden permitirse participar, lo que agravará aún más el monopolio de la potencia computacional. En la situación competitiva actual, puede considerarse una gran apuesta, porque una vez que surja un problema con la producción en masa de HBM4, será reemplazado por alternativas lanzadas por AMD, Google TPU y otras alternativas que aprovechan el periodo de oportunidad, y el sueño de Nvidia de vender el sistema puede no ser tan fácil de cumplir.
1.8K
Populares
Ranking
Favoritas