Deutsch한국어日本語中文EspañolFrançaisՀայերենNederlandsРусскийItalianoPortuguêsTürkçePortfolio TrackerSwapCryptocurrenciesPricingIntegrationsNewsEarnBlogNFTWidgetsDeFi Portfolio TrackerOpen API24h ReportPress KitAPI Docs

Tether afirma que su marco QVAC ya entrena IA de 1.000 millones de parámetros en smartphones

5h ago
bullish:

0

bearish:

0

Tether anunció que QVAC Fabric ya permite ajustar y ejecutar modelos de inteligencia artificial de hasta 1.000 millones de parámetros en hardware de consumo, incluidos smartphones modernos. La compañía sostiene que el avance reduce drásticamente el uso de memoria y computación, y abre la puerta a una IA más local, privada y menos dependiente de la nube.
***

  • Tether presentó el primer marco multiplataforma de ajuste fino LoRA para modelos BitNet de Microsoft, orientado a GPUs de consumo y teléfonos inteligentes.
  • La empresa asegura que logró ajustar modelos BitNet de 125 millones y 1.000 millones de parámetros en un Samsung S25 y un iPhone 16.
  • Según Tether, la iniciativa busca reducir la dependencia de NVIDIA y de la infraestructura centralizada para impulsar una IA más accesible y descentralizada.

 


Tether anunció un nuevo avance en su estrategia de inteligencia artificial con el lanzamiento de un marco multiplataforma de ajuste fino LoRA para modelos BitNet de Microsoft, también conocidos como modelos de lenguaje de 1 bit. La compañía indicó que esta capacidad forma parte de QVAC Fabric y que permite entrenar y ejecutar modelos de hasta 1.000 millones de parámetros en hardware de consumo, incluyendo laptops, GPUs domésticas y teléfonos inteligentes modernos.

El anuncio, fechado el 17 de marzo de 2026, apunta a uno de los mayores cuellos de botella del sector: el alto costo de desarrollar y mantener sistemas de IA avanzados. En los últimos años, entrenar o personalizar modelos grandes se volvió una tarea ligada a hardware empresarial de NVIDIA o a infraestructura en la nube, algo que suele quedar fuera del alcance de usuarios individuales, desarrolladores pequeños y muchas organizaciones.

Con esta nueva propuesta, Tether afirma que su tecnología elimina parte de esas barreras. La empresa sostiene que el soporte de ajuste fino LoRA multiplataforma y la aceleración de inferencia en GPUs heterogéneas de consumo abarca chips de Intel, AMD, Apple Silicon serie M y varias GPU móviles, lo que permitiría personalizar modelos de IA directamente sobre dispositivos ampliamente disponibles.

Para lectores menos familiarizados con el tema, LoRA es una técnica de ajuste fino eficiente que modifica solo una pequeñaparte de un modelo ya entrenado. Eso reduce el costo computacional y la memoria necesaria. BitNet, por su parte, es una arquitectura de modelos de 1 bit que busca recortar el consumo de recursos frente a modelos tradicionales, manteniendo capacidad de entrenamiento e inferencia en escenarios más modestos.

Entrenamiento de IA en smartphones y GPUs móviles

Uno de los puntos más llamativos del anuncio es la afirmación de que el equipo de ingeniería de Tether logró la primera demostración exitosa de ajuste fino de BitNet en GPUs móviles. La empresa mencionó específicamente las familias Adreno, Mali y Apple Bionic GPU, presentes en muchos teléfonos inteligentes modernos.

De acuerdo con la información publicada por Tether, los usuarios pueden ajustar modelos BitNet de 125 millones de parámetros en cerca de 10 minutos sobre un Samsung S25 con GPU Adreno, usando un conjunto de datos biomédicos de unas 300 piezas documentales, equivalentes a aproximadamente 18.000 tokens. En el caso de un modelo de 1.000 millones de parámetros, el mismo conjunto de datos se habría ajustado en 1 hora y 18 minutos en el Samsung S25.

La compañía también indicó que ese mismo ajuste fino para el modelo de 1.000 millones de parámetros tomó 1 hora y 45 minutos en un iPhone 16. Además, al llevar los dispositivos al límite, su equipo aseguró haber conseguido ajustar modelos de hasta 13.000 millones de parámetros en el iPhone 16, un dato que subraya el alcance experimental de la demostración.

Más allá del impacto técnico, el mensaje de fondo es claro. Tether quiere mostrar que tareas que hace poco parecían reservadas para centros de datos o estaciones de trabajo costosas ahora podrían ejecutarse en el borde de red, es decir, directamente en dispositivos personales. Ese cambio tiene implicaciones potenciales para privacidad, costos y soberanía tecnológica.

Menos memoria, más velocidad y menor dependencia de la nube

Otro eje del anuncio fue la eficiencia. Tether aseguró que su marco permite ajustar modelos que son 2 veces más grandes en dispositivos de borde frente a modelos no BitNet Q4, lo que, según la empresa, exhibe la ventaja superior de memoria de la arquitectura BitNet.

En materia de inferencia, Tether dijo que la familia de modelos BitNet corre mucho más rápido en GPUs móviles cuando se usa QVAC Fabric. En esos dispositivos, el rendimiento de la GPU se habría ubicado entre 2 y 11 veces por encima del de la CPU, una diferencia que sugiere que el hardware móvil actual puede asumir cargas que antes requerían equipos especializados o infraestructura remota.

La reducción del uso de memoria también fue presentada con cifras concretas. Según Tether, BitNet-1B (TQ1_0) usa hasta un 77,8% menos de VRAM que Gemma-3-1B en formato de 16 bits, y un 65,6% menos que Qwen3-0.6B también en 16 bits, tanto en inferencia como en cargas de trabajo de ajuste fino LoRA. Ese ahorro, remarcó la empresa, libera espacio suficiente para que modelos más grandes y procesos de personalización funcionen en dispositivos que hace pocos meses habrían sido considerados insuficientes.

En términos de ecosistema, la compañía señaló que el marco habilita por primera vez el ajuste fino de LoRA para LLM de 1 bit en hardware que no es de NVIDIA. Eso extiende el soporte a AMD, Intel, Apple Silicon y GPUs móviles. La relevancia de esa compatibilidad está en que reduce la dependencia de un solo proveedor de hardware y, potencialmente, de servicios de nube centralizados.

Privacidad, descentralización y aprendizaje federado

Tether enmarcó el lanzamiento no solo como una mejora de rendimiento, sino como una pieza de una visión más amplia sobre IA descentralizada. Al reducir la necesidad de enviar cargas de trabajo a la nube, la empresa sostiene que los datos sensibles pueden permanecer en el dispositivo del usuario. Ese enfoque resulta especialmente importante en contextos como salud, finanzas y comunicaciones privadas.

La compañía también vinculó esta eficiencia con la posibilidad de avanzar hacia modelos de aprendizaje federado. En ese esquema, múltiples dispositivos entrenan actualizaciones localmente y comparten solo ciertos parámetros o resultados, sin transferir los datos originales. Tether afirmó que este avance vuelve ese escenario más alcanzable y realista en el futuro cercano.

Paolo Ardoino, CEO de Tether, defendió esa visión en términos sociales y políticos. A su juicio, la inteligencia será un factor clave en el futuro de la sociedad y puede fortalecer la estabilidad colectiva o concentrar aún más el poder en pocas manos. Por eso, dijo, la IA del futuro debe ser accesible, abierta y disponible para personas y desarrolladores de cualquier lugar, sin requerir una cantidad absurda de recursos reservada a unos pocos proveedores de nube.

Ardoino añadió que cuando el entrenamiento de grandes modelos depende de infraestructura centralizada, la innovación se estanca, el ecosistema se vuelve frágil y el equilibrio social entra en riesgo. Bajo esa lógica, sostuvo que QVAC demuestra que la IA avanzada puede ser descentralizada, inclusiva y empoderadora para todos. También afirmó que Tether seguirá invirtiendo recursos y capital significativos durante las próximas semanas, meses y años para hacer que la IA sea accesible localmente en el dispositivo.

Qué se conoce y por qué importa este anuncio

El comunicado original de Tether’s QVAC Launches World’s First Cross-Platform BitNet LoRA Framework to Enable Billion-Parameter AI Training and Inference on Consumer GPUs and Smartphones señala que los detalles técnicos completos, incluyendo el artículo, adaptadores, benchmarks y binarios multiplataforma, están disponibles en el blog de Hugging Face dedicado al ajuste fino de modelos BitNet b1.58 con QVAC Fabric.

En la práctica, el anuncio se inserta en una tendencia más amplia: llevar la IA desde grandes centros de datos hacia equipos personales y nodos de borde. Si estas mejoras se sostienen en implementaciones independientes y en cargas de trabajo reales, podrían ampliar el acceso a herramientas de IA avanzadas entre desarrolladores, investigadores y pequeñas empresas que hoy enfrentan costos elevados de infraestructura.

También hay una lectura estratégica para el sector tecnológico. La carrera por optimizar modelos y reducir requerimientos de memoria se ha vuelto tan importante como la carrera por aumentar el tamaño bruto de los modelos. En ese contexto, tecnologías como BitNet y los esquemas de ajuste eficiente ganan relevancia porque prometen más rendimiento útil con menos hardware.

Por ahora, el anuncio deja una señal clara sobre la dirección de Tether más allá de las stablecoins. La empresa quiere posicionarse en la infraestructura de IA y en sistemas descentralizados de cómputo. Si logra convertir estas demostraciones en herramientas adoptadas de forma amplia, podría abrir un frente competitivo interesante en la convergencia entre inteligencia artificial, privacidad y computación distribuida.

5h ago
bullish:

0

bearish:

0

Manage all your crypto, NFT and DeFi from one place

Securely connect the portfolio you’re using to start.