🚨 JUST IN: Crypto AI Agent is here!!! Watch the video 🎥

Deutsch한국어日本語中文EspañolFrançaisՀայերենNederlandsРусскийItalianoPortuguêsTürkçePortfolio TrackerSwapCryptocurrenciesPricingIntegrationsNewsEarnBlogNFTWidgetsDeFi Portfolio TrackerOpen API24h ReportPress KitAPI Docs

Casa Blanca frena plan de expansión de Mythos, la IA ofensiva de Anthropic

10h ago
bullish:

0

bearish:

0

La administración Trump frenó el plan de Anthropic para ampliar el acceso a Mythos, un modelo de IA capaz de encontrar y explotar vulnerabilidades de software de forma autónoma. La decisión abre un nuevo choque entre seguridad nacional, capacidad de cómputo y el papel del gobierno de EE. UU. frente a herramientas de ciberseguridad ofensiva cada vez más poderosas.

***

  • La Casa Blanca comunicó a Anthropic que se opone a expandir Mythos de unas 50 a 120 organizaciones.
  • El gobierno citó riesgos de seguridad y falta de capacidad de cómputo suficiente para no afectar su propio acceso al modelo.
  • La objeción coincide con otro movimiento oficial para reincorporar a Anthropic al uso federal pese al veto previo del Pentágono.

 


La administración de Donald Trump comunicó a Anthropic que no respalda su plan para ampliar el acceso a Mythos, su modelo avanzado de IA para ciberseguridad, a unas 70 empresas adicionales. Con ese despliegue, el grupo total de usuarios pasaría de cerca de 50 a 120 organizaciones, una expansión que ahora enfrenta resistencia directa desde la Casa Blanca.

Según informó Bloomberg, al citar a un funcionario de la administración que habló bajo condición de anonimato, la objeción responde a dos preocupaciones centrales. La primera es el riesgo de seguridad asociado al posible uso indebido de una herramienta con capacidades ofensivas muy avanzadas. La segunda es más operativa y apunta a que Anthropic no tendría suficiente capacidad de cómputo para atender a 120 entidades sin degradar la capacidad del propio gobierno para utilizar el sistema.

La noticia coloca a Mythos en el centro de una discusión más amplia sobre cómo regular modelos de IA capaces de ejecutar operaciones ofensivas de ciberseguridad. También deja ver una posición ambigua de Washington, que al mismo tiempo estudia mecanismos para reincorporar a Anthropic al uso del gobierno federal.

Mythos no es un chatbot convencional. Se trata de un modelo especializado en seguridad informática, diseñado para encontrar y explotar vulnerabilidades en software crítico de manera autónoma. Esa clase de capacidad puede ser usada para pruebas defensivas y endurecimiento de sistemas, pero también podría facilitar ataques reales si cae en manos equivocadas.

Qué es Mythos y por qué genera tanta preocupación

Anthropic anunció Mythos a comienzos de abril a través de su iniciativa Project Glasswing. Presentó el modelo como una herramienta con un nivel de potencia tan elevado en ciberseguridad que consideró demasiado riesgoso un lanzamiento general. Por eso optó por una estrategia de acceso limitado, en la que un grupo reducido de organizaciones puede probarlo únicamente en sus propios sistemas.

Las capacidades atribuidas al modelo son inusuales incluso dentro del actual auge de la IA. Mythos Preview descubrió de forma autónoma miles de vulnerabilidades de día cero en todos los principales sistemas operativos y navegadores web durante las pruebas. Además, logró éxito en el 73% de las tareas de ciberseguridad tipo capture-the-flag de nivel experto.

El reporte también indicó que Mythos se convirtió en el primer modelo en completar de extremo a extremo un ataque simulado de 32 pasos contra una red corporativa. Eso eleva el debate más allá de hipótesis académicas, porque sitúa a la herramienta en el terreno de capacidades ofensivas demostradas.

En ese contexto, la cautela del gobierno estadounidense no luce anecdótica. Un sistema capaz de automatizar hallazgo y explotación de fallas críticas puede ser valioso para defensa nacional, pero también representa un riesgo sistémico si su acceso no se controla de forma estricta.

Las razones de la Casa Blanca para frenar la expansión

La Casa Blanca objetó el despliegue adicional por una mezcla de seguridad y acceso prioritario. Por un lado, teme que aumentar el número de usuarios eleve la posibilidad de mal uso o filtraciones. Por otro, le preocupa que una base más amplia de clientes compita por los mismos recursos computacionales que necesita el gobierno para operar el modelo con efectividad.

Ese punto sobre infraestructura no es menor. Parte de la motivación detrás de la actual recaudación de Anthropic, estimada en USD $900.000 millones según el reporte citado, sería asegurar suficiente capacidad para ejecutar Mythos a escala. La discusión, por tanto, no solo gira en torno a regulación, sino también a quién accede primero a chips, servidores y potencia de cálculo en un mercado donde esos recursos siguen siendo escasos.

Entre las agencias que ya usan Mythos figura la Agencia de Seguridad Nacional, la NSA. La preocupación aparente de la Casa Blanca es que expandir el despliegue civil afecte el acceso de esas dependencias a una herramienta que consideran estratégicamente relevante.

Visto desde otra perspectiva, el conflicto sugiere que Washington intenta equilibrar innovación privada con una lógica de reserva gubernamental. Si el modelo ofrece ventajas reales para detección y explotación de vulnerabilidades, el Estado podría buscar mantener una posición privilegiada frente a empresas civiles ya aprobadas para probarlo.

La brecha de seguridad que agravó el problema

La objeción del gobierno llega en un momento especialmente delicado. El mismo día en que Anthropic anunció su plan de lanzamiento limitado, un pequeño grupo de usuarios no autorizados en un foro privado en línea obtuvo acceso a Mythos. Los detalles de esa brecha siguen sin aclararse por completo.

Ese episodio complicó la narrativa del acceso controlado. Aunque Anthropic diseñó un esquema restringido para minimizar riesgos, la filtración mostró lo difícil que resulta contener de manera perfecta un modelo con capacidades tan sensibles. La distancia entre el diseño institucional y la realidad operativa se volvió evidente en cuestión de horas.

Para la Casa Blanca, el incidente reforzó sus dudas sobre cualquier nueva expansión. Si un grupo no autorizado ya logró entrar en una fase acotada, abrir la puerta a decenas de organizaciones adicionales podría multiplicar la superficie de riesgo.

En el fondo, el caso también revela un problema más amplio del sector de IA. Cuanto más poderoso es un modelo, más costoso y complejo se vuelve controlar su acceso, supervisar su uso y evitar que se copie, se desvíe o se reutilice fuera de su propósito original.

La contradicción de Washington con Anthropic

Lo más llamativo del episodio es que ocurre al mismo tiempo que la Casa Blanca trabaja en una acción ejecutiva para permitir que agencias federales eviten la designación del Pentágono sobre el riesgo en la cadena de suministro de Anthropic e incorporen sus modelos, incluido Mythos. Es decir, mientras bloquea una expansión comercial, también explora una vía para facilitar el regreso de la firma al uso estatal.

El Pentágono había designado a Anthropic como un riesgo sin precedentes para la seguridad nacional en la cadena de suministro a inicios de 2026. Esa medida llegó tras una ruptura en las negociaciones sobre si el ejército de Estados Unidos podría usar Claude para armas autónomas y vigilancia masiva doméstica, dos usos que el CEO de Anthropic, Dario Amodei, ha dicho públicamente que no permitirá.

En paralelo, la Casa Blanca convocó esta semana a empresas de varios sectores para aportar insumos al borrador de esa acción ejecutiva. El proceso incluyó lecturas de mesa de una posible guía, mientras al mismo tiempo se comunicaba a Anthropic la oposición a su plan de expansión de Mythos.

Además, la jefa de gabinete de la Casa Blanca, Susie Wiles, y el secretario del Tesoro, Scott Bessent, se reunieron a comienzos de mes con Dario Amodei. Ambas partes describieron ese encuentro como una reunión introductoria productiva. Sin embargo, esa señal de acercamiento no resolvió la contradicción entre el bloqueo al despliegue civil y la posible reintegración federal.

Un caso de prueba para la regulación de IA ofensiva

La posición oficial de la Casa Blanca sostiene que está equilibrando innovación y seguridad mientras coopera con el sector privado. Aun así, el caso de Mythos muestra que ese equilibrio es todo menos simple cuando la misma herramienta puede ser vista como activo estratégico, riesgo de seguridad y ventaja competitiva al mismo tiempo.

Anthropic declinó comentar sobre el tema, según la información reportada. Esa ausencia de respuesta pública deja abierta la pregunta sobre si la empresa ajustará su plan de despliegue, buscará más capacidad de cómputo o intentará negociar un esquema de acceso que satisfaga a Washington sin cerrar la puerta al sector privado.

La disputa también puede sentar precedente para otras firmas de IA que desarrollen sistemas con capacidades ofensivas verificables. Si el gobierno estadounidense decide limitar su expansión comercial mientras preserva o amplía su uso interno, podría emerger un modelo regulatorio híbrido, con controles diferenciados según el tipo de usuario y el valor estratégico de la tecnología.

Por ahora, Mythos se ha convertido en un punto de máxima tensión de una situación regulatoria inédita. Es un modelo usado por la NSA, rechazado por el Pentágono, cortejado por la Casa Blanca y, al mismo tiempo, bloqueado para ampliar su acceso a las organizaciones civiles que ya habían sido aprobadas. El resultado de las conversaciones en curso no solo definirá el futuro inmediato de Anthropic, sino también la forma en que EE. UU. piensa gobernar la próxima generación de IA aplicada a ciberseguridad ofensiva.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 

10h ago
bullish:

0

bearish:

0

Manage all your crypto, NFT and DeFi from one place

Securely connect the portfolio you’re using to start.