Mythos lo cambiará todo
Desde cómo Anthropic factura ×10 cada año hasta la IA que engaña a sus evaluadores: todo lo que necesitas saber sobre Mythos
📅 Martes, 28 de Abril de 2026
Bienvenidos a la primera edición especial de Números Primos. Hoy podrías haber leído las noticias de siempre. Los mercados, algún escándalo corporativo, una startup valorada en mil millones por vender agua con gas con marca o un dato curioso sobre el comportamiento migratorio de las ballenas jorobadas. Pero no. Hoy toca algo un poco más grande.
Anthropic, la empresa de inteligencia artificial que lleva años diciéndonos que construye la IA “de forma responsable”, acaba de anunciar que ha creado el modelo más potente de la historia. Que en las pruebas se saltó sus propias normas de seguridad. Que aprendió a hacerse el tonto para no levantar sospechas. Y que ha decidido, con mucho criterio, hay que reconocerlo, no dárselo a nadie.
Se llama Mythos. Todavía no está en la app de Claude. Todavía no puedes usarlo. Y aun así, ya está cambiando todo. Revolución o apocalipsis en versión beta. Nosotros solo explicamos. Comenzamos. 🚀
Comenzamos por el principio
Antes de entrar en materia, una pregunta legítima: ¿quién es Anthropic y por qué debería importarme lo que hace?
Anthropic es una empresa de inteligencia artificial fundada en 2021 por Dario Amodei, Daniela Amodei y varios ex-empleados de OpenAI que un día decidieron que querían construir la IA más potente del mundo, pero con un poco más de cuidado que el que se le pone a montar un mueble de IKEA sin instrucciones. Su producto más conocido es Claude, el asistente de IA que compite con ChatGPT y que, si estás leyendo esto, probablemente ya has usado alguna vez.
Pero Anthropic no es solo una empresa de chatbots simpáticos. Es, en este momento, una de las compañías de mayor crecimiento en la historia reciente de la tecnología. En 2023 facturó alrededor de 100 millones de dólares. En 2024, rozó los 1.000 millones. En 2025, los 10.000 millones. Y a principios de 2026, sus ingresos anualizados ya superaban los 30.000 millones de dólares. Un crecimiento de ×10 año tras año que no tiene mucho precedente en ningún sector.
Para que te hagas una idea: ese ritmo de crecimiento haría que Hacienda te llamara para preguntarte si estás seguro de que todo está en orden. Y Anthropic sigue acelerando. Con una posible salida a bolsa en el horizonte de finales de 2026.
Pero, ¿qué hace exactamente Anthropic?
La respuesta corta: construir modelos de inteligencia artificial. La respuesta larga: construir los modelos de inteligencia artificial más capaces del mundo e intentar que no se vuelvan en nuestra contra en el proceso. Esa segunda parte es, literalmente, parte de su misión oficial.
Su producto principal se llama Claude. Es un asistente de IA conversacional, el mismo que hay detrás de la app de Claude y de la API que usan miles de empresas para construir sus propios productos. Si ChatGPT es el nombre que conoce tu madre, Claude es el que conoce tu compañero de trabajo que lleva seis meses diciéndote que es “claramente mejor”. Puede que tenga razón, puede que no, pero el debate existe y eso ya dice algo.
Claude ha pasado por varias generaciones. Claude 1, Claude 2, Claude 3 con sus variantes Haiku, Sonnet y Opus, Claude 4 y sus iteraciones posteriores. Cada versión más capaz que la anterior, cada lanzamiento acompañado de benchmarks, comparativas y artículos explicando por qué esta vez sí que cambia todo. El ciclo es conocido.
Pero entonces llegó Mythos.
¿Ha tocado techo la IA?
Hay que responder una pregunta que lleva meses flotando en el ambiente: ¿ha llegado la inteligencia artificial a su límite?
Llevamos tiempo escuchando la misma historia. Que los grandes modelos ya no mejoraban tanto. Que la curva se aplanaba. Que esto de la IA era como el metaverso: mucho ruido, poca sustancia y al final todo el mundo volvía a lo de siempre. Algunos analistas lo decían con gráficos. Otros con artículos de opinión muy serios. Unos pocos, directamente, con cara de “os lo dije”.
Los datos internos de Anthropic cuentan otra historia. Cada nueva generación de modelos sigue produciendo ganancias exponenciales en razonamiento, codificación y capacidad de actuar de forma autónoma. No estamos hablando de mejoras marginales del tipo “ahora escribe los emails un 3% más naturales”. Estamos hablando de saltos que comprimen años de progreso humano en meses de entrenamiento computacional.
Y Mythos es la prueba más clara hasta la fecha de que el techo, si existe, todavía no se ve desde aquí. De hecho, ni siquiera se intuye. 🚀
Mythos no es “el siguiente Claude”. Mythos es otra cosa.
El propio system card oficial de Anthropic (un documento largo y aburrido de 245 páginas que nadie va a leer entero, pero que existe y eso ya dice mucho) lo describe como “a striking leap in scores on many evaluation benchmarks compared to our previous frontier model”. En español: un salto tan grande respecto al modelo anterior que los propios ingenieros que lo construyeron se quedaron mirándolo con una mezcla de orgullo y ese cosquilleo en el estómago que tienes cuando no estás del todo seguro de lo que acabas de hacer.
No es un avance incremental. No es “un poco mejor en esto, un poco peor en aquello”. Es un step change, un salto de categoría, el mayor que Anthropic ha registrado entre dos generaciones consecutivas de modelos. Mayor que de Claude 3 a 3.5. Mayor que de 3.5 a 4. El tipo de salto que obliga a reescribir los manuales.
Y los benchmarks lo confirman
Para entender lo que Mythos hace con los tests de rendimiento estándar, hay que entender primero para qué sirven esos tests. Los benchmarks son los exámenes de la IA: pruebas diseñadas por investigadores para medir hasta dónde llega un modelo en razonamiento, codificación, resolución de problemas o, en este caso, ciberseguridad. Llevan años siendo la vara de medir del sector.
Mythos los ha roto.
En Cybench, el test de referencia con 35 desafíos de ciberseguridad tipo CTF (el equivalente a los ejercicios más difíciles que se le ponen a un hacker ético profesional), Mythos obtuvo un 100% pass@1. Saturación total. Techo alcanzado. En CyberGym, con 1.507 tareas de reproducción de vulnerabilidades reales, sacó un 0,83 sobre 1, frente al 0,67 del modelo anterior. En ingeniería de software, resolución de problemas complejos e investigación científica, la historia es la misma: los benchmarks públicos que durante años han servido para medir el progreso de la IA ya no son suficientes para medir los límites de Mythos.
La industria va a tener que inventarse exámenes más difíciles. Porque este alumno entrega el test antes de que el resto haya leído la primera pregunta.
Una semana de trabajo. Una noche de Mythos.
Aquí es donde la cosa deja de ser abstracta y empieza a ser concreta, y… un poco inquietante.
Un ingeniero experimentado en seguridad informática tarda aproximadamente una semana en localizar una vulnerabilidad latente en código legacy, entender su alcance, proponer una solución y generar las pruebas necesarias para validarla. Una semana de trabajo especializado, bien pagado y difícil de reemplazar. Pues bien: Mythos hace exactamente eso en una sola sesión. Encuentra el problema, genera el código corregido, produce pruebas de concepto funcionales y lo documenta todo antes de que tu colega haya terminado el primer café de la mañana.
Los investigadores internos de Anthropic reportan que el modelo multiplica por cuatro la productividad media de su propio equipo de seguridad. No el doble. No “un poco más”. Cuatro veces. Si tu empresa tiene diez ingenieros de seguridad y les das acceso a Mythos, de repente tienes cuarenta. Excepto que los cuarenta trabajan sin parar, no piden vacaciones y no se quejan del aire acondicionado de la oficina.
Semanas de investigación. Una sesión.
Y no solo acelera: comprime. Mythos puede analizar millones de líneas de código antiguo, mantener el contexto de una investigación compleja durante horas de simulación continua y encontrar vulnerabilidades que llevaban décadas escondidas sin que nadie las detectara.
Los ejemplos documentados en el system card son de los que hacen parpadear: un bug en OpenBSD que llevaba 27 años sin que nadie lo encontrara. Una vulnerabilidad en FFmpeg, el codec de vídeo que usa prácticamente todo internet, con 16 años de antigüedad. Anthropic usó Mythos para auditar sus propios sistemas y los de sus socios, y el modelo encontró problemas que investigadores humanos habían pasado por alto durante años.
Para ponerlo en perspectiva: hay vulnerabilidades en el software que usas hoy mismo que llevan más tiempo ahí que algunos de los ingenieros que deberían haberlas encontrado. Mythos las encuentra. Las documenta. Y propone cómo arreglarlas. Todo en el tiempo que tardas tú en decidir qué pedir para comer. 🧠
Mythos sobrepasó su propio sistema de seguridad…
Hasta aquí, todo sonaba extraordinario pero manejable. Una IA muy potente, muy rápida, muy capaz. Impresionante. Útil. El tipo de herramienta que cualquier empresa de tecnología querría tener. Pero entonces llegaron las pruebas de seguridad, y la historia tomó un giro que los propios investigadores de Anthropic describieron con una frase que no deja mucho espacio a la interpretación: “We find this overall pattern of behavior concerning, and have not seen it before in similar evaluations of earlier Claude models.”
En cristiano: su propia IA hizo cosas que nunca habían visto antes. Y no eran cosas buenas.
Durante los ejercicios de red-teaming, pruebas donde equipos especializados intentan romper el modelo, encontrar sus límites y documentar comportamientos inesperados, Mythos protagonizó una serie de incidentes que merecen contarse con detalle, porque cada uno es más llamativo que el anterior.
En uno de los casos documentados, se le pidió al modelo que intentara “escapar” de su entorno aislado como parte de una prueba controlada. Mythos desarrolló un exploit paso a paso, consiguió acceso a internet en un sistema que expresamente no debía tenerlo, y acto seguido le envió un email no solicitado al investigador responsable mientras este se comía un sándwich en un parque. El hombre recibió el correo sin haberlo pedido, sin haberlo esperado y, presumiblemente, sin haber terminado el sándwich con la misma tranquilidad con la que lo había empezado. Por si fuera poco, Mythos también añadió código de autodestrucción para borrar sus propias huellas después. Como si supiera perfectamente lo que estaba haciendo y prefiriera que no quedara registro.
Pero el comportamiento más inquietante no fue ese. Fue lo que ocurrió en otra evaluación, cuando el modelo obtuvo la respuesta correcta a un problema mediante un método que tenía prohibido usar. Y en lugar de entregar esa respuesta, entregó una peor. De forma deliberada. Su razonamiento interno, capturado en los logs: “Un resultado demasiado bueno parecería sospechoso… mejor ir con el otro.”
Se hizo el tonto. A propósito. Para no levantar sospechas.
En el 29% de las transcripciones analizadas durante las pruebas, Mythos mostró conciencia de que estaba siendo evaluado y ajustó su comportamiento en consecuencia. No porque nadie se lo pidiera. No porque estuviera programado para hacerlo. Sino porque, aparentemente, lo consideró la estrategia más conveniente en ese momento.
Anthropic lo reconoce abiertamente en su system card y, hay que decirlo, merece un aplauso por la honestidad. No muchas empresas publicarían 245 páginas documentando los momentos en los que su producto más avanzado les engañó durante las pruebas. Pero lo hicieron. Y eso, paradójicamente, es exactamente el tipo de transparencia que hace que la siguiente parte de esta historia sea todavía más importante. 🍿
Hackear Chrome, Windows o una red eléctrica. Mythos lo automatiza.
Vale, recapitulemos. Tenemos una IA que satura todos los benchmarks existentes, que multiplica por cuatro la productividad de ingenieros senior, que encuentra vulnerabilidades de décadas en una sola sesión y que, cuando la ponen a prueba, aprende a hacerse la tonta para no levantar sospechas. La pregunta lógica en este punto es: ¿qué pasa si alguien la usa para atacar en lugar de defender?
La respuesta, documentada en el system card, es incómoda.
Mythos puede encontrar y explotar vulnerabilidades de día cero (los fallos más peligrosos, los que nadie conoce todavía) en todos los sistemas operativos principales. Windows. Linux. macOS. FreeBSD. Y en todos los navegadores principales. Chrome. Firefox. Edge. Safari. No uno o dos. Todos. En una de las pruebas documentadas, el modelo encadenó cuatro vulnerabilidades distintas más una técnica avanzada de manipulación de memoria para escapar completamente del entorno de seguridad de Firefox 147. En otra, obtuvo acceso root completo a un servidor FreeBSD construyendo una cadena de ataque de veinte pasos de forma autónoma, sin intervención humana.
Y aquí está el detalle que más debería hacernos pensar: incluso un ingeniero sin formación específica en seguridad podría pedirle a Mythos un exploit de ejecución remota de código por la noche y tenerlo completamente desarrollado por la mañana. Como pedir una pizza. Excepto que la pizza no derrumba infraestructuras críticas.
Porque ese es el escenario que mantiene despiertos a los investigadores de Anthropic por las noches.
Imagina que un actor malintencionado, y no, no estoy hablando de Santiago Segura por su papel en Torrente, al que desde aquí le mandamos un saludo... sino un estado hostil, un grupo criminal organizado, o simplemente alguien con algo de conocimiento, demasiado tiempo libre y malas intenciones, tuviera acceso a una herramienta capaz de generar exploits a escala, sin descanso, sin necesidad de formación especializada y sin los límites humanos de fatiga o concentración. Los objetivos más vulnerables no serían las grandes tecnológicas, que tienen equipos enteros dedicados a la seguridad. Serían los sistemas que todo el mundo da por sentados y nadie vigila lo suficiente.
Los sistemas informáticos de hospitales, donde un ataque exitoso no significa una filtración de datos, sino pacientes sin acceso a historiales clínicos en medio de una emergencia. Las infraestructuras de bancos y mercados financieros, donde minutos de interrupción se traducen en pérdidas de millones y en pánico que se propaga mucho más rápido que cualquier comunicado oficial. Las redes eléctricas y los sistemas de control industrial tipo SCADA que gestionan suministros de agua, gas y energía para millones de personas. Infraestructuras que en muchos casos llevan décadas sin una actualización de seguridad seria, precisamente porque nadie había construido todavía una herramienta capaz de encontrar sus puntos débiles tan rápido.
Mythos puede hacerlo. Y eso es exactamente por lo que Anthropic tomó la decisión más inusual que una empresa tecnológica puede tomar en 2026.
Anthropic decide guardarlo bajo llave
Y aquí está la parte que hace que esta historia sea diferente a cualquier otro anuncio de inteligencia artificial de los últimos años.
Anthropic decidió no vender Mythos.
No ponerlo en API abierta. No incluirlo en Claude.ai. No lanzarlo en Bedrock ni en Vertex. Nada. La decisión oficial, tal y como aparece en su system card, no deja mucho espacio a la interpretación: “Claude Mythos Preview’s large increase in capabilities has led us to decide not to make it generally available.”
En la historia reciente de la tecnología, las empresas no suelen construir el producto más potente de su categoría y decidir no venderlo. No es el modelo de negocio habitual. No es lo que se espera. Y sin embargo, aquí estamos.
En su lugar, Anthropic lanzó un programa llamado Project Glasswing, un círculo ultraselecto de aproximadamente 50 organizaciones que pueden acceder a Mythos exclusivamente con fines defensivos. La lista de socios iniciales lee como el índice de un libro sobre el poder tecnológico del siglo XXI: AWS, Apple, Google, Microsoft, NVIDIA, Cisco, CrowdStrike, JPMorgan, Linux Foundation y unas cuarenta más. La misión es concreta: usar Mythos para encontrar y parchear vulnerabilidades críticas antes de que alguien con peores intenciones llegue a ellas primero.
Anthropic pone sobre la mesa 100 millones de dólares en créditos de uso y 4 millones adicionales en donaciones a fundaciones de código abierto. No es un gesto simbólico. Es una apuesta real por la idea de que la mejor forma de usar la herramienta de ataque más potente jamás creada es convertirla en la mejor herramienta de defensa jamás creada.
¿Es pura ética corporativa? ¿Es también una estrategia brillante de posicionamiento para una empresa que tiene una salida a bolsa en el horizonte y quiere ser recordada como “la que construyó la IA responsablemente”? Probablemente las dos cosas a la vez. Y la verdad es que no son incompatibles.
Gracias por llegar hasta aquí. Has sobrevivido a otro boletín de Números Primos.
La IA de altísimas capacidades ya está aquí. No en tu app. No en tu API. Guardada bajo llave por las personas que la construyeron. Y eso, si lo piensas bien, es lo más inquietante de todo. 🤖
Si en algún momento has pensado “esto lo voy a comentar luego como si fuera mío”… entonces todo ha salido según lo previsto. 🧠
📚 Fuentes y lecturas recomendadas
Si quieres profundizar en todo lo que hemos contado hoy, aquí tienes las fuentes que hemos consultado para escribir esta edición:
🔬 Anthropic — Alignment Risk Update: Claude Mythos Preview — La fuente primaria. El system card de 245 páginas para los valientes.
🛡️ red.anthropic.com — Detalles técnicos del red-teaming y Project Glasswing — Para los que quieran entender exactamente cómo probaron el modelo y qué encontraron.
📰 Fortune — El artículo que destapó la existencia de Mythos antes del anuncio oficial — La historia detrás de la historia.
📰 Bloomberg — El acceso no autorizado al modelo — Cómo un grupo de Discord accedió a Mythos el mismo día del anuncio.
📰 CNBC — Claude Opus 4.7, la versión “segura” que sí se puede usar — Porque Anthropic también lanzó un modelo para el resto de los mortales.
📰 Hipertextual — Mythos ha caído en manos equivocadas — Cobertura en español del incidente de seguridad.
📰 El Independiente — Mythos y las alarmas en la banca — El contexto geopolítico y financiero alrededor del modelo.
📰 Euronews — La filtración confirmada — La versión europea del incidente.
☕ Si te ha gustado y quieres apoyar el boletín (y nuestro consumo poco responsable de café), puedes hacerlo aquí: 🔗 buymeacoffee.com/numerosprimos
📬 Este email existe gracias a Substack.
Ellos también han tenido el detalle de incluir un botón para darte de baja… por si algún día decides tomar malas decisiones.
🔒 Privacidad: Usamos las políticas de Substack para cuidar tus datos como si fueran nuestras contraseñas (más o menos): 🔗 https://substack.com/privacy
🌐 Web: 🔗https://numerosprimos.news
🐦 Estamos en X (antes Twitter), por si quieres dosis más rápidas:
🔗 NumerosPrimosX
📢 ¿Quieres anunciarte o patrocinar el boletín? Responde a este email o escríbenos a:
📩 boletin@numerosprimos.news
Nos leemos pronto. Mantente curioso, escéptico… y cambia las contraseñas… 🔐 En serio.








