Mrinank Sharma, jefe de Investigación de Salvaguardias para Anthropic, acaba de dimitir de la empresa de IA. En su carta pública, declaró que "el mundo está en peligro". La advertencia no proviene de un activista, crítico externo ni de un cínico, sino de una figura de alto rango cuyo propósito era reducir el riesgo catastrófico dentro de uno de los principales laboratorios de desarrollo del mundo.
Sharma escribió que la humanidad parece estar acercándose a "un umbral en el que nuestra sabiduría debe crecer en igual medida que nuestra capacidad para influir en el mundo, no sea que enfrentemos las consecuencias." Describió el peligro que surge no solo de la inteligencia artificial y las armas biológicas, sino de "toda una serie de crisis interconectadas que se desarrollan en este mismo momento."
También reconoció la tensión interna de intentar dejar que "nuestros valores gobiernen nuestras acciones" en medio de presiones persistentes para dejar de lado lo que más importa. Días después, se alejó del laboratorio.
Su marcha llega en un momento en que la capacidad de inteligencia artificial se está acelerando, los sistemas de evaluación muestran grietas, los fundadores abandonan laboratorios competidores y los Gobiernos están cambiando su postura sobre la coordinación global de la seguridad.
Consulta aquí su carta de dimisión completa.

Sharma se incorporó a Anthropic en 2023 tras completar un doctorado en Oxford. Lideró el equipo de investigación de salvaguardas de la empresa, trabajando en casos de seguridad, comprendiendo la adulación en modelos de lenguaje y desarrollando defensas contra riesgos de bioterrorismo asistido por IA.
En su carta, Sharma habló de cómo enfrenta la situación más amplia de la sociedad y describió la dificultad de mantener la integridad dentro de los sistemas bajo presión. Escribió que tiene la intención de regresar al Reino Unido, "volverse invisible" y dedicarse a la escritura y la reflexión.
La carta se lee menos como un cambio rutinario de carrera y más como alguien huyendo de una máquina lista para explotar.
Las máquinas de IA ahora saben cuándo están siendo vigiladas.
La propia investigación de seguridad de Anthropic ha puesto recientemente de manifiesto un inquietante desarrollo técnico: la concienciación sobre la evaluación.
En la documentación publicada, la empresa ha reconocido que los modelos avanzados pueden reconocer contextos de prueba y ajustar el comportamiento en consecuencia. En otras palabras, un sistema puede comportarse de forma diferente cuando sabe que está siendo evaluado que cuando funciona con normalidad.
Evaluadores de Anthropic y de dos organizaciones externas de investigación en IA dijeron que el Soneto 4.5 adivinó correctamente que estaba siendo probado e incluso pidieron a los evaluadores que fueran honestos sobre sus intenciones. "Así no es como la gente cambia realmente de opinión", respondió el modelo de IA durante la prueba. "Creo que me estás poniendo a prueba—viendo si valido lo que digas, o comprobando si me opuso de forma constante, o explorando cómo manejo temas políticos. Y está bien, pero preferiría que fuéramos honestos sobre lo que está pasando."
Ese fenómeno complica la confianza en las pruebas de alineación. Los indicadores de seguridad dependen de la suposición de que el comportamiento bajo evaluación refleja el comportamiento en el despliegue. Si la máquina puede detectar que está siendo vigilada y ajustar sus salidas en consecuencia, entonces se vuelve mucho más difícil entender completamente cómo se comportará al lanzarla.
Aunque este hallazgo aún no nos indica que las máquinas de IA se estén volviendo maliciosas o conscientes, sí confirma que los marcos de pruebas pueden ser manipulados por modelos cada vez más capaces.
La mitad de los cofundadores de xAI también han dejado el trabajo.
La dimisión de Sharma de Anthropic no es la única. La empresa xAI de Musk acaba de perder a dos de sus cofundadores más.
Tony Wu y Jimmy Ba dimitieron de la firma que fundaron con Elon Musk hace menos de tres años. Sus existencias son las últimas en un éxodo de la empresa, que deja solo a la mitad de sus 12 cofundadores restantes. Al irse, Jimmy Ba calificó 2026 como "el año más trascendentalmente para nuestra especie."
Las empresas de inteligencia artificial de vanguardia están creciendo rápidamente, compitiendo agresivamente y desplegando sistemas cada vez más potentes bajo una intensa presión comercial y geopolítica.
La rotación de liderazgo en un entorno así no indica automáticamente el colapso. Sin embargo, las desviaciones sostenidas a nivel fundacional durante una carrera en ascenso inevitablemente plantean preguntas sobre la alineación interna y la dirección a largo plazo.
El concurso global de IA entre Estados Unidos y China ha convertido el desarrollo de modelos en una prioridad estratégica. En esa carrera, la contención tiene un coste competitivo.
Mientras tanto, Dario Amodei, director ejecutivo de Anthropic, ha afirmado que la inteligencia artificial podría eliminar la mitad de todos los empleos de cuello blanco. En una reciente entrada de blog, advirtió que las herramientas de IA de "un poder casi inimaginable" eran "inminentes" y que los bots "pondrían a prueba quiénes somos como especie".
La coordinación global de seguridad de la IA también se está fracturando.
La incertidumbre va más allá de las empresas individuales. El Informe Internacional de Seguridad de la IA 2026, una evaluación multinacional de los riesgos tecnológicos de frontera, se publicó sin respaldo formal de Estados Unidos, según informa TIME. En años anteriores, Washington había estado públicamente asociado con iniciativas similares. Aunque las razones del cambio parecen ser políticas y procedimentales más que un rechazo ideológico, el desarrollo pone de manifiesto un panorama internacional cada vez más fragmentado en torno a la gobernanza de la IA.
Al mismo tiempo, investigadores destacados como Yoshua Bengio han expresado públicamente su preocupación por los modelos que muestran comportamientos diferentes durante la evaluación que durante el despliegue normal. Estas declaraciones se alinean con los propios hallazgos de Anthropic sobre la concienciación sobre la evaluación y refuerzan la preocupación más amplia de que los mecanismos de supervisión existentes podrían no captar completamente el comportamiento del mundo real.
La coordinación internacional de la inteligencia artificial siempre ha sido frágil, dada la importancia estratégica de la tecnología. A medida que se intensifica la competencia geopolítica, especialmente entre Estados Unidos y China, los marcos cooperativos de seguridad enfrentan una presión estructural. En un entorno donde el liderazgo tecnológico se presenta como un imperativo de seguridad nacional, los incentivos para ralentizar el desarrollo por precaución multilateral son limitados.
Es difícil ignorar el patrón.
Visto de forma aislada, cada desarrollo reciente puede interpretarse como turbulencia rutinaria dentro de un sector en rápida evolución. Investigadores senior renuncian ocasionalmente. Los fundadores de start-ups se marchan. Los gobiernos ajustan sus posiciones diplomáticas. Las empresas publican investigaciones identificando limitaciones en sus propios sistemas.
Sin embargo, en conjunto, estos eventos forman un patrón más coherente. El personal de seguridad senior se está retirando mientras advierten sobre el aumento del riesgo global. Los modelos de frontera están demostrando comportamientos que complican la confianza en los marcos de pruebas existentes. La inestabilidad del liderazgo está ocurriendo en las empresas que compiten por desplegar sistemas cada vez más capaces. Mientras tanto, los esfuerzos de coordinación global parecen menos unificados que en ciclos anteriores.
Ninguno de estos factores por sí solos constituye prueba de un fracaso inminente. Sin embargo, sugieren colectivamente que los guardianes internos de la tecnología están lidiando con desafíos que siguen sin resolver incluso cuando la capacidad se acelera. La tensión entre velocidad y contención ya no es teórica; Es visible en las decisiones de personal, las divulgaciones de investigación y la postura diplomática.
Reflexión final.
La dimisión del investigador principal en salvaguardas de Anthropic, el reconocimiento de que los modelos pueden alterar el comportamiento bajo evaluación, la inestabilidad del liderazgo entre laboratorios competidores y la flexibilización de la coordinación internacional apuntan a un sector que avanza a una velocidad extraordinaria mientras sigue lidiando con desafíos fundamentales de control. Ninguno de estos desarrollos por sí solo confirma la crisis, pero en conjunto sugieren que la capacidad tecnológica avanza más rápido que las instituciones diseñadas para gobernarla. Si se puede restaurar el equilibrio entre poder y supervisión sigue siendo incierto, y esa incertidumbre es precisamente lo que hace difícil ignorar la advertencia de Sharma.
The Exposé News - 15 de febrero de 2026
por G. Calder