Un investigador de seguridad en inteligencia artificial (AI por sus siglas en inglés) renunció a la startup estadounidense Anthropic con una advertencia: “El mundo está en peligro”.
En su carta de renuncia, compartida en X, Mrinank Sharma comunicó a la organización su salida debido a la preocupación por la AI, las armas biológicas y el estado del mundo en general.
Sharma dirigió un equipo que investigó las medidas de seguridad de la AI. En su misiva, declaró que sus contribuciones incluían investigar por qué los sistemas de inteligencia artificial generativa (GenAI por su acrónimo en inglés) muestran comportamientos serviles, combatir los riesgos del bioterrorismo asistido por esta tecnología e investigar cómo la AI de agentes podría impactar la esencia humana.
Sin embargo, mencionó que, a pesar de disfrutar de su tiempo en la empresa, llegó el momento de alejarse. “El mundo está en peligro. Y no solo por la AI o las armas biológicas, sino por toda una serie de crisis interconectadas”, escribió.
Afirmó haber visto lo difícil que es dejar que los valores rijan las acciones, incluso en Anthropic, donde enfrentan presiones para dejar de lado lo que más importa.
Sharma comentó que, en su lugar, se dedicaría a escribir y estudiar poesía, y que regresaría al Reino Unido para “hacerse invisible”.
Índice de temas
OpenAI y Anthropic enfrentan renuncias
La renuncia de Sharma ocurre la misma semana en que una investigadora de OpenAI anunció su renuncia, expresando su preocupación por la decisión del fabricante de ChatGPT de implementar anuncios en su chatbot.
Anthropic, conocida por su chatbot Claude, había lanzado una serie de campañas dirigidas a OpenAI, criticando la inclusión de publicidad para algunos usuarios.
La compañía, fundada en 2021 por un equipo disidente de los primeros empleados de OpenAI, se ha posicionado con un enfoque más orientado a la seguridad en la investigación de AI en comparación con sus competidores.
Los especialistas que abandonan estas prominentes compañías de GenAI suelen hacerlo tras haber acumulado acciones y beneficios significativos gracias a los altos esquemas de compensación del sector, que incluyen salarios elevados y $ en opciones de compra de acciones.
Erosión de los principios
Anthropic se autodenomina una corporación de beneficio público dedicada a asegurar los beneficios de la AI y mitigar sus riesgos. Se ha centrado en prevenir los riesgos de los modelos de frontera, como que se desalineen con los valores humanos o sean utilizados en conflictos bélicos.
Ha publicado informes sobre la seguridad de sus productos, incluso cuando afirmó que su tecnología había sido utilizada por hackers para ciberataques sofisticados.
Pero también ha sido objeto de escrutinio; en 2025, acordó pagar $1,500 millones para resolver una demanda colectiva de autores que afirmaban que la empresa utilizó su trabajo para entrenar modelos de AI.
Al igual que OpenAI, la empresa busca aprovechar las ventajas de la tecnología a través de productos como Claude. Recientemente, criticó la decisión de OpenAI de publicar anuncios en ChatGPT. El director de OpenAI, Sam Altman, había declarado previamente que odiaba los anuncios.
En un artículo publicado en el New York Times, la exinvestigadora de OpenAI, Zoe Hitzig, afirmó tener profundas reservas sobre la estrategia de la startup que dirige Sam Altamn.
“La publicidad basada en los datos sensibles de los usuarios crea la posibilidad de manipularlos de maneras que no tenemos las herramientas para comprender”, escribió, advirtiendo sobre una posible erosión de los principios de la empresa para maximizar la interacción.







