Un investigador de seguridad en inteligencia artificial (AI por sus siglas en inglés) renunció a la startup estadounidense Anthropic con una advertencia: “El mundo está en peligro”.
En su carta de renuncia, compartida en X, Mrinank Sharma comunicó a la organización su salida debido a la preocupación por la AI, las armas biológicas y el estado del mundo en general.
Sharma dirigió un equipo que investigó las medidas de seguridad de la AI. En su misiva, declaró que sus contribuciones incluían investigar por qué los sistemas de inteligencia artificial generativa (GenAI por su acrónimo en inglés) muestran comportamientos serviles (sycophancy), combatir los riesgos del bioterrorismo asistido por esta tecnología e investigar cómo la AI de agentes podría impactar la esencia humana.
Sin embargo, mencionó que, a pesar de disfrutar de su tiempo en la empresa, llegó el momento de alejarse. “El mundo está en peligro. Y no solo por la AI o las armas biológicas, sino por toda una serie de crisis interconectadas”, escribió.
Afirmó haber visto “lo difícil que es realmente dejar que nuestros valores gobiernen nuestras acciones”, incluso en Anthropic, donde, apuntó, “constantemente enfrentamos presiones para dejar de lado lo que más importa”.
Sharma comentó que, en su lugar, se dedicaría a escribir y estudiar poesía, y que regresaría al Reino Unido para “hacerse invisible”.
Índice de temas
“Erosión de principios”: exinvestigadora de OpenAI
La renuncia de Sharma ocurre la misma semana en que una investigadora de OpenAI anunció su renuncia en un artículo publicado en el New York Times, expresando su preocupación por la decisión del fabricante de ChatGPT de implementar anuncios en su chatbot.
Zoë Hitzig, investigadora de la startup desde hace dos años, indicó tener profundas reservas sobre la estrategia de la compañía que dirige Sam Altaman.
Advirtió sobre el potencial de ChatGPT para manipular a los usuarios, y señaló que el archivo de datos de los usuarios del chatbot, creado sobre “miedos médicos, sus problemas de relación, sus creencias sobre Dios y el más allá”, presenta un dilema ético precisamente porque las personas creían que estaban chateando con un programa que no tenía motivos ocultos.
“La publicidad basada en los datos sensibles de los usuarios crea la posibilidad de manipularlos de maneras que no tenemos las herramientas para comprender”, escribió, advirtiendo sobre una posible erosión de los principios de la empresa para maximizar la interacción.
Los especialistas que abandonan estas prominentes compañías de GenAI suelen hacerlo tras haber acumulado acciones y beneficios significativos gracias a los altos esquemas de compensación del sector, que incluyen salarios elevados y $ en opciones de compra de acciones.
Anthropic, de criticar a OpenAI, a ser criticada
Al igual que OpenAI, Anthropic busca aprovechar las ventajas de la tecnología a través de productos como su chatbot Claude.
Recientemente, criticó la decisión de OpenAI de publicar anuncios en ChatGPT. Con motivo del Super Bowl, lanzó una serie de campañas dirigidas a su rivaI, criticando la inclusión de publicidad para algunos usuarios. Sam Altman, había declarado previamente que odiaba los anuncios.
La startup fundada en 2021 por un equipo disidente de los primeros empleados de OpenAI, se ha posicionado con un enfoque más orientado a la seguridad en la investigación de AI en comparación con sus competidores.
Además, se autodenomina una corporación de beneficio público dedicada a asegurar los beneficios de la AI y mitigar sus riesgos. Se ha centrado en prevenir los riesgos de los modelos de frontera, como que se desalineen con los valores humanos o sean utilizados en conflictos bélicos.
Ha publicado informes sobre la seguridad de sus productos, incluso cuando afirmó que su tecnología había sido utilizada por hackers para ciberataques sofisticados.
Pero también ha sido objeto de escrutinio; en 2025, acordó pagar $1,500 millones de dólares para resolver una demanda colectiva de autores que afirmaban que la empresa utilizó su trabajo para entrenar modelos de AI.







