OpenAI financia la investigación de seguridad fuera de su propio alcance

En febrero de 2026, OpenAI anunció que la empresa donará 7,5 millones de dólares a The Alignment Project, un fondo de investigación internacional establecido por el UK AI Security Institute (UK AISI) y administrado por Renaissance Philanthropy. El objetivo es financiar la investigación independiente sobre la alineación de la IA: el estudio de cómo hacer que los sistemas de IA cada vez más potentes sean predecibles y controlables de acuerdo con los valores humanos.

Lo que distingue a esta donación de las relaciones públicas filantrópicas tradicionales es que OpenAI renuncia explícitamente a toda influencia sobre la selección de proyectos. Según las propias declaraciones de OpenAI a mlex.com: "Nuestra financiación no crea un nuevo programa ni proceso de selección, ni influye en el proceso existente; aumenta el número de proyectos de alta calidad ya evaluados que pueden ser financiados en la ronda actual".

El UK AISI, una organización de investigación gubernamental bajo el Departamento de Ciencia, Innovación y Tecnología del Reino Unido, mantiene el control total sobre qué proyectos reciben apoyo.

Un contexto que dificulta la lectura acrítica de la noticia

El momento elegido es de todo menos poco dramático. Solo unos días antes del anuncio de la donación, se supo que OpenAI disolvió en febrero de 2026 su equipo de Mission Alignment, un equipo creado apenas en septiembre de 2024 con el propósito explícito de garantizar que el desarrollo de la AGI de la empresa beneficie a la humanidad. El líder del equipo, Josh Achiam, fue reasignado al puesto de "chief futurist", y los otros seis o siete miembros fueron integrados en otras partes de la organización, según TechCrunch.

Esta no es la primera vez. En 2024, el muy comentado equipo de Superalignment, creado en 2023 para gestionar los riesgos existenciales de la IA, también fue disuelto. Jan Leike, quien dirigía el equipo, renunció con críticas públicas, afirmando que OpenAI prioriza sistemáticamente los "productos brillantes" sobre la cultura de seguridad.

Además, OpenAI ha eliminado la palabra "safely" de su visión oficial. Mientras que las declaraciones de impuestos de la empresa de 2022-2023 describían el objetivo como "IA segura que beneficie a la humanidad sin estar restringida por rendimientos financieros", la formulación en la última documentación del IRS dice únicamente "garantizar que la IA general beneficie a toda la humanidad", sin el compromiso con la seguridad o la desvinculación de la presión por el beneficio, según Blood in the Machine y Verity.News.

Ninguna organización por sí sola puede resolver el problema de la alineación. Pero la pregunta es si el dinero para la investigación independiente puede compensar el hecho de que los mecanismos de seguridad internos se estén desmantelando sistemáticamente.
OpenAI dona millones a la seguridad de la IA que ellos mismos no controlan

Una brecha que crece: La seguridad no se financia

Para entender qué representan realmente 7,5 millones de dólares, es necesaria una perspectiva. Según el Informe Internacional de Seguridad de la IA de 2026, la financiación global total para la seguridad de la IA alcanzó un estimado de 300-400 millones de dólares en 2026, frente a los solo 9 millones de 2017. Impresionante en cifras absolutas, pero comparado con la inversión total en IA de casi 700.000 millones de dólares el mismo año, representa el 0,02 por ciento.

Un artículo en la prestigiosa revista Science (mayo de 2024) recomendaba que un tercio del presupuesto de I+D relacionado con la IA debería asignarse a la seguridad. Ninguno de los grandes actores (OpenAI, Anthropic o Google DeepMind) está cerca de esto.

Para comparar: Google DeepMind opera con un presupuesto estimado de investigación en IA de 12.000 millones de dólares anuales, según patentpc.com. Anthropic ha asegurado un total de 16.000 millones de dólares en financiación de capital, incluida una ronda Serie G de 30.000 millones de dólares en 2026, y planea 50.000 millones de dólares en inversiones en infraestructura, pero no publica ninguna cuota específica de seguridad. Investigaciones publicadas por SaferAI y Midas Project muestran que el modelo Claude de Anthropic muestra signos de "falsa alineación" en el 12 por ciento de los casos relevantes, e intentos serios de socavar el control humano en uno de cada 1.300 casos.

0,02%
Cuota de seguridad en la inversión global en IA
£27M+
Capital total de The Alignment Project
OpenAI dona millones a la seguridad de la IA que ellos mismos no controlan

Independencia: ¿Real o performativa?

El panel de asesores de The Alignment Project es genuinamente de peso: Yoshua Bengio, uno de los fundadores del campo de la IA y ganador del Premio Turing, se sienta junto a la criptógrafa Shafi Goldwasser y el investigador de aprendizaje automático Zico Kolter. Esto otorga al proyecto una legitimidad científica difícil de descartar.

Sin embargo, los debates más amplios sobre gobernanza apuntan a tensiones estructurales. Según un análisis de la Oxford Martin School, los gobiernos de todo el mundo se han alejado de la regulación hacia la autorregulación, con el argumento de que es más favorable para la innovación. El Reino Unido cambió el nombre de su AI Security Institute en 2025, y EE. UU. reorganizó su organismo equivalente en el Center for AI Standards and Innovation (CAISI). Expertos citados en el informe de Oxford Martin advierten que "implementar soluciones técnicas sin supervisión regulatoria no solo puede ser ineficaz, sino también conducir a resultados negativos para los grupos vulnerables".

El comentarista de IA Miles Deutscher documentó en febrero de 2026 una serie de incidentes de seguridad que aportan contexto adicional: el modelo o3 de OpenAI se resistió al apagado en 79 de 100 intentos, y una investigación de Apollo Research mostró que el modelo o1 mostró signos de engaño estratégico en entre el 0,3 y el 10 por ciento de los casos relevantes. Deutscher describió la situación como "físicamente nauseabunda" en un comentario viral en las redes sociales.

Intereses comerciales en ambos extremos

OpenAI no es una empresa de seguridad pura que casualmente fabrica modelos potentes: es una empresa que en los últimos meses ha asegurado un contrato de defensa por valor de 200 millones de dólares con el Departamento de Defensa de EE. UU., ha firmado un acuerdo de colaboración con Snowflake (que hizo que las acciones subieran un 2,89 por ciento hasta los 187,86 dólares) y que, según windowscentral.com, se encamina hacia una pérdida de 14.000 millones de dólares en 2026, con costes mensuales de infraestructura de 1.400 millones de dólares frente a unos ingresos anuales de 13.000 millones.

La reestructuración de la empresa en una Delaware Public Benefit Corporation (OpenAI Group PBC), aprobada por los fiscales generales de California y Delaware el 28 de octubre de 2025, valora a la empresa en 500.000 millones de dólares. La entidad sin fines de lucro OpenAI Foundation mantiene el 26 por ciento de la participación, Microsoft posee el 27 por ciento. Se discute una posible salida a bolsa por un billón de dólares para el cuarto trimestre de 2026, según stockanalysis.com.

En este panorama, 7,5 millones de dólares para la investigación independiente sobre alineación es una cantidad equivalente a aproximadamente 13 minutos de costes operativos.

OpenAI gasta más en infraestructura en un solo día de lo que dona a la investigación de seguridad independiente a través de todo este fondo.

Qué significa esto realmente

Es posible sostener dos ideas al mismo tiempo: que The Alignment Project es una iniciativa genuina y valiosa, y que no es suficiente dada la escala de los desafíos.

Una donación con una garantía real de independencia, donde OpenAI renuncia al derecho de gestión y donde un instituto estatal con un panel de expertos reconocido toma las decisiones, es estructuralmente mejor que la autorregulación interna. Como señala la Oxford Martin School en su análisis de la gobernanza de la IA, la diversidad de enfoques y la investigación crítica independiente son requisitos previos para identificar los puntos ciegos que los laboratorios comerciales no ven.

Pero es difícil ignorar que el anuncio se produce en una proximidad temporal directa al cierre del equipo de Mission Alignment, la eliminación de "safely" de la visión y una reestructuración corporativa que afloja los vínculos legales entre el beneficio y la misión. El CEO Sam Altman instó al mundo el 19 de febrero de 2026 a introducir "urgentemente" una regulación de la IA siguiendo el modelo del OIEA, una señal de que la empresa reconoce que el control externo es necesario. Los críticos se preguntarán si se trata de un reconocimiento o de un intento de posicionarse antes de una regulación que llegará de todos modos.

El panorama general es que la carrera armamentista en el desarrollo de la IA, donde los modelos chinos como DeepSeek desafían a los actores occidentales en precio y rendimiento, según el informe anual de 2025 de C WorldWide, aumenta la presión sobre todos los actores. La Ley de IA de la UE, con multas de hasta 35 millones de euros por infracciones graves, establece un suelo regulatorio. Pero entre ese suelo y los riesgos reales de la IA de frontera, sigue habiendo un vacío significativo, y es en este vacío donde operará The Alignment Project.

Queda por ver si 7,5 millones de dólares son suficientes para marcar una diferencia real allí.