Una videollamada. 25,6 millones de dólares perdidos.

En enero de 2024, un empleado financiero de la empresa de ingeniería Arup fue invitado a una videoconferencia con su CFO y varios colegas. Todos los rostros eran conocidos. Las voces encajaban. La persona aprobó 15 transferencias bancarias separadas por un total de 25,6 millones de dólares, equivalentes a unos 270 millones de coronas noruegas.

Ninguno de los participantes en la llamada era un ser humano real. Todos eran deepfakes generados por IA.

El caso Arup se ha convertido en un punto de referencia en el debate sobre la autenticidad en línea, no porque fuera técnicamente sofisticado más allá de lo común, sino porque ilustra algo fundamental: la confianza humana, no las debilidades técnicas, fue el vector de ataque. Y es precisamente aquí donde Microsoft y el resto de la industria tecnológica están concentrando sus esfuerzos.

C2PA: El estándar de la industria para salvar la confianza

La respuesta de Microsoft no es un producto nuevo: es infraestructura. La empresa es un actor central en la Coalition for Content Provenance and Authenticity (C2PA), un estándar industrial abierto que utiliza metadatos criptográficos para fijar una firma invisible y a prueba de manipulaciones al contenido digital en el momento en que se crea.

La firma contiene información sobre quién creó el contenido, con qué herramienta, cuándo y si ha sido editado posteriormente. Microsoft Copilot ha comenzado a integrar soporte para las Credenciales de Contenido C2PA en imágenes generadas por IA, según Windows Forum. La plataforma Azure AI Content Safety ya ofrece herramientas en tiempo real para detectar y marcar contenido sintético.

Pero Microsoft no está solo. Google ha integrado el Nivel de Garantía 2 de C2PA directamente en el hardware de las cámaras Pixel. TikTok está haciendo obligatorio el etiquetado C2PA para el contenido de IA realista. YouTube lo utiliza para el contenido creado con herramientas como Dream Screen. OpenAI y Adobe adoptaron C2PA v2.1 en 2024 para la firma a prueba de manipulaciones de la salida de IA, mientras que la versión 2.3 en 2025 añadió soporte para transmisiones en vivo y texto.

Las agencias de noticias AFP y BBC han pilotado el estándar en la cobertura electoral. Sony lo está integrando en sus cámaras. Cloudflare lo utiliza para la preservación de metadatos en la cadena de distribución.

1.870 M$
Valor de mercado detección imágenes falsas 2026
7.430 M$
Valor de mercado estimado 2031 (31,7 % CAGR)
La guerra contra los deepfakes: así marcará Microsoft todo lo que cree la IA

Los competidores: Un mercado en crecimiento explosivo

C2PA es un estándar abierto, no un producto, y a su alrededor ha crecido un mercado de actores comerciales que compiten por ofrecer soluciones.

Adobe Content Credentials es la implementación de la empresa compatible con C2PA, integrada en herramientas como GenStudio y Experience Manager, y visible en plataformas como LinkedIn. Ofrece firmas de marca, marcas de agua invisibles y huellas digitales que sobreviven a la exportación y edición en formatos estándar como JPEG, PNG y MP4.

Truepic adopta otro ángulo: la empresa se posiciona como el "sistema inmunológico de la realidad digital" y combina la detección de deepfakes basada en aprendizaje automático con infraestructura de procedencia. Mientras que Adobe se centra en flujos de trabajo empresariales, Truepic está más orientado al usuario y a la detección.

SynthID de Google es una marca de agua patentada que es invisible al ojo humano pero detectable a través de la plataforma Gemini. Representa un enfoque paralelo: en lugar de un estándar abierto, un sistema cerrado pero muy robusto.

Lo común a todos los enfoques es que son complementarios, no mutuamente excluyentes. Mordor Intelligence estima que el mercado de detección de imágenes falsas crecerá de 1.870 millones de dólares en 2026 a 7.430 millones de dólares para 2031, una tasa de crecimiento anual del 31,7 %.

«C2PA demuestra el origen, no la verdad. Es la diferencia entre saber quién hizo algo y saber si es verdad».
La guerra contra los deepfakes: así marcará Microsoft todo lo que cree la IA

Debilidades conocidas del estándar

Los críticos de C2PA no son difíciles de encontrar, y tienen puntos que ninguna firma criptográfica puede resolver por sí sola.

El despojo de manifiesto (manifest stripping) es el vector de ataque más sencillo: los metadatos pueden eliminarse. Una imagen sin firma C2PA no es necesariamente falsa; puede ser simplemente una foto antigua, una captura de pantalla o una imagen de una fuente que no ha implementado el estándar. La ausencia de un sello no demuestra nada.

El ataque del agujero analógico es más sutil: al volver a fotografiar o grabar el contenido, las firmas digitales se pierden por completo. El contenido ya no está "manipulado" en sentido digital; es simplemente contenido nuevo.

La adopción voluntaria es el desafío estructural central. Los actores malintencionados, por definición, no marcarán su contenido. El sistema protege contra errores accidentales y la manipulación de actores honestos, no contra aquellos que deliberadamente quieren engañar.

Estas no son debilidades hipotéticas. Investigaciones citadas en el Informe Internacional de Seguridad de la IA para 2026 subrayan que incluso los sistemas de detección automatizados de última generación caen de una precisión casi perfecta en el laboratorio a una tasa de error del 40-50 % en condiciones reales, especialmente en videoconferencias en vivo, exactamente el contexto que explotó el ataque a Arup.

Eliminar los metadatos C2PA lleva segundos. Construir confianza en un sistema que depende del uso voluntario lleva años.

La UE establece el plazo: agosto de 2026

Donde la voluntariedad tiene sus límites, entra la regulación. El reglamento de IA de la UE —la Ley de IA— establece un plazo claro: el 2 de agosto de 2026 es la fecha en que el Artículo 50(2) entra plenamente en vigor, haciendo obligatorio el etiquetado legible por máquina del contenido generado por IA.

Los requisitos se aplican a los proveedores de modelos y sistemas de IA generativa, que deben implementar métodos de etiquetado robustos y detectables —marcas de agua, metadatos, certificados de procedencia para texto— antes de que el contenido se comercialice. Los implementadores deben garantizar etiquetas visibles para los usuarios en la primera exposición.

Las sanciones no son simbólicas: multas de hasta 35 millones de euros o el 7 % de la facturación global.

En diciembre de 2025 se publicó un borrador voluntario del «Código de Buenas Prácticas» para el etiquetado, y se espera la versión final para junio de 2026. Una propuesta bajo el paquete «Digital Omnibus» abre la puerta a una prórroga limitada de seis meses hasta febrero de 2027 para los sistemas que ya están en el mercado, pero el Comité Europeo de Protección de Datos (CEPD) y el supervisor SEPD se han opuesto públicamente a cualquier extensión.

Para las empresas noruegas y europeas, esto significa que C2PA ya no es solo una buena práctica: puede convertirse en una herramienta de cumplimiento concreta con respaldo legal.

Agosto de 2024
Entra en vigor la Ley de IA de la UE
2024
Google, TikTok, YouTube, OpenAI y Adobe adoptan C2PA v2.1; AFP y BBC pilotan el estándar en la cobertura electoral
Diciembre de 2025
La UE publica el borrador voluntario del «Código de Buenas Prácticas» para el etiquetado de IA
Junio de 2026
Se espera la aprobación del «Código de Buenas Prácticas» definitivo
2 de agosto de 2026
Entra en vigor el Artículo 50(2) de la Ley de IA de la UE: etiquetado obligatorio legible por máquina del contenido de IA

Qué sigue para Microsoft

Microsoft aún no ha anunciado públicamente una estrategia de lanzamiento unificada para la integración de C2PA en toda su cartera de productos. Bing, LinkedIn, Azure y Microsoft 365 son todos canales de distribución potenciales, y LinkedIn ya ha comenzado a mostrar información de las Credenciales de Contenido de Adobe para el contenido producido con herramientas compatibles.

La plataforma Azure AI Content Safety está operativa y proporciona a los desarrolladores herramientas API para el filtrado de contenido y la detección de material sintético en tiempo real. Aquí es donde se está construyendo la infraestructura práctica, no en el lanzamiento de un solo producto, sino poniendo las herramientas a disposición de quienes construirán aplicaciones sobre ellas.

Para la industria de los medios, los anunciantes y las empresas que manejan transacciones sensibles, la implicación es sencilla: la tecnología está en camino, los reguladores están fijando plazos y el caso Arup muestra lo que sucede cuando falta la infraestructura de confianza. Un sistema de procedencia digital no es más fuerte que la proporción de actores serios que realmente lo utilizan, pero sin él, la alternativa es que la confianza humana siga siendo el eslabón más débil de la cadena.