Copilot leyó correos electrónicos que deberían haber estado protegidos

Microsoft confirma que un error en Microsoft 365 Copilot Chat permitió que el chatbot de IA recuperara y resumiera correos electrónicos marcados como confidenciales, sin respetar las reglas de protección de datos vigentes. Así lo informa TechCrunch.

El fallo afectó a la función denominada "pestaña de trabajo" (work tab) en Copilot Chat, diseñada para leer y analizar contenido en aplicaciones de Microsoft 365 como Outlook, Word y Excel. Mientras que la bandeja de entrada estaba protegida, las carpetas de mensajes enviados y borradores —incluyendo las respuestas en hilos de correo— eran vulnerables.

Impacto directo en los controles de gobernanza empresarial

Para las empresas que utilizan Microsoft 365 como plataforma para comunicaciones sensibles, la confianza en que las políticas de DLP y las etiquetas de sensibilidad funcionen realmente es fundamental. El error debilitó precisamente esa confianza.

Según TechCrunch, Microsoft subrayó en un comunicado oficial que el fallo no otorgó ningún acceso a información para la cual no tuvieran ya autorización de visualización, pero que Copilot devolvió contenido que, según las propias reglas de la empresa, debería haber sido excluido del procesamiento por IA.

Identificamos y remediamos un problema por el cual Microsoft 365 Copilot Chat podía devolver contenido de correos electrónicos marcados como confidenciales; esto no otorgó acceso a información para la cual no estuvieran ya autorizados.

Cabe destacar que la clasificación del incidente por parte de Microsoft como un "aviso" (advisory) —en lugar de una brecha de seguridad a gran escala— indica un alcance limitado. No obstante, las consecuencias de que los sistemas de IA eludan las capas de seguridad configuradas explícitamente por las empresas son potencialmente graves.

Error de Microsoft expuso correos electrónicos confidenciales a Copilot AI

Microsoft implementa una solución global

Microsoft informa que la compañía comenzó a distribuir una actualización de configuración a los clientes empresariales de todo el mundo a principios de febrero, y que la causa raíz se considera abordada a partir del 20 de febrero de 2026. La empresa continúa monitoreando la situación y se está poniendo en contacto directamente con los clientes comerciales afectados.

Al mismo tiempo, Microsoft se niega a revelar cuántas organizaciones o individuos se vieron afectados. Un portavoz, según TechCrunch, ha declinado comentar sobre la magnitud del daño.

Microsoft no dirá cuántos clientes se vieron afectados, pero la remediación completa debería estar lista para el 24 de febrero.
Error de Microsoft expuso correos electrónicos confidenciales a Copilot AI

Contexto amplio: IA y manejo de datos bajo presión

El incidente ocurre en un periodo en el que el manejo de datos corporativos sensibles por parte de las herramientas de IA está bajo un escrutinio creciente. Según el propio Índice de Seguridad de Datos 2026 de Microsoft, la IA generativa está involucrada en el 32 por ciento de los incidentes de datos de las organizaciones, mientras que el 47 por ciento de las empresas ya ha introducido controles de seguridad específicos para la IA, un aumento de ocho puntos porcentuales respecto a 2025.

El escepticismo europeo hacia las herramientas de IA basadas en la nube se ilustra con el reciente bloqueo de herramientas de IA en los dispositivos del Parlamento Europeo, precisamente debido a preocupaciones relacionadas con la carga de datos a la nube.

Para el sector sanitario, la cuestión es especialmente aguda. Si los datos de salud terminan en sistemas de IA sin marcos legales suficientes como un BAA (Business Associate Agreement), podría constituir una violación de la normativa HIPAA, con requisitos de notificación y posibles sanciones como consecuencia.

Sin incidentes similares confirmados en la competencia

Hasta la fecha, no existen incidentes de seguridad confirmados de naturaleza similar relacionados con Google Gemini o ChatGPT de OpenAI en las fuentes disponibles. Por lo tanto, no es posible realizar una comparación directa sobre una base responsable.

El error de Microsoft es, por ahora, el único incidente documentado de este tipo entre los grandes actores de IA en el mercado empresarial, lo que otorga al caso un peso adicional en el debate sobre qué tan preparadas están realmente las plataformas de IA corporativas para manejar información empresarial crítica.