Microsoft ha confirmado un fallo de seguridad importante en Copilot. El gigante tecnológico reveló que su IA ha ignorado las barreras de seguridad y accedió a información marcada como sensible. Copilot resumió correos electrónicos confidenciales desde hace semanas sin que los usuarios tuvieran conocimiento.
De acuerdo con BleepingComputer, el asistente de IA ignoró las políticas de prevención de pérdida de datos. Copilot ignoró las etiquetas de Microsoft Purview, una herramienta de seguridad que utilizan las empresas para evitar la fuga de información sensible. Al hacerlo, el asistente consiguió leer y resumir correos electrónicos que se encontraban en las carpetas Elementos Enviados y Borradores de los usuarios.
El problema radica en la forma en que Copilot interactúa con el protocolo de permisos de la infraestructura de Microsoft. Aunque la compañía sostiene que el asistente respeta los controles de acceso del usuario, en la práctica, si un empleado tiene permiso de lectura sobre un correo, la IA puede extraer el contenido, procesarlo y presentarlo en un resumen.
Al solicitar un resumen de la bandeja de entrada o de hilos específicos, Copilot no diferenciaba entre las comunicaciones ordinarias y aquellas que portan metadatos de restricción. Esta vulnerabilidad no solo puso en riesgo secretos comerciales, sino que también facilitó que información crítica circulara internamente sin los filtros de seguridad que las normativas de cumplimiento exigen.
Microsoft dice que no hay una vulnerabilidad en Copilot
El fallo, catalogado como CW1226324, ya fue confirmado con Microsoft. La tecnológica afirma que no se trata de un agujero de seguridad, sino de una interpretación de los permisos existentes.
"Los mensajes de correo electrónico de los usuarios con una etiqueta confidencial aplicada se procesan incorrectamente en el chat de Microsoft 365 Copilot", mencionó la empresa. "Un problema de código permite que Copilot recoja elementos en las carpetas de enviados y borradores a pesar de que se han establecido etiquetas confidenciales".
Hasta el momento no existe una solución para resolver la vulnerabilidad. Microsoft dijo que está trabajando en corregir el fallo y ya se puso en contacto con las empresas. La compañía no reveló el número de usuarios afectados ni la fecha en que liberará un parche para limitar a Copilot.
Algunos expertos dijeron que el comportamiento de la IA es inconsistente con las promesas de seguridad de Microsoft. A diferencia del Copilot que utiliza la mayoría de usuarios, la versión para empresas se apoya en Microsoft Purview, un sistema diseñado para clasificar y proteger datos mediante etiquetas. Estas pueden cifrar documentos o simplemente marcarlos para evitar que se compartan fuera de ciertos grupos.
La noticia no podría llegar en un peor momento para Microsoft. Hace unos días, el Parlamento Europeo prohibió que los legisladores utilicen la IA en sus dispositivos del trabajo. De acuerdo con Politico, la cámara avisó a sus miembros que desactivaría las funciones de IA en las tablets por considerar que no eran seguras para los datos.
Seguir leyendo: Microsoft confirma un fallo en su IA que expone correos confidenciales
Continúar leyendo...