Oversharing interno. El riesgo que ya estaba ahí pero que la IA ha hecho visible

Por

Cuando hablamos de oversharing en ciberseguridad, la imagen habitual es la del empleado que publica demasiado en LinkedIn o comparte fotos de la oficina en Instagram. Esa exposición externa es real y preocupante, pero hay otra dimensión del problema que las organizaciones llevan años arrastrando en silencio: el oversharing interno.

El concepto es sencillo. Un empleado tiene acceso a más información de la que necesita para hacer su trabajo. El informe financiero del trimestre está en una carpeta compartida con toda la organización. Los contratos con proveedores llevan meses en un canal de Teams abierto a doscientas personas. Alguien creó un enlace de SharePoint con permisos para «todos los miembros de la organización» porque era más rápido que seleccionar destinatarios concretos. Nada de esto es nuevo. Lo que es nuevo es que ahora hay herramientas de inteligencia artificial que convierten esos descuidos acumulados en un problema de proporciones muy distintas.

Copilot y el efecto amplificador

Microsoft Copilot, Google Gemini y otras herramientas de IA generativa integradas en entornos corporativos no crean permisos nuevos. Trabajan con los que ya existen. Si un empleado tiene acceso a un documento, Copilot puede encontrarlo, resumirlo, citarlo y combinarlo con información de otras fuentes. Antes, ese documento perdido en una carpeta mal configurada tenía una protección involuntaria: nadie sabía que estaba ahí. Ahora, basta con hacer la pregunta correcta.

Los datos son contundentes. Según el informe de riesgos de datos de Concentric AI de 2025, Copilot accedió a casi tres millones de registros sensibles por organización durante el primer semestre de ese año. El 16% de los archivos críticos de negocio de una organización promedio están sobreexpuestos por permisos excesivos, configuraciones erróneas o clasificación inadecuada. Y el 57% de los datos compartidos a nivel organizativo contenían algún tipo de información privilegiada.

Microsoft ha reconocido abiertamente el problema. En su blog técnico, define el oversharing interno como la situación en la que «los empleados tienen acceso a más información de la necesaria para desempeñar sus funciones» y advierte de que, dado que Copilot puede resumir, sintetizar y recuperar datos en diferentes contextos, los controles de acceso efectivos son críticos. La mayoría del oversharing interno, señala Microsoft, no surge de intenciones maliciosas sino de problemas de configuración: sitios con privacidad configurada para toda la organización, permisos heredados que nadie revisa, o enlaces de compartición creados con ajustes por defecto demasiado amplios.

Un problema viejo con consecuencias nuevas

Antes de la IA generativa, el oversharing interno ya suponía un riesgo. Un atacante que consiguiera las credenciales de un solo empleado mediante phishing accedía no solo a la información de ese puesto, sino a todo lo que los permisos mal configurados dejaban al descubierto. Cuanto más amplio el acceso, mayor el radio de explosión del ataque.

Lo que la IA añade es velocidad y escala. Un empleado que explora carpetas manualmente encuentra un documento sensible por accidente. Una herramienta de IA puede cruzar información de correos, chats, documentos compartidos y wikis internas en segundos, generando resúmenes que combinan datos de múltiples fuentes. Un informe que estaba en un sitio al que técnicamente tenía acceso, pero que jamás habría buscado, ahora aparece como respuesta a una pregunta genérica.

Esto tiene implicaciones directas en cumplimiento normativo. El RGPD exige que el acceso a datos personales se limite a quienes tengan una base legítima para tratarlos. La Directiva NIS2 obliga a las entidades esenciales e importantes a gestionar los riesgos de seguridad de sus sistemas de información, lo que incluye el control de acceso. Cuando la IA amplifica la exposición de datos dentro de la organización, los incumplimientos que antes pasaban desapercibidos se convierten en vulnerabilidades activas.

Los patrones más comunes

El oversharing interno sigue patrones reconocibles. El primero y más extendido es la configuración por defecto. Muchas plataformas de colaboración asignan permisos amplios cuando se crea un nuevo espacio de trabajo. Si nadie los restringe activamente, la información queda accesible para toda la organización desde el primer momento.

El segundo patrón es la acumulación de permisos. Un empleado cambia de departamento o de proyecto, pero conserva los accesos anteriores. Con el tiempo, personas que ya no tienen ninguna relación funcional con determinada información siguen pudiendo consultarla.

El tercero es el enlace compartido sin caducidad. Alguien necesita enviar un archivo a un compañero y crea un enlace con acceso para «cualquier persona de la organización». El archivo se entrega, el enlace queda activo indefinidamente.

Y el cuarto, cada vez más relevante, es el shadow AI. Empleados que utilizan herramientas de IA no sancionadas por la organización, introduciendo en prompts información interna que puede acabar procesada fuera del perímetro corporativo.

Qué hacer antes de que la IA lo haga visible

Las organizaciones que están desplegando herramientas de IA generativa en sus entornos corporativos tienen una oportunidad para abordar este problema que debería haberse resuelto hace años. Microsoft recomienda un enfoque por fases: piloto, despliegue y operación continua. Antes de dar acceso masivo a Copilot, conviene auditar qué datos están expuestos internamente y a quién.

Esto implica revisar los permisos de los sitios de SharePoint y OneDrive, identificar los espacios de Teams y canales públicos que contienen información sensible, eliminar enlaces de compartición caducados o excesivamente amplios, y establecer etiquetas de confidencialidad que determinen qué puede hacer la IA con cada tipo de documento.

Pero más allá de las herramientas específicas de Microsoft o de cualquier otro proveedor, el principio subyacente es el mismo que la ciberseguridad lleva décadas defendiendo: acceso mínimo necesario. Cada persona, y ahora cada agente de IA, debería poder acceder únicamente a la información que necesita para realizar su tarea. Ni más, ni menos.

La paradoja de la productividad

Existe una tensión real entre productividad y seguridad. Las herramientas de colaboración se diseñan para facilitar el intercambio de información. Poner barreras a ese intercambio parece ir en contra de su propósito. Y la IA generativa ayuda precisamente a hacer más productivos a los empleados dándoles acceso rápido a toda la información relevante.

La clave está en que «toda la información relevante» no significa «toda la información disponible». Una cosa es que Copilot ayude a un responsable de ventas a localizar la última versión de una propuesta comercial. Otra muy distinta es que esa misma consulta le devuelva borradores de contratos de recursos humanos o documentos del comité de dirección que alguien dejó en una carpeta mal configurada.

Gartner estima que en 2027 el 60% de las empresas no conseguirá el valor esperado de sus casos de uso de IA por frameworks de datos incoherentes. La gobernanza de datos no es un obstáculo para la adopción de IA. Es un requisito previo.

El oversharing interno no es un problema de tecnología. Es un problema de gobernanza que la tecnología ha hecho imposible de ignorar. Durante años, las organizaciones han funcionado con permisos de acceso mal gestionados porque las consecuencias no eran inmediatamente visibles. La IA generativa ha cambiado esa ecuación.

Para las organizaciones sujetas a regulaciones como NIS2 o el RGPD, y especialmente para los Prestadores de Servicios de Confianza y otras entidades del ecosistema eIDAS, donde la integridad y la confidencialidad de la información son condiciones de existencia, la limpieza del oversharing interno no es una mejora opcional. Es una obligación que la llegada de la IA corporativa ha convertido en urgente.

El momento de auditar los permisos internos era hace cinco años. El segundo mejor momento es antes de activar el asistente de IA.