La adopción acelerada de inteligencia artificial en las grandes corporaciones está provocando un incremento significativo de los riesgos de seguridad. Según el análisis publicado por IT User, la implantación de herramientas de IA ha disparado un 40% las exposiciones de seguridad, ampliando la superficie de ataque y generando nuevos vectores de vulnerabilidad.
El principal problema radica en que muchas organizaciones están desplegando soluciones de IA, incluidas aplicaciones generativas y modelos integrados en procesos internos, sin una estrategia madura de gobernanza, control de accesos y protección de datos. Esto facilita fugas de información sensible, configuraciones incorrectas y brechas derivadas de integraciones apresuradas con sistemas corporativos.
Además, el uso de modelos externos y servicios en la nube incrementa la complejidad del entorno tecnológico, dificultando la visibilidad completa de los riesgos. La falta de políticas claras sobre qué datos pueden introducirse en herramientas de IA y cómo deben protegerse los modelos entrenados agrava la exposición.
El informe subraya que el desafío no es frenar la adopción de la IA, sino acompañarla de arquitecturas de seguridad adaptadas a entornos híbridos y a la nueva realidad de automatización inteligente. La combinación de supervisión humana, segmentación de redes, control de identidades y auditorías continuas será clave para reducir el impacto de esta expansión tecnológica.
En 2026, la seguridad ya no puede considerarse un complemento de la estrategia de IA, sino un componente estructural desde el diseño.
IT USER (18/02/2025)
Más información aquí





























