¿Alguna vez ha recibido una llamada o videollamada proveniente del exterior en la que no habla nadie? ¿Recientemente ha recibido notificaciones de entidades que le proveen bienes o servicios en donde se le informa que sus datos han sido comprometidos en un ciberataque?
El rastreador mundial de incidentes de Inteligencia Artificial (IA) elaborado por el Instituto Técnico de Massachussets (MIT) da cuenta de cómo la cantidad de incidentes asociados a causas de “privacidad y seguridad” ha aumentado en forma sostenida desde el 2015 hasta hoy, pues pasó de 24 a 318 registros. Por su parte, los incidentes causados por “actores maliciosos” hoy en día representan el 58% de los incidentes para el año 2025, cuando en el año 2015 equivalía tan sólo a ~8%.
De acuerdo con el Foro Económico Mundial (WEF), el aumento de incidentes responde a varios factores. Uno de los más determinantes es el clima de tensión geopolítica y económica que se ha agudizado desde 2023, creando un escenario de alta presión donde el acceso a más datos —y de mayor diversidad— se vuelve un insumo estratégico para gobiernos y organizaciones. Ese contexto abre la puerta a un incentivo riesgoso: la obtención ilícita de información. En consecuencia, los actores maliciosos han intensificado sus ataques, aprovechando las brechas de seguridad de entidades que aún no cuentan con sistemas de protección robustos.
Por otro lado, la amplia disponibilidad de la IA, tanto a través del software de código abierto como la proliferación de modelos avanzados que sean accesibles al público en general, ha permitido que, tanto actores legítimos como maliciosos puedan utilizar estas herramientas sin restricciones y pocos o nulos recursos. Esta situación facilita la creación de virus más sofisticados y difíciles de detectar, al igual que el desarrollo de perfiles personalizados y altamente realistas. Estos perfiles, a su vez, permiten diseñar estrategias de ingeniería social mucho más precisas y efectivas, incrementando significativamente el éxito de los ciberataques.
Entre las tácticas más extendidas y avanzadas de este año destacan los ataques que utilizan deepfakes: videos o audios falsificados con IA generativa, capaces de imitar con gran realismo voces y rostros. Estas piezas suelen construirse a partir de grabaciones captadas en “llamadas fantasma” o de fotografías y videos publicados en redes sociales.
Los deepfakes se han convertido en un refuerzo peligroso para las técnicas de ingeniería social, tradicionalmente el punto más débil de la ciberseguridad. Aunque las organizaciones fortalezcan sus sistemas, el factor humano sigue siendo impredecible y ofrece a los atacantes una vía directa hacia los activos críticos.
Según datos de Fortinet, en lo corrido de 2025 cerca del 47% de las empresas ha enfrentado intentos de fraude basados en suplantación con deepfakes. Este comportamiento se suma al incremento del 42% en incidentes de ingeniería social reportado por las organizaciones al Foro Económico Mundial (WEF) durante 2024.
Retos legales y urgencia de actuar antes del próximo ataque
“Si bien ninguna organización puede considerarse completamente inmune a un incidente de ciberseguridad, la diferencia entre un episodio manejable y una crisis empresarial depende de su nivel de preparación y de la calidad de la respuesta en el momento crítico. De ahí la relevancia de consolidar una cultura de seguridad de la información, sustentada en campañas de sensibilización y formación continua”, precisan voceros de Fortinet.
“Este esfuerzo debe complementarse con la creación e implementación de políticas, protocolos y manuales tanto de seguridad de la información como de gobernanza de inteligencia artificial. Aunque suelen confundirse, estos marcos cumplen funciones distintas y no son intercambiables. Ignorar esa diferencia puede dejar áreas estratégicas expuestas en un escenario donde las amenazas evolucionan con rapidez”, añaden los portavoces.
Más allá de los retos técnicos, una brecha de seguridad activa múltiples obligaciones legales. En Colombia no existe una ley única de ciberseguridad, pero sí un mosaico de normas en protección de datos, regulación sectorial y delitos informáticos, cuya complejidad aumenta cuando intervienen operaciones internacionales. Algunas jurisdicciones incluso exigen notificar incidentes en plazos estrictos.
Por eso, cualquier estrategia de gobernanza de IA o gestión de incidentes debe incluir un análisis de riesgos y de las normas aplicables, junto con medidas claras de cumplimiento.
El riesgo seguirá creciendo, como lo evidenció el ataque a IFX Networks, que afectó a decenas de entidades públicas y privadas. La recomendación es actuar antes: diagnosticar, buscar asesoría y prevenir.
La transformación de la ciberseguridad impulsada por la IA ya no es un escenario futuro: está ocurriendo hoy y nos afecta a todos. Si este análisis le resultó útil y cree que puede ayudar a más personas a comprender los riesgos y prepararse mejor, compártalo en sus redes y conversaciones profesionales. Informar es también una forma de proteger.
#Ciberseguridad #IAySeguridadDigital
___________________________________ 
Fotos de apoyo creada por arte creativo en Freepik
Botón de CTA creado por Grafixpoint en Freepik
