A medida que la inteligencia artificial (IA) avanza, la lucha contra las ciberamenazas se convierte en una carrera armamentista donde la IA juega un papel tanto ofensivo como defensivo. La detección y respuesta de amenazas mediante el aprendizaje automático es prometedora, aunque la experiencia humana sigue siendo insustituible para interpretar y actuar sobre los hallazgos de estas herramientas. La conversación en torno a la IA ha estado muy presente en el ESET World 2024, el evento anual de ciberseguridad de ESET, en el que se han analizado tantos las oportunidades como los desafíos que plantea esta tecnología en materia de ciberseguridad.
En el corazón de la lucha contra las ciberamenazas, la inteligencia artificial (IA) y el aprendizaje automático han emergido como protagonistas de una revolución sin precedentes. La transformación de la inteligencia artificial se extiende a través de diversos sectores, tan diversos como el minorista o el sanitario, donde la IA se está implementando para analizar y contextualizar enormes volúmenes de datos. Esto facilita una gestión más eficiente de la información, crucial para responder a incidentes de seguridad de manera rápida y efectiva. La creatividad y la innovación se ven potenciadas, aliviando la carga de tareas repetitivas y contribuyendo significativamente a combatir el agotamiento profesional.
Sin embargo, como apuntaba Jess Parnell, CISO de Centripetal, en una charla con Daniel Cromack, CISO de ESET, Alan Lucas, CISO de Homefashion Group B.V., Ruud Verbij, Global Head of Information Security de Rituals, y Piotr Błaszczeć, CISO de X-KOM, no se puede entender la inteligencia artificial sin la inteligencia humana. «Para mí, la IA no es realmente inteligencia artificial, sino más bien inteligencia aumentada. En Centripetal aprovechamos la inteligencia de amenazas de ESET y protegemos a nuestros clientes en tiempo real. Esto generara una cantidad significativa de registros, datos de eventos y demás, y utilizamos la IA para que los analistas no se pierdan la fruta que está al alcance de su mano, es decir, ayudarlos a identificar las cosas a las que necesitan prestar atención», expresó Parnell.
Desmitificar la IA: Trayectoria, impacto y futuro de la inteligencia artificial
La implementación de estas tecnologías no está exenta de desafíos. La integración de sistemas heredados y la gestión eficaz de entornos IT dispersos plantean obstáculos significativos. A esto se suma la necesidad de una gobernanza sólida y una educación continua para asegurar que el personal pueda navegar con éxito en un paisaje de amenazas en constante evolución.
Además, los modelos de inteligencia artificial generativa se caracterizan por tener miles de millones de parámetros. Esto los convierte en «cajas negras», donde entender por qué se tomó una decisión específica es extremadamente difícil. A pesar de estar basados en conceptos neuronales, los procesos de pensamiento de estos algoritmos no son intuitivos para los humanos, lo que complica su explicabilidad.
Entre las principales limitaciones y consideraciones éticas, Juraj Janosik, director de inteligencia artificial de ESET, y Filip Mazan, senior manager de detección de amenazas avanzadas e investigación de IA de ESET, señalaban durante el evento que la falta de transparencia en los modelos líderes de IA generativa, que son mayoritariamente propietarios, impide la comprensión y el control sobre estos sistemas, así como la rendición de cuentas, especialmente cuando los datos de entrenamiento contienen sesgos o información incorrecta. Esta opacidad en el origen de los datos y el proceso de entrenamiento dificulta la identificación y corrección de sesgos, llevando a que los modelos reproduzcan o amplifiquen estos sesgos. Además, la IA generativa puede producir información plausible pero incorrecta, conocida como «alucinaciones», lo que representa un riesgo significativo de desinformación. Casos de uso indebido, como chatbots que inventan reembolsos falsos o difaman servicios, demuestran las consecuencias negativas directas de los fallos en la IA generativa.
Además, la rápida adopción de tecnologías de IA generativa ha atraído tanto a usuarios legítimos como a actores maliciosos, provocando riesgos de seguridad como la filtración de contraseñas y la recopilación indebida de datos privados.
- Filtración de contraseñas y recopilación indebida de datos: Se han observado intentos de recopilar credenciales de usuario a través de dominios maliciosos que imitan a los legítimos. Estos esfuerzos se ven facilitados por la popularidad y la novedad de la IA, con ataques dirigidos a robar información personal sensible, incluidas contraseñas y datos de acceso a servicios de IA.
- Uso de credenciales robadas en ataques más complejos: Los ciberdelincuentes actualizan constantemente sus métodos de ataque, pasando de simples estafas de phishing a técnicas más sofisticadas que buscan robar credenciales de API y claves de sistemas de IA.
- Phishing y desinformación: La IA generativa se ha utilizado para crear correos electrónicos de spear phishing altamente efectivos. Herramientas disponibles en el mercado negro, como WarmGPT, permiten a los ciberdelincuentes generar comunicaciones persuasivas para engañar a los destinatarios y llevar a cabo fraudes financieros o robo de datos. Estas herramientas son accesibles y económicas, bajando la barrera de entrada para el ciberdelito.
- Generación de información errónea y Deep Fakes: La capacidad de la IA para generar contenido realista, incluidos los Deep Fakes, hace que la detección de la desinformación sea un desafío cada vez más complejo. Incidentes como la difusión de un Deep Fake de una explosión cerca del Pentágono demuestran cómo esta tecnología puede ser utilizada para manipular la percepción pública y causar daño económico y social.
- Impacto en la privacidad de datos personales: La recopilación y el almacenamiento inseguros de datos pueden exponer a los usuarios a riesgos de privacidad y ser utilizados para fines malintencionados, destacando la necesidad de medidas de seguridad rigurosas y prácticas de gestión de datos responsables.
El futuro de la ciberseguridad con la inteligencia artificial
A pesar de los desafíos éticos, de seguridad y de privacidad, y comparándola con otras tecnologías disruptivas históricas como la electricidad y la computación, la IA puede transformar positivamente la sociedad si se maneja y regula adecuadamente. Adoptar un enfoque de «confianza cero», con vigilancia y validación constantes, puede abordar las preocupaciones de seguridad y éticas, asegurando que la IA generativa actúe de manera responsable y beneficiosa para la humanidad.
Ante este panorama, la colaboración estratégica tanto entre el sector privado como público se erige como fundamental. Durante el ESET World 2024, Tyler Welt, director global de habilitación de partners de seguridad del grupo de informática de clientes de Intel Corporation, y Elod Kironsky, vicepresidente de soluciones endpoint y tecnologías de seguridad de ESET, presentaron la colaboración entre ambas compañías, destinada a desarrollar el AI PC, una iniciativa destinada a mejorar la detección de amenazas en tiempo real a través de la IA y reducir el consumo de energía en los sistemas informáticos, centrada en la lucha contra el ransomware.