Ciberseguridad 2025: ¿estamos preparados para la revolución de la IA?

La Inteligencia Artificial (IA) ha iniciado una carrera tecnológica en campos como el de la ciberseguridad en el último año. De hecho, se espera que esta tecnología siga teniendo un importante impacto a lo largo de 2025, presentando tanto oportunidades como desafíos. En este sentido, ESET, compañía líder en ciberseguridad, advierte sobre el impacto de esta tecnología en la evolución de las amenazas digitales y su repercusión en usuarios, empresas y gobiernos durante el nuevo año.

La doble cara de la IA: oportunidades y riesgos

En los últimos años, la IA ha sido una herramienta crucial para reforzar las defensas cibernéticas. Sin embargo, también está siendo utilizada por actores malintencionados para amplificar ataques y mejorar técnicas de ingeniería social, fraudes relacionados con el robo de cuentas y la desinformación.

El Centro Nacional de Ciberseguridad del Reino Unido (NCSC) ya advirtió en 2024 que la IA aumentará significativamente el volumen y el impacto de los ciberataques en los próximos dos años. La amenaza es aun más grave cuando se habla de IA generativa, ya que esta tecnología es capaz de potenciar la ingeniería social al crear campañas convincentes en idiomas locales y facilitar la identificación de activos vulnerables, exacerbando las amenazas en el ámbito digital. Aunque estas tendencias se mantienen en 2025, ESET confirma que es posible que también se vea el uso de la IA para:

·         Elusión de autenticación: Tecnología deepfake para superar verificaciones de identidad basadas en selfies o vídeos.

·         Fraude corporativo: Uso de IA para manipular a empleados y desviar fondos mediante correos electrónicos comprometidos (BEC) y vídeos falsos de altos directivos.

·         Estafas de suplantación de identidad: Los grandes modelos lingüísticos (LLM) de código abierto permiten a los atacantes imitar a sus víctimas potenciales en redes sociales, estafando a amigos y familiares.

·         Estafas de influencers: Los estafadores podrían usar GenAI para crear cuentas falsas y deepfakes, estafando a seguidores con promesas de inversiones o criptomonedas.

·         Desinformación ampliada: Estados hostiles y grupos organizados podrían emplear GenAI para generar contenidos falsos, aumentando su alcance y efectividad.

Privacidad y desafíos regulatorios en la era de la IA

El uso masivo de datos para entrenar modelos de IA plantea serias preocupaciones. “Datos biométricos, información financiera y otra información sensible podrían estar en riesgo si los sistemas de IA son comprometidos. Además, los usuarios corporativos deben evitar compartir información confidencial a través de aplicaciones impulsadas por IA”, alerta Josep Albors, director de investigación y concienciación de ESET España.

En paralelo, ESET recuerda que el marco regulador jugará un papel crucial en 2025. Mientras Estados Unidos podría desregular el sector tecnológico, en la Unión Europea persisten incertidumbres sobre la aplicación práctica de la Ley de Inteligencia Artificial. Estos factores podrían facilitar la proliferación de amenazas generadas por IA si no se abordan adecuadamente, por lo que, un enfoque colaborativo para minimizar riesgos y garantizar una experiencia más segura es esencial, según la compañía.

El lado positivo: IA como aliada de la ciberseguridad

A pesar de estos riesgos, la IA desempeñará un papel cada vez más importante en el trabajo de los equipos de ciberseguridad en 2025, a medida que se incorpore a nuevos productos y servicios. Según ESET, algunas aplicaciones clave incluyen:

·         Generación de datos sintéticos para mejorar la formación en ciberseguridad.

·         Automatización de flujos de trabajo para priorizar alertas y agilizar la corrección de incidentes.

·         Análisis masivo de datos para identificar comportamientos sospechosos.

·         Integración de funciones de “copiloto” para reducir errores humanos.

Sin embargo, ESET subraya la necesidad de combinar la IA con la experiencia humana para mitigar riesgos como las alucinaciones o errores en los modelos. “Lo que está claro es que la IA cambiará radicalmente la forma en que interactuamos con la tecnología en 2025, para bien y para mal. Esta tecnología ofrece enormes beneficios potenciales a empresas y particulares, pero también nuevos riesgos que deben gestionarse. A todos nos interesa trabajar más estrechamente durante el próximo año para asegurarnos de que así sea. Los gobiernos, las empresas del sector privado y los usuarios finales deben desempeñar su papel y trabajar juntos para aprovechar el potencial de la IA y, al mismo tiempo, mitigar sus riesgos”, concluye Albors.

Los muchos peligros del protocolo de escritorio remoto
Países como China, Rusia e Irán lideran las operaciones estatales vinculadas a ransomware y ciberespionaje