Este 2024 diferentes tendencias de ciberseguridad como el crecimiento del conocido como "Malware as a Service" (un modelo de entrega de programas maliciosos que les permite a los atacantes acceder a softwares), que facilitó el despliegue de ataques a gran escala, el uso de Telegram por parte de cibercriminales, así como el ransomware como una de las amenazas más preocupantes a nivel empresarial y gubernamental, marcaron la agenda.
Partiendo de este contexto y considerando los nuevos avances tecnológicos e implementaciones vistas durante el año, el Laboratorio de Investigación de ESET, compañía dedicada a la detección proactiva de amenazas digitales, expuso las posibles tendencias que serán centrales en la escena de la ciberseguridad para el próximo año.
Lee también: ¿Cuál es tu nivel de anonimato en Telegram?
"El 2025 teorizamos que estará marcado por la creciente necesidad de protección de los sistemas OT (Tecnología Operativa), esenciales para infraestructuras críticas. Además, el uso malicioso de la inteligencia artificial generativa planteará nuevas amenazas. Estas cuestiones estarán ligadas a desafíos legales y éticos que plantean la necesidad de regulaciones más claras y efectivas", aseguró Fabiana Ramírez Cuenca, investigadora del Laboratorio de ESET Latinoamérica.
Usos de la IA Generativa
La inteligencia artificial generativa es quizás la IA más implementada de la actualidad, destacándose por su capacidad para generar contenido como textos, imágenes, videos, música, voces, entre otros; lo que por ejemplo permite mejorar la creatividad y eficiencia en diversas industrias.
Sin embargo, los cibercriminales también la aprovechan para fines maliciosos, como la creación de deepfakes y la automatización y perfeccionamiento de ataques cibernéticos. A través de este tipo de IA también se puede acceder a algoritmos de fuentes abiertas, adaptarlos, modificarlos y aprovecharlos para distintos fines.
La posibilidad de automatizar tareas, generar o perfeccionar código malicioso, planificar campañas, entre otras, hacen atractiva esta tecnología para actores maliciosos, incluso los más inexpertos.
Recientemente OpenAI, la compañía detrás de ChatGPT, ha emitido el informe "Influence and cyber operations: an update", en el que detalla cómo diversos cibercriminales han utilizado sus modelos de IA para realizar tareas de fases intermedias en los ciberataques —luego de haber adquirido algunas herramientas básicas—, pero antes de desplegar sus ataques, sean de phishing o distribución de malware, por distintos medios.
En el mismo informe, la empresa identifica que distintos grupos APT (Amenazas Persistentes Avanzadas) han utilizado la tecnología para, por ejemplo, el debugging de código malicioso, la investigación de vulnerabilidades críticas, el perfeccionamiento de phishing, generación de imágenes y comentarios falsos, entre otras.
"Podríamos esperar para el 2025 la continuidad del uso de la IA generativa para la mejora de campañas que inicien con ingeniería social; el aprovechamiento de los algoritmos para el diseño de códigos maliciosos; el posible abuso de aplicaciones de compañías que usen algoritmos IA open source y, por supuesto, la sofisticación de los deepfakes y la posible interacción con la realidad virtual", agregó Ramírez Cuenca.
Desafíos Legales y Éticos de la IA
Frente al crecimiento de la IA generativa y su potencial uso malicioso, aparecen desafíos legales y éticos que en su mayoría aún no han sido eficientemente abordados.
Entre estos se encuentran interrogantes como quién es el responsable por los actos de la IA, qué limites debería imponerse a su desarrollo, o qué organismo es competente para juzgarlo.
En la actualidad existen muy pocas normas a nivel internacional que aborden las problemáticas emergentes del uso de la IA y aquellas que existen muchas veces resultan insuficientes frente a un panorama de desarrollo acelerado de esta tecnología.
Entre las normas más destacadas se encuentra el Acta de IA de la Unión Europea (existente desde 2023), que pretende garantizar la ética y transparencia, así como el desarrollo seguro y protección de derechos humanos, abordando la IA desde un enfoque basado en riesgos, clasificando algoritmos según su peligrosidad.
En paralelo, en los Estados Unidos se cuenta con varios abordajes, desde una iniciativa nacional de IA, una Orden Ejecutiva para el uso seguro y confiable de la IA y un proyecto de carta de derechos de la IA que se encuentra en tratamiento.
A nivel Latinoamérica no ha habido grandes avances durante este 2024, aunque la mayoría de los países cuentan al menos con decretos, salvo el caso de Perú que cuenta con una ley.
Recientemente el Parlantino (Parlamento Latinoamericano y Caribeño) ha propuesto una Ley Modelo que quizás inspire legislaciones a nivel interno.
"Para el 2025 es probable que a nivel regulatorio haya un mayor escrutinio en algoritmos y modelos de inteligencia artificial para garantizar transparencia y explicabilidad —que sus decisiones puedan ser comprendidas por las personas—, esto de la mano de la protección de datos para garantizar la privacidad en el uso de la IA", comentó la misma investigadora de ESET Latinoamérica.
Te puede interesar: Niños y niñas en Snapchat: cómo mantenerlos seguros
Añadió: "Veremos la búsqueda de soluciones para los daños generados por la IA y la promoción desde lo regulatorio de la ética en el uso y desarrollo de esta tecnología. También seguirán los avances en regulaciones sobre ciberseguridad aplicadas a la temática y en materia de cooperación internacional".
Sistemas de Control Industrial u OT (Tecnología Operativa)
Los OT son sistemas informáticos y dispositivos utilizados para controlar procesos industriales y físicos en diversos sectores, como la energía, manufactura, agua y gas, entre otros.
Estos sistemas gestionan equipos como PLC (Controladores Lógicos Programables) y SCADA (Sistemas de Control Supervisorio y Adquisición de Datos), siendo su función principal la automatización de procesos.
La digitalización y conectividad de estos sistemas los ha vuelto interesantes y vulnerables a ciberataques. De hecho, ya se han visto códigos maliciosos que tienen como objetivo estos sistemas, entre los que podemos destacar a "Aurora" (una prueba del gobierno de EE. UU. que demostró, por primera vez, que un ciberataque podía causar daños físicos a un generador de energía) y "Blackenergy, Industroyer" (usados en Ucrania para atacar su red eléctrica), aunque por supuesto no son los únicos.
El NIST (Instituto de Estándares y Tecnología, del gobierno de EE. UU.) considera a la seguridad en OT un problema creciente y ha creado una guía que actualiza con regularidad.
En 2025, las OT serán cada vez más relevantes en el ámbito de ciberseguridad por varias razones, entre las que se destaca la ya mencionada conectividad entre dispositivos OT y la gran cantidad de datos que recopilan.
También, muchos de estos sistemas son fundamentales para el funcionamiento de infraestructuras críticas, por lo que es atractivo para los criminales un ataque a esta tecnología, dado que tiene el potencial de causar grandes daños.
"Estas son las tendencias que teorizamos serán centrales en la ciberseguridad para el próximo año, un escenario desafiante marcado por el crecimiento del uso de la IA generativa por parte del cibercrimen. Esto exigirá adaptar los sistemas de defensa y avanzar en marcos legales que aborden los interrogantes abiertos por estas tecnologías, incluso en sus usos legítimos y beneficiosos", agregó Ramírez Cuenca.
"Además, los ataques a infraestructuras críticas seguirán siendo una preocupación. Los sistemas OT serán el objetivo clave, por su interconexión y su rol esencial en sectores estratégicos. Fortalecer su ciberseguridad será prioritario, considerando su vulnerabilidad demostrada en conflictos recientes, donde su explotación ha tenido graves consecuencias para las poblaciones afectadas", concluyó Ramírez, de ESET Latinoamérica.