Peligra seguridad empresarial ante la IA generativa y ransomware
Los ciberataques fueron el tema principal en la convención anual Check Point Experience 2024.
La seguridad de las empresas alrededor del mundo peligra ante el aumento del uso de la Inteligencia Artificial Generativa y ransomware por parte de los cibercriminales, quienes aprovechan los conflictos actuales para adentrarse en las grandes corporaciones.
"Hoy en los campos de batalla se usan armas, tanques o buques de guerra, pero también se incluyen armas cibernéticas", afirmó Maya Horowitz, vicepresidenta de investigación en Checkpoint Software, durante una convención anual que lleva a cabo su empresa en Las Vegas, Nevada, llamada Check Point Experience 2024 (CPX 2024).
En entrevista con el medio nacional Reforma, Horowitz mencionó que este año el ransomware, técnica utilizada por cibercriminales para secuestrar datos, será una de las principales tendencias dadas las condiciones geopolíticas.
Explicó que es una de las maneras en que los atacantes pueden obtener cifras millonarias de dinero con tan solo atacar a una víctima.
Añadió que no solo se encriptan las máquinas para que los afectados no puedan usarlas, también amenazan con publicar información sensible de una empresa.
"Las empresas prefieren pagar, por lo que se vuelve una estrategia provechosa para los atacantes y que no veo que disminuya. Esta será la mayor tendencia", aseguró.
Otro camino que augura es el uso de wipers, un tipo de software malicioso que elimina los datos de la víctima cuando es infectada. Aquí, a diferencia de obtener dinero, el objetivo solo es destruir.
Sobre este tipo, aclaró que esta técnica no es nueva, pero llama la atención que en medio de los conflictos internacionales antes anotados se han vuelto una constante.
Al cuestionarla sobre cuáles son los desafíos que supone la llegada de la Inteligencia Artificial Generativa (IAG) y cómo la aprovechan los malhechores, mencionó que ahora tienen la capacidad de perfeccionar los ataques de phishing, es decir, la técnica para engañar a individuos y obtener información confidencial, como contraseñas, números de tarjetas de crédito o información personal.
Este perfeccionamiento se logra con instrumentos como ChatGPT, que pueden redactar textos capaces de emular tonos corporativos o amenos, y que logran engañar a las personas.
La IAG en las manos equivocadas, añade, pueden usarse para crear imágenes y atraer la atención o difundir noticias falsas.
Por otro lado, los comúnmente llamados hackers, no tienen la capacidad de usar estos generadores de texto o código para crear en automático piezas de infección, aún se requiere del toque humano para diseñar estas complejas instrucciones, pero no descarta que en un punto sí ocurra.
Con la marcha que lleva la IA en el mundo, la ejecutiva aclaró que el uso de deepfakes, es decir un archivo multimedia, como un video, imagen o audio, manipulado mediante inteligencia artificial para que parezca real, aún está considerado como un factor de ataque de nicho, e incluso menciona que son poco recurrentes.
Horowitz expone que actualmente el uso de herramientas de clonación de voz y de imágenes son sofisticadas, pero muy pronto el empleo de video falsificado comenzará a cobrar relevancia.
¿Qué hacer al respecto con la Inteligencia Artificial Generativa?
La vocera considera que compañías como OpenAI estén obligadas a añadir algún tipo de marca indeleble en este tipo de contenidos generados que podrían propiciar la desinformación.
Con información de Reforma