Criminales perfeccionan la suplantación de identidad con la IA
Esta herramienta de doble filo plantea nuevos desafíos en el ámbito de la seguridad financiera, señalan expertos.
La Inteligencia Artificial (IA) plantea nuevos desafíos en el ámbito de la seguridad financiera, alertaron expertos.
Entre los riesgos más preocupantes, se encuentran las suplantaciones de identidad más sofisticadas y difíciles de detectar, así como métodos avanzados de extorsión e intimidación.
La firma de ciberseguridad ESET identificó que los cibercriminales están utilizando la IA para efectuar estafas más sofisticadas y quedarse con el dinero y datos personales de sus víctimas.
Expuso que la inteligencia artificial está siendo usada por los cibercriminales para perfeccionar la suplantación de identidad, optimizar el doxing -práctica de publicar información personal de terceros con la intención de intimidar, extorsionar o afectar-, hacer más realistas las estafas por audio y deepfake, y esquivar controles de identidad.
"Desde febrero de 2023 alertamos sobre el uso malicioso que el cibercrimen podría darle a una herramienta con alcances tan amplios como la Inteligencia Artificial. A menos de un año y medio de esa advertencia, ya se puede observar las implicaciones que los actores maliciosos le dan a la IA y cómo la utilizan para expandir y mejorar sus tácticas y estrategias de ataque", comentó Camilo Gutiérrez, jefe del Laboratorio de Investigación de ESET Latinoamérica.
Inteligencia artificial: una herramienta de doble filo para la sociedad
El Banco de México (Banxico) alertó en su Reporte de Estabilidad Financiera a junio de 2024 que aunque el uso de tecnologías novedosas como la IA puede traer mejoras al sistema financiero, también propician nuevos riesgos cibernéticos derivados de su uso por parte de grupos cibercriminales.
"Con la IA, los cibercriminales pueden potenciar sus ataques, usurpar identidades, engañar o desinformar a la población, o desarrollar códigos maliciosos, entre otros actos ilícitos", detalló.
Otro de los principales riesgos asociados al uso de la IA en el sistema financiero son ciberataques más sofisticados, cajas negras de datos e información o la concentración de proveedores y modelos de IA, abundó Banxico, con base en un estudio realizado por el Departamento del Tesoro de Estados Unidos sobre los riesgos de ciberseguridad en los servicios financieros.
NTT DATA consideró que debido a que el sector financiero se muestra más vulnerable a riesgos de ciberataques y fraudes, las organizaciones necesitan herramientas más sofisticadas como la Inteligencia Artificial Generativa (IA Gen) para analizar grandes volúmenes de datos de transacciones y automatizar respuestas, algo que les permitirá proteger sistemas y aplicar soluciones rápidas.
La firma explicó que con la IA Gen se pueden identificar patrones y anomalías en tiempo real para mejorar la detección de amenazas y la prevención de ciberataques; además puede generar transacciones fraudulentas sintéticas que ayudan a evaluar la efectividad de las medidas de seguridad.
Con información de Reforma