Conozca maneras en que cibercriminales emplean la IA para estafar
“En febrero de 2023, desde ESET ya alertábamos sobre el uso malicioso que el cibercrimen podría darle a una herramienta con alcances tan amplios como la Inteligencia Artificial. A menos de un año y medio de esa advertencia, ya se puede observar las implicancias que los actores maliciosos le dan a la IA y cómo la utilizan para expandir y mejorar sus tácticas y estrategias de ataque”, comentó Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.
Perfeccionar la suplantación de identidad. Según investigadores de seguridad de IA en ETH Zurich, el gran auge de ChatGPT fue acompañado por un gran daño colateral: el enorme aumento de correos de phishing. La IA generativa puede diagramar formas de engañar a las personas para que revelen información sensible, y extraerles un rédito económico o utilizarla para otras acciones maliciosas.
Optimizar el doxing. El doxing es la práctica de publicar información personal de terceros con la intención de intimidar, extorsionar o afectar negativamente de algún modo. La IA ingresa con la gran cantidad de datos de Internet, incluidos datos personales, puede deducir la potencial ubicación de una persona. Mientras más información haya sobre cada usuario en Internet, más vulnerable es ante dicho tipo de prácticas.
Aumentar el realismo de las estafas por audio y deepfake. La IA generativa evolucionó tan exponencialmente que produce imágenes casi indistinguibles de las reales. Un ejemplo notable es un caso reportado en febrero de 2024, sobre un empleado de una compañía financiera hongkonesa quien transfirió 23,7 millones de euros a la supuesta filial de su empresa en el Reino Unido, pero en realidad, eran estafadores quienes emplearon la tecnología deepfake para imitar al director financiero y otros compañeros laborales en una videoconferencia.
También existen las estafas por audio, las cuales solo requieren una toma de pocos segundos de la voz de una persona (puede obtenerse fácilmente de un video subido a Instagram o TikTok, por ejemplo) para producir una grabación convincente.
Esquivar controles de identidad. Los criminales cibernéticos emplean la IA para superponer la imagen de una persona real sobre un documento de identificación, ya sea falso o robado, para eludir controles de verificación de identidad.
Emplear jailbreak. Las empresas de Inteligencia Artificial implementan instancias de protección para que sus modelos no devuelvan información ilegal o peligrosa a los usuarios. En respuesta, el cibercrimen contrata servicios de jailbreak (explotación de las vulnerabilidades de un hardware para instalar programas ajenos a los oficiales) para modificar ilegalmente el sistema original de IA.
🧵 La #InteligenciaArtificial llegó para revolucionarlo todo, convirtiéndose en una herramienta indispensable para diversas disciplinas. Lamentablemente, también es utilizada por el cibercrimen para llevar a cabo ataques y acciones maliciosas.
Aquí exploramos cómo los… pic.twitter.com/PXtWTX0iZe
— ESET Latinoamérica (@ESETLA) June 27, 2024
VTV/DC/CP