Estafadores utilizan la inteligencia artificial para imitar voz de jefe ejecutivo

Los nuevos fraudes que emplean tecnología avanzada son un creciente desafío para las compañías.

Delincuentes utilizaron un software basado en la inteligencia artificial para imitar la voz de un director ejecutivo y pedir una transferencia fraudulenta de 220 mil euros (US$ 243 mil) en marzo, lo que expertos en cibercrimen describieron como un caso poco común de inteligencia artificial (IA) que se utiliza para hackear. El ejecutivo en cuestión de una empresa de energía con sede en el Reino Unido pensaba que estaba hablando por teléfono con su superior, el ejecutivo en jefe de la compañía matriz alemana de la firma, quien le pidió que enviara los fondos a un proveedor húngaro. El que llamaba, aseguraba que la solicitud era urgente, y le ordenó al subalterno que pagara dentro de una hora, de acuerdo a la firma aseguradora de la compañía, Euler Hermes Group S.A. Euler Hermes declinó entregar el nombre de la compañía víctima. Las autoridades policiales y expertos en IA habían previsto que los delincuentes utilizarían la IA para automatizar ciberataques. 

Quienquiera que estuviera detrás de este incidente, al parecer, habría utilizado un software basado en IA para imitar con éxito la voz del ejecutivo alemán por teléfono. El gerente que estaba en el Reino Unido reconoció el acento ligeramente alemán de su jefe y el sonido de su voz en el teléfono, indicó Rüdiger Kirsch, un experto en fraudes de Euler Hermes, una subsidiaria de la compañía de servicios financieros con sede en Munich Allianz SE. Varios funcionarios dijeron que el ataque de la voz falsificada en Europa es el primer cibercrimen del que tienen conocimiento en el que los delincuentes recurrieron claramente a la IA. Euler Hermes, la que cubrió toda la cantidad de la reclamación de la compañía víctima, no ha tenido que tratar con otras demandas que busquen recuperar pérdidas por delitos que hayan involucrado la IA, de acuerdo a Kirsch. Los fraudes que utilizan IA son un nuevo desafío para las compañías, observó Kirsch. 

Los instrumentos tradicionales de ciberseguridad diseñados para evitar que los hackers entren a redes corporativas no pueden identificar las voces falsas. Las empresas de ciberseguridad desarrollaron hace poco productos para detectar las llamadas grabaciones ultrafalsas. No está claro si este es el primer ataque que utiliza IA, o si hay otros incidentes que no se han reportado, o en los cuales las autoridades no detectaron la tecnología que se utilizó, precisó Philipp Amann, jefe de estrategia del European Cybercrime Centre de Europol. Esta última es la agencia policial europea. Aunque es difícil predecir si pronto podría haber un aumento en los ciberataques que utilizan IA, Amann señaló que es más probable que los hackers utilicen la tecnología si esta logra que los ataques sean más exitosos y productivos. Los atacantes responsables de la estafa a la compañía de energía británica llamaron tres veces, indicó Kirsch. 

Después de que se hizo la transferencia de los US$ 243 mil, los hackers llamaron para decir que la compañía matriz había transferido dinero para reembolsar a la firma del Reino Unido. Luego hicieron una tercera llamada, más tarde ese día, nuevamente imitando al gerente general, y solicitaron un segundo pago. Debido a que la transferencia del reembolso de los fondos aún no había llegado y la tercera llamada era de un número telefónico austríaco, el ejecutivo desconfió. No hizo el segundo pago. El dinero que se transfirió a la cuenta bancaria húngara se movió posteriormente a México y se distribuyó a otros lugares. Los investigadores no han identificado a ningún sospechoso, precisó Kirsch.

Programa comercial

No está claro si los delincuentes utilizaron robots para reaccionar a las preguntas de la víctima. Si lo hicieron, podría haber sido incluso más difícil la investigación para las autoridades pertinentes, señaló Amann. Una investigación policial del caso terminó, aseguró Kirsch. Europol no estuvo involucrado. Kirsch cree que los hackers utilizaron un software comercial de voz para llevar a cabo el ataque. 

Él grabó su propia voz mediante el uso de ese producto y aseveró que la versión reproducida sonaba real. Algunas compañías de software ofrecen servicios que pueden imitar rápidamente voces, observó Bobby Filar, director de ciencias de datos de Endgame, una compañía de ciberseguridad. Otra táctica que podrían emplear los hackers sería unir las muestras de audio para imitar la voz de una persona, lo que probablemente requeriría muchas horas de grabación. Investigadores de seguridad demostraron esta técnica en la conferencia Black Hat el año pasado. 

Los delincuentes podrían utilizar grabaciones de voces que están a disposición del público para imitar a gente famosa o a ejecutivos. La aplicación de la tecnología de aprendizaje automático para imitar voces hace que el cibercrimen sea más fácil, según Irakli Beridze, jefe del Centro para la Inteligencia Artificial y la Robótica en el Instituto Interregional para la Investigación del Crimen y la Justicia de Naciones Unidas (ONU).


Fuente: El Mercurio.

0 vistas