En la era de la inteligencia artificial y con el auge de las deepFake, es decir esa tecnología que mediante el uso de la IA permite crear imágenes, videos o audios que aparentan una realidad que no existe, como cuando se mezclan videos agregando una cara a otro cuerpo para que aparente estar haciendo una acción que en realidad no hizo; algo que en China ya tiene una regulación normativa, fue noticia recientemente en Hong Kong un delito vinculado a estas simulaciones.
Se trató del empleado de una empresa de primer nivel al que engañaron mediante el uso de deep fake para hacerle creer que estaba manteniendo una videollamada con su jefe de finanzas y otros empleados, todo esto para que el sujeto concrete una serie de transacciones por las cuales la compañía perdió 200 millones de dólares de Hong Kong (equivalente a 25,6 millones de dólares estadounidenses).
Las imágenes de video y el sonido de sus voces crearon una simulación realista por la cual el empleado no puedo dilucidar que se trataba de una inteligencia artificial y que no eran sus verdaderos jefes
Las autoridades alertaron ante este hecho de suma gravedad dado que las imágenes de video y el sonido de sus voces crearon una simulación realista por la cual el empleado no puedo dilucidar que se trataba de una inteligencia artificial y que no eran sus verdaderos jefes.
El hombre recibió un mensaje que, si bien al principio identificó como una posible amenaza de phishing, ya que en el mensaje se hacían pasar por el director financiero de la empresa de Reino Unido pidiéndole que realice una transacción discreta, esas dudas desaparecieron cuando al momento de concretarse la videollamada el trabajador quedó convencido de que estaba hablando con personas reales.
Transcurrida una semana se descubrió que los requerimientos no eran reales y tras una investigación se descubrió que serían imágenes recreadas a partir de información pública y que se intentó abordar también a otros empleados con el mismo método, algo que aún se encuentra en etapa de investigación para tratar de dar con los responsables.
Además, se alertó del riesgo de este tipo de operaciones que, si bien es la primera que se reportó como videollamada grupal, ya existieron otros casos con videollamadas individuales basadas en deep fake.