20 de Noviembre de 2024
Edición 7095 ISSN 1667-8486
Próxima Actualización: 21/11/2024
Deepfake y phishing

La IA reemplaza al cuento del tío

La simulación de una videollamada con los supuestos jefes de una empresa terminó con una estafa con transacciones millonarias: Los partícipes de la reunion en realidad eran copias creadas por inteligencia artificial.

(MD. TARIKUL ISLAM | vecteezy.com)

En la era de la inteligencia artificial y con el auge de las deepFake, es decir esa tecnología que mediante el uso de la IA permite crear imágenes, videos o audios que aparentan una realidad que no existe, como cuando se mezclan videos agregando una cara a otro cuerpo para que aparente estar haciendo una acción que en realidad no hizo; algo que en China ya tiene una regulación normativa, fue noticia recientemente en Hong Kong un delito vinculado a estas simulaciones.

Se trató del empleado de una empresa de primer nivel al que engañaron mediante el uso de deep fake para hacerle creer que estaba manteniendo una videollamada con su jefe de finanzas y otros empleados, todo esto para que el sujeto concrete una serie de transacciones por las cuales la compañía perdió 200 millones de dólares de Hong Kong (equivalente a 25,6 millones de dólares estadounidenses).

 

Las imágenes de video y el sonido de sus voces crearon una simulación realista por la cual el empleado no puedo dilucidar que se trataba de una inteligencia artificial y que no eran sus verdaderos jefes

 

Las autoridades alertaron ante este hecho de suma gravedad dado que las imágenes de video y el sonido de sus voces crearon una simulación realista por la cual el empleado no puedo dilucidar que se trataba de una inteligencia artificial y que no eran sus verdaderos jefes.

El hombre recibió un mensaje que, si bien al principio identificó como una posible amenaza de phishing, ya que en el mensaje se hacían pasar por el director financiero de la empresa de Reino Unido pidiéndole que realice una transacción discreta, esas dudas desaparecieron cuando al momento de concretarse la videollamada el trabajador quedó convencido de que estaba hablando con personas reales.

Transcurrida una semana se descubrió que los requerimientos no eran reales y tras una investigación se descubrió que serían imágenes recreadas a partir de información pública y que se intentó abordar también a otros empleados con el mismo método, algo que aún se encuentra en etapa de investigación para tratar de dar con los responsables.

Además, se alertó del riesgo de este tipo de operaciones que, si bien es la primera que se reportó como videollamada grupal, ya existieron otros casos con videollamadas individuales basadas en deep fake.


Estimado colega periodista: si va a utilizar parte esta nota o del fallo adjunto como "inspiración" para su producción, por favor cítenos como fuente incluyendo el link activo a http://www.diariojudicial.com. Si se trata de una nota firmada, no omita el nombre del autor. Muchas gracias.

Notas relacionadas:
¿No todo es lo que parece?
Deepfake y responsabilidad
Avanza la IA y también su regulación
DeepFake de acá a la China
Modificaron una resolución por la Gripe "A"
Llegaron los "deep fakes" a la Justicia
Impulsan reforma a la Ley 26.485
Violencia de género mediante las TIC
La víctima era abogada y trabajaba en el Poder Judicial
Si no hay phishing, no hay condena

VOLVER A LA TAPA

Diariojudicial.com es un emprendimiento de Diario Judicial.com S.A.
Propietario: Diario Judicial.com S.A. Amenábar 590 Ciudad Autónoma de Buenos Aires
Directora: Esther Analía Zygier. Registro de propiedad intelectual 54570890 Ley 11.723.
Descarga
la portada del diario en formato PDF

Reciba diariamente por e-mail todas las noticias del ámbito judicial.
Copyright ® 1999 - 2024 . Diario Judicial. Todos los derechos reservadores. ISSSN 1667-8486