La Corte Suprema de Washington para el condado de King en un proceso judicial llevó adelante una audiencia donde se discutió la admisibilidad como medios de prueba de videos mejorados por inteligencia artificial, lo que abarcó no solo las herramientas utilizadas, sino también el tipo de edición y el interrogante de si el mejoramiento de las imágenes implicaba una modificación sustancial de la prueba.
El caso enfrentó al Estado de Washington contra un ciudadano llamado Joshua Puloka, por videos presentados como prueba por la defensa de este último, y en el encuentro se escucharon los testimonios de dos testigos expertos en el análisis forense de videos.
Tras escuchas las posturas, el juez Leroy McCullough explicó que el uso de herramientas basadas en inteligencia artificial para mejorar videos introducidos en un juicio penal era una técnica novedosa, surgiendo que el testigo experto de la defensa utilizó al menos una herramienta basada en IA para mejorara 7 videos admitidos en un pendrive como prueba antes del juicio.
Entre esos videos se encontraba al menos un video de 10 segundos de duración grabado por un civil con un iphone y “stremeado” (transmitido en vivo) mediante la aplicación Snapchat, el cual tenía muy baja resolución original y desenfoque de movimiento.
La defensa presentó como una segunda prueba el mismo video pero “mejorado” por un programa llamado Topaz Labs AI y procesado por otro denominado Adobe Premier Pro, en el cual se lograba una versión con mejor calidad que el anterior al agregar definición, nitidez y agregar bordes más suaves a los objetos que en el video original tenían una imagen más borrosa.
Curiosamente la defensa presentó como una segunda prueba el mismo video pero “mejorado” por un programa llamado Topaz Labs AI y procesado por otro denominado Adobe Premier Pro, en el cual se lograba una versión con mejor calidad que el anterior al agregar definición, nitidez y agregar bordes más suaves a los objetos que en el video original tenían una imagen más borrosa.
El experto que aseguró no ser un perito forense en la materia sino más bien un camarógrafo aficionado con experiencia desde 1993 que desconocía que el primer programa se utilizaba en la comunidad de análisis forense de videos, explicó que el mismo utilizaba “machine learning” para procesar los videos, pero no sabía sobre que videos se alimentaba la IA generativa o que algoritmos utilizaba, pero que debía aceptarse ambas pruebas para mejorar la imagen, pudiendo si fuera necesario el perito del caso acudir al video original ofrecido como prueba 1.
Por su parte el experto forense por parte del Estado (actor), explicó al juez que el programa utilizado por la defensa había agregado aproximadamente 16 veces más de pixeles para mejorar cada fotograma utilizando un algoritmo desconocido y no revelado, y que el uso de la IA agregaba detalles falsos a la imagen que no eran aceptables en la comunidad de video forense al cambiar el significado de las partes del video.
Al eliminar las partes borrosas se eliminaban las formas y colores originales del video, demostrando al tribunal que la IA removía información de las imágenes originales agregando información que no estaba en ellas haciendo imposible la tarea del análisis forense del video
Explicó que al eliminar las partes borrosas se eliminaban las formas y colores originales del video, demostrando al tribunal que la IA removía información de las imágenes originales agregando información que no estaba en ellas haciendo imposible la tarea del análisis forense del video.
En conclusión, el juez entendió que la parte que deseaba introducir evidencia que utilice herramientas basadas en IA debía demostrar que la opinión o teoría de cualquier experto se basa en una metodología aceptada en la comunidad pertinente, ya que esa aceptación general de la comunidad científica es lo que se tomaba como criterio para admitir pruebas que utilicen una teoría o principio científico novedoso.
El juez para entender si existía esa aceptación general debía recurrir a artículos, publicaciones, testimonios, o fuentes legales, por eso en el caso de los videos editados por IA, recurría a la comunidad de análisis forense de videos que en la actualidad no lograba aceptación general de la herramienta utilizada por la defensa.
El juez entendió que la parte que deseaba introducir evidencia que utilice herramientas basadas en IA debía demostrar que la opinión o teoría de cualquier experto se basa en una metodología aceptada en la comunidad pertinente, ya que esa aceptación general de la comunidad científica es lo que se tomaba como criterio para admitir pruebas que utilicen una teoría o principio científico novedoso… en el caso de los videos editados por IA, recurría a la comunidad de análisis forense de videos que en la actualidad no lograba aceptación general de la herramienta utilizada por la defensa.
Mientras que por su parte esa parte no había intentado ofrecer ningún precedente que examine o admita la introducción de videos mejorados por IA en juicios civiles o penales, así como tampoco publicaciones, artículos, o fuentes legales secundarias que sostengan su postura.
En definitiva, el video mejorado no podía ser aprobado porque no tenía la integridad suficiente para demostrar lo que efectivamente ocurrió al utilizar métodos opacos para representar lo que el modelo de IA pensaba que debía mostrar.
Por ello consideró que la prueba de video con mejoras debía ser descartada, dejando únicamente el video original para ser analizado durante el juicio, ya que la admisión podía dar lugar a confusiones, teniendo además en cuenta que los procesos utilizados por el modelo basado en IA no fueron auditados por los pares, en referencia a la comunidad científica en la materia.