La caza profunda de fallas A.I. podría ayudar a contraatacar contra la amenaza de noticias falsas


Text to Voice

Sylvester Stallone, falso de él protagonista de Terminator 2: Judgment Day
Sylvester Stallone deepfake (reemplazando a Arnold Schwarzenegger en Terminator 2: Judgment Day) Ctrl Shift Face / Youtube

De todas las herramientas de inteligencia artificial que han surgido en los últimos años, muy pocas han generado tanta preocupación como fallas profundas. Una combinación de "aprendizaje profundo" y "falso", la tecnología deepfake permite a cualquiera crear imágenes o videos en los que los elementos fotográficos se superponen convincentemente a otras imágenes. Si bien algunas de las formas en que se ha mostrado esta tecnología han sido para el entretenimiento (piense en superponer la cara de Sylvester Stallone sobre el cuerpo de Arnie en Terminator 2 ), otros casos de uso han sido más alarmantes. Deepfakes hace posible todo, desde "pornografía de venganza" traumatizante y que arruina la reputación hasta noticias falsas engañosas.

Como resultado, mientras un número creciente de investigadores ha estado trabajando para hacer que la tecnología Deepfake sea más realista , otros han estado buscando formas para ayudarnos a distinguir mejor entre imágenes y videos que son reales y aquellos que han sido manipulados algorítmicamente.

En la Universidad de California, Riverside, un equipo de investigadores del Video Computing Group ha desarrollado una red neuronal profunda que puede detectar imágenes manipuladas con un alto grado de precisión. En el proceso, sus creadores esperan que puedan proporcionar los medios para luchar contra los peligros de las fallas profundas. No es la primera vez que los investigadores intentan resolver este problema, pero es potencialmente uno de los esfuerzos más prometedores para materializarse hasta ahora en este juego continuo de gato y ratón.

"Muchos detectores profundos [anteriores] se basan en peculiaridades visuales en el video falso, como movimientos de labios inconsistentes o posturas extrañas de la cabeza", dijo a Reuters Trends Brian Hosler, investigador del proyecto. "Sin embargo, los investigadores están mejorando cada vez más en el tratamiento de estas señales visuales al crear errores profundos. Nuestro sistema utiliza correlaciones estadísticas en los píxeles de un video para identificar la cámara que lo capturó. Es poco probable que un video profundo tenga las mismas correlaciones estadísticas en la parte falsa del video que en la parte real, y esta incoherencia podría usarse para detectar contenido falso ".

El trabajo financiado por DARPA comenzó como un experimento para ver si era posible crear un algoritmo de IA capaz de detectar diferencias entre los videos capturados por diferentes cámaras. Como una marca de agua, cada cámara captura y comprime videos de manera ligeramente diferente. La mayoría de nosotros no podemos hacerlo, pero un algoritmo entrenado para detectar estas diferencias puede reconocer las huellas digitales únicas asociadas con diferentes cámaras y usarlo para identificar el formato de un video en particular. El sistema también podría usarse para otras cosas, como el desarrollo de algoritmos para detectar videos con marcos eliminados, o para detectar si un video se cargó o no en las redes sociales.

Como lo hicieron

El equipo de UC Riverside curó una gran base de datos de videos, con una duración de aproximadamente 20 horas, desde 46 cámaras diferentes. Luego entrenaron una red neuronal para poder distinguir estos elementos. Tan convincente como un video falso puede parecer a una persona promedio, la IA los examina píxel por píxel para buscar elementos que han sido alterados. La IA resultante no solo puede reconocer qué imágenes se han cambiado, sino que también puede identificar la parte específica de la imagen que se ha modificado.

Owen Mayer, miembro del grupo de investigación, ha creado previamente un sistema que analiza algunas de estas correlaciones estadísticas para determinar si dos partes de una imagen se editan de diferentes maneras. Una demo de este sistema está disponible en línea . Sin embargo, este último trabajo es la primera vez que este enfoque se lleva a cabo en secuencias de video. Este es un problema más grande, y uno que es crucial para solucionar el problema a medida que prevalecen las fallas profundas.

Imagen de la entrevista de Kim Kardashian Deepfake
Imagen de la entrevista de Kim Kardashian Deepfake

"Planeamos lanzar una versión de nuestro código, o incluso una aplicación, al público para que cualquiera pueda tomar un video e intentar identificar el modelo de origen de la cámara", continuó Hosler. "Las herramientas que creamos, y las que hacen los investigadores en nuestro campo, a menudo son de código abierto y se distribuyen libremente".

Sin embargo, todavía hay más trabajo por hacer. Las falsificaciones profundas solo están mejorando, lo que significa que los investigadores al otro lado de la cerca no deben descansar sobre sus laureles. Las herramientas deberán seguir evolucionando para asegurarse de que puedan seguir detectando imágenes y videos falsos, ya que prescinden de los rasgos visuales más notables que pueden marcar las fallas profundas actuales como falsificaciones. A medida que las herramientas de deepfake de audio, capaces de imitar voces, continúan desarrollándose , también será necesario crear herramientas de detección de audio para rastrearlas.

Por ahora, tal vez el mayor desafío es aumentar la conciencia sobre el tema. Al igual que verificar datos que leemos en línea, la disponibilidad de información en Internet solo funciona para nuestra ventaja si sabemos lo suficiente como para adivinar lo que leemos. Hasta ahora, encontrar pruebas en video de que algo sucedió fue suficiente para convencer a muchos de nosotros de que realmente sucedió. Esa mentalidad va a tener que cambiar.

"Creo que uno de los mayores obstáculos para que todos utilicen herramientas forenses como estas es la brecha de conocimiento", dijo Hosler. "Nosotros, como investigadores, deberíamos hacer no solo las herramientas, sino también las ideas subyacentes, más agradables al público si realmente tenemos un impacto".

Independientemente de la forma que tomen estas herramientas, ya sea como un complemento de navegador web o una IA que los gigantes de Internet emplean automáticamente para marcar el contenido antes de que se lo muestren a los usuarios, esperamos que se emplee el enfoque correcto para hacer que estas sean lo más accesibles posible.

Oye, lo único que está en juego es el futuro de la verdad ...

Previous Entries DeepMind de Google está entrenando a los autos sin conductor de Waymo como los bots StarCraft II Next Entries Cómo arreglar un píxel muerto en su monitor o teléfono inteligente

Deja un comentario