AI no puede protegernos de deepfakes, argumenta nuevo informe

Un nuevo informe a partir de los Datos y de la Sociedad plantea dudas acerca de las soluciones de automatización para engañosamente alteración de videos, incluyendo el aprendizaje de máquina-alteración de videos llamado deepfakes. Los autores Britt París y Joan Donovan argumentan que deepfakes, mientras que los nuevos, son parte de una larga historia de la manipulación de los medios — que requiere tanto de una social y una solución técnica. Confiando en IA realidad podría empeorar las cosas, concentrando más datos y poder en manos de corporaciones privadas.

«El pánico en todo deepfakes justifica rápida de soluciones técnicas que no toman en cuenta las desigualdades estructurales», dice de París. «Es un gran proyecto, pero tenemos que encontrar soluciones que son tanto sociales como políticos para que la gente sin poder, no quedan fuera de la ecuación.»

Como París y Donovan ver, deepfakes es poco probable que se fija por la tecnología por sí sola. «La relación entre los medios y la verdad nunca ha sido estable,» dice el informe. En la década de 1850, cuando los jueces se comenzó a permitir la evidencia fotográfica en la corte, la gente desconfía de la nueva tecnología y se prefiere el testimonio de los testigos y de los registros escritos. En la década de 1990, las empresas de medios son cómplices en tergiversar los acontecimientos de forma selectiva la edición de imágenes de emisiones de la noche. En la Guerra del Golfo, los reporteros construido un conflicto entre iguales opositores al no mostrar el marcadamente desigual número de muertos entre NOSOTROS y las fuerzas Iraquíes. «Estas imágenes eran reales las imágenes», dice el informe. «¿Qué fue de manipulación fue cómo fueron contextualizados, interpreta y emite en todo el reloj de la televisión por cable.»

Hoy en día, deepfakes han tomado manipulación incluso más allá al permitir a la gente para manipular imágenes y vídeos en el uso de la máquina de aprendizaje, con resultados que son casi imposibles de detectar por el ojo humano. Ahora, dice el informe, «cualquier persona con un público de perfil de medios sociales es un juego justo para ser falsificado.» Una vez que las falsificaciones de existir, se puede ir viral en las redes sociales en cuestión de segundos.

Para combatir este problema, Facebook anunció recientemente que fue la liberación de un conjunto de datos para permitir a la gente a probar nuevos modelos dirigidos a la detección de deepfakes. Startups como TruePic, que el uso de la IA y la tecnología blockchain para detectar manipular fotos, han comenzado a ganar impulso así. Más recientemente, los estados unidos Defense Advanced Research projects Agency (DARPA) ha invertido en Medifor, que examina las diferencias en píxeles de vídeo para determinar cuando algo ha sido manipuladas. Pero casi todas estas soluciones están dirigidas a luchar contra la manipulación en el punto de captura (es decir, cuando una foto o video) o en el nivel de detección (para que sea más fácil diferenciar entre manipuladas y undoctored contenido).

Legal de los expertos consideran que este enfoque positivo, señalando los problemas con deepfakes no puede ser solucionado a través de los tribunales. David Greene, libertades civiles, director de la Fundación Electronic Frontier foundation, dice que fingió videos también pueden tener importantes aplicaciones en el comentario político, la parodia, y el anonimato de las personas que necesitan protección de la identidad.

«Si va a ser un deepfakes ley, se necesita tener en cuenta para la libertad de expresión», agregó, señalando que si la gente usa deepfakes a hacer algo ilegal — como el chantaje o la extorsión de alguien, por ejemplo — pueden ser procesados en virtud de la legislación existente.

Pero París preocupaciones de AI-impulsada por los filtros de contenido y otras soluciones técnicas podría causar un gran daño. «Ellos hacen las cosas mejor para algunos, pero podría empeorar las cosas para los demás», dice ella. «El diseño de nuevos modelos técnicos crea aberturas para las empresas para capturar todo tipo de imágenes y crear un repositorio en línea de la vida».

Bobby Chesney, co-autor de la ponencia «Profunda Falsificaciones: Un Reto que se Avecina para la Privacidad, la Democracia y la Seguridad Nacional,» no ver la recopilación de datos como un problema. «Veo el punto de que si la izquierda no reguladas, entidades privadas tendrán acceso a más información», dijo. «Pero la idea de que eso es inherentemente malo me parece poco convincente.»

Chesney y París están de acuerdo de que algún tipo de solución técnica que se necesita y que debe trabajar junto con el sistema judicial para perseguir a los malos actores y detener la propagación de fingió videos. «Tenemos que hablar acerca de la mitigación y la limitación de los daños, no la solución de este problema,» Chesney añadido. «Deepfakes no van a desaparecer».

Deja un comentario

A %d blogueros les gusta esto: