PhotoDNA - PhotoDNA

Proceso de PhotoDNA

PhotoDNA es una tecnología de identificación de imágenes utilizada para detectar pornografía infantil y otro contenido ilegal que se informa al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) según lo exige la ley. Fue desarrollado por Microsoft Research y Hany Farid , profesor en Dartmouth College , a partir de 2009. A partir de una base de datos de imágenes y archivos de video ilegales conocidos, crea hash únicos para representar cada imagen, que luego se pueden usar para identificar otras instancias de esos imágenes.

PhotoDNA se utiliza principalmente en la identificación de pornografía infantil (también conocida como material de abuso sexual infantil o CSAM) y funciona calculando un hash único que representa una imagen determinada. Este hash se calcula de manera que sea resistente a las alteraciones en la imagen, incluido el cambio de tamaño y las alteraciones menores de color. Funciona convirtiendo la imagen a blanco y negro, redimensionándola, dividiéndola en una cuadrícula y luego observando los gradientes o bordes de intensidad de cada celda.

Se utiliza en los propios servicios de Microsoft, incluyendo Bing y onedrive , así como por Google 's Gmail , Twitter , Facebook , Adobe Systems , Reddit , la discordia y el NCMEC, a la que Microsoft donó la tecnología.

Microsoft donó la tecnología PhotoDNA al Proyecto VIC , administrado y respaldado por el Centro Internacional para Niños Desaparecidos y Explotados (ICMEC). El Proyecto VIC es una iniciativa para compartir hash de imágenes y videos que agiliza los flujos de trabajo de investigación y reduce el enfoque de las investigaciones policiales sobre pornografía infantil al filtrar el material que los investigadores encuentran en las computadoras de los delincuentes. Project VIC utiliza la tecnología para crear una "huella digital" que se puede utilizar para identificar de forma única una foto individual. Mediante el uso de conjuntos de hash robustos, la tecnología permite a las fuerzas del orden determinar qué imágenes recuperadas ya han sido identificadas y son parte de la base de datos del Proyecto de millones de hashes digitales de pornografía infantil, lo que permite a los detectives centrarse en aquellos que son niños nuevos que esperan ser localizados. y recuperado. La tecnología también ayuda a los proveedores de servicios en línea al ayudarlos a detectar imágenes de abuso sexual infantil compartidas en sus sitios y detener su difusión continua.

Historia

En diciembre de 2014, Microsoft también puso PhotoDNA a disposición de organizaciones calificadas como un servicio gratuito en la nube a través de Azure Marketplace .

A fines de 2015, Microsoft completó mejoras en el software que ahora lo hacen capaz de analizar archivos de video e imágenes fijas.

En 2016, Hany Farid propuso que la tecnología podría usarse para detener la propagación de imágenes relacionadas con el terror, pero inicialmente las empresas de redes sociales mostraron poco interés. En diciembre de 2016, Facebook, Twitter, Google y Microsoft anunciaron planes para usar PhotoDNA para abordar contenido extremista como videos de reclutamiento de terroristas o imágenes de terroristas violentos, lo que se hizo, por ejemplo, para eliminar automáticamente videos de al-Qaeda .

Detalles técnicos

Solución de video de ADN fotográfico

El PhotoDNA ayuda a detener esta recirculación en línea creando un "hash" o firma digital de una imagen: convirtiéndola a un formato en blanco y negro, dividiéndola en cuadrados y cuantificando ese sombreado. No emplea tecnología de reconocimiento facial ni puede identificar a una persona u objeto en la imagen. Compara el hash de una imagen con una base de datos de imágenes que las organizaciones de vigilancia y las empresas ya han identificado como ilegales. La UK Internet Watch Foundation , que ha estado compilando una base de datos de referencia de firmas PhotoDNA, ahora tiene 300.000 hashes de materiales conocidos de explotación sexual infantil.

PhotoDNA for Video divide un video en fotogramas clave y esencialmente crea hash para esas capturas de pantalla. De la misma manera que PhotoDNA puede hacer coincidir una imagen que ha sido alterada para evitar la detección, PhotoDNA for Video puede encontrar contenido de explotación sexual infantil que ha sido editado o empalmado en un video que de otra manera podría parecer inofensivo.

Cuando las personas insertan videos ilegales en otros videos o intentan ocultarlos de otras formas, PhotoDNA for Video aún puede encontrarlos. Solo se necesita un hash de un solo fotograma para crear una coincidencia.

Uso

Los proveedores de contenido han utilizado PhotoDNA para eliminar millones de fotografías ilegales de Internet; ayudó a condenar a los depredadores sexuales de niños; y, en algunos casos, ayudó a las fuerzas del orden a rescatar a posibles víctimas antes de que sufrieran daños físicos.

Referencias

enlaces externos