Agencias / InsurgentePress, Ciudad de México.- Cuando alguien sube una fotografía en una red social, se ponen en funcionamiento los sistemas de detección de porno de cada plataforma, sistemas que pueden ser más o menos exactos, motivo por el cual ocurren tantos errores de eliminación de imágenes que no entran dentro de esa categoría.
Yahoo! cuenta con un buen sistema de fotos NSFW (not safe/suitable for work), y a partir de ahora tiene el código libre, por lo que cualquier aplicación puede hacer uso de él para evitar que se suban determinadas fotos en su base de datos.
Comentan los detalles en el blog de ingeniería de la compañía, donde indican que usan las redes neuronales convolucionales para clasificar las imágenes, entrenándolas con miles de ejemplos para que vayan mejorando a medida que analizan y detectan las imágenes prohibidas.
Las plataformas que usen este sistema de Yahoo tendrán que entrenarlo con sus propias imágenes, ya que lo que han liberado es el motor de detección, no los resultados del entrenamiento.
Una vez entrenada, la aplicación devolverá un valor entre 0 y 1 para mostrar el nivel de “porno” que tiene una foto específica. En el ejemplo superior podemos ver, por ejemplo, como un campo de flores tiene un nivel de 0,001, mientras que otra, con más cantidad de cuerpo desnudo, sube ligeramente el valor (aún muy lejos de ser considerada pornográfica).
De esta forma podría aplicarse tanto para consultar contenido en emails como para moderar de forma automática foros, siendo posible que cada uno lo configure para que determine lo que es aceptable y lo que no.