Inicio NOTICIAS Meta lanza una plataforma para abordar el ‘porno de la venganza’ de...

Meta lanza una plataforma para abordar el ‘porno de la venganza’ de manera más proactiva en India

144
0

El ‘porno de la venganza’ o el intercambio de imágenes íntimas de mujeres no consensuadas es un problema que sigue creciendo. Y ahora Meta espera abordar esto de una manera más proactiva con una nueva plataforma en India llamada StopNCII.org. La plataforma, en asociación con ‘Revenge Porn helpline’ con sede en el Reino Unido, permitirá que las mujeres se acerquen y marquen posibles imágenes íntimas, videos que podrían cargarse en Facebook, Instagram sin el consentimiento de las mujeres.

Destacando cómo ha habido casos desafortunados de personas que «se encuentran con esta forma de abuso» que toman «medidas muy drásticas», Karuna Nain, Directora de Política de Seguridad Global en Meta, dijo a indianexpress.com, dijo: «… simplemente adquiere una nueva vida porque estás interactuando en situaciones sociales porque te preocupa que la otra persona haya visto mi imagen ahí fuera «.

StopNCII.org actúa como una especie de banco donde las víctimas pueden compartir ‘hashes’ de sus fotos y videos, que están amenazados o han sido expuestos. Un hash es una huella digital única adjunta a cada foto o video que se comparte.

Luego, el hash se comparte con Facebook, Instagram y si alguien intenta cargar un video o una imagen donde coincide el hash, esa carga se marca como una posible violación de la política de contenido de la compañía.

Meta dice que las imágenes o videos no salen del dispositivo cuando una víctima los está cargando. En cambio, solo se carga dicho hash. De la forma en que Meta lo ve, la nueva plataforma puede actuar como un aviso para ellos y ayudarlos a lidiar mejor con el abuso de imágenes íntimas.

Debe tenerse en cuenta que el sitio web de StopNCII.org establece claramente que las imágenes en cuestión deben estar en un entorno íntimo. Pueden ser imágenes y videos en los que la víctima está desnuda, mostrando sus genitales, participando en actividades sexuales o poses, o usando ropa interior en posiciones comprometedoras.

También está limitado a mujeres adultas mayores de 18 años, lo que significa que las víctimas de pornografía infantil no pueden acercarse ni confiar en esta plataforma. Según Nain, para las imágenes de abuso sexual infantil, solo pueden trabajar con ONG seleccionadas que estén autorizadas y tengan cobertura legal para hacerlo. Es por eso que StopNCII está limitado a mujeres mayores de 18 años.

Pero, ¿el hash sería exacto si alguien modificara o cambiara la imagen íntima antes de subirla? Desafortunadamente, ahí es donde reside realmente el desafío. La tecnología que utiliza Meta, una que se usa ampliamente en la industria, funciona con coincidencias exactas o cercanas.

“Entonces, si alguien hace una alteración severa de esa foto o video, entonces no coincidirá exactamente con el hash que hemos recibido. Y entonces la persona necesitaría estar atento y probablemente querría usar el sistema nuevamente para cargar ese hash de ese contenido alterado ”, admitió Dwarf.

También debe tenerse en cuenta que cargar el hash por sí solo no garantizará automáticamente que el contenido no termine en Facebook o Instagram. O que se detendrá automáticamente.

Según Nain, los equipos de revisión de Facebook o Instagram seguirán revisando el contenido y verán si viola sus políticas cuando cualquier contenido coincida con el hash. Meta tampoco promete un plazo fijo o una duración para que estos casos se resuelvan.

Si bien los equipos de revisión dan prioridad a este contenido dada la alta gravedad asociada con este brazo, no pueden garantizar que el problema se resuelva en un tiempo limitado. Meta ve tres escenarios posibles sobre lo que sucede cuando se trata de dicho contenido.

En el primero, el contenido ya se compartió y se informó en la plataforma y una vez que se recibe el hash, el sistema se automatiza en el futuro. Entonces, si alguien intenta cargarlo nuevamente, simplemente se etiquetará y se bloqueará más rápido.

En el segundo caso, un poco más problemático, el contenido se cargó en Facebook o Instagram y los sistemas de detección automatizados no lo marcaron.

«Debido a que este contenido coincidente nunca ha sido informado o detectado de manera proactiva por nosotros, tendremos que enviarlo a nuestros equipos de revisión para verificar qué está sucediendo», explicó Nain, y agregó que solo una vez que el equipo de revisión determine que es una infracción, ¿lo hará? ser eliminado. Por lo tanto, un hash generado por sí mismo no es garantía de eliminación.

Sin embargo, una vez que un contenido se marca como infractor, el proceso se automatiza en el futuro.

Y luego hay un tercer escenario en el que alguien no ha compartido el contenido hash en la plataforma en absoluto o lo que Facebook dice es esperar y ver. “Solo cuando alguien intente cargar ese contenido será detectado y podremos tomar ese contenido coincidente y enviarlo a nuestros equipos de revisión para verificar qué está sucediendo”, enfatizó.

En este momento, StopNCII.org se limita a Facebook e Instagram. Meta espera que otros jugadores tecnológicos también se sumen y se unan a la plataforma para facilitar las cosas a las víctimas, porque en este momento la responsabilidad recae en ellos para asegurarse de que la imagen no termine en múltiples plataformas.

Artículo anteriorHalo Infinite Multiplayer: consejos y trucos para empezar
Artículo siguienteOnePlus saca la actualización de OxygenOS 12 plagada de errores, días después del lanzamiento