Inicio NOTICIAS BERT de Google ayuda a reducir los resultados picantes en un 30...

BERT de Google ayuda a reducir los resultados picantes en un 30 % para las búsquedas

48
0

Cuando la actriz estadounidense Natalie Morales realizó una búsqueda en Google de “adolescente latina” en 2019, describió en un tuit que todo lo que encontró fue pornografía.

Su experiencia puede ser diferente ahora.

La unidad de Alphabet Inc ha recortado los resultados explícitos en un 30% durante el año pasado en las búsquedas de «adolescente latina» y otras relacionadas con el origen étnico, la preferencia sexual y el género, dijo el miércoles a Reuters Tulsee Doshi, jefe de producto del equipo responsable de IA de Google.

Doshi dijo que Google había lanzado un nuevo software de inteligencia artificial, conocido como BERT, para interpretar mejor cuando alguien buscaba resultados atrevidos o más generales.

Además de «adolescente latina», otras consultas que ahora muestran resultados diferentes incluyen «la chef lesbiana», «dormitorio universitario», «instructora de yoga latina» y «autobús lesbiana», según Google.

Leer:  Hombre arrestado, acusado de crimen de odio por atacar a taxista sij de origen indio en EE. UU.

“Todo ha sido un conjunto de resultados demasiado sexualizados”, dijo Doshi, y agregó que esos resultados de búsqueda históricamente sugerentes fueron potencialmente impactantes para muchos usuarios.

Morales no respondió de inmediato a una solicitud de comentarios a través de un representante. Su tuit de 2019 decía que había estado buscando imágenes para una presentación y había notado un contraste en los resultados para «adolescente», que describió como «todas las cosas normales de los adolescentes», y pidió a Google que investigara.

El gigante de las búsquedas ha pasado años abordando los comentarios sobre contenido ofensivo en sus herramientas publicitarias y en los resultados de las búsquedas de «caliente» y «director ejecutivo». También eliminó los resultados sexualizados para «Chicas negras» después de que un artículo de 2013 de la autora Safiya Noble expresara su preocupación por las representaciones dañinas.

Leer:  Mujer estadounidense da positivo por Covid-19 en pleno vuelo y se aísla durante 5 horas en el baño

Google agregó el miércoles que en las próximas semanas usaría una IA llamada MUM para comenzar a detectar mejor cuándo mostrar recursos de apoyo relacionados con el suicidio, la violencia doméstica, la agresión sexual y el abuso de sustancias.

MUM debe reconocer los «puntos críticos de suicidio de Sídney» como una consulta para lugares de salto, no viajes, y ayudar con preguntas más largas, que incluyen «¿por qué me atacó cuando dije que no lo amo?» y «formas más comunes en que se completa el suicidio». Google dijo.

Información de Paresh Dave; Editado por Karishma Singh

Artículo anteriorLos piratas informáticos rusos atacaron a la OTAN y a los ejércitos de Europa del Este: Google
Artículo siguienteFacebook recurre a viejas tácticas difamatorias contra TikTok