Cuando muchas personas están pasando por una crisis y necesitan ayuda, lo primero que hacen es acudir al buscador de Google, por lo que la tecnología utiliza lo último en inteligencia artificial para que la búsqueda sea más precisa y útil en estos casos. Según Anne Merritt, gerente de producto de Google, actualmente, cuando las personas usan el motor de búsqueda para acceder a datos sobre suicidio, agresión sexual, abuso de sustancias o violencia doméstica, muestran los detalles de contacto de los números de emergencia nacionales, así como los principales y más importantes. importante: hay resultados de alta calidad disponibles.
No todos los lenguajes de crisis son obvios, especialmente entre idiomas y culturas. Anne Merritt, directora de productos de Google
El problema es que la gente no siempre usa un lenguaje obvio en una crisis. Entonces, si el motor de búsqueda no puede decir exactamente cuándo alguien lo necesita, no puede devolver los resultados de búsqueda más útiles.
Para cambiar esto, Google utiliza su último modelo unido multitarea de inteligencia artificial, más conocido como MUM. Este modelo puede comprender mejor la intención detrás de las preguntas, lo que le permite reconocer cuando una persona está angustiada.
- 30% se reduce la presencia de resultados inesperados
- Se identifican 4 temas: Suicidio, Depresión, Abuso y Violencia
Más protección de búsqueda
Además, Google está trabajando en métodos para mantener a las personas alejadas del contenido “impactante o inesperado”, lo que plantea un desafío, ya que los creadores de contenido suelen utilizar términos inocuos para referirse a contenido explícito o lascivo.
Aunque el modo SafeSearch ya está disponible, Google va un paso más allá al utilizar plataformas de tecnología de inteligencia artificial como BERT. Esto mejora la comprensión de si las búsquedas realmente están destinadas a encontrar contenido explícito o no, lo que reduce la probabilidad de encontrar resultados inesperados.
Los contribuyentes de productos revelaron que BERT redujo la aparición de resultados inesperados en un 30 % durante el último año. Específicamente, tuvo un impacto particular en la reducción de contenido explícito para búsquedas relacionadas con la raza, la orientación sexual y el género, que pueden afectar de manera desproporcionada a las mujeres y, en particular, a las mujeres de color.
Por: Aura Hernández
soy