tu forma de ser maquinaria están diseñados para ser configurados para estar preparados para identificar siete áreas de abuso de los estándares de la comunidad: desnudez, violencia gráfica, contenido terrorista, incitación al odio, spam, cuentas falsas y prevención del suicidio. Entre estos ejes temáticos, el maquinaria Se especializan en identificar cada uno de estos elementos a través de una variedad de formas. Por un lado reconociendo y leyendo imágenes y por otro reconociendo palabras clave o formas discursivas, por citar solo algunos ejemplos.

Además, los servicios basados ​​en inteligencia artificialmente Se están desarrollando en tres áreas: visión, procesamiento del lenguaje natural y razonamiento, con la intención de incrementar los esfuerzos para identificar contenidos sensibles y así eliminar más rápidamente los mensajes tóxicos. Y si bien todavía se están logrando avances en el perfeccionamiento de estas herramientas, el inteligencia artificialmente fue la clave para mantener las redes sociales como una comunidad protegida. Según Mike Schroepfer, Director Técnico de Meta, por ejemplo, en el primer trimestre de 2018, el 99% de contenido REMOTO desde plataforma estaba relacionado con mensajes generados por ISIS y Al-Qaeda. Todo esto fue reconocido por los sistemas internos de la empresa. En sus palabras “Los avances en este tecnologíaincluido AIEl aprendizaje automático y el reconocimiento de imágenes significan que ahora podemos eliminar contenido inapropiado más rápido porque no siempre tenemos que esperar a que se informe”.

Pero este apoyo inteligencia artificial Tiene un límite, y eso significa que aún no está preparado para identificar el discurso de odio a menos que lo haga a través de palabras clave específicas y muy explícitas o a través de ciertos elementos de las imágenes. Zuckerberg dijo: “Es mucho más fácil crear un sistema inteligencia artificialmente quién puede detectar un pezón que uno que puede detectar el discurso de odio.” Aunque la pista hizo reír a la audiencia, lo cierto es que todavía queda un largo camino por recorrer para lograr que las máquinas utilicen las formas más sutiles de violencia o discurso arriesgado para el mayor bien de la comunidad puede reconocer.

Dejar respuesta

Please enter your comment!
Please enter your name here