A través de inteligencia artificialLa agencia Wunderman Thompson (WT) Argentina ha desarrollado una nueva plataforma que permite interpretar las expresiones faciales y traducirlas en emociones.

Con el objetivo de conectar tecnología, datos y creatividad que inspire a personas y marcas, desde el departamento creativo de Wunderman Thompson Latam y el área de nuevas tecnologías, a cargo de Alejandro Francolini, desarrollaron esta plataforma de inteligencia artificial que permite decodificar movimientos y reacciones faciales a través de la cámara de una computadora o celular para descubrir los verdaderos sentimientos y emociones que transmiten las personas.

“Según varios informes, más del 75% de las decisiones se toman de manera inconsciente, dejándose llevar por las emociones. Un claro ejemplo de ello son las decisiones de compra”, explican. Daniel Minaker y Sebastián TarazagaMentes creativas de Wunderman Thompson Latam.

“Así nos desarrollamos para uno de los festivales más importantes de la industria, El Ojo de Iberoaméricauna categoría experimental en la que las piezas no son juzgadas por un número sino por las emociones que provocan en el jurado”, apuntan.

El desarrollo identifica el miedo junto con otras emociones.

Innovaciones de mercadotecnia

Los resultados se reciben en el momento en que se despliega la información en una nube en GCP. Esta innovación también se puede utilizar en grupos de enfoque o en diversas industrias y actividades tratando de conocer el verdadero sentimiento que ese “algo” evoca en las personas que lo ven.

En la siguiente entrevista de iProfessional Alejandro FrankoliniDirector de Tecnología de Datos y Comercio Electrónico de Wunderman Thompson Argentina y Chile explica este desarrollo:

-¿Cómo es la plataforma que te permite interpretar gestos faciales y traducirlos en emociones? ¿Qué componentes tiene?

-La plataforma que desarrollamos junto con el equipo de WT APAC es capaz de reconocer las expresiones faciales de las personas y, en base a eso, reconocer lo que son. las emociones que sienten cuando ven un video/imagen en particular.

A su vez, cuenta con una visualización donde podemos ver esta información de forma general o por segundos. Es decir, qué emociones se crearon y desencadenaron en cada segundo de la pieza. casi en tiempo real.

Básicamente, las personas están sentadas frente a la computadora y desde un sitio web y acceden a su cámara, de la cual no hay ningún tipo de metraje pregrabado, ven muchas piezas/formatos X y, por ejemplo, Reconocimiento facialEstas emociones se clasifican en:

  • suerte (suerte).
  • excitación (emoción).
  • tristeza (tristeza).
  • Neutral.
  • miedo (miedo)
  • Asco

Con esta información y siempre considerando el objetivo de cada pieza, evaluamos qué pieza inspira más y funciona mejor. Esto es algo diseñado con tecnología. Google Video IA y Pythonprincipalmente para toda la parte de reconocimiento facial, definición de expresión y reconocimiento.

El desarrollo identifica rostros que expresan felicidad.

El desarrollo identifica rostros que expresan felicidad.

-¿Qué aplicaciones de inteligencia artificial se incluyen?

-Vision AI se basa en tecnologías de IA de vídeo de Googleagregado a un desarrollo posterior en el lenguaje Python.

Con Google Video detectamos e identificamos el contenido cuadro por cuadro, con la capacidad de detectar momentos, ubicaciones y otras variables de los videos casi en tiempo real, y con el código Python hacemos toda la web, detección y detección simple. reconocimiento de emociones.

-¿Cuál es el estado del desarrollo de la plataforma?

-La plataforma ya está desarrollada y operativa, como demostramos en el Festival El ojo de Iberoamérica. Por supuesto, todavía estamos tratando de profundizar más porque queremos explorar la detección de sonido (por ejemplo, música) y sigue entrenandolos para que los resultados sean cada vez más completos y precisos. Hoy en día, nuevamente, el enfoque está principalmente en las computadoras de escritorio, por lo que queremos mejorar la experiencia móvil para los usuarios.

– ¿Ha habido ya casos de uso fuera del laboratorio?

-La plataforma ya se usó y lo que hicimos en particular para el Festival El ojo de Iberoamérica fue el desarrollo completo e implementación de la plataforma.

Aunque crear la categoría, validarla y compararla con los jurados y entender cómo se podría aplicar la IA a este tipo de premios fue experimentalla plataforma ya estaba activa y lo seguirá estando en el futuro.

-¿Cómo se evitan los prejuicios al utilizar la inteligencia artificial?

– Entrena al modelo una y otra vez. Por suerte tenemos este modelo. formación durante dos añoscon perfiles y personas de todo el mundo usando la red WT.

en WT La inclusión y la diversidad son variables centralesque nos atraviesan y que empujamos hacia adentro y hacia afuera. Incluso hoy en día, el modelo es capaz de detectar el género de la persona que ve el contenido, pero en los resultados y análisis decidimos no tenerlo en cuenta para no sesgar la conversación con una variable de género de todos modos.

Alejandro Francolini, director de tecnología de datos y comercio electrónico de Wunderman Thompson Argentina y Chile.

Alejandro Francolini, director de tecnología de datos y comercio electrónico de Wunderman Thompson Argentina y Chile.

-¿Cuáles son las ventajas de esta plataforma para los clientes?

Tamaño, Tiempo, Ahorro y varios más. Podemos analizar videos e imágenes, comprender cómo se sienten cuando ven un caso en video, una idea, la presentación de otra persona, un concepto e incluso la presentación de un producto o empaque.

En cualquier momento, siempre que sea un vídeo o una imagen, podemos ver lo que crea para cada persona que lo ve.

A través de Internet podemos llegar a un número de personas que son personalmente sería muy lento y también muy caro. La gente lo hace desde casa cuando tiene tiempo libre y nosotros recopilamos toda la información para luego analizarla.

Dejar respuesta

Please enter your comment!
Please enter your name here