Intel y la startup edtech Classroom Technologies han desarrollado una herramienta de integración con Zoom para que los profesores sepan si sus alumnos están aprendiendo bien mediante el análisis de sus expresiones faciales con inteligencia artificial.

La idea es mejorar la participación de los estudiantes, que se ha visto reducida por las aulas virtuales durante la pandemia, y es difícil de juzgar para los maestros incluso cuando están en clase, informa Protocol.

Sin embargo, según los críticos, las determinaciones precisas sobre qué tan aburrida o confundida está una persona no son posibles a partir de sus expresiones faciales y señales similares. Además, la reacción de un estudiante, particularmente en un ambiente hogareño, puede ser causada por un factor que no sea el material educativo.

El cofundador y director ejecutivo de Classroom Technologies, Michael Chasen, también reconoce la necesidad de ser sensible a las preocupaciones sobre cuán intrusiva puede ser la tecnología en los comentarios a Protocol. También admite que la tecnología aún no está “completamente” madura.

Incluso si se requiere que los estudiantes usen sus cámaras web cuando están en clase es controvertido, ya que la aplicación consume relativamente muchos recursos y también puede revelar información privada sobre los hogares de las personas.

Algunos maestros que participaron en las pruebas de Intel dieron evaluaciones positivas y la tecnología aún no está en producción.

Intel entrenó su algoritmo en datos etiquetados por expertos que contrató para revisar videos de estudiantes, aplicando etiquetas acordadas por dos de tres expertos.

Análisis de sentimientos y reconocimiento de emociones.

Las preocupaciones sobre el reconocimiento de emociones, o ‘IA de emociones’, están generando confusión sobre el análisis de sentimientos, según expertos en el campo entrevistados para un artículo separado de Protocol.

Los términos a menudo se usan indistintamente, como en una campaña de Fight for the Future citada por Protocol y posteriormente actualizada.

Sin embargo, son diferentes en que el análisis de sentimientos se basa en texto y el reconocimiento de emociones se basa en análisis facial, según la directora ejecutiva y cofundadora de Affectiva, Rana el Kaliouby. También podría basarse en otros datos biométricos, como la marcha.

Nazanin Andalibi, profesor asistente de la Escuela de Información de la Universidad de Michigan, argumenta que el análisis de sentimientos todavía busca “fenómenos afectivos” o manifestaciones físicas de estados interiores. Esta interpretación haría del análisis de sentimientos un primo de la IA emocional, si no un subconjunto de ella.

El artículo continúa explorando las implicaciones de este tipo de caracterización para la regulación del reconocimiento facial y el uso de datos biométricos.

Con más jugadores tecnológicos importantes que invierten en el reconocimiento de emociones, como Zoom, el problema parece estar aumentando rápidamente.

Temas de artículos

exactitud | IA | biometría | reconocimiento de emociones | biometría facial | analisis facial | Intel | privacidad | detección de sentimientos | Zoom

Dejar respuesta

Please enter your comment!
Please enter your name here