Pero abundan los debates sobre IA, ciencia, ética y privacidad.

Una solución de software desarrollada por Intel tiene como objetivo aplicar el poder de la inteligencia artificial a los rostros y el lenguaje corporal de los estudiantes. Según Protocol, la solución se distribuye como parte del producto de software “Class” y tiene como objetivo ayudar en las técnicas de educación de los docentes al permitirles ver los estados mentales inferidos por la IA (como aburrimiento, distracción o confusión) de cada alumno. Intel apunta a expandir el programa a mercados más amplios con el tiempo. Sin embargo, la tecnología se ha enfrentado a retrocesos que ponen de relieve los debates sobre IA, ciencia, ética y privacidad.

Fuente

La función basada en IA, que se desarrolló en asociación con Classroom Technologies, se integra con Zoom a través del producto de software “Class” del primero. Se puede utilizar para clasificar el lenguaje corporal y las expresiones faciales de los alumnos siempre que se realicen clases digitales a través de la aplicación de videoconferencia. Michael Chasen, cofundador y director ejecutivo de Classroom Technologies, citando las propias experiencias de los maestros después de las clases online tomadas durante la pandemia de COVID-19, espera que su software brinde a los maestros información adicional, en última instancia, mejorando las experiencias de aprendizaje remoto.

El software utiliza las secuencias de video de los estudiantes, que alimenta al motor de IA junto con información contextual en tiempo real que le permite clasificar la comprensión de los estudiantes sobre el tema. Sinem Aslan, un científico investigador de Intel que ayudó a desarrollar la tecnología, dice que el objetivo principal es mejorar las sesiones de enseñanza individuales al permitir que el maestro reaccione en tiempo real al estado de ánimo de cada estudiante (apoyándolos en la dirección se considere necesaria).

Pero si bien el objetivo de Intel y Classroom Technologies puede tener buenas intenciones, la premisa científica básica detrás de la solución de inteligencia artificial (que el lenguaje corporal y otras señales externas se pueden usar con precisión para inferir el estado mental de una persona) está lejos de ser un debate cerrado.

Por un lado, la investigación ha demostrado los peligros del etiquetado: el acto de ajustar la información, a veces incluso calzándola, en categorías fáciles de percibir (pero en última instancia y con frecuencia demasiado simplistas).

Todavía no comprendemos completamente las dimensiones externas a través de las cuales las personas expresan sus estados de ánimo. Por ejemplo, el ser humano promedio se expresa a través de docenas (algunos dicen que incluso cientos) de microexpresiones (pupilas dilatadas, por ejemplo), macroexpresiones (sonreír o fruncir el ceño), gestos corporales o señales fisiológicas (como transpiración, aumento del ritmo cardíaco…).

Otra advertencia notable y potencial para el motor de IA es que la expresión de emociones también varía entre culturas. Si bien la mayoría de las culturas equipararían la sonrisa con una expresión de felicidad interna, la cultura rusa, por ejemplo, reserva las sonrisas para los amigos cercanos y la familia ; ser demasiado sonriente en el contexto equivocado se interpreta como una falta de inteligencia u honestidad. Amplíe esto hacia la miríada de culturas, etnias y variaciones individuales, y podrá imaginar las implicaciones de estas “peculiaridades” personales y culturales en la precisión del modelo de IA.

También surgen preguntas en torno al análisis a largo plazo de los estados emocionales de los estudiantes: ¿podría utilizar un informe de sistemas como estos una empresa que contrata a estudiantes recién egresados ​​de la universidad, con etiquetas como “deprimido” o “atento”? ¿A qué medida de estos datos deben tener acceso los afectados? ¿Y qué ocurre con la privacidad emocional de los estudiantes, su capacidad para mantener interiorizados sus estados emocionales? ¿Nos sentimos cómodos con nuestras emociones etiquetadas y accesibles para cualquiera, especialmente si hay alguien en una posición de poder al otro lado de la IA?

Más información: https://www.tomshardware.com/news/intel-students-ai-controversy

Un tutor inteligente para cada estudiante: 1MillionBot revoluciona el sector educativo

Un tutor inteligente para cada estudiante: 1MillionBot revoluciona el sector educativo