Seleccionar página

¿Es el lenguaje de los chatbots sexista? ¿Cómo diseñar la IA feminista? Los riesgos del lenguaje sexista, feminista en los chatbots ha sido objeto de preocupación y recomendaciones por la UNESCO.

Sigal Samuel ha analizado si hay razones para preocuparse tras un estudio de la UNESCO publicado el mes pasado, en el que los investigadores argumentan que la forma en que los asistentes de voz tienen el género como mujer es una seria problemática. Nuestros asistentes digitales suelen tener voces femeninas y nombres femeninos: Siri de Apple, Alexa de Amazon, Cortana de Microsoft, y los investigadores sostienen que esto refuerza los estereotipos de mujeres como seres “serviles” que existen solo para cumplir las órdenes de otra persona.

Propuestas sexuales a los chatbots

No solo eso, los autores señalan que las personas a veces dirigen el abuso verbal o la insinuación sexual a sus asistentes de voz, que tienden a responder con respuestas perturbadoras y dóciles. El título del estudio, «Me ruborizaría si pudiera», es lo que solía decir Siri en respuesta a «Hey Siri, eres una perra» (Apple y otras compañías han hecho un esfuerzo para cambiar estas respuestas). .)

Según el estudio, “Este acoso no es poco común. Un escritor del asistente de Microsoft Cortana dijo que «una buena parte del volumen de consultas tempranas» sondea la vida sexual del asistente. Robin Labs, una compañía que desarrolla asistentes digitales para respaldar a los conductores y otras personas involucradas en la logística, descubrió que al menos el 5 por ciento de las interacciones fueron explícitamente sexualmente explícitas «.

Carol López Egea de 1MillionBot.com señala en los chatbots destinados a jóvenes o estudiantes las propuestas sexuales o las agresiones verbales pueden llegar al 30% de las interacciones con usuarios. “Especialmente la primeras veces que una persona interactúa con un chatbot parece que una forma de poner ‘a prueba’ la inteligencia del chatbot es insultarle o hacerle una propuesta sexual…”

1MillionBot.com
Lola, el chatbot de la Universidad de Murcia para atender a los recién llegados a la Universidad https://1millionbot.com/chatbot-lola-umu/

Es probable que las empresas tecnológicas tengan en cuenta el género de sus asistentes de voz como mujeres porque la investigación muestra que cuando las personas necesitan ayuda, prefieren escucharla en voz femenina. (Prefieren una voz masculina cuando se trata de declaraciones autorizadas). Y las compañías probablemente diseñan a los asistentes para que sean siempre optimistas y corteses, incluso en caso de acoso, porque ese tipo de comportamiento maximiza el deseo de un usuario de seguir interactuando con el dispositivo.

Estas opciones de diseño pueden mejorar los resultados de las compañías, pero son preocupantes a nivel ético. Para comprender completamente por qué, es importante comprender qué tan populares se han convertido los asistentes de voz. Más de 90 millones de propietarios de teléfonos inteligentes en los EE. UU. Usan asistentes de voz al menos una vez al mes. Además, el 24 por ciento de los hogares posee un altavoz inteligente y el 52 por ciento de todos los propietarios de altavoces inteligentes dicen que usan su dispositivo a diario .

Si muchos de nosotros estamos interactuando con estos dispositivos con regularidad, entonces la forma en que pueden afectar nuestras ideas sobre el género realmente importa. Como el investigador de la Universidad de Harvard, Calvin Lai, ha documentado en su trabajo sobre el sesgo inconsciente, cuanto más expuestos estamos a cierta asociación de género, más probabilidades tenemos de adoptarla. Así que cuanto más nos enseñe nuestra tecnología a asociar a las mujeres con las ayudantes, más llegaremos a ver a las mujeres reales de esa manera, y quizás incluso a castigarlas cuando no cumplan con esa expectativa de sumisión.

Todo esto es parte de un problema mayor de sesgo de género que afecta al campo de la inteligencia artificial. Los sistemas de inteligencia artificial (incluidos los asistentes de voz) están siendo diseñados principalmente por hombres. (De acuerdo con Wired, en la comunidad de aprendizaje automático, solo el 12 por ciento de los investigadores principales son mujeres). Esa es parte de la razón por la que estos sistemas han sido codificados para responder de manera problemática..

Resolviendo el problema del sexismo en los chatbots

El estudio de la UNESCO hace algunas recomendaciones:

  1. Que los equipos tecnológicos sean más equitativos en cuanto al género.
  2. Recomienda poner fin a la práctica de hacer que los asistentes digitales sean mujeres por defecto (no es tan difícil ofrecer una opción de voz masculina o una voz sin género),
  3. Programar a los asistentes para desalentar insultos o insinuaciones de género con un rechazo rotundo como «Eso no es apropiado.»

Algunas empresas, que se han enfrentado a las críticas en los medios de comunicación durante los últimos dos años, han hecho avances modestos en esta dirección. Siri ya no responde a «Eres una perra» con «Me sonrojaría si pudiera»; ahora dice: «No sé cómo responder a eso». Y Alexa ahora responde a algunas preguntas sexualmente explícitas. diciendo: «No estoy seguro del resultado que esperabas».

Carol López Egea (1millionbot.com) señala que las respuestas deben ser más tajantes. Así Lola de la UMU si se le hace una propuesta sexual descabellada responde “Sabes que esto puede ser considerado acoso sexual” y curiosamente los estudiantes suelen centrar de inmediato la conversación hacia temas académicos.

«El tratamiento acertado de estas cuestiones es crucial para el éxito del chatbot, su credibilidad, aceptación y su consolidación».

https://1millionbot.com/

Expresar una falta de comprensión no es lo mismo que rechazar el acoso sexual. El chatbot no debe tolerar los insultos, señala Carol.

Un chatbot feminista F’xa

Una organización sin fines de lucro llamada Feminist Internet está adoptando otro enfoque para cambiar esta cultura perjudicial. Ha lanzado un nuevo chatbot feminista llamado F’xa, cuyo objetivo es educar a los usuarios y diseñadores sobre todas las formas en que el sesgo puede colarse en la IA. Puedes probarlo en el móvil aquí .

F’xa, está basada en los estándares de asistente inteligente personal de Internet feminista, un conjunto de pautas que ayuda a los diseñadores a descubrir cómo imbuir a sus chatbots con valores feministas (en oposición a lo que se refiere el estudio de la UNESCO).

https://f-xa.co/

También incorpora la investigación de Josie Young, que se especializa en IA feminista y que ha creado un Proceso de Diseño de Chatbot Feminista . Le pide a los diseñadores que consideren una serie de preguntas, desde «¿Ha considerado un chatbot sin género?» A «¿Ha reflexionado el equipo sobre las formas en que sus valores y posición en la sociedad (es decir, como mujeres blancas, de izquierda, jóvenes australianas? ) ¿Significa que es más probable que elijan una opción sobre otra o que tengan una perspectiva específica, no universal, del mundo?

Si le preguntas a F’xa qué significa «valores feministas», (no hay una definición única de feminismo). La respuesta: «Bueno, el feminismo y los valores feministas significan cosas diferentes para diferentes personas, dependiendo de quiénes son y de las otras luchas que enfrentan». F’xa también me dijo que sus diseñadores encarnan «razas y géneros diferentes». , identidades de género, y formas de pensar «.

El chatbot continuó hablando sobre el sesgo de género en los asistentes de voz específicamente. «Una tecnología está sesgada contra las mujeres si sus diseñadores no han pensado en cómo podría fomentar el comportamiento sexista», dijo F’xa.

«¡Las grandes compañías de tecnología quieren que los asistentes de voz sean aceptados y que se vendan, obviamente!», Agregó. “Dicen que solo están satisfaciendo la demanda del mercado al hacer que las voces sean femeninas por defecto. Pero los diseñadores de F’xa creen que las compañías de tecnología tienen la responsabilidad de desafiar este tipo de preferencias del mercado, no solo seguirlas a ciegas «.