En un intento por combatir el racismo y el sexismo en el mundo de la IA, la ciudad de Nueva York ha promulgado una ley pionera que exige a las empresas demostrar que sus sistemas de contratación impulsados por inteligencia artificial no presentan sesgos discriminatorios.

imagen: technociohttps://technocio.com/pueden-los-consejos-de-etica-de-ia-empresariales-ser-exitosos/


Una ley pionera en el mundo ha entrado en vigor en Nueva York, obligando a las empresas a demostrar que su software de contratación basado en inteligencia artificial (IA) no tiene sesgos racistas o sexistas. Este software, conocido como Herramienta de Decisión Automática de Empleo (AEDT), debe ser auditado por una empresa tercera para verificar su imparcialidad. Además, las empresas que utilizan este tipo de software deben publicar los resultados de estas auditorías.

La CEO de Orcaa, Cathy O’Neil, señala que el uso de IA en contrataciones ha aumentado debido a la sobrecarga de solicitudes de empleo. Sin embargo, estos programas de IA a menudo exhiben sesgos como el racismo y el sexismo. A pesar de las peticiones de regulación por parte de legisladores y ejecutivos de tecnología, no se ha definido cómo sería esta regulación.

La Julia Stoyanovich, profesora de ciencias de la computación en la Universidad de Nueva York y miembro fundadora del Task Force de Sistemas de Decisiones Automáticas de la ciudad, celebra la nueva ley de Nueva York sobre IA en contrataciones como un primer paso, pero señala sus limitaciones, incluyendo la falta de consideración por discriminación por edad o discapacidades. También existe incertidumbre sobre cómo y hasta dónde se aplicará la ley. Por esta razón, Jake Metcalf de Data & Society, un grupo de investigación en tecnología, expone que algunas grandes empresas no están tomando en serio la nueva ley de Nueva York sobre la IA en contrataciones debido a su ambigüedad.

El Reflejo de la Sociedad en la IA: Desentrañando el Sesgo Algorítmico

Los sesgos en la IA son un tema de especial interés en este contexto. Es importante entender que la IA, por su propia naturaleza, es una tecnología que aprende y se modela a partir de los datos que se le proporcionan. Si estos datos reflejan sesgos discriminatorios, como los de género o raza, que prevalecen en la sociedad, la IA también puede adoptar estos sesgos. Este fenómeno, conocido como sesgo algorítmico, puede perpetuar y agravar las desigualdades existentes en los procesos de contratación.

Para solucionar estos sesgos, es fundamental asegurarse de que los conjuntos de datos utilizados para entrenar los sistemas de IA sean representativos y justos. Los algoritmos deben ser diseñados y revisados para minimizar los sesgos, y debe haber mecanismos de transparencia y revisión en lugar para garantizar que las decisiones de contratación basadas en IA sean justas y no discriminatorias. También es crucial involucrar a una variedad de partes interesadas, incluyendo expertos en ética y regulación, en el diseño y la revisión de los sistemas de IA para garantizar una diversidad de perspectivas.

Finalmente, leyes como la promulgada en Nueva York son un paso importante hacia la regulación y supervisión de la IA. Sin embargo, es esencial que estas leyes estén bien definidas y se apliquen de manera efectiva para garantizar que los sistemas de IA sean verdaderamente justos e imparciales. Esto requiere un esfuerzo continuo por parte de los legisladores, la industria y la sociedad en su conjunto para seguir evolucionando y adaptándose a las nuevas tecnologías y desafíos.

Noticia redactada por: Lucia Cardona Ramón

Leer noticia completa

In NYC, companies will have to prove their AI hiring software isn’t sexist or racist

Noticias relacionadas