Los sistemas de inteligencia artificial (IA) adoptan y amplifican los prejuicios humanos, lo que hace que las personas que usan la IA se vuelvan más parciales, sugiere un nuevo estudio realizado por investigadores de la UCL.
Los sesgos humanos y de la IA pueden eventualmente formar un circuito de retroalimentación, con pequeños sesgos iniciales que aumentan el riesgo de error humano, según los hallazgos publicados en . La naturaleza es el comportamiento humano..
Los investigadores demostraron que el sesgo de la IA puede tener consecuencias en el mundo real, ya que descubrieron que las personas que interactuaban con IA sesgadas subestimaban el desempeño de las mujeres y sobreestimaban la probabilidad de que los hombres blancos ocuparan puestos de alto rango.
La coautora principal, la profesora Tally Schrott (Psicología y Ciencias del Lenguaje de la UCL, Centro Max Planck de Psiquiatría Computacional e Investigación del Envejecimiento de la UCL y Instituto de Tecnología de Massachusetts) dijo: “Las personas están naturalmente sesgadas, por lo que cuando entrenamos sistemas de IA en conjuntos de datos desarrollados por humanos, aprendiendo sesgos humanos incrustados en los datos Goi explota estos sesgos para mejorar la precisión.
“Aquí, descubrimos que las personas que interactúan con sistemas de IA sesgados pueden volverse más sesgadas, creando un posible efecto de bola de nieve en el que la IA magnifica los sesgos mínimos en los conjuntos de datos originales, lo que aumenta el sesgo de la persona que usa la IA. “.
Los investigadores llevaron a cabo una serie de experimentos con más de 1200 participantes del estudio que completaron tareas e interactuaron con sistemas de inteligencia artificial.
Como precursor de uno de los experimentos, los investigadores entrenaron un algoritmo de IA en un conjunto de datos de las respuestas de los participantes. Se pidió a las personas que juzgaran si un grupo de caras en una imagen parecía feliz o triste, y mostraron una ligera tendencia a calificar las caras como tristes más que felices. La IA aprendió este sesgo y lo amplió para juzgar las caras como tristes.
Luego, otro grupo de participantes completó la misma tarea, pero también se les dijo lo que la IA había decidido para cada imagen. Después de interactuar con el sistema de IA durante un corto período de tiempo, este grupo de personas internalizó el sesgo de la IA y era más probable que dijeran que las caras parecían tristes antes de interactuar con la IA. Esto implica que la IA aprendió sesgos de un conjunto de datos derivados de humanos y luego extrapoló los sesgos inherentes de otro grupo de personas.
Los investigadores encontraron resultados similares en experimentos que utilizaron tareas muy diferentes, incluido juzgar la dirección de un conjunto de puntos en una pantalla o, más específicamente, juzgar el desempeño de otra persona en una tarea en la que los hombres eran especialmente propensos a mejorar su desempeño después de interactuar. con ellos. Un sistema de IA sesgado (construido con un sesgo de género inherente para imitar los sesgos de muchas IA existentes). En general, los participantes desconocían el alcance de la influencia de la IA.
Cuando a las personas se les decía falsamente que estaban interactuando con otra persona, cuando en realidad estaban interactuando con una IA, internalizaron los sesgos hasta cierto punto, lo que, según descubrieron los investigadores, podría deberse a que la gente espera que la IA sea más precisa que la IA. humanos en algunas tareas. .
Los investigadores también experimentaron con un sistema de IA generativa ampliamente utilizado, Stable Diffusion. En un experimento, los investigadores hicieron que una IA dibujara imágenes de gerentes financieros, lo que arrojó resultados sesgados, ya que los hombres blancos estaban sobrerrepresentados. Luego pidieron a los participantes del estudio que miraran una serie de fotografías de rostros y eligieran qué persona tenía más probabilidades de ser un gerente financiero antes y después de que se les presentaran imágenes generadas por IA. Los investigadores encontraron que los participantes estaban aún más inclinados a identificar que un hombre blanco tenía más probabilidades de ser un gerente financiero después de ver las imágenes producidas por difusión estable que antes.
El coautor principal, el Dr. Moshe Glickman (Psicología y Ciencias del Lenguaje de la UCL y Centro Max Planck de Psiquiatría Computacional e Investigación del Envejecimiento de la UCL) dijo: “Las personas sesgadas no solo contribuyen a las IA sesgadas, sino que los sistemas de IA sesgados pueden cambiar sus creencias”. El hecho de que las personas utilicen herramientas de IA puede volverse más sesgado en ámbitos que van desde lo social hasta las decisiones cognitivas básicas.
“Sin embargo, es importante destacar que también descubrimos que interactuar con las IA adecuadas puede mejorar las decisiones de las personas, por lo que es importante hacer que los sistemas de IA sean lo más imparciales e imparciales posible. Mejorar para corregir”.
El profesor Sharot añadió: “Los desarrolladores de algoritmos tienen una enorme responsabilidad en el diseño de sistemas de IA; la influencia de los sesgos de la IA podría tener profundas implicaciones a medida que la IA impregna cada vez más muchos aspectos de nuestras vidas”.