Haro sobre la discriminación por IA

La inteligencia artificial (IA) puede perpetuar fácilmente las desigualdades sociales y sanitarias. Pero hay formas de depurar algoritmos. Los investigadores propusieron posibles soluciones en la reciente reunión anual de la Asociación Estadounidense para el Avance de la Ciencia (AAAS), a principios de marzo en Washington.



El costo de la atención…

En 2019, investigadores estadounidenses publicaron en ciencia El clásico ejemplo de los riesgos del uso de la inteligencia artificial en salud y, al mismo tiempo, el tratamiento de este problema. «Esta es una situación común con la inteligencia artificial», dice Emma Pearson, científica informática de Cornell Tech, el Instituto de Graduados de la Universidad de Cornell en Nueva York. “En el caso del estudio de 2019, la idea era utilizar los costos futuros de atención médica para identificar pacientes prioritarios en una cohorte con múltiples enfermedades”.

Imagen del sitio web de CORNELL TECH

Emma Pearson, científica informática de Cornell Tech

El problema en los Estados Unidos es que los blancos tienen más probabilidades de tener un buen seguro y, por lo tanto, de recibir atención. Si se corrige la distorsión de costos, la proporción de pacientes negros privilegiados aumentó del 18% al 47%.

Emma Pearson, científica informática de Cornell Tech

…y dolor de artrosis

METROI La propia Pearson ha publicado sobre AI Distortions in Health. en 2021 en la revista NaturalezaMedicina, mostró que el análisis de AI de las imágenes de rayos X de la rodilla reflejaba bien los informes de dolor de los pacientes con osteoartritis en los blancos, pero no en los negros. «Los pacientes menos educados y más pobres también tenían una calificación más baja de la gravedad de su artritis», dice la Sra.I Pearson. Reducción de su acceso a la cirugía de rodilla. En este caso, la corrección del algoritmo de IA no era obvia.

base de datos

Un gran problema es que las bases de datos utilizadas para entrenar programas de IA tienen distorsiones en su relación con la sociedad. «Con demasiada frecuencia, las personas blancas están sobrerrepresentadas en los ensayos clínicos», dice la Sra.I Pearson. Lance Waller de la Universidad de Emory en Atlanta, quien organizó la sesión AAAS, agrega que los ensayos clínicos a menudo incluyen personas sanas. “Queremos evitar la interferencia con los datos sobre medicamentos, el ruido de fondo que impide el poder estadístico”, dice Waller, quien se especializa en corregir anomalías en las bases de datos de salud. «También vemos el mismo problema con el uso de IA en RR. las palabras clave utilizadas son más En los currículos masculinos, como «Completar la tarea», se ve favorecida por un algoritmo entrenado en demasiados currículos masculinos. »

policía

Obtener fotos fotos

Los algoritmos forenses deben tener en cuenta las percepciones de la población que es probable que sea el objetivo de la policía.

Las bases de datos policiales son particularmente problemáticas, dijo Megan Price, una estadística que dirige el Grupo de Análisis de Datos de Derechos Humanos (HRDAG) en San Francisco. «Algunos tipos de delitos son favorecidos por la policía y algunos vecindarios también», explicó El-Sayed.I El precio es de oferta. Se deben hacer intentos para incluir las percepciones y experiencias de las poblaciones que han sido ignoradas o que probablemente serán atacadas por la policía en los algoritmos forenses. Esto puede conducir a distorsiones en la evaluación del riesgo de reincidencia de la IA, por ejemplo. «METROI El precio no se opone a priori a la inteligencia artificial. Lo usamos para descubrir las fosas comunes de personas ejecutadas como parte de la lucha contra los narcotraficantes en México. »

redes sociales

Una posible solución a estas distorsiones de la base de datos es utilizar inteligencia artificial para encontrar bases de datos que los investigadores pasan por alto. “Uno de mis colegas en Cornell Tech, Tanzeem Choudhury, está usando inteligencia artificial para encontrar signos de enfermedades específicas en las publicaciones de las redes sociales”, dice el Sr.I Pearson. Este es un buen ejemplo de cómo se puede usar la IA para contrarrestar las debilidades de la IA. El Laboratorio de Computación de Personas Perceptivas en M.I Las publicaciones de Chowdhury incluyen divulgación utilizando «signos vitales digitales», palabras clave en las redes sociales, fatiga mental, esquizofrenia, paranoia, dolor crónico, ansiedad y psicosis.

Inteligencia artificial en el tercer mundo

Imagen del sitio web de la Universidad de Harvard

Milind Tambi es científica informática de la Universidad de Harvard y directora de proyectos de Google AI for Social Good.

Otra sesión en la conferencia AAAS se mostró más entusiasta sobre el uso de la IA en la atención médica. “Entiendo las preocupaciones sobre la desigualdad sistémica en los países ricos, pero en muchos países en desarrollo, e incluso entre las poblaciones marginadas de los países industrializados, la IA ya se muestra muy prometedora”, dijo Milind Tambi, científico informático de la Universidad de Harvard y director de inteligencia artificial en Google. . Proyecto de Bien Social. Da el ejemplo de un programa destinado a apoyar a las madres pobres en India, brindándoles información sobre salud. «La inteligencia artificial ha ayudado a predecir qué madres tienen riesgo de abandonar el programa. Vamos a verlas a casa para darles un seguimiento personalizado».

¿Tienes una pregunta de ciencia? Pregúntale a Mathieu Perrault.

leer más



  • 50%
    Proporción de empresas farmacéuticas que planean invertir en inteligencia artificial en 2023

    Fuente: Tecnología Farmacéutica

    60%
    Porcentaje de estadounidenses que se sienten incómodos con la idea de que su médico use IA para su atención

    Fuente: Centro de Investigación Pew



  • 3
    Número de algoritmos de IA aprobados por la FDA en radiología en 2017

    Fuente: Goldman Sachs

    66
    Número de algoritmos de IA aprobados por la FDA en radiología en 2022

    Fuente: Goldman Sachs

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *