Arrow
AI Blog

¿Los algoritmos de inteligencia artificial gestionan los sesgos médicos?

Descubra cómo la IA ayuda a minimizar los sesgos en la toma de decisiones médicas, es crucial diseñar los algoritmos con cuidado para evitar reforzar los prejuicios existentes.

La continua aparición de numerosos estudios y aplicaciones de la Inteligencia Artificial (IA) en el sector de la salud demuestra que esta tecnología emergente tiene el gran potencial de revolucionar la forma en que los médicos, enfermeras, hospitales, compañías farmacéuticas y aseguradoras toman decisiones para proteger la vida de los pacientes. Increíblemente, la creación de estas herramientas tecnológicas basadas en la inteligencia artificial ha mostrado un futuro bastante prometedor, con mercado estimado crecimiento de 4.900 millones de dólares en 2020 a 45.200 millones de dólares en 2026.

Sin embargo, a pesar de su inmenso potencial, en los últimos años, la aplicación de la IA al sector sanitario ha elevado la preocupación de algunos expertos, ya que se ha descubierto que los algoritmos pueden exacerbar las disparidades estructurales existentes en el sistema de salud.

No es ningún secreto que los prejuicios basados en el sexo, el género, la raza, el nivel socioeconómico, la etnia, la religión e incluso la discapacidad han afectado al sector biomédico y de la salud desde la llegada de la medicina moderna en el siglo XVIII. Estos prejuicios, o sesgos, han promovido esa tendencia, ya que estados Londa Schiebinger, profesora de Historia de la Ciencia en la Escuela de Humanidades y Ciencias de Stanford: «El funcionamiento y la anatomía del cuerpo masculino blanco se han utilizado como guía para el descubrimiento de fármacos, tratamientos y dispositivos médicos durante las últimas décadas de la medicina moderna».

Es preocupante que este sesgo afecte potencialmente a la calidad de la atención médica que reciben algunas minorías en los diferentes sistemas de salud. Por poner un ejemplo (bastante relevante durante estos dos últimos años de pandemia), podríamos analizar el comportamiento de los oxímetro de pulso. El oxímetro de pulso es un dispositivo biomédico que registra la cantidad de luz absorbida por los glóbulos rojos oxigenados y no oxigenados para analizar de forma rápida y no invasiva los niveles de oxígeno en sangre de un paciente. Sin embargo, cuando se usa en pacientes que tienen niveles altos de melanina en la piel (negra), tienen tres veces más probabilidades de informar erróneamente sobre los niveles de gases en sangre. De hecho, también se ha descubierto que funcionan mal con más frecuencia en las mujeres que en los hombres, lo que pone en peligro la capacidad de ambas minorías (raza y género) de recibir el tratamiento adecuado.

Ahora bien, quizás la pregunta que se plantea en este punto es:

¿Cómo podría transmitirse este sesgo, o sesgo, a los algoritmos de IA?

Como en cualquier otra industria, los algoritmos de IA desarrollados para ayudar a la toma de decisiones en el sector de la salud dependen en gran medida de los datos utilizados para capacitarlos.
En términos generales, tanto los algoritmos de aprendizaje automático como los de aprendizaje profundo (los más utilizados en el sector de la salud) necesitan una base de datos que contenga toda la información relevante para la toma de decisiones. Esta información puede ser, por ejemplo, imágenes de diagnóstico con una clasificación de si el paciente tiene o no una enfermedad, registros de señales biomédicas con patrones de interés identificados a lo largo del tiempo, el historial médico del paciente que permite predecir el desarrollo de alguna afección, entre otros. A partir de esta información, la máquina pasa por un proceso de aprendizaje. Al ver los datos varias veces, este proceso puede reconocer las características que le permiten tomar decisiones tal como lo haría un humano experimentado. Sin embargo, como se ha destacado anteriormente, los datos disponibles para el entrenamiento de estos algoritmos suelen estar sesgados por naturaleza, ya que no tienen en cuenta la gran variabilidad que se observa a la hora de tomar decisiones en la vida real. Por lo tanto, la máquina aprende a favorecer o desfavorecer a una población específica en función de características demográficas, de género o raciales que no tienen relación con el proceso que se va a autorizar. Ahora bien, siendo objetivos, aunque la principal fuente de sesgo se atribuye a los datos, el sesgo puede aparecer en cualquier etapa de la construcción del algoritmo. Desde el planteamiento del problema a resolver, si no se tiene en cuenta la variabilidad del proceso, hasta las condiciones de uso de los algoritmos, si se implementan en situaciones para las que no fueron construidos.

Por lo tanto, es esencial, especialmente en el sector de la salud, donde un resultado erróneo puede afectar la salud de un ser humano, que los responsables del desarrollo de los algoritmos sean conscientes de la presencia de esta amenaza.

¿Se puede hacer algo para mitigar el sesgo de los algoritmos?

Para hacer frente a una amenaza como el sesgo en la inteligencia artificial, lo primero y más importante es reconocer que existe y puede estar presente en diferentes etapas del desarrollo de los algoritmos. Con esto claro, se pueden proponer varias estrategias que pueden ayudar a reducir sus efectos perjudiciales.

En primer lugar, los profesionales de la salud que recopilan la información para la construcción del algoritmo deben ser conscientes de que los sesgos presentes en el proceso de estructuración de la base de datos se transferirán a los resultados obtenidos al implementar las herramientas tecnológicas. En este sentido, las bases de datos deben mostrar una amplia variabilidad en la información recopilada, garantizando que sea representativa de la población en la vida real y siguiendo estándares de alta calidad. En este sentido, es vital aumentar la inversión en entidades públicas y privadas para construir bases de datos imparciales. De este modo, proyectos como el Proyecto Skin of Color de Stanford, que busca recopilar el conjunto de datos público más extenso de imágenes dermatológicamente relevantes para diferentes tonos de piel, se replican en todas las entidades sanitarias del mundo. En segundo lugar, los investigadores subrayan la importancia de evaluar sistemáticamente las herramientas de IA, incluso después de que las organizaciones los hayan implementado. Esta evaluación es clave para entender cómo funciona el algoritmo cuando se enfrenta a los datos cotidianos de la población para la que se creó. Esto significa que deben evaluarse utilizando no solo las métricas tradicionales de precisión y especificidad, sino también las métricas de equidad relevantes, como mencionó Henk van Houten, director de tecnología de Royal Philips. Además, esto también implica que las herramientas que se van a construir deben tener un alto grado de explicabilidad para que los expertos puedan evaluarlas rápidamente.

Para lograr esto, los esfuerzos de las entidades gubernamentales y no gubernamentales para promover el desarrollo de estudios prospectivos son de gran importancia. En este sentido, entidades como Arkangel AI han puesto a disposición de la comunidad sanitaria herramientas como Hipócrates, que permiten construir y probar algoritmos automáticamente siguiendo modelos de estudios prospectivos y retrospectivos.

Por último, en los últimos años se ha destacado la importancia de hacer que la IA sea accesible para todos, un proceso que se conoce como «democratización». Con esta democratización, se promueve la diversidad geográfica, de género, raza y clase a la hora de crear algoritmos y definir las regulaciones necesarias para su uso. Especialmente en el sector de la salud, este proceso permite a los profesionales de la salud acceder al conocimiento necesario para proponer y desarrollar modelos de IA. Del mismo modo, con el conocimiento en manos del personal sanitario, se pueden empezar a crear módulos de IA en las universidades para crear conciencia sobre sus beneficios y sus amenazas, como el sesgo cuando se utiliza.

En Arkangel, hemos desarrollado la herramienta Hipócrates para promover esta democratización y que el personal sanitario no tenga que preocuparse por la programación que hay detrás de los modelos de IA. En cambio, alentamos a los profesionales de la salud a centrarse en conocer las bases teóricas del funcionamiento de los modelos, desde la construcción de bases de datos imparciales hasta la correcta implementación y evaluación de los algoritmos.

En conclusión, para garantizar que los algoritmos de IA que se utilicen en el futuro sean potentes y justos y generen valor para todos los seres humanos, debemos construir la infraestructura técnica, reguladora y económica para proporcionar los datos completos y diversos necesarios para entrenar y probar estos algoritmos. Si bien el futuro de esta tecnología en el sector de la salud es prometedor, no podemos seguir permitiendo el desarrollo o incluso la implementación de herramientas que puedan anular los principios éticos de la práctica médica que afectan a la atención que reciben los pacientes. Y no solo eso, aunque la medicina siempre debe centrarse en el paciente, las consecuencias de los algoritmos sesgados se pueden sentir desde el punto de vista legal y financiero, como ha sucedido antes.

Mientras tanto, Arkangel AI mantendrá su compromiso de crear conciencia sobre las amenazas que afectan al rendimiento de los algoritmos de IA en el sector de la salud, mendicando el desarrollo de herramientas que democraticen esta tecnología y promuevan su uso a diario.

Si quieres saber más sobre el software Arkangel Ai, déjanos tu (información profesional) y uno de nuestros agentes se pondrá en contacto contigo para acompañarte en la incorporación personalizada de nuestra tecnología y asesorarte sobre el proyecto que tienes en mente.

Si quieres saber más sobre Arkangel Ai contacta con nosotros aquí y uno de los miembros de nuestro equipo se pondrá en contacto con usted para una sesión individual.

Book a Free Consultation

Trusted by the world's top healthcare institutions