Miércoles 1 de Abril de 2026

16/11/2024

Opacidad algorítmica e implicancias bioéticas

Fuente: telam

Resulta crucial que los sistemas algorítmicos sean diseñados bajo un marco normativo con criterios claros de explicabilidad, responsabilidad y rendición de cuentas

>La creciente dependencia de algoritmos en sectores como salud y justicia para tomar decisiones críticas plantea serias cuestiones éticas. Y ello es porque, frecuentemente, estos algoritmos operan como “cajas negras” generando desconfianza y falta de rendición de cuentas, vulnerando derechos individuales y principios bioéticos.

Otro principio vulnerado es el de justicia, del cual deriva el deber de distribuir equitativamente los recursos, beneficios y riesgos. Los algoritmos opacos a menudo perpetúan sesgos estructurales, reforzando las desigualdades. En 2019, el algoritmo de salud diseñado por Optum y utilizado en Estados Unidos para identificar a pacientes con mayores necesidades de atención médica y predecir sus necesidades, presentaba un sesgo racial discriminando a pacientes afroamericanos. El algoritmo basaba sus decisiones en los costos previos de atención médica, y dado que los pacientes afroamericanos habían recibido comparativamente menor atención, sus costos de salud eran menores. Así, el algoritmo subestimaba las necesidades de los pacientes afroamericanos asignándoles sistemáticamente menor prioridad en condiciones de salud similares a los pacientes blancos, reduciendo la equidad en la atención médica.

Ahora bien, definiendo la transparencia algorítmica como el acceso a información que permite monitorear las decisiones de un sistema algorítmico, esta tiene dos aspectos: la transparencia de los resultados y la del proceso. La transparencia de resultados implica comunicar claramente los efectos de las decisiones algorítmicas, permitiendo a los usuarios comprender cómo afectan sus casos. Para ello, es esencial ofrecer interfaces comprensibles que traduzcan los resultados técnicos en información útil. La transparencia del proceso refiere a explicar cómo se diseña, desarrolla y entrena el sistema, incluyendo la lógica de sus cálculos y el origen de los datos. Esto ayuda a evaluar el cumplimiento de principios éticos, detectando posibles sesgos y facilitando auditorías independientes que regulen el uso de datos. La transparencia de resultados empodera a los usuarios, mientras que la del proceso permite a expertos verificar su adecuación bioética y legal, promoviendo un uso responsable de los algoritmos que respete los derechos vigentes.

Esto se conoce como el criterio de explicabilidad, buscando desarrollar sistemas de IA cuyos resultados sean fácilmente comprensibles e interpretables, evitando graves riesgos y aumentando la confianza del usuario. Esta explicabilidad, debería categorizarse en cuatro áreas de comprensibilidad 1) Analizar la contribución de cada característica en las decisiones del modelo y su influencia en la predicción; 2) Explicar el comportamiento del modelo en conjunto; 3) Explicar cómo el algoritmo usa o aplica conceptos humanos; y 4) Explicar cómo modelos simples se implementan aproximando modelos complejos.

Estos cuatro lineamientos permitirán a los profesionales de la salud comprender qué factores específicos, como síntomas o resultados de pruebas, contribuyen a un diagnóstico particular. Proporcionará también una visión del modelo completo en lugar de centrarse en un solo caso, identificando patrones en subgrupos específicos, útil para estudios poblacionales en salud o para comprender tendencias en grandes conjuntos de datos clínicos. Ayudará además a identificar patrones clínicos complejos como la sensibilidad de ciertas características en diagnósticos específicos. Hará más comprensible los árboles de decisión. Se podrán identificar regiones específicas en imágenes médicas como radiografías, ecografías o tomografías, que son relevantes para la decisión del modelo, permitiendo a los médicos validar visualmente los resultados. Por último, facilitará al mismo tiempo la comprensión y comunicación a usuarios no expertos y pacientes fomentando la confianza y su adopción en entornos médicos.

Para evitar los perjuicios y riesgos mencionados, es crucial que los sistemas algorítmicos sean diseñados bajo un marco normativo con criterios claros de explicabilidad, responsabilidad y rendición de cuentas, todo lo cual tiene como base la transparencia. Ello coadyuva a un enfoque de intervención humana tan significativa como esencial, demandando que los sistemas no deben ser la autoridad en la toma de decisiones críticas. Los humanos deben poder supervisar, cuestionar y revocar las decisiones algorítmicas cuando sea necesario. Y esto implica además una normativa para la divulgación de modelos, procesos y datos utilizados, estableciendo comités de expertos en ética, IA y derecho, para asegurar que los algoritmos respeten principios bioéticos y derechos, como el de privacidad y no discriminación. Resulta fundamental establecer sistemas de responsabilidad algorítmica, donde sus desarrolladores y operadores puedan ser responsabilizados acorde a lo que les corresponda, por resultados y más aún por decisiones incorrectas.

Fuente: telam

Compartir