Sesgos, IA y biomedicinaun comentario desde la ética y el Derecho

  1. Iñigo de Miguel Beriain 1
  2. Yenifer Mursuli Yanes 2
  1. 1 Universidad del País Vasco / Euskal Herriko Unibersitatea (Leioa) Ikerbasque - Fundación Vasca para la Ciencia
  2. 2 Universidad Internacional de Valencia
    info

    Universidad Internacional de Valencia

    Valencia, España

    ROR https://ror.org/00gjj5n39

Revue:
Revista de derecho y genoma humano: genética, biotecnología y medicina avanzada

ISSN: 1134-7198

Année de publication: 2023

Número: 59

Pages: 129-148

Type: Article

DOI: 10.14679/3195 DIALNET GOOGLE SCHOLAR

D'autres publications dans: Revista de derecho y genoma humano: genética, biotecnología y medicina avanzada

Résumé

La cuestión de los sesgos en la IA constituye un reto importante en los sistemas de IA. Estos sesgos no surgen únicamente de los datos existentes, sino que también los introducen las personas que utilizan sistemas, que son intrínsecamente parciales, como todos los seres humanos. No obstante, esto constituye una realidad preocupante porque los algoritmos tienen la capacidad de influir significativamente en el diagnóstico de un médico. Análisis recientes indican que este fenómeno puede reproducirse incluso en situaciones en las que los médicos ya no reciben orientación del sistema. Esto implica no sólo una incapacidad para percibir el sesgo, sino también una propensión a propagarlo. Las consecuencias potenciales de este fenómeno pueden conducir a un ciclo que se autoperpetúa y que tiene la capacidad de infligir un daño significativo a las personas, especialmente cuando los sistemas de inteligencia artificial (IA) se emplean en contextos que implican asuntos delicados, como el ámbito de la asistencia sanitaria. En respuesta a esta circunstancia, los ordenamientos jurídicos han ideado mecanismos de gobernanza que, a primera vista, parecen suficientes, especialmente en la Unión Europea. Los reglamentos de reciente aparición relativos a los datos y los que ahora se enfocarán a la inteligencia artificial (IA) sirven como ilustración por excelencia de cómo lograr potencialmente una supervisión suficiente de los sistemas de IA. En su aplicación práctica, no obstante, es probable que numerosos mecanismos muestren ineficacia a la hora de identificar los sesgos que surgen tras la integración de estos sistemas en el mercado. Es importante considerar que, en esa coyuntura, puede haber múltiples agentes implicados, en los que se ha delegado predominantemente la responsabilidad. De ahí que sea imperativo insistir en la necesidad de persuadir a los desarrolladores de inteligencia artificial (IA) para que apliquen medidas estrictas con el fin de regular los sesgos inherentes a sus sistemas. Si no se logra la detección de estas entidades, ello supondrá un reto importante para que otras personas alcancen lo mismo, sobre todo hasta que su presencia sea muy notoria. Otra posibilidad es que las repercusiones a largo plazo se experimenten de forma colectiva. Palabras clave: Auditoría de IA, Sesgos, Ley de IA, Supervisión de IA

Références bibliographiques

  • MIRNEZAMI, R., NICHOLSON, J., & DARZI, A. (2012). Preparing for precision medicine. N Engl J Med, 366(6), 489-491.
  • CESUROGLU, T., VAN OMMEN, B., MALATS, N., SUDBRAK, R., LEHRACH, H., & BRAND, A. (2012). Public health perspective: from personalized medicine to personal health. Personalized Medicine, 9(2), 115-119.
  • REDEKOP, W. K., & MLADSI, D. (2013). The faces of personalized medicine: a framework for understanding its meaning and scope. Value in Health, 16(6), S4-S9.
  • CIRILLO, D., & REMENTERIA, M. J. (2022). Bias and fairness in machine learning and artifi cial intelligence. In Sex and Gender Bias in Technology and Artifi cial Intelligence, Academic Press, pp. 57-75.
  • VARONA, D., & SUÁREZ, J. L. (2022). Discrimination, Bias, Fairness, and Trustworthy AI. Applied Sciences, 12(12), 5826.
  • VARONA, D., & SUÁREZ, J. L. (2022). Discrimination, Bias, Fairness, and Trustworthy AI. Applied Sciences, 12(12), 5826.
  • FURNHAM, A. & BOO, H. C. A literature review of the anchoring effect. J. Socio-Econ. 40, 35-42 (2011)
  • BUSBY, L. P., COURTIER, J. L. & GLASTONBURY, C. M. Bias in radiology: the how and why of misses and misinterpretations. Radiographics 38, 236-247 (2018).
  • VICENTE, L., MATUTE, H. Humans inherit artifi cial intelligence biases. Sci Rep 13, 15737 (2023). Available at https://doi.org/10.1038/s41598-023-42384-8
  • VICENTE, L., MATUTE, H. Humans inherit artifi cial intelligence biases. Sci Rep 13, 15737 (2023). https://doi.org/10.1038/s41598-023-42384-8
  • ARAUJO, T., HELBERGER, N., KRUIKEMEIER, S. & de VREESE, C. H. In AI we trust? Perceptions about automated decision-making by artifi cial intelligence. AI Soc. 35, 611-623 (2020).
  • BAUDEL, T., VERBOCKHAVEN, M., ROY, G., COUSERGUE, V. & LAARACH, R. Addressing Cognitive Biases in Augmented Business Decision Systems.
  • CATH, C., WACHTER, S., MITTELSTADT, B., TADDEO, M., & FLORIDI, L. (2018). Artifi cial intelligence and the ‘good society’: the US, EU, and UK approach. Science and engineering ethics, 24, 505-528
  • ZANCA, F., BRUSASCO, C., PESAPANE, F., KWADE, Z., BECKERS, R., & AVANZO, M. (2022, October). Regulatory aspects of the use of artifi cial intelligence medical software. In Seminars in Radiation Oncology (Vol. 32, No. 4, pp. 432-441). WB Saunders
  • BYGRAVE, L. A. (2017). Data protection by design and by default: deciphering the EU’s legislative requirements. Oslo Law Review, 4(2), 105-120.
  • CALVI, A., & KOTZINOS, D. (2023, June). Enhancing AI fairness through impact assessment in the European Union: a legal and computer science perspective. In Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (pp. 1229-1245).
  • MÖKANDER, J., AXENTE, M., CASOLARI, F., & FLORIDI, L. (2022). Conformity assessments and post-market monitoring: a guide to the role of auditing in the proposed European AI regulation. Minds and Machines, 32(2), 241-268.
  • BECKERS, R., KWADE, Z., & ZANCA, F. (2021). The EU medical device regulation: Implications for artifi cial intelligence-based medical device software in medical physics. Physica Medica, 83, 1-8.