La supervisión humana de los sistemas de inteligencia artificial de alto riesgo. Aportaciones desde el Derecho Internacional Humanitario y el Derecho de la Unión Europea
-
1
Universidad del País Vasco/Euskal Herriko Unibertsitatea
info
Universidad del País Vasco/Euskal Herriko Unibertsitatea
Lejona, España
ISSN: 1697-5197
Year of publication: 2021
Issue: 42
Type: Article
More publications in: Revista electrónica de estudios internacionales (REEI)
Abstract
La automatización de decisiones por parte de sistemas de inteligencia artificial es un fenómeno creciente que abarca todos los ámbitos de la vida. La Comisión Europea, consciente de los riesgos que conlleva el uso de estas tecnologías para los derechos y libertades fundamentales, propone en su "Ley de Inteligencia Artificial" que la supervisión humana sea un requisito obligatorio para el diseño y desarrollo de las mismas. Sin embargo, la supervisión humana tiene un escaso desarrollo en el ámbito normativo europeo. Por ello, proponemos recurrir al concepto de Control Humano Significativo desarrollado en el marco del Derecho Internacional Humanitario, analizando en este articulo las aportaciones estatales, doctrinales y propuestas normativas realizadas por el Grupo de Expertos Gubernamentales de composición abierta sobre los Sistemas de Armas Autónomos Letales. Todas estas aportaciones nos permiten acercarnos desde una perspectiva novedosa al concepto de supervisión humana que propone la Comisión Europea para los sistemas de inteligencia artificial de alto riesgo. Concluimos el articulo con la búsqueda de elementos universalizables en la supervisión humana, que puedan ser aplicables a la automatización de las decisiones, independientemente del ámbito del que se trate.
Funding information
El texto ha sido elaborado gracias a la financiación de la ayuda del Programa Predoctoral de Formación de Personal Investigador No Doctor del Departamento de Educación del Gobierno Vasco.Funders
-
Gobierno Vasco
Spain
- IT 1066-16
-
Ministerio de Universidades
Spain
- FPU 16/06314
Bibliographic References
- ALMADA, M. “Human Intervention in Automated Decision-Making: Toward the Construction of Intelligence and Law, ICAIL, 2019, p. 5. 88
- EDWARDS, L., VEALE, M., “Slave to the Algorithm? Why a Right to Explanationn doi.org/10.1093/idpl/ipx005.
- HUQ, A. Z., “A Right to a Human Decision”, Virginia Law Review, vol. 106, nº 3, 2020, p. 624
- Jacquenim, Hervé (coord.), Time to reshape the digital society. 40th anniversary of the CRIDS, 1ª Edición, Bruselas: Larcier (Lefebvre Sarrut Group), 2021. pp. 407-440. JIMÉNEZ-SEGOVIA, R., “Los sistemas de armas autónomos…”, op. cit., pp. 24-25. 73
- JONES, M. L., “The Right to a Human in the Loop: Political Constructions of Computer Automation MENDOZA, I., BYGRAVE, L.A., "The Right Not to be Subject to Automated Decisions Based on Law, Springer, 2017, p. 78. 19
- METHNANI, L., et al, “Let Me Take Over: Variable Autonomy for Meaningful Human Control”, Frontiers
- OHM, P., LEHR, D., “Playing with the Data: What Legal Scholars Should Learn about Machine lawreview.law.ucdavis.edu/issues/51/2/Symposium/51-2_Lehr_Ohm.pdf.
- PETER, A., (CCW/GGE.1/2019/WP.1, 8 marzo 2019), párr. 3, p. 1.
- ROIG, A., Las garantías frente a las José María Bosch Editor, Barcelona, 2020, p. 30.
- SHERIDAN, T. B., “Human Centered Automation: Oxymoron or Common Sense?”, en IEEE, 1995 IEEE International Conference on Systems, Man and Cybernetics. Intelligent Systems for the 21st Century, IEEE, Vancouver, 1995, pp. 823-828
- TADDEO, M.R., “Trusting Digital Technologies Correctly.”, Minds and Machines, vol. 27, nº 4, p. 566.
- WAGNER, B., “Liable, but Not in Control? Ensuring Meaningful Human Agency in Automated Decision-Making Systems”, Policy & Internet, vol. 11, nº 1, 2019, p. 108, doi.org/10.1002/poi3.198.