Broadening the Horizon of Adversarial Attacks in Deep Learning

  1. VADILLO JUEGUEN, JON
Dirigida por:
  1. Roberto Santana Hermida Director/a
  2. José Antonio Lozano Alonso Director/a

Universidad de defensa: Universidad del País Vasco - Euskal Herriko Unibertsitatea

Fecha de defensa: 13 de enero de 2023

Departamento:
  1. Ciencia de la Computación e Inteligencia Artificial

Tipo: Tesis

Teseo: 787220 DIALNET lock_openADDI editor

Resumen

Los modelos de Aprendizaje Automático como las Redes Neuronales Profundas son actualmente elnúcleo de una amplia gama de tecnologías aplicadas en tareas críticas, como el reconocimiento facial o laconducción autónoma, en las que tanto la capacidad predictiva como la fiabilidad son requisitosfundamentales. Sin embargo, estos modelos pueden ser fácilmente engañados por inputs manipulados deforma imperceptible para el ser humano, denominados ejemplos adversos (adversarial examples), lo queimplica una brecha de seguridad que puede ser explotada por un atacante con fines ilícitos. Dado queestas vulnerabilidades afectan directamente a la integridad y fiabilidad de múltiples sistemas que,progresivamente, están siendo desplegados en aplicaciones del mundo real, es crucial determinar elalcance de dichas vulnerabilidades para poder garantizar así un uso más responsable, informado y segurode esos sistemas. Por estos motivos, esta tesis doctoral tiene como objetivo principal investigar nuevasnociones de ataques adversos y vulnerabilidades en las Redes Neuronales Profundas. Como resultado deesta investigación, a lo largo de esta tesis se exponen nuevos paradigmas de ataque que exceden oamplían las capacidades de los métodos actualmente disponibles en la literatura, ya que son capaces dealcanzar objetivos más generales, complejos o ambiciosos. Al mismo tiempo, se exponen nuevas brechasde seguridad en casos de uso y escenarios en los que las consecuencias de los ataques adversos no habíansido investigadas con anterioridad. Nuestro trabajo también arroja luz sobre diferentes propiedades deestos modelos que los hacen más vulnerables a los ataques adversos, contribuyendo a una mejorcomprensión de estos fenómenos.