Improving neural networks sturdiness through a data-augmentation generated by adversarial attacks
González Torregrosa, Guim
Baldrich i Caselles, Ramon, dir. (Universitat Autònoma de Barcelona. Departament de Ciències de la Computació)
Universitat Autònoma de Barcelona. Escola d'Enginyeria

Títol variant: Mejorar la solidez de las redes neuronales a través de un aumento de datos generado por ataques adversarios
Títol variant: Millorar la robustesa de les xarxes neuronals mitjançant un augment de dades generat per atacs adversaris
Data: 2021
Resum: El propósito de este artículo es analizar qué son los ataques adversarios a las redes neuronales y si las redes pueden aprovechar estos ataques para obtener más datos de entrenamiento, aumentando la precisión y robustez de sus predicciones ante futuros ataques. También veremos si una entrada generada por un ataque a una red funciona en otras redes similares. Para ello, se han generado más de 30 ataques adversarios y se probarán contra 3 arquitecturas de red diferentes. Una de las redes se volverá a entrenar con estos ataques y finalmente se probará para ver si estos ataques funcionan como aumento de datos y también si aumenta la robustez de la red. Lo que veremos es que un ataque generado en una red A no funciona en otra red B. Este ataque confunde a la red B y la predicción obtenida es aleatoria pero no determinada. También veremos que los ataques adversarios se pueden utilizar como estrategias de aumento de datos y que las redes no se dejan engañar por el mismo tipo de ataques después de un paso de reentrenamiento. El último experimento nos mostrará que no hay un aumento de tiempo significativo en la ejecución de los ataques en una red reentrenada.
Resum: The purpose of this article is to analyze what adversarial attacks on neural networks are and whether networks can take advantage of these attacks to obtain more training data, increasing their predictions accuracy and robustness to future attacks. We will also found if one input generated by an attack on one network works on other similar networks. To do so, more than 30 adversarial attacks had been generated and will be tasted against 3 different network architectures. On of the networks will be re trained with this attacks and finally tested to see if this attacks work as data augmentation and also if the network sturdiness increases. What we will see is that one attack generated on a network A does not work on some other network B. This attack confuses network B and the prediction obtained is random but not determined. We will also see that adversarial attacks can be used as data augmentation strategies and that the networks are not fooled by the same kind of attacks after a re-train step. The last experiment will show us that there is no significant time increase in the execution of the attacks on a re-trained network.
Resum: El propòsit d'aquest article és analitzar què són els atacs adversaris a les xarxes neuronals i si les xarxes poden aprofitar aquests atacs per obtenir més dades d'entrenament, augmentant la precisió i robustesa de les seves prediccions davant futurs atacs. També veurem si una entrada generada per un atac a una xarxa funciona en altres xarxes similars. Per a això, s'han generat més de 30 atacs adversaris i es provaran contra 3 arquitectures de xarxa diferents. Una de les xarxes es tornarà a entrenar amb aquests atacs i finalment es provarà per veure si aquests atacs funcionen com augment de dades i també si augmenta la robustesa de la xarxa. El que veurem és que un atac generat en una xarxa A no funciona en una altra xarxa B. Aquest atac confon la xarxa B i la predicció obtinguda és aleatòria però no determinada. També veurem que els atacs adversaris es poden utilitzar com a estratègies d'augment de dades i que les xarxes no es deixen enganyar pel mateix tipus d'atacs després d'un pas de reentrenament. L'últim experiment ens mostrarà que no hi ha un augment de temps significatiu en l'execució dels atacs en una xarxa reentrenada.
Drets: Aquest document està subjecte a una llicència d'ús Creative Commons. Es permet la reproducció total o parcial, la distribució, i la comunicació pública de l'obra, sempre que no sigui amb finalitats comercials, i sempre que es reconegui l'autoria de l'obra original. No es permet la creació d'obres derivades. Creative Commons
Llengua: Anglès
Titulació: Grau en Enginyeria Informàtica [2502441]
Pla d'estudis: Enginyeria Informàtica [958]
Document: Treball final de grau ; Text
Àrea temàtica: Menció Computació
Matèria: Redes neuronales ; Ataques adversarios ; Aumento de datos ; Deep learning ; Clasificación de imágenes ; Neural networks ; Adversarial attack ; Data augmentation ; Image classification ; Xarxes neuronals ; Atacs adversaris ; Augment de dades ; Classificació d'imatges



11 p, 4.7 MB

El registre apareix a les col·leccions:
Documents de recerca > Treballs de Fi de Grau > Escola d'Enginyeria. TFG

 Registre creat el 2021-04-09, darrera modificació el 2023-07-22



   Favorit i Compartir