Fired neuron rate based decision tree for detection of adversarial examples in DNNs
Deep neural network (DNN) is a prevalent machine learning solution to computer vision problems. The most criticized vulnerability of deep learning is its susceptibility towards adversarial images crafted by maliciously adding infinitesimal distortions to the benign inputs. Such negatives can fool a...
محفوظ في:
المؤلفون الرئيسيون: | Wang, Si, Liu, Wenye, Chang, Chip-Hong |
---|---|
مؤلفون آخرون: | School of Electrical and Electronic Engineering |
التنسيق: | Conference or Workshop Item |
اللغة: | English |
منشور في: |
2020
|
الموضوعات: | |
الوصول للمادة أونلاين: | https://hdl.handle.net/10356/144346 https://doi.org/10.21979/N9/YPY0EB |
الوسوم: |
إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!
|
المؤسسة: | Nanyang Technological University |
اللغة: | English |
مواد مشابهة
-
Detecting adversarial examples for deep neural networks via layer directed discriminative noise injection
بواسطة: Wang, Si, وآخرون
منشور في: (2020) -
Targeted universal adversarial examples for remote sensing
بواسطة: Bai, Tao, وآخرون
منشور في: (2023) -
A new lightweight in-situ adversarial sample detector for edge deep neural network
بواسطة: Wang, Si, وآخرون
منشور في: (2021) -
Harnessing input gradients for generating unrestricted adversarial examples in remote sensing
بواسطة: Fan, Wei
منشور في: (2025) -
Privacy Risks of Securing Machine Learning Models against Adversarial Examples
بواسطة: Liwei Song, وآخرون
منشور في: (2020)