Byzantine-resilient decentralized stochastic gradient descent
Decentralized learning has gained great popularity to improve learning efficiency and preserve data privacy. Each computing node makes equal contribution to collaboratively learn a Deep Learning model. The elimination of centralized Parameter Servers (PS) can effectively address many issues such as...
محفوظ في:
المؤلفون الرئيسيون: | Guo, Shangwei, Zhang, Tianwei, Yu, Han, Xie, Xiaofei, Ma, Lei, Xiang, Tao, Liu, Yang |
---|---|
مؤلفون آخرون: | College of Computing and Data Science |
التنسيق: | مقال |
اللغة: | English |
منشور في: |
2024
|
الموضوعات: | |
الوصول للمادة أونلاين: | https://hdl.handle.net/10356/179057 |
الوسوم: |
إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!
|
مواد مشابهة
-
Byzantine-resilient decentralized stochastic gradient descent
بواسطة: GUO, Shangwei, وآخرون
منشور في: (2022) -
Efficient and privacy-preserving feature importance-based vertical federated learning
بواسطة: Li, Anran, وآخرون
منشور في: (2024) -
Securing federated learning: a covert communication-based approach
بواسطة: Xie, Yuan-Ai, وآخرون
منشور في: (2024) -
Privacy-preserving Byzantine-robust federated learning via blockchain systems
بواسطة: MIAO, Yinbin, وآخرون
منشور في: (2022) -
Practical attribute reconstruction attack against federated learning
بواسطة: Chen, Chen, وآخرون
منشور في: (2024)