iMAT: energy-efficient in-memory acceleration for ternary neural networks with sparse dot product
Ternary Neural Networks (TNNs) achieve an excellent trade-off between model size, speed, and accuracy, quantizing weights and activations into ternary values {+1, 0, -1}. The ternary multiplication operations in TNNs equal light-weight bitwise operations, favorably in In-Memory Computing (IMC) platf...
محفوظ في:
المؤلفون الرئيسيون: | Zhu, Shien, Huai, Shuo, Xiong, Guochu, Liu, Weichen |
---|---|
مؤلفون آخرون: | School of Computer Science and Engineering |
التنسيق: | Conference or Workshop Item |
اللغة: | English |
منشور في: |
2023
|
الموضوعات: | |
الوصول للمادة أونلاين: | https://hdl.handle.net/10356/170218 |
الوسوم: |
إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!
|
مواد مشابهة
-
FAT: an in-memory accelerator with fast addition for ternary weight neural networks
بواسطة: Zhu, Shien, وآخرون
منشور في: (2022) -
Structured sparse representations for supervised and unsupervised learning
بواسطة: Zeng, Yijie
منشور في: (2020) -
An efficient gustavson-based sparse matrix-matrix multiplication accelerator on embedded FPGAs
بواسطة: Li, Shiqing, وآخرون
منشور في: (2023) -
Development of an online secured examination system
بواسطة: Lee, Wei Jie
منشور في: (2024) -
Sparse visual signal representations and selected applications
بواسطة: Hung, Tzu-Yi
منشور في: (2015)