An efficient sparse LSTM accelerator on embedded FPGAs with bandwidth-oriented pruning
Long short-term memory (LSTM) networks have been widely used in natural language processing applications. Although over 80% weights can be pruned to reduce the memory requirement with little accuracy loss, the pruned model still cannot be buffered on-chip for small embedded FPGAs. Considering that w...
محفوظ في:
المؤلفون الرئيسيون: | Li, Shiqing, Zhu, Shien, Luo, Xiangzhong, Luo, Tao, Liu, Weichen |
---|---|
مؤلفون آخرون: | School of Computer Science and Engineering |
التنسيق: | Conference or Workshop Item |
اللغة: | English |
منشور في: |
2023
|
الموضوعات: | |
الوصول للمادة أونلاين: | https://hdl.handle.net/10356/172603 |
الوسوم: |
إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!
|
المؤسسة: | Nanyang Technological University |
اللغة: | English |
مواد مشابهة
-
An efficient gustavson-based sparse matrix-matrix multiplication accelerator on embedded FPGAs
بواسطة: Li, Shiqing, وآخرون
منشور في: (2023) -
Accelerating sparse matrix operations on FPGAs with on/off-chip memories
بواسطة: Li, Shiqing
منشور في: (2023) -
Accelerating gustavson-based SpMM on embedded FPGAs with element-wise parallelism and access pattern-aware caches
بواسطة: Li, Shiqing, وآخرون
منشور في: (2023) -
Crossbar-aligned & integer-only neural network compression for efficient in-memory acceleration
بواسطة: Huai, Shuo, وآخرون
منشور في: (2023) -
CRIMP: compact & reliable DNN inference on in-memory processing via crossbar-aligned compression and non-ideality adaptation
بواسطة: Huai, Shuo, وآخرون
منشور في: (2023)