CRIMP: compact & reliable DNN inference on in-memory processing via crossbar-aligned compression and non-ideality adaptation
Crossbar-based In-Memory Processing (IMP) accelerators have been widely adopted to achieve high-speed and low-power computing, especially for deep neural network (DNN) models with numerous weights and high computational complexity. However, the floating-point (FP) arithmetic is not compatible with c...
محفوظ في:
المؤلفون الرئيسيون: | Huai, Shuo, Kong, Hao, Luo, Xiangzhong, Li, Shiqing, Subramaniam, Ravi, Makaya, Christian, Lin, Qian, Liu, Weichen |
---|---|
مؤلفون آخرون: | School of Computer Science and Engineering |
التنسيق: | مقال |
اللغة: | English |
منشور في: |
2023
|
الموضوعات: | |
الوصول للمادة أونلاين: | https://hdl.handle.net/10356/171633 |
الوسوم: |
إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!
|
المؤسسة: | Nanyang Technological University |
اللغة: | English |
مواد مشابهة
-
Crossbar-aligned & integer-only neural network compression for efficient in-memory acceleration
بواسطة: Huai, Shuo, وآخرون
منشور في: (2023) -
EdgeCompress: coupling multi-dimensional model compression and dynamic inference for EdgeAI
بواسطة: Kong, Hao, وآخرون
منشور في: (2023) -
Latency-constrained DNN architecture learning for edge systems using zerorized batch normalization
بواسطة: Huai, Shuo, وآخرون
منشور في: (2023) -
Self crimped and aligned fibers
بواسطة: Senthilram, T., وآخرون
منشور في: (2014) -
An efficient sparse LSTM accelerator on embedded FPGAs with bandwidth-oriented pruning
بواسطة: Li, Shiqing, وآخرون
منشور في: (2023)