Knowledge Distillation with Relative Representations for Image Representation Learning
Relative representations allow the alignment of latent spaces which embed data in extrinsically different manners but with similar relative distances between data points. This ability to compare different latent spaces for the same input lends itself to knowledge distillation techniques. We explore...
محفوظ في:
المؤلفون الرئيسيون: | Ramos, Patrick, Alampay, Raphael, Abu, Patricia Angela R |
---|---|
التنسيق: | text |
منشور في: |
Archīum Ateneo
2023
|
الموضوعات: | |
الوصول للمادة أونلاين: | https://archium.ateneo.edu/discs-faculty-pubs/387 https://doi.org/10.1007/978-3-031-41630-9_14 |
الوسوم: |
إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!
|
المؤسسة: | Ateneo De Manila University |
مواد مشابهة
-
Computation-efficient knowledge distillation via uncertainty-aware mixup
بواسطة: Xu, Guodong, وآخرون
منشور في: (2023) -
Visual-to-EEG cross-modal knowledge distillation for continuous emotion recognition
بواسطة: Zhang, Su, وآخرون
منشور في: (2022) -
Edge-computing-based knowledge distillation and multitask learning for partial discharge recognition
بواسطة: Ji, Jinsheng, وآخرون
منشور في: (2024) -
One-class knowledge distillation for face presentation attack detection
بواسطة: Li, Zhi, وآخرون
منشور في: (2023) -
Discriminator-enhanced knowledge-distillation networks
بواسطة: Li, Zhenping, وآخرون
منشور في: (2023)