Deep multimodal learning for affective analysis and retrieval
Social media has been a convenient platform for voicing opinions through posting messages, ranging from tweeting a short text to uploading a media file, or any combination of messages. Understanding the perceived emotions inherently underlying these user-generated contents (UGC) could bring light to...
محفوظ في:
المؤلفون الرئيسيون: | PANG, Lei, ZHU, Shiai, NGO, Chong-wah |
---|---|
التنسيق: | text |
اللغة: | English |
منشور في: |
Institutional Knowledge at Singapore Management University
2015
|
الموضوعات: | |
الوصول للمادة أونلاين: | https://ink.library.smu.edu.sg/sis_research/6356 https://ink.library.smu.edu.sg/context/sis_research/article/7359/viewcontent/deep_multimodal_emotion_pl.pdf |
الوسوم: |
إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!
|
المؤسسة: | Singapore Management University |
اللغة: | English |
مواد مشابهة
-
Multimodal learning with deep Boltzmann Machine for emotion prediction in user generated videos
بواسطة: PANG, Lei, وآخرون
منشور في: (2015) -
Cross-modal recipe retrieval with stacked attention model
بواسطة: CHEN, Jing-Jing, وآخرون
منشور في: (2018) -
Cross-modal recipe retrieval: How to cook this dish?
بواسطة: CHEN, Jingjing, وآخرون
منشور في: (2017) -
Efficient cross-modal video retrieval with meta-optimized frames
بواسطة: HAN, Ning, وآخرون
منشور في: (2024) -
Deep understanding of cooking procedure for cross-modal recipe retrieval
بواسطة: CHEN, Jingjing, وآخرون
منشور في: (2018)