Multi-task gradient descent for multi-task learning
Multi-Task Learning (MTL) aims to simultaneously solve a group of related learning tasks by leveraging the salutary knowledge memes contained in the multiple tasks to improve the generalization performance. Many prevalent approaches focus on designing a sophisticated cost function, which integrates...
محفوظ في:
المؤلفون الرئيسيون: | Bai, Lu, Ong, Yew-Soon, He, Tiantian, Gupta, Abhishek |
---|---|
مؤلفون آخرون: | School of Computer Science and Engineering |
التنسيق: | مقال |
اللغة: | English |
منشور في: |
2021
|
الموضوعات: | |
الوصول للمادة أونلاين: | https://hdl.handle.net/10356/147806 |
الوسوم: |
إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!
|
مواد مشابهة
-
Lying in pursuit evasion task with multi-agent reinforcement learning
بواسطة: Cheng, Damien Shiao Kiat
منشور في: (2022) -
Lifelong multi-agent pathfinding with online tasks
بواسطة: Tay, David Ang Peng
منشور في: (2023) -
Deep neural network compression for pixel-level vision tasks
بواسطة: He, Wei
منشور في: (2021) -
Multi-source propagation aware network clustering
بواسطة: He, Tiantian, وآخرون
منشور في: (2021) -
Synthetic word embedding generation for downstream NLP task
بواسطة: Hoang, Viet
منشور في: (2021)