Prompt sensitivity of transformer variants for text classification
This study investigates the sensitivity of various Transformer model architectures, encoder-only (BERT), decoder-only (GPT-2), and encoder-decoder (T5), in response to various types of prompt modifications on text classification tasks. By leveraging a fine-tuning approach, the models were evaluated...
محفوظ في:
المؤلف الرئيسي: | Ong, Li Han |
---|---|
مؤلفون آخرون: | Wang Wenya |
التنسيق: | Final Year Project |
اللغة: | English |
منشور في: |
Nanyang Technological University
2024
|
الموضوعات: | |
الوصول للمادة أونلاين: | https://hdl.handle.net/10356/181519 |
الوسوم: |
إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!
|
المؤسسة: | Nanyang Technological University |
اللغة: | English |
مواد مشابهة
-
ClusterPrompt: Cluster semantic enhanced prompt learning for new intent discovery
بواسطة: LIANG, Jinggui, وآخرون
منشور في: (2023) -
Deep learning techniques for hate speech detection
بواسطة: Teng, Yen Fong
منشور في: (2024) -
TrueGPT: can you privately extract algorithms from ChatGPT in tabular classification?
بواسطة: Soegeng, Hans Farrell
منشور في: (2024) -
Generative AI and education
بواسطة: Chieng, Shannon Shuen Ern
منشور في: (2024) -
Cost-sensitive online classification
بواسطة: WANG, Jialei, وآخرون
منشور في: (2012)