Mitigating style-image hallucination in large vision language models

LLMs are widely applied across various domains, yet a significant challenge remains—their performance deteriorates sharply in out-of-domain scenarios, often leading to increased hallucinations. Despite its importance, this phenomenon has received limited attention in academic research. To address th...

وصف كامل

محفوظ في:
التفاصيل البيبلوغرافية
المؤلف الرئيسي: He, Guoshun
مؤلفون آخرون: Alex Chichung Kot
التنسيق: Thesis-Master by Coursework
اللغة:English
منشور في: Nanyang Technological University 2025
الموضوعات:
الوصول للمادة أونلاين:https://hdl.handle.net/10356/182918
الوسوم: إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!
المؤسسة: Nanyang Technological University
اللغة: English