LLM hallucination study

Large Language Models (LLMs) exhibit impressive generative capabilities but often produce hallucinations—outputs that are factually incorrect, misleading, or entirely fabricated. These hallucinations pose significant challenges in high-stakes applications such as medical diagnosis, legal reaso...

وصف كامل

محفوظ في:
التفاصيل البيبلوغرافية
المؤلف الرئيسي: Potdar, Prateek Anish
مؤلفون آخرون: Jun Zhao
التنسيق: Final Year Project
اللغة:English
منشور في: Nanyang Technological University 2025
الموضوعات:
LLM
RAG
الوصول للمادة أونلاين:https://hdl.handle.net/10356/183825
الوسوم: إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!