LLM 出力品質(LLM Output Quality)
LLM 出力品質(LLM Output Quality)は、大規模言語モデルが生成するテキストの正確性・一貫性・有用性・事実性の総合的な評価指標。高い流暢性と低い事実精度が共存するという特性から、「もっともらしいが誤った」出力(ハルシネーション)が問題となる。バグバウンティ報告の AI 生成スロップ、医療診断支援の誤情報、コード生成における潜在バグなど、出力品質の低下が実世界に深刻な影響を与えるユースケースでは特に重要な概念。
※ 自動生成 stub、要補完