使用“thu-coai/CDial-GPT_LCCC-base”提一些问题,如 “秦朝如何灭亡的?” “程序员需要具备哪些基本技能?” 回答分别是 “不 知 道 , 我 也 不 知 道” “我 也 想 知 道” 这种有点像Blandness Problem的回复,有没有在特定知识或者场景下fine-tuned 的预训练模型?