请问您在微调llava模型时是直接使用了stage2的60k指令微调数据吗,有没有进行过stage1的微调工作?我在使用llamafactory在您发布的60k_zh进行lora微调时出现loss始终不收敛的问题,不知道您有什么看法? 此外,不知道您这边有没有保留stage1的模态对齐数据,有的话能不能分享一份,原始数据的pmc文章数量和下载速度太让人绝望了 X﹏X