Skip to content

关于llava_med stage1模态对齐部分 #7

@warmbreeze92

Description

@warmbreeze92

请问您在微调llava模型时是直接使用了stage2的60k指令微调数据吗,有没有进行过stage1的微调工作?我在使用llamafactory在您发布的60k_zh进行lora微调时出现loss始终不收敛的问题,不知道您有什么看法?
此外,不知道您这边有没有保留stage1的模态对齐数据,有的话能不能分享一份,原始数据的pmc文章数量和下载速度太让人绝望了 X﹏X

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions