电话

17709168119

Llama 2 高调开源大模型微调我已经上手了(附99个大模型微调模型数据工具)!

2024-01-16

  Llama 2 高调开源大模型微调我已经上手了(附99个大模型微调模型数据工具)!最近出现了一系列令人激动的开源大语言模型,如meta的LLaMA、清华的ChatGLM等。伴随大模型一起爆火的,还有大模型的微调方法。然而随着模型规模和任务数量的增加,对整个Transformer模型进行微调也变得越来越昂贵。因此,参数高效微调方法(Parameter-Efficient Fine-Tuning,PEFT) 方法被提出来解决这类问题。

  我们邀请了清华大学博士,AI顶会审稿人青山老师为大家带来——惊艳的大模型高效参数微调法!来和大家聊一聊有关大模型微调的方法、未来趋势及创新点!

  ▪️研究领域:工业故障诊断、医学图像分割、医学多模态问答、不平衡学习、小样本学习、开集学习和可解释性深度学习等。

  Prefix-tuning和P-tuning通过引导模型生成过程,使模型能够更准确地满足任务需求。

  Low-Rank Adaptation(LoRA)通过低秩近似减少模型参数量,提高模型的效率和部署可行性开云网址·(中国)官方网站。

  REcurrent ADaption(READ)在保持较高质量模型微调效果的同时开云网址·(中国)官方网站,可以节省56%的训练显存消耗和84%的GPU使用量。

  Prefix/Prompt-Tuning :在模型的输入或隐层添加 k 个额外可训练的前缀 tokens(这些前缀是连续的伪 tokens开云网址·(中国)官方网站,不对应真实的 tokens),只训练这些前缀参数;

  Adapter-Tuning :将较小的神经网络层或模块插入预训练模型的每一层,这些新插入的神经模块称为 adapter(适配器),下游任务微调时也只训练这些适配器参数;

  LoRA :通过学习小参数的低秩矩阵来近似模型权重矩阵 W 的参数更新,训练时只优化低秩矩阵参数。

  为了论文,大家都在努力地设计新网络、新策略、新training算法,只要能够在某一问题上做到一个很好的performance,论文就水到渠成。而想要快速达到,来自前辈的指点不可或缺。

  一个好的指导老师的作用是,没有课题,能够结合所在课题组具体情况,结合最近热门研究方向,帮你规划课题,如果有了课题而缺少创新方向,老师能够快速帮你找到几种切入点,几种框架,甚至连需要读哪些文献都帮你想好了......

  小沃整理了沃恩智慧联合创始人Paul老师的精品系列付费课程,原价3999元,现0元免费领,包含计算机领域各方向热点内容及论文写作技巧干货!