Back_To_Home..

Llm

国内大模型团队

智谱-清华GLM

https://github.com/THUDM/GLM-4

复旦大学-MOSS

https://moss.fastnlp.top/

面壁-清华OpenBMB

https://github.com/OpenBMB/XAgent

阿里Qwen与通义千问

DeepSeek

百度-文心一言

字节跳动-云雀模型与豆包

腾讯-混元模型

开源的大模型

  1. ChatGLM-6b:由清华大学开发,是一个开源的、支持中英双语的对话语言模型,基于GLM架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署,针对中文问答和对话进行了优化。开源地址:https://github.com/thudm/chatglm-6b
  2. 悟道·天鹰(aquila):智源人工智能研究院的语言大模型,是首个具备中英双语知识、支持商用许可协议、满足国内数据合规需求的开源语言大模型。其源代码基于apache2.0协议,模型权重基于《智源aquila系列模型许可协议》。开源地址:https://github.com/flagai-open/flagai/tree/master/examples/aquila
  3. 书生·浦语(internlm):上海人工智能实验室在过万亿token数据上训练的多语千亿参数基座模型。通过多阶段的渐进式训练,基座模型具有较高的知识水平,在中英文阅读理解、推理任务等需要较强思维能力的场景下性能优秀。开源地址:https://github.com/internlm/internlm
  4. baichuan-7b:由百川智能开发的开源可商用的大规模预训练语言模型,基于transformer结构,在大约1.2万亿tokens上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096,在标准的中文和英文benchmark(c-eval/mmlu)上均取得同尺寸最好的效果。开源地址:https://github.com/baichuan-inc/baichuan-7b
  5. chatlaw法律大模型:由北京大学开发,目前开源的仅供学术参考的版本底座为姜子牙-13b、anima-33b,使用大量法律新闻、法律论坛、法条、司法解释、法律咨询、法考题、判决文书等原始文本来构造对话数据。开源地址:https://github.com/pku-yuangroup/chatlaw
  6. 本草大预言模型:哈尔滨工业大学经过中文医学指令精调/指令微调(instruct - tuning)的llama - 7b模型,通过医学知识图谱和GPT3.5 API构建了中文医学指令数据集,并在此基础上对llama进行了指令微调,提高了llama在医疗领域的问答效果。开源地址:https://github.com/scir-hi/huatuo-llama-med-chinese
  7. cpm - bee - 10b:openbmb开源社区由清华大学自然语言处理实验室和智源研究院语言大模型加速技术创新中心共同支持发起。开源地址:http://mp.weixin.qq.com/s?__biz=Mzg5Njc0NTI5Mw==&mid=2247484930&idx=1&sn=4dcdaaf46175f13d6e4d26894f66b0bf&scene=0

微调大模型

选择开源项目与模型

准备工作

微调操作

模型评估与保存

部署与应用

© 2025 ai-charlie   •  Powered by Soopr   •  Theme  Moonwalk