中文Mixtral混合专家大模型(Chinese Mixtral MoE LLMs)
地址:github.com/ymcui/Chinese-Mixtral
本项目基于Mistral.ai发布的Mixtral模型进行开发,该模型使用了稀疏混合专家模型(Sparse MoE)架构。本项目利用大规模中文无标注数据进行了中文增量训练,得到了中文Mixtral基础模型,并且进一步通过指令精调,得到了中文Mixtral-Instruct指令模型。该模型原生支持32K上下文(实测可达128K),能够有效地处理长文本,同时在数学推理、代码生成等方面获得了显著性能提升。使用llama.cpp进行量化推理时,最低只需16G内存(或显存)。
项目主要内容
Alchemy Emperor Of The Divine Dao Chapter 1698 - The Empress moves, 92 holes!
2024-09-01Absolute Resonance Chapter 0826: Qin Zhiming
2024-03-03Martial God Asura Chapter 1936 - The Dangerous Woman
2024-05-20