Ziya-LLaMA-13B-Pretrain-v1
Ziya-LLaMA-13B-Pretrain-v1 是由 IDEA研究院 发布的 AI 模型,发布时间为 2023-06-01,定位为 基础大模型,参数规模约为 130.0B,上下文长度为 4K,模型文件大小约 26,采用 开源不可商用 许可。
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
Ziya-LLaMA-13B-Pretrain-v1 是基于LLaMa的130亿参数大规模预训练模型,针对中文分词优化,并完成了中英文 110B tokens 的增量预训练,进一步提升了中文生成和理解能力。目前姜子牙通用大模型 Ziya-LLaMA-13B-v1 在本模型上,进一步完成了多任务有监督微调和人类反馈学习阶段的训练过程,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
