微信扫码
添加专属顾问
我要投稿
1. **模型简介**:
- Index-1.9B系列是轻量级的语言模型。
- 包含`Index-1.9B base`、`Index-1.9B pure`、`Index-1.9B chat`和`Index-1.9B character`等模型。
- 模型已在HuggingFace和ModelScope上开源。
2. **预训练**:
- 模型在2.8T的数据上训练,涵盖中英文等多种语言。
- 数据经过清洗,包括避免偏置和去重。
- 使用SentencePiece训练BPE Tokenizer,特别针对中文进行了优化。
3. **模型架构**:
- 与主流的Decoder-Only Transformer模型一致,进行了一些调整,如更深的模型层数(36层)和Norm-Head机制。
4. **训练过程**:
- 使用AdamW优化器,两阶段训练策略(Stable和Decay阶段)。
- 训练基建使用了自研训练框架和华为昇腾910B卡。
5. **评测**:
- 使用OpenCompass框架进行评测,包括综合性选择题、理解和推理、数学和代码评测。
6. **讨论和实验**:
- 探讨了模型结构、学习率、预训练中是否加入指令等因素对模型性能的影响。
- 进行了消融实验,分析了不同组件对模型性能的贡献。
7. **对齐**:
- 通过SFT(Supervised Fine-Tuning)和DPO(Direct Preference Optimization)进一步优化模型,以符合人类偏好。
8. **角色扮演**:
- 利用RAG(Retrieval-Augmented Generation)技术,实现few-shot角色扮演定制。
9. **局限性**:
- 尽管采取了合规性检测,但模型可能存在未预料到的问题,使用时需注意潜在风险。
以上由Kimi总结,0 shot。原文档字有点小,凑合看吧。在公众号后台回复“B站”获取原文档。
//
END.
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-22
专访OpenAI首席科学家:我们离“AI自己做研究”有多远?
2026-03-21
编程选GPT-5.4,还是GPT-5.3-Codex?
2026-03-21
AI Coding前端实践后的复盘总结
2026-03-21
OpenAI 首席科学家:Codex 只是雏形,我们要造的是「全自动 AI 研究员」
2026-03-21
谷歌Stitch「氛围设计」干崩Figma 8.8%股价:十年经验,败给巨头一次更新(附实测)
2026-03-21
为什么 CLI 比 MCP 更适合 LLM
2026-03-21
渐进式披露(Progressive Disclosure):Agent 从 Demo 到企业级落地的 “救命架构”
2026-03-21
AI 编程工具怎么选?Codex 和 Claude Code 的本质区别
2026-01-24
2026-01-10
2026-01-01
2026-01-26
2026-01-09
2026-01-09
2026-01-23
2025-12-30
2026-01-14
2026-01-21
2026-03-22
2026-03-21
2026-03-20
2026-03-19
2026-03-19
2026-03-19
2026-03-18
2026-03-17