1-书生浦语大模型全链路开源开放体系#
1.大模型为发展通用人工智能的重要途经
专用模型:针对特定任务解决特定问题
通用大模型:一个模型对应多模态多任务
书生·浦语大模型系列
轻量级:InternLM-7B
70亿模型参数
1000亿训练token数据
长语境能力,支持8K语境窗口长度
通用工具调用能力,多种工具调用模板
中量级:InternLM-20B
200亿模型参数,在模型能力与推理代价间取得平衡
采用深而窄的结果,降低推理计算量但提高推理能力
4K训练语境长度,推理时可外推至16K
重量级:1230亿模型参数,强大的性能
极强推理能力、全面的知识覆盖面、超级理解能力与对话能力
准确的API调用能力,可实现各类Agent
2.InterLM大模型开源历程
3.InterLM-20B性能遥遥领先
4.模型应用:智能客服、个人助手、行业应用
5.书生浦语全链条开放体系
数据:2TB数据,涵盖多种模态与任务
预训练:InternLM-Train
并行训练,极致优化速度达到3600 Tokens/sec/gpu
微调:XTuner
支持全参数微调
支持LoRA等低成本微调
部署:LMDeploy
全链路部署,性能领先
每秒生成2000+tokens
评测:OpenCompass
全方位评测,性能可复现80套评测集,40万道题目
应用:
Legent(轻量级智能体框架):搭建简单的智能体
AgentLego:支持多种智能体,支持代码解释器等多种工具
6.数据
书生万卷(文本、图像文本、视频)
文本数据:50亿个文档,数据量超1TB
图像-文本数据集:超2200万个文件,数据量超140GB
视频数据:超1000个文件,数据量超900GB
特点:
多模态融合:万卷包含文本、图像和视频等多模态数据,涵盖科技、文学、媒体、教育和法律等多个领域。该数据集对模型的知识内容、逻辑推理和泛化能力的提升有显著提升。
精细化处理:万卷经过语言筛选、文本提取、格式标准化、数据过滤和清洗(基于规则和模型)、多尺度去重和数据质量评估等精细数据处理环节,能够很好地适应后续模型训练的要求
价值观对齐:在万卷的构建过程中,研究人员注重将数据内容与主流中国价值观进行对齐,并通过算法和人工评估的结合提高语料库的纯净度。
OpenDataLab(提供智能标注工具)
7.预训练:InterLM-Train(全面)
高可扩展:支持从8卡到千卡训练,千卡加速效率达92%。
极致性能优化:Hybrid Zero独特技术+极致优化,加速50%
兼容主流:无缝接入HuggingFace等技术生态,支持各类轻量化技术
开箱即用:支持多种规格语言模型,修改配置即可训练
8.微调:XTuner(高兼容)
增量续训
使用场景:让基座模型学习到一些新知识,如某个垂类领域知识
训练数据:文章、书籍、代码等
有监督微调
使用场景:让模型学会理解和遵循各种指令,或者注入少量领域知识
训练数据:高质量对话、问答数据
部分参数微调LoRA:固定已有参数,加入新参数进行微调。
极致的显存优化8GB显卡(2080、4060)-7GB模型微调
9.测评:OpenCompass
全球领先、全面体系
平台架构
特点:丰富模型支持、丰富的API、分布式评测能力、便捷的数据集接口构建自己的数据集、快速迭代、用户遍布。
10.部署
大语言模型特点
内存开销巨大
庞大的参数量
采用自回归生成token,需要缓存k/v
动态Shaps
请求数不固定
token逐个生成,且数量不定
模型结构相对简单
transformer结构,大部分是decoder-only
技术挑战
设备
低存储设备:消费级显卡、移动端等如何部署?
推理
如何加速token的生成速度
如何解决动态shape,让推理可以不间断
如何有效管理和利用内存
服务
提升系统整体吞吐量
降低请求的平均响应时间
部署方案
技术点
模型并行
低比特量化
Atterntion优化
计算和访存优化
Continuous Batching
挑战
为解决上述挑战,开源LMDeploy
推理性能遥遥领先
11.智能体应用
大模型驱动智能体
智能体以大模型为核心,进行调用、规划、推理和执行。
轻量级智能体框架Lagent
例子
多模态智能体工具箱AgentLego
多模态智能体工具箱AgentLego
丰富的工具集合,尤其是提供了大量视觉、多模态相关领域的前沿算法功能
支持多个主流智能体系统,如LangChain,Transformers Agent,Lagent等
灵活的多模态工具调用接口,可以轻松支持各类输入输出格式的工具函数
一键式远程工具部署,轻松使用和调试大模型智能体