选型速查
原则:不是最贵的模型最好,而是最匹配场景的模型最好。
| 你的需求 | 推荐模型 | 理由 |
|---|---|---|
| 日常对话、写作 | doubao-seed-1.6 | 全能型,性价比最高 |
| 数学、编程、逻辑推理 | doubao-seed-1.6-thinking | 深度思考,超越 DeepSeek-R1 |
| 实时客服、快速问答 | doubao-seed-1.6-flash | 10ms 级响应 |
| 图片理解、多模态 | doubao-seed-1.6-vision | 视觉+语言双能力 |
| 低成本大批量 | doubao-seed-1.6-lite | 成本降低 53% |
| 编程专用 | doubao-seed-code | 原生 256K 上下文 |
| 文本嵌入/检索 | doubao-embedding-large | 向量化 |
| 图像生成 | doubao-seedream-4.0 | 文生图 |
| 视频生成 | doubao-seedance-1.0-pro | 文/图生视频 |
模型全景图
Seed 1.6 系列(2025.06 发布,当前主力)
中国首个支持 256K 上下文的思考模型系列。doubao-seed-1.6 — 全能 All-in-One
doubao-seed-1.6 — 全能 All-in-One
定位: 综合能力最强的通用模型核心特点:
- 独创三种思考模式:思考 / 非思考 / 自适应思考
- 256K 上下文,最大输入 224K
- 支持 Function Calling、MCP 协议
| 参数 | 值 |
|---|---|
| 最大上下文 | 256K |
| 最大输入 | 224K |
| 最大输出 | 16K(默认 4K) |
| 思考链长度 | 32K |
doubao-seed-1.6-thinking — 深度思考
doubao-seed-1.6-thinking — 深度思考
定位: 编程、数学、逻辑推理增强版核心特点:
- 深度思考能力突破性提升
- 支持 4 档思考长度调节(minimal/low/medium/high)
- 新增视觉理解能力
- 深度推理测评超越 DeepSeek-R1
doubao-seed-1.6-flash — 极速版
doubao-seed-1.6-flash — 极速版
定位: 超低延迟,适合实时场景核心特点:
- TPOT(首 Token 响应时间)低于 10ms
- 性能接近标准版,速度快数倍
doubao-seed-1.6-vision — 多模态视觉
doubao-seed-1.6-vision — 多模态视觉
定位: 图片理解 + 语言能力核心特点:
- 支持图片输入(任意分辨率)
- 工具调用能力,成本较上代降低 50%
- 256K 上下文
doubao-seed-1.6-lite — 轻量版
doubao-seed-1.6-lite — 轻量版
定位: 高性价比选择核心特点:
- 综合成本较 1.5 Pro 降低 53.3%
- 支持多模态深度思考
- 256K 上下文
专项模型
| 模型 | 类型 | 说明 |
|---|---|---|
| doubao-seed-code | 编程 | 原生 256K 上下文,支持视觉理解代码截图 |
| doubao-seed-translation | 翻译 | 翻译专用模型 |
| doubao-seedream-4.0 | 图像生成 | 文生图、图编辑 |
| doubao-seedance-1.0-pro | 视频生成 | 1080P 多镜头 |
| doubao-seedance-1.0-lite | 视频生成 | 轻量快速版 |
| doubao-seed3d-1.0 | 3D 生成 | 3D 内容生成 |
| doubao-embedding-large | 向量 | 文本嵌入 |
| doubao-embedding-vision | 向量 | 多模态嵌入 |
经典版本(仍可使用)
| 模型 | 上下文 | 适用场景 |
|---|---|---|
| doubao-pro-32k/128k/256k | 32K-256K | 通用任务 |
| doubao-lite-32k/128k | 32K-128K | 低成本任务 |
| doubao-1.5-pro-32k/256k | 32K-256K | 高质量通用 |
| doubao-1.5-vision-pro | 32K | 图片理解 |
即将到来
豆包大模型 2.0 预计 2026 年 2 月 14 日发布,基础模型能力和企业级 Agent 能力将大幅提升。同步发布 Seedance 2.0 和 Seedream 5.0。
技术架构
豆包大模型采用 MoE(混合专家)稀疏架构:- 总参数 200B,激活参数仅 20B(1/10)
- 用 1/7 的激活参数超越稠密模型(如 Llama 3.1-405B)
- COMET 计算通信重叠技术,训练效率提升 1.7 倍
- 超稀疏架构推理成本较标准 MoE 最高降低 83%