文生文模型上下文长度限制
更新时间:2025-04-29 17:55:24
平台上各文生文模型的上下文长度具有一定的限制,如下:
模型 | 最大上下文长度/tokens | 默认输出长度/tokens | 最大输出长度/tokens |
---|---|---|---|
DeepSeek-R1 |
64K |
8K |
16K |
DeepSeek-V3 |
64K |
1K |
16K |
QwQ-32B |
32K |
4K |
8K |
DeepSeek-R1-Distill-Qwen-32B |
32K |
4K |
8K |
DeepSeek-R1-Distill-Qwen-14B |
32K |
4K |
8K |
DeepSeek-R1-Distill-Llama-8B |
32K |
4K |
8K |
DeepSeek-R1-Distill-Qwen-7B |
32K |
4K |
8K |
DeepSeek-R1-Distill-Qwen-1.5B |
32K |
4K |
8K |
Qwen2-0.5B-Instruct |
4K |
1K |
3K |