平台上各文生文模型的上下文长度具有一定的限制,如下:

模型 最大上下文长度/tokens 默认输出长度/tokens 最大输出长度/tokens

DeepSeek-R1

64K

8K

16K

DeepSeek-V3

64K

1K

16K

QwQ-32B

32K

4K

8K

DeepSeek-R1-Distill-Qwen-32B

32K

4K

8K

DeepSeek-R1-Distill-Qwen-14B

32K

4K

8K

DeepSeek-R1-Distill-Llama-8B

32K

4K

8K

DeepSeek-R1-Distill-Qwen-7B

32K

4K

8K

DeepSeek-R1-Distill-Qwen-1.5B

32K

4K

8K

Qwen2-0.5B-Instruct

4K

1K

3K