文生文模型上下文长度限制
      更新时间:2025-04-29 17:55:24
    
    
    
    
    
    
    
      
    
    
  平台上各文生文模型的上下文长度具有一定的限制,如下:
| 模型 | 最大上下文长度/tokens | 默认输出长度/tokens | 最大输出长度/tokens | 
|---|---|---|---|
| DeepSeek-R1 | 128K | 8K | 16K | 
| DeepSeek-V3 | 128K | 1K | 16K | 
| QwQ-32B | 32K | 4K | 8K | 
| DeepSeek-R1-Distill-Qwen-32B | 32K | 4K | 8K | 
| DeepSeek-R1-Distill-Qwen-14B | 32K | 4K | 8K | 
| DeepSeek-R1-Distill-Llama-8B | 32K | 4K | 8K | 
| DeepSeek-R1-Distill-Qwen-7B | 32K | 4K | 8K | 
| DeepSeek-R1-Distill-Qwen-1.5B | 32K | 4K | 8K | 
| Qwen2-0.5B-Instruct | 4K | 1K | 3K |