交错思维链
简单来说就是在模型完成思考之后会将思维链的思考内容也传过去,那这样会不会造成上下文的爆炸呢?
交错思考就是发请求的时候把reasoning_content回传,而不是丢掉
其实并不会。
当每轮的工具调用结束之后,就丢掉这一部分思考的内容。
为什么要这样做呢
现在的LLM编程,它会先生成一个todolist,然后按照这个todolist一步一步的做下去。
如果把todolist放到上下文里面,那么是有点占上下文的。那不妨把这些todolist加到思考链里面去,工具调用之后就丢掉了。
模型支持情况
- DeepSeek V3.2:支持交错思维链回传
- Gemini 3:也支持,但是它的思维链回传是加密的,就是所谓的”思考签名”
一个想法
也许可以在Claude Code调用Gemini模型的时候,找一个中继,让Claude Code连这个中继,把请求内容缓存下来,Claude Code发请求的时候把思考签名补上。