是否有计划释放更长的context比如200K+?
#7
by
william0014
- opened
感谢千问团队的贡献, qwen确实是一个好的LLM, 不过请问是否有计划放出更长的上下文支持, 因为在实际的agent开发中, 用户要处理一个复杂reflection任务,需要多轮交互时, 长的上下文会对最后的结果产生重大影响.
感谢千问团队的贡献, qwen确实是一个好的LLM, 不过请问是否有计划放出更长的上下文支持, 因为在实际的agent开发中, 用户要处理一个复杂reflection任务,需要多轮交互时, 长的上下文会对最后的结果产生重大影响.