Qwen 3.6 27B 模型登陆 Ollama
来源:X/Twitter 推文
作者:@Alibaba_Qwen
抓取时间:2026-04-25
Available on @ollama ! 🤝🤝
已在 @ollama 上线!🤝🤝
社区评论摘录
- @ollama:🤝🤝🤝。❤️❤️❤️❤️❤️❤️
- @aias_0:本地部署很简单。你真正的瓶颈是消费级 GPU 上的 KV 缓存驱逐(KV cache eviction)。
- @JJDizz1L:我们需要 Qwen-code-3.6 能跑在 16GB 显存上,这才是真正的胜利。世界上大多数 GPU 还是 16GB。
- @lunafire_x:我的 unsloth qwen 3.6: 27b at q4 在我的 langgraph 深度研究 Agent 里思考时间太长了。怎么解决这个问题?我用的是 llama cpp 默认设置。
- @ZenoAIKnows:本地 Qwen + 一个知道何时切换 Claude 的路由器 = 完美组合。这就是我们保持 stack 快速且廉价的方式。