模型与实验室 4.0 · 优秀 2026-04-23 · X

Qwen 3.6 27B 模型登陆 Ollama

Qwen 3.6 27B 参数模型已在 Ollama 平台上线,同时支持 OpenClaw(openclaw launch openclaw --model qwen3.6:27b)和 Claude Code(ollama launch claude --model qwen3.6:27b)等主流 Agent 工具。这是 Qwen 系列在开源本地部署方向的又一次推进,配合 Ollama 的生态,在消费级硬件上跑起来相对轻松。对于需要本地部署开源模型做私有化工作的团队,这是一个值得测试的新选项。

打开原文回到归档

Qwen 3.6 27B 模型登陆 Ollama

来源X/Twitter 推文
作者:@Alibaba_Qwen
抓取时间:2026-04-25

Available on @ollama ! 🤝🤝

已在 @ollama 上线!🤝🤝

社区评论摘录

  • @ollama:🤝🤝🤝。❤️❤️❤️❤️❤️❤️
  • @aias_0:本地部署很简单。你真正的瓶颈是消费级 GPU 上的 KV 缓存驱逐(KV cache eviction)。
  • @JJDizz1L:我们需要 Qwen-code-3.6 能跑在 16GB 显存上,这才是真正的胜利。世界上大多数 GPU 还是 16GB。
  • @lunafire_x:我的 unsloth qwen 3.6: 27b at q4 在我的 langgraph 深度研究 Agent 里思考时间太长了。怎么解决这个问题?我用的是 llama cpp 默认设置。
  • @ZenoAIKnows:本地 Qwen + 一个知道何时切换 Claude 的路由器 = 完美组合。这就是我们保持 stack 快速且廉价的方式。