ついにローカルLLMで安心して仕事が出来る!― Qwen3.5-27B 採用レポート
リンクの紹介は目視で確認。文章ドラフトおよび調査においてGPTを利用しています。 まとめると、「ローカルで回る 27B が、中堅フロンティア帯の土俵に乗ってきた」 という世代交代感があり、今後しばらくの基準点になりそう。 VRAM24GB、私の場合だとRTX3090 1枚で動く「30BクラスのローカルLLM」は、 これまでずっと"GPT-4"クラスという言われ方をしていましたが、 いざ触ると「ちょっと微妙な感じ」という立ち位置でした。 ところが 先日リリースしたQwen3.5 ファミリーについては1世代先
https://zenn.dev/rna4219/articles/b945d175cde87c