LLM 文章作成モデル編 16GBのグラボへ新調したことで、ローカルLLMを本格的にさわりだした。画像生成なんかもやってみた。界隈的には、2年ぐらい遅れて開始したような感じだ。その分、試行錯誤なしに導入できるので楽。 昨日は、文章作成に向くモデルを厳選…
Radeon RX Vega 64でローカルLLMを構築。LAN上のMacでVS CodeからLLMを呼び出し、簡単なコードのレビューぐらいならしてくれて、そこそこ活用できていました。 今週、制作中のWEBページの日本語文章ブロックを作成してもらおうと思い、LLMの入ったUbuntu Ser…
引用をストックしました
引用するにはまずログインしてください
引用をストックできませんでした。再度お試しください
限定公開記事のため引用できません。