テクノロジー

【初心者向け】ローカルLLMの色々な動かし方まとめ

1: yarumato 2025/09/06 11:09

“lamma.cppは推論が早めでGGUFを動かせるがGUIがない。GGUF変換や量子化に使う。モデル使用だけならWrapperでよい。Ollama,LMStudio,KoboldCppがWrapperで初心者向け。vLLMは推論が速く個人から大規模商用まで。Dockerで動かす例。”