• |ブログ|19 min read
    #LLM#生成AI#AI#Ollama#DeepSeek

    Ollamaを使ってオープンソースLLMをローカルホストしてみよう

    はじめに # 今回はオープンソースLLMをローカルPCで起動する方法を試してみたいと思います。オープンソースのLLMにはすでに多くの種類があり、パラメタ数の小さなモデルや最近話題になった中国企業発の推論モデルDeepSeek-R1などがどんな回答が得られるのか、いろいろ気になることがあるのでその起動方法から回答結果まで確認していきたいと思います。 Ollamaとは # 今回オープンソースLLMをローカル起動するのに使うのはOllamaというソフトウェアです...

    記事を読む

豆蔵では共に高め合う仲間を募集しています!

recruit

具体的な採用情報はこちらからご覧いただけます。