クラウドに頼らないAI体験:LM Studio+LangChain+StreamlitでつくるローカルRAG環境
はじめに # 前回は、LM Studio+Gemmaでクラウドに頼らないAI環境を構築しました。 本記事では、LM Studio を使ってローカルでLLM(例:Gemma 3 4B)を動かし、さらに LangChain と Streamlit を組み合わせて、クラウドに頼らずに動作する RAG(Retrieval-Augmented Generation) 環境を構築します...
記事を読むクラウドに頼らないAI体験:LM Studioで始めるローカルLLM入門(Gemma 3)
はじめに # 近年、大規模言語モデル(LLM)をローカル環境で動作させるツールが充実してきました。 その中でも LM Studio は、ユーザーが手軽にLLMを試せるアプリケーションとして注目されています。 今回は、LM Studio を使って Gemma LLM を動作させる手順と、基本的な使い方を紹介します。 LM Studio とは # LM Studio は、ローカル環境で大規模言語モデル(LLM)を手軽に動かせるように設計されたアプリケーションです...
記事を読む
