- クラウドに頼らないAI体験:LM Studio+LangChain+StreamlitでつくるローカルRAGのマルチドキュメント・永続化対応- はじめに # 前回の記事では、1つのテキストファイル(桃太郎物語) を対象にした単純なRAG(検索+生成)環境を構築しました。 今回はその拡張として、複数のドキュメントを読み込み・保持・削除できる永続化対応のローカルRAGアプリを構築します... 記事を読む
- クラウドに頼らないAI体験:LM Studio+LangChain+StreamlitでつくるローカルRAG環境- はじめに # 前回は、LM Studio+Gemmaでクラウドに頼らないAI環境を構築しました。 本記事では、LM Studio を使ってローカルでLLM(例:Gemma 3 4B)を動かし、さらに LangChain と Streamlit を組み合わせて、クラウドに頼らずに動作する RAG(Retrieval-Augmented Generation) 環境を構築します... 記事を読む
- クラウドに頼らないAI体験:LM Studioで始めるローカルLLM入門(Gemma 3)- はじめに # 近年、大規模言語モデル(LLM)をローカル環境で動作させるツールが充実してきました。 その中でも LM Studio は、ユーザーが手軽にLLMを試せるアプリケーションとして注目されています。 今回は、LM Studio を使って Gemma LLM を動作させる手順と、基本的な使い方を紹介します。 LM Studio とは # LM Studio は、ローカル環境で大規模言語モデル(LLM)を手軽に動かせるように設計されたアプリケーションです... 記事を読む
- 「アテンションが全て」ではなかった?GPT2 small(124M)から学ぶLLMの仕組み- この記事は夏のリレー連載2025 3日目の記事です。 --> Information本記事は、次のような読者層を想定しています。 パラメーター数とLLM性能の関係を直感的に理解したい方 Transformerの仕組みを概観し、学習の足がかりを得たい方 詳細な理論解説ではなく 「全体像の把握」 を目的としています。より深い学習を希望される場合は、本文中で紹介する参考文献をご参照ください... 記事を読む
- Whisper を使って会議の音声データを文字起こししてみる- はじめに # 一昔前は、打合せ議事録は若手社員が一生懸命作成し、先輩方が確認した上でお客様に提出する・・というのが一般的でした。地味に労力がかかる作業でもありました。 最近は Zoom でも Google Meet でも録音を元に文字起こしから議事録作成まで全て AI がやってくれるようになりました。アカウント情報と紐付けて話者特定もされますし、精度もどんどん上がっています(若干微妙な纏めになることもありますが)。オンライン会議の議事録は AI にかなりお任せできる状況になりつつあります... 記事を読む
- CUDA、cuDNN、CMake地獄を乗り越えて、激古GPU+llama.cppで量子化DeepSeekモデルを動かすまでの戦い- 今回は、型落ち・中古の激安GPU搭載PCでも、話題の大規模言語モデル「DeepSeek」シリーズをローカルで動かしてみようという挑戦記です。 ただ、DeepSeekネタは 豆蔵デベロッパーサイトの記事として既に以下の記事が公開されています。 Ollamaを使ってオープンソースLLMをローカルホストしてみよう また、今回使用を予定している「llama」についてはPython版が既に以下の記事で公開されています... 記事を読む
- ClickHouse入門 ~分析データベースをRAGインデックスとして使ってみる~- ビジネスソリューション事業部の山下です。 今回は、分析用データベースの1つであるClickHouseをサンプル付きで紹介していきます。 ClickHouseはSQLに対応しており、標準のSQLはもちろん、便利な組み込み関数がソフトウェアとして組み込まれています。 本記事では、RAGのようなサンプルを通して、ClickHouseを紹介しようと思います。 ClickHouseとは # https://clickhouse.com/jp ClickHouseはDBMSの1つです... 記事を読む
- LangMemの長期記憶をPostgreSQL(pgvector)に永続化する- 前回はこちらの記事で、AIの長期記憶を効率的に管理するLangMemの概要と使い方を説明しました。 /blogs/2025/02/26/langmem-intro/ この記事では、長期記憶としてインメモリストアを使用しましたが、LangMemではPostgreSQL(pgvector拡張)ベースのストアも利用可能です。 今回は、このPostgreSQLベースのストアを使い、より実践的な長期記憶の活用を試してみます... 記事を読む
- LangMemの長期記憶の概要と使い方を理解する- 少し前に、LLMフレームワークを提供するLangChainから興味深いプロダクトがリリースされました。 https://blog.langchain.dev/langmem-sdk-launch/ LangMemは、AIエージェントが長期的な記憶を管理できるようにするSDKです。 長期記憶は、短期記憶(スレッド)やRAGを補完し、LLMの記憶管理を強化する新たなアプローチといえます。 本記事では、LangMemの長期記憶の仕組みや使い方について整理していきます... 記事を読む
- Ollamaを使ってオープンソースLLMをローカルホストしてみよう- はじめに # 今回はオープンソースLLMをローカルPCで起動する方法を試してみたいと思います。オープンソースのLLMにはすでに多くの種類があり、パラメタ数の小さなモデルや最近話題になった中国企業発の推論モデルDeepSeek-R1などがどんな回答が得られるのか、いろいろ気になることがあるのでその起動方法から回答結果まで確認していきたいと思います。 Ollamaとは # 今回オープンソースLLMをローカル起動するのに使うのはOllamaというソフトウェアです... 記事を読む
