OpenAI Agents SDKを使ったAIエージェント開発の概要と使い方を理解する
少し前に、OpenAIからAIエージェントに関する興味深い発表がありました。 OpenAI News - New tools for building agents Responses APIや各種ビルトインツールの発表も話題になりましたが、特に注目を集めたのはAIエージェントの構築フレームワークであるAgents SDKではないでしょうか。 本記事では、このAgents SDKの概要と使い方を整理します...
記事を読む正式版になったOpenAIのVector Store / File Searchツールを使う
先日、OpenAIからAPIに関する以下のリリースがありました。 OpenAI News - New tools for building agents AIエージェント構築向けのプリミティブAPIであるResponses APIや各種ビルトインツール、Agent SDKなど、多くのデベロッパーにとって非常に魅力的な発表でした。 本記事では、まずこの中からFile Searchを検証します...
記事を読むLangMemの長期記憶をPostgreSQL(pgvector)に永続化する
前回はこちらの記事で、AIの長期記憶を効率的に管理するLangMemの概要と使い方を説明しました。 /blogs/2025/02/26/langmem-intro/ この記事では、長期記憶としてインメモリストアを使用しましたが、LangMemではPostgreSQL(pgvector拡張)ベースのストアも利用可能です。 今回は、このPostgreSQLベースのストアを使い、より実践的な長期記憶の活用を試してみます...
記事を読むLangMemの長期記憶の概要と使い方を理解する
少し前に、LLMフレームワークを提供するLangChainから興味深いプロダクトがリリースされました。 https://blog.langchain.dev/langmem-sdk-launch/ LangMemは、AIエージェントが長期的な記憶を管理できるようにするSDKです。 長期記憶は、短期記憶(スレッド)やRAGを補完し、LLMの記憶管理を強化する新たなアプローチといえます。 本記事では、LangMemの長期記憶の仕組みや使い方について整理していきます...
記事を読むOllamaを使ってオープンソースLLMをローカルホストしてみよう
はじめに # 今回はオープンソースLLMをローカルPCで起動する方法を試してみたいと思います。オープンソースのLLMにはすでに多くの種類があり、パラメタ数の小さなモデルや最近話題になった中国企業発の推論モデルDeepSeek-R1などがどんな回答が得られるのか、いろいろ気になることがあるのでその起動方法から回答結果まで確認していきたいと思います。 Ollamaとは # 今回オープンソースLLMをローカル起動するのに使うのはOllamaというソフトウェアです...
記事を読むオンライン検索×AI:Perplexity新API Sonarの概要と基本的な使い方
オンライン検索型AIサービスとして知られるPerplexityが、2025年1月21日に以下発表をしました...
記事を読むMicrosoft Presidio: 個人情報保護に特化したオープンソースツール
近年、個人情報の保護に対する意識がますます高まっていると感じます。 その背景には、大規模言語モデル(LLM)の導入と普及があります。LLMはさまざまな場面で活用されていますが、取り扱うデータの中に個人情報が含まれる可能性があるため、適切な管理が求められています。 そんな状況の中で、今回Microsoftが提供するオープンソースツール Presidio に注目しました...
記事を読む社内ノウハウ・ノウフー共有における生成AIの活用
これは豆蔵デベロッパーサイトアドベントカレンダー2024第24日目の記事です。 みなさま、こんにちは。Cosense (旧Scrapbox)[1] の魅力にすっかり取り付かれている牟田です。今日はクリスマス・イブ。気がつけばもう 2024 年も終わりですね。 今回は、弊社内のノウハウ・ノウフー共有における生成 AI の活用について紹介します...
記事を読むOpenAI Realtime API の音声会話アプリを WebRTC を使って実装する
2024年10月に登場したOpenAIのRealtime APIは、任意のアプリでAIとリアルタイム音声会話を実現する画期的なAPIです。 これまでWebSocketのみをサポートしていたRealtime APIですが、先日WebRTCへの対応が発表されました。 さらに、価格の大幅な引き下げや、音声品質の向上といったアップデートも加わり、より手軽に使えるAPIとなっています...
記事を読むローカルLLMを使ったボイドシミュレーション(llama.cpp、llama-cpp-python)
これは豆蔵デベロッパーサイトアドベントカレンダー2024第19日目の記事です。 はじめに # こんにちは。前回、前々回に引き続き、PyGameを使って遊び……もといシミュレーションをしている大久保です。 今回は、昨今発展が著しい生成AIの分野を組み合わせてボイドモデルのシミュレーションしてみました。 「生成AIを使うってことは、高いGPUを買ったり、どっかに課金してAPIを使うんでしょう?」 と思われるかもしれませんが、実はローカルPC(CPU)でも出来ちゃったりするんです...
記事を読む