无需云端依赖的AI体验:使用LM Studio入门本地LLM(Gemma 3)

日本語|English|中国语
| 5 min read
Author: shuichi-takatsu shuichi-takatsuの画像
Information

为了覆盖更广泛的受众,这篇文章已从日语翻译而来。
您可以在这里找到原始版本。

引言

#

近年来,能够在本地环境中运行大规模语言模型(LLM)的工具越来越丰富。
其中 LM Studio 作为让用户轻松试用LLM的应用备受关注。
这次,我们将介绍使用LM Studio运行**Gemma LLM**的步骤,以及基本使用方法。


什么是 LM Studio

#

LM Studio 是一款旨在让用户在本地环境中轻松运行大规模语言模型(LLM)的应用。无需专业设置或命令行操作,安装后即可立刻运行模型是其特点。

它还支持跨平台,可在 Windows / macOS / Linux 等任何环境中使用,广泛应用于研究开发到个人学习等各个场景。

其主要特点如下。

  • 跨平台的LLM运行环境
  • 基于GUI,轻松切换和运行模型
  • 同时支持聊天UI和代码生成辅助
  • 可从 Hugging Face 或导入自定义模型进行使用

也就是说,LM Studio 既是“试验LLM的试验场”,又可作为“可日常使用的对话AI运行环境”。


什么是 Gemma LLM

#

Gemma 是 Google DeepMind 开发的最新大规模语言模型。
它被设计为研究者和开发者可以在本地环境中安全使用,尤其以“轻量且高效运行”著称。

由于 Gemma 不依赖云端环境,可直接在个人PC上运行,在确保数据隐私的同时利用AI也是其魅力之一。
此外,作为开源模型公开,任何人都可自由试用或改进,社区扩展也备受期待。

主要特点如下。

  • Google DeepMind 开发的大规模语言模型
  • 针对本地运行优化的轻量设计
  • 以开源模型形式在 Hugging Face 上发布
  • 可用于自然语言理解、代码补全等广泛场景
  • 不仅是文本LLM,还支持图像理解的多模态模型

Gemma 不只是“轻量LLM”,更是结合最新研究成果、供开发者自由试验的实验平台
因此,从研究原型开发到个人项目,均可满足多种应用需求。


为什么本地LLM的需求在增长?

#

随着云端AI服务的普及,在本地环境运行LLM的需求正在迅速提升。其背后原因包括:

  1. 确保数据隐私

    • 无需将机密信息或个人数据发送到外部服务器,因此可以安心使用。
  2. 离线环境下的使用

    • 即使在网络连接不稳定的地方,本地LLM也能稳定运行。
  3. 低成本运行

    • 无需担心 API 使用费用,可利用 PC 的资源重复进行实验。
  4. 高度可定制性

    • 可使用特定领域数据进行再训练或微调。
  5. 降低延迟

    • 由于不经过服务器通信,响应速度得到提升。

基于这些原因,本地LLM的引入正在加速,不仅限于研究用途,还扩展到个人开发、教育现场和企业内部使用


环境构建步骤

#
  1. 官方网站 下载并安装 LM Studio。
  • 截至 2025-09-20,最新版本为“0.3.26”。

  • 下载可执行文件并运行安装程序。点击“Get Started”。

  • LM Studio 安装时显示的“Choose your level”选项,是为了根据用户经验和使用目的调整UI展示方式和初始设置范围。在“Choose your level”中选择“Power User”,然后点击 Continue。

Information

LM Studio 的用户级别大致分类如下。

级别 预期用户 特点
User 初次使用AI/LLM的人 - 仅需最少设置即可使用
- 界面简洁
- 隐藏多余参数
Power User 对LLM已有一定了解的中级用户 - 可切换模型与生成设置
- 在保持界面简洁的同时具备调整功能
- 可进行一定程度的细节设置
Developer 开发者与研究者 - 可访问所有设置与功能
- 支持 API 集成、详细日志、自定义模型管理
- 适合工具开发与高级使用
  • 下载第一个模型(由于模型大小为20B较大,如果本地PC内存不足可能无法运行,请根据自身环境选择下载)

  • 开始下载(由于文件较大,耗时较久)

  • 下载完成后,点击“Start New Chat”。

  • LM Studio 启动。(此时模型尚未加载)

  1. 将环境设置为“日语”。
  • 点击应用程序右上角的“外观”,从选项中选择“View more settings”。

  • 将“Language”设置为“日语”。

  • 界面已更改为日语。

  1. 探索并下载 Gemma LLM
  • 在“探索”->“Model Search”中搜索“Gemma 3 4B”,并下载。(请根据您PC的配置选择合适的大小)
Information

模型大小与PC内存建议如下。

模型大小 建议RAM(CPU运行) 建议VRAM(GPU运行) 备注
1B (~1B参数) 8GB以上 4GB以上 轻量。笔记本电脑也能运行
2B 16GB以上 6~8GB以上 本地运行入门大小
4B 16~24GB以上 10~12GB以上 实用精度与轻量的平衡
9B 32GB以上 16GB以上 高精度。推荐高端GPU
12B 48GB以上 24GB以上 面向研究用途。个人PC可能较困难
27B 64GB以上 48GB以上 面向正式开发与研究。推荐专用服务器
E4B (Efficient 4B) 16GB以上 8~10GB以上 节省内存版本。通过轻量化技术比等同4B更易运行
  • 下载完成后,加载模型。

  • 模型已加载。


实际使用

#
  • 在聊天中尝试一些简单提问。

向LLM提问:“请告诉我关于日本民间故事‘桃太郎’的相关内容”。
输出结果如下。

桃太郎是日本最著名的民间故事之一。这个故事有多种版本,但基本流程如下。
**故事概要**
*   **开始:** 桃太郎是住在某村庄的贫穷少年。一天,他在河边捡到一个大桃子带回家。当他打开桃子时,里面出现了一个健康的男婴。
*   **修行:** 桃太郎与那名男孩一起踏上旅程进行各种修行。他教熊、猴、雉等动物技艺,也帮助了老爷爷和老奶奶。
*   **前往鬼之岛:** 修行结束后,桃太郎决定前往鬼之岛(鬼居住的岛屿)去除鬼。
*   **准备:** 桃太郎收服了狗、猴和雉作为家臣,造船前往鬼之岛。狗被取名为“マー坊”,猴子为“モンキー”,雉为“コケコッコー”。
*   **讨伐鬼:** 到达鬼之岛后,桃太郎与鬼战斗,将所有鬼击败,并带回了鬼的首级。
*   **宝物:** 鬼之岛藏有大量金银财宝及美丽的宝石。桃太郎将这些宝物带回,为村庄做出了贡献。

**故事主题与象征**
*   **勇气与正义感:** 面对困难击败邪恶的桃太郎形象象征了勇气与正义感。
*   **成长与自我实现:** 从贫穷少年成长为率领家臣的英雄,桃太郎的故事暗示了自我实现与梦想成就的主题。
*   **尊重多样性:** 收服狗、猴、雉等不同动物为家臣,传达了尊重多样性与合作的重要性。

**多种版本**
桃太郎的故事因地域和时代不同而有多种变体。例如,前往鬼之岛的路径、与鬼的战斗方式、宝物种类等可能有所差异。此外,桃太郎的性格和家臣们的角色在不同故事中也各有不同。

**桃太郎的起源**
据说桃太郎的故事源自中国传说“桃木爷”。“桃木爷”讲述了栽种桃树的老人讨伐鬼怪的故事。该故事传入日本后,发展成为日本的民间故事。

**其他**
*   桃太郎是儿童中受欢迎的角色,以动画、漫画、电影等多种形式呈现。
*   桃太郎的故事反映了日本的文化与价值观,至今仍被许多人喜爱。

如需了解更多,可使用以下关键词搜索:
*   桃太郎 昔话
*   桃太郎 中国传说
*   桃太郎 角色

此外,以下网站也可供参考:
*   [https://kotobazaka.jp/kitaro-story/mototarou/](https://kotobazaka.jp/kitaro-story/mototarou/)
*   [https://www.city.fukuoka.lg.jp/culture/bunka/shumon/shomon_06_03.html](https://www.city.fukuoka.lg.jp/culture/bunka/shumon_06_03.html)

如果有其他想了解的内容或特定问题,欢迎随时咨询。
  • 我能理解想表达的内容,但有时会出现奇怪的解读和扩展。
    也许还存在让桃太郎把桃子带回家的衍生版本吧(笑)
    (我也尝试了其他LLM,还有一个版本里猫成了桃太郎的家臣)

  • 尝试进行代码生成(如 Python 代码片段)

这是一个简单示例。

让我们尝试更高级的示例。

其响应比预期更聪明。

  • 尝试输入图片

关于我家爱猫

看来评价还不错。(我家爱猫的花纹是“虎斑白”,但仅凭一张照片可能难以准确判断)


总结

#

这次通过在 LM Studio 中试用 Gemma,我们获得了以下见解。

  • LM Studio 大幅降低了在本地环境中运行 LLM 的门槛,提供了从初学者到高级用户都易于使用的运行环境。
  • Gemma LLM 虽然轻量,但能够应对广泛任务,可充分用于研究学习到原型开发等场景。
  • 可切实感受到本地LLM的优势(隐私保护、低成本、离线使用、高速响应),在云服务难以满足的用例中尤为有效。

此外,未来展望包括:

  1. 模型个性化
  • 通过使用个人或组织的数据进行调整,可期待更实用的应用。
  1. 与开发环境集成
  • 加强与编辑器或 IDE 的联动,将提升其作为代码补全与调试辅助工具的价值。
     (LM Studio 具有“本地 API 模式”,可通过 HTTP 发送请求)
  1. 多模型对比利用
  • 与 Gemma 以外的 LLM 并行使用,可以根据不同用途做出最佳选择。

豆蔵では共に高め合う仲間を募集しています!

recruit

具体的な採用情報はこちらからご覧いただけます。