无需云端依赖的AI体验:使用LM Studio入门本地LLM(Gemma 3)
Back to Top
为了覆盖更广泛的受众,这篇文章已从日语翻译而来。
您可以在这里找到原始版本。
引言
#近年来,能够在本地环境中运行大规模语言模型(LLM)的工具越来越丰富。
其中 LM Studio 作为让用户轻松试用LLM的应用备受关注。
这次,我们将介绍使用LM Studio运行**Gemma LLM**的步骤,以及基本使用方法。
什么是 LM Studio
#LM Studio 是一款旨在让用户在本地环境中轻松运行大规模语言模型(LLM)的应用。无需专业设置或命令行操作,安装后即可立刻运行模型是其特点。
它还支持跨平台,可在 Windows / macOS / Linux 等任何环境中使用,广泛应用于研究开发到个人学习等各个场景。
其主要特点如下。
- 跨平台的LLM运行环境
- 基于GUI,轻松切换和运行模型
- 同时支持聊天UI和代码生成辅助
- 可从 Hugging Face 或导入自定义模型进行使用
也就是说,LM Studio 既是“试验LLM的试验场”,又可作为“可日常使用的对话AI运行环境”。
什么是 Gemma LLM
#Gemma 是 Google DeepMind 开发的最新大规模语言模型。
它被设计为研究者和开发者可以在本地环境中安全使用,尤其以“轻量且高效运行”著称。
由于 Gemma 不依赖云端环境,可直接在个人PC上运行,在确保数据隐私的同时利用AI也是其魅力之一。
此外,作为开源模型公开,任何人都可自由试用或改进,社区扩展也备受期待。
主要特点如下。
- Google DeepMind 开发的大规模语言模型
- 针对本地运行优化的轻量设计
- 以开源模型形式在 Hugging Face 上发布
- 可用于自然语言理解、代码补全等广泛场景
- 不仅是文本LLM,还支持图像理解的多模态模型
Gemma 不只是“轻量LLM”,更是结合最新研究成果、供开发者自由试验的实验平台。
因此,从研究原型开发到个人项目,均可满足多种应用需求。
为什么本地LLM的需求在增长?
#随着云端AI服务的普及,在本地环境运行LLM的需求正在迅速提升。其背后原因包括:
-
确保数据隐私
- 无需将机密信息或个人数据发送到外部服务器,因此可以安心使用。
-
离线环境下的使用
- 即使在网络连接不稳定的地方,本地LLM也能稳定运行。
-
低成本运行
- 无需担心 API 使用费用,可利用 PC 的资源重复进行实验。
-
高度可定制性
- 可使用特定领域数据进行再训练或微调。
-
降低延迟
- 由于不经过服务器通信,响应速度得到提升。
基于这些原因,本地LLM的引入正在加速,不仅限于研究用途,还扩展到个人开发、教育现场和企业内部使用。
环境构建步骤
#- 从 官方网站 下载并安装 LM Studio。
-
LM Studio 安装时显示的“Choose your level”选项,是为了根据用户经验和使用目的调整UI展示方式和初始设置范围。在“Choose your level”中选择“Power User”,然后点击 Continue。
LM Studio 的用户级别大致分类如下。
级别 | 预期用户 | 特点 |
---|---|---|
User | 初次使用AI/LLM的人 | - 仅需最少设置即可使用 - 界面简洁 - 隐藏多余参数 |
Power User | 对LLM已有一定了解的中级用户 | - 可切换模型与生成设置 - 在保持界面简洁的同时具备调整功能 - 可进行一定程度的细节设置 |
Developer | 开发者与研究者 | - 可访问所有设置与功能 - 支持 API 集成、详细日志、自定义模型管理 - 适合工具开发与高级使用 |
- 将环境设置为“日语”。
- 探索并下载 Gemma LLM
模型大小与PC内存建议如下。
模型大小 | 建议RAM(CPU运行) | 建议VRAM(GPU运行) | 备注 |
---|---|---|---|
1B (~1B参数) | 8GB以上 | 4GB以上 | 轻量。笔记本电脑也能运行 |
2B | 16GB以上 | 6~8GB以上 | 本地运行入门大小 |
4B | 16~24GB以上 | 10~12GB以上 | 实用精度与轻量的平衡 |
9B | 32GB以上 | 16GB以上 | 高精度。推荐高端GPU |
12B | 48GB以上 | 24GB以上 | 面向研究用途。个人PC可能较困难 |
27B | 64GB以上 | 48GB以上 | 面向正式开发与研究。推荐专用服务器 |
E4B (Efficient 4B) | 16GB以上 | 8~10GB以上 | 节省内存版本。通过轻量化技术比等同4B更易运行 |
实际使用
#- 在聊天中尝试一些简单提问。
向LLM提问:“请告诉我关于日本民间故事‘桃太郎’的相关内容”。
输出结果如下。
桃太郎是日本最著名的民间故事之一。这个故事有多种版本,但基本流程如下。
**故事概要**
* **开始:** 桃太郎是住在某村庄的贫穷少年。一天,他在河边捡到一个大桃子带回家。当他打开桃子时,里面出现了一个健康的男婴。
* **修行:** 桃太郎与那名男孩一起踏上旅程进行各种修行。他教熊、猴、雉等动物技艺,也帮助了老爷爷和老奶奶。
* **前往鬼之岛:** 修行结束后,桃太郎决定前往鬼之岛(鬼居住的岛屿)去除鬼。
* **准备:** 桃太郎收服了狗、猴和雉作为家臣,造船前往鬼之岛。狗被取名为“マー坊”,猴子为“モンキー”,雉为“コケコッコー”。
* **讨伐鬼:** 到达鬼之岛后,桃太郎与鬼战斗,将所有鬼击败,并带回了鬼的首级。
* **宝物:** 鬼之岛藏有大量金银财宝及美丽的宝石。桃太郎将这些宝物带回,为村庄做出了贡献。
**故事主题与象征**
* **勇气与正义感:** 面对困难击败邪恶的桃太郎形象象征了勇气与正义感。
* **成长与自我实现:** 从贫穷少年成长为率领家臣的英雄,桃太郎的故事暗示了自我实现与梦想成就的主题。
* **尊重多样性:** 收服狗、猴、雉等不同动物为家臣,传达了尊重多样性与合作的重要性。
**多种版本**
桃太郎的故事因地域和时代不同而有多种变体。例如,前往鬼之岛的路径、与鬼的战斗方式、宝物种类等可能有所差异。此外,桃太郎的性格和家臣们的角色在不同故事中也各有不同。
**桃太郎的起源**
据说桃太郎的故事源自中国传说“桃木爷”。“桃木爷”讲述了栽种桃树的老人讨伐鬼怪的故事。该故事传入日本后,发展成为日本的民间故事。
**其他**
* 桃太郎是儿童中受欢迎的角色,以动画、漫画、电影等多种形式呈现。
* 桃太郎的故事反映了日本的文化与价值观,至今仍被许多人喜爱。
如需了解更多,可使用以下关键词搜索:
* 桃太郎 昔话
* 桃太郎 中国传说
* 桃太郎 角色
此外,以下网站也可供参考:
* [https://kotobazaka.jp/kitaro-story/mototarou/](https://kotobazaka.jp/kitaro-story/mototarou/)
* [https://www.city.fukuoka.lg.jp/culture/bunka/shumon/shomon_06_03.html](https://www.city.fukuoka.lg.jp/culture/bunka/shumon_06_03.html)
如果有其他想了解的内容或特定问题,欢迎随时咨询。
-
我能理解想表达的内容,但有时会出现奇怪的解读和扩展。
也许还存在让桃太郎把桃子带回家的衍生版本吧(笑)
(我也尝试了其他LLM,还有一个版本里猫成了桃太郎的家臣) -
尝试进行代码生成(如 Python 代码片段)
其响应比预期更聪明。
- 尝试输入图片
看来评价还不错。(我家爱猫的花纹是“虎斑白”,但仅凭一张照片可能难以准确判断)
总结
#这次通过在 LM Studio 中试用 Gemma,我们获得了以下见解。
- LM Studio 大幅降低了在本地环境中运行 LLM 的门槛,提供了从初学者到高级用户都易于使用的运行环境。
- Gemma LLM 虽然轻量,但能够应对广泛任务,可充分用于研究学习到原型开发等场景。
- 可切实感受到本地LLM的优势(隐私保护、低成本、离线使用、高速响应),在云服务难以满足的用例中尤为有效。
此外,未来展望包括:
- 模型个性化
- 通过使用个人或组织的数据进行调整,可期待更实用的应用。
- 与开发环境集成
- 加强与编辑器或 IDE 的联动,将提升其作为代码补全与调试辅助工具的价值。
(LM Studio 具有“本地 API 模式”,可通过 HTTP 发送请求)
- 多模型对比利用
- 与 Gemma 以外的 LLM 并行使用,可以根据不同用途做出最佳选择。