当AI成为生活必需品,你是否想过:那些云端对话,正把你的隐私变成 “透明人”?
今天给大家介绍一款让你真正掌控智能、守护隐私的本地 AI 助手 -- jan ,用 “数据主权归用户” 的全新逻辑,重新定义 AI 该有的样子。
核心亮点
-
完全离线运行:断网也能用,聊天记录、模型交互全在本地,不怕云端泄露
-
开源透明:基于 Apache 2.0 协议开源,代码可查,拒绝 “黑箱操作”
-
模型自由选:本地部署 Llama、Gemma 等开源模型,也能对接 OpenAI、Anthropic 等云服务,灵活切换不设限
-
自定义助手:创建针对特定任务的专属 AI 助手
-
隐私优先:按需实现全本地运行,保障数据隐私
多种体验方式
1、快速安装(普通用户)
Jan 提供了全平台的安装包,无需复杂配置即可启动:
平台 | 稳定版 | 测试版 | 开发版 |
---|---|---|---|
Windows | jan.exe | jan.exe | jan.exe |
macOS | jan.dmg | jan.dmg | jan.dmg |
Linux (deb) | jan.deb | jan.deb | jan.deb |
Linux (AppImage) | jan.AppImage | jan.AppImage | jan.AppImage |
下载方式:可从 或 获取安装包。
2、深度定制(开发者 / 极客)
# 克隆仓库 git clone https://github.com/menloresearch/jan cd jan # 一键启动开发环境 make dev # 或分步构建 yarn install → yarn build:core → yarn dev
3、开始聊天
配置完成之后,就可以开始聊天了。
功能实测
1. 聊天交互:专属AI随叫随到
-
对话管理清晰:新对话、历史记录分类明确,收藏(Favorites)、最近(Recents)快速访问常用内容
-
自定义助手:创建“旅行规划师”“代码导师”等专属角色,设定语气、技能,精准匹配需求
-
多模型切换:输入框旁一键选模型,本地小模型聊日常,云模型攻坚复杂任务,无缝衔接
2. 模型管理:本地部署+云端拓展
-
傻瓜式安装:通过 Jan Hub 直接下载适配硬件的模型(支持 macOS/Windows/Linux ),自动提示性能适配性
-
灵活导入:从 Hugging Face 复制模型ID就能秒级搜索,本地GGUF文件也能直接导入,开发者狂喜
-
手动定制:高级玩家可修改模型配置文件,调整参数、优化推理,打造专属“智能大脑”
3. 扩展玩法:不止于聊天
-
本地API服务器:启动 localhost:1337 ,让其他应用(如代码编辑器 Continue )调用Jan的AI能力,把本地AI变成生产力中台
-
跨平台潜力:目前桌面端成熟,移动端(手机/平板)开发中,未来随时揣走你的专属AI
总结
Jan 是专注隐私与可控的本地 AI 助手,支持全平台部署。核心功能丰富:可从 HuggingFace 下载运行 Llama 等本地大模型,也能对接 OpenAI 等云端服务;支持创建专属 AI 助手,提供兼容 OpenAI 的本地 API;遵循隐私优先原则,数据默认本地闭环。还具备模型中心、文件交互(实验性)等实用功能,让用户在离线场景高效用 AI,真正掌控智能服务与数据主权 。
Github 项目地址:https://github.com/menloresearch/jan
AI工具的成熟,让程序员也有了以前不敢想象的能力。海外市场的广阔,给了我们更大的舞台。
如果你也在考虑新的出路,如果你也想尝试AI编程出海这个方向,欢迎加入我们。
扫码或搜索 257735 添加微信,发送暗号「美金」,了解详细信息。
文章评论