微信扫码
添加专属顾问
我要投稿
简介
从 Chrome 126 开始, Gemini Nano 将内置到 Chrome 中。为 Chrome 的数十亿用户提供引人入胜的设备端 AI 功能。这样就可以通过任务 API 和探索性网络平台 API 来访问 Chrome 中内置的模型:
使用 chrome 本地模型的好处:
本地处理敏感数据:设备端 AI 可以改进您的隐私保护故事。例如,如果您处理敏感数据,则可以通过端到端加密为用户提供 AI 功能。
流畅的用户体验:在某些情况下,无需往返于服务器,意味着您可以提供近乎即时的结果。设备端 AI 可能是可行功能与次优用户体验之间的区别。
对 AI 的访问权限更高:用户的设备可以承担一些处理负载,以换取对功能的更多访问权限。例如,如果您提供高级 AI 功能,则可以使用设备端 AI 来预览这些功能,以便潜在客户可以看到您产品的优势,而无需支付额外费用。这种混合方法还可以帮助您管理推断费用,尤其是针对常用用户流的推断费用。
此外还可能提供探索性 API ,例如:
Prompt API :将以自然语言表示的任意任务发送到内置的大型语言模型( Chrome 中的 Gemini Nano )。
接下来让我看看如何安装和使用Chrome 内置的Gemini Nano 。
安装
首先下载最新的 Chrome Canary 版:https : //www.chromium.org/getting-involved/dev-channel/
然后打开新安装的Chrome应用,按照以下步骤设置:
打开 chrome://flags/
找到 Prompt API for Gemini Nano 设置为 Enable
找到 Enables optimization guide on device 设置为 Enable BypassPerfR
重启 Chrome
重启计算机
出现Optimization Guide On Device Model,则安装成功。
使用
打开 DevTools 并在控制台中输入以下代码:
await window.ai.canCreateTextSession();
如果返回readily,则模型是可用的:
接下来可以使用Gemini Nano了,输入提示词试试:
const session = await window.ai.createTextSession();const stream = session.promptStreaming("你使用的什么模型?")for await (const chunk of stream) {console.log(chunk)}为了支持 Chrome 中的内置 AI,Google 还打造了获取在设备端执行的基础模型和专家模型的基础架构。此基础架构已在支持创新的浏览器功能(例如帮我写),并且很快就会支持用于设备端 AI 的 API,敬请期待~
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-04
ollama v0.20.0 更新:Gemma 4 全家桶发布,音频、视觉、MoE、BPE 支持全面升级
2026-04-04
Cursor 3来了:内置Codex,前端福音Design Mode,WorkTree多开
2026-04-03
淘宝跨端体验优化 AI 演进之路
2026-04-03
Qoder 工程实践:Harness Engineering 指南
2026-04-02
GLM-5.1 实测:面向 Agent 长程任务的国内第一模型
2026-04-02
AI代码的“屎山危机”才刚刚开始
2026-04-02
千问发布新一代大语言模型Qwen3.6-Plus
2026-04-02
疑似GPT-6曝光! OpenAI 联合创始人亲口爆料 Spud 新一代AI模型,并且拥有“大模型气味”!网友评论:它是第一个真正会“思考”的型号!
2026-01-24
2026-01-10
2026-01-26
2026-01-09
2026-01-09
2026-01-23
2026-01-14
2026-03-13
2026-01-07
2026-01-21