<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>AI助手 on KnightLi的博客</title>
        <link>https://www.knightli.com/tags/ai%E5%8A%A9%E6%89%8B/</link>
        <description>Recent content in AI助手 on KnightLi的博客</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-cn</language>
        <lastBuildDate>Fri, 01 May 2026 06:09:57 +0800</lastBuildDate><atom:link href="https://www.knightli.com/tags/ai%E5%8A%A9%E6%89%8B/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>Gemini 进入 Google built-in 汽车：车载语音助手开始变得更像真正的 AI 助手</title>
        <link>https://www.knightli.com/2026/05/01/gemini-cars-with-google-built-in/</link>
        <pubDate>Fri, 01 May 2026 06:09:57 +0800</pubDate>
        
        <guid>https://www.knightli.com/2026/05/01/gemini-cars-with-google-built-in/</guid>
        <description>&lt;p&gt;Google 在 2026 年 4 月 30 日宣布，&lt;code&gt;Gemini&lt;/code&gt; 开始进入搭载 &lt;code&gt;Google built-in&lt;/code&gt; 的汽车，作为 Google Assistant 的升级版本陆续推送。&lt;/p&gt;
&lt;p&gt;这件事的重点不只是“车里多了一个 AI 助手”，而是车载语音交互正在从固定命令，转向更自然的连续对话。用户不需要严格记住指令格式，可以像和普通助手交流一样，让 Gemini 帮忙导航、处理消息、查询车辆信息，甚至控制部分车内设置。&lt;/p&gt;
&lt;h2 id=&#34;先从美国英语用户开始&#34;&gt;先从美国英语用户开始
&lt;/h2&gt;&lt;p&gt;根据 Google 的说明，这次更新会覆盖新车和已有车辆，前提是车辆支持 &lt;code&gt;Google built-in&lt;/code&gt;，并且用户已经在车机里登录 Google 账号。&lt;/p&gt;
&lt;p&gt;rollout 会先从美国英语用户开始，之后再扩展到更多语言和国家。符合条件的用户会在车内看到升级到 Gemini 的提示。升级后，可以通过以下方式唤起 Gemini：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;说出 &lt;code&gt;Hey Google&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;点击主屏幕上的麦克风&lt;/li&gt;
&lt;li&gt;使用方向盘上的语音按钮&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这说明 Google 没有把 Gemini 做成一个需要重新学习的新入口，而是延续原来的车载语音入口，只是把底层助手换成更强的 Gemini。&lt;/p&gt;
&lt;h2 id=&#34;车载语音不再只靠固定命令&#34;&gt;车载语音不再只靠固定命令
&lt;/h2&gt;&lt;p&gt;过去车载语音助手常见的问题是：能做的事不少，但用户必须说得很“标准”。一旦表达稍微复杂，助手就容易听不懂，或者只能执行最基础的动作。&lt;/p&gt;
&lt;p&gt;Gemini 进入车机后，Google 强调的是自然对话能力。比如用户可以直接说：&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;I need to grab lunch, find some highly rated sit-down restaurants along the way. I&amp;rsquo;m not in a rush, oh, and I’d like to eat outside.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Gemini 会结合 Google Maps 找沿途合适的餐厅。用户还可以继续追问停车情况、是否有素食选项等，不需要重新发起一轮完整搜索。&lt;/p&gt;
&lt;p&gt;这种交互更符合驾驶场景。人在开车时很难像使用手机一样反复筛选、点击和修改条件，语音助手如果能理解更完整的意图，就能明显减少分心。&lt;/p&gt;
&lt;h2 id=&#34;地图消息和音乐会变得更顺手&#34;&gt;地图、消息和音乐会变得更顺手
&lt;/h2&gt;&lt;p&gt;Google 给出的几个例子，基本都围绕驾驶时最常见的需求。&lt;/p&gt;
&lt;p&gt;第一类是路线和地点搜索。&lt;/p&gt;
&lt;p&gt;Gemini 可以根据 Google Maps 信息寻找沿途餐厅、景点或充电站，也可以回答和当前路线相关的问题。比如经过体育场附近时，用户可以问附近是否有活动、是否会影响交通。&lt;/p&gt;
&lt;p&gt;第二类是消息处理。&lt;/p&gt;
&lt;p&gt;用户可以让 Gemini 总结新短信，再根据上下文回复。比如让它回复朋友“我在路上，并附上预计到达时间”。如果临时想改内容，也可以继续补充，不必从头开始。&lt;/p&gt;
&lt;p&gt;第三类是音乐和氛围。&lt;/p&gt;
&lt;p&gt;用户不一定需要知道电台名或具体歌单，可以直接描述想听的内容。例如播放爵士电台，或者在 YouTube Music 里播放适合山路驾驶的欢快 70 年代 folk-rock，并跳过慢歌。&lt;/p&gt;
&lt;p&gt;这些功能本身并不新，但 Gemini 的价值在于把多个条件合在一句自然语言里处理，而不是把用户逼回固定命令。&lt;/p&gt;
&lt;h2 id=&#34;gemini-live-让车里也能边走边聊&#34;&gt;Gemini Live 让车里也能边走边聊
&lt;/h2&gt;&lt;p&gt;Google 还提到，&lt;code&gt;Gemini Live&lt;/code&gt; 也会进入车载场景，目前处于 beta。用户可以点击 Gemini Live 按钮，或者说 &lt;code&gt;Hey Google, let&#39;s talk&lt;/code&gt; 开始更自由的对话。&lt;/p&gt;
&lt;p&gt;这类场景更像“开车时的陪伴式学习和头脑风暴”。例如开车去 Lake Tahoe 时，可以让 Gemini 讲当地历史和趣闻；听到感兴趣的内容后，可以随时打断追问。也可以让 Gemini 帮忙规划到达目的地后的徒步路线和活动安排。&lt;/p&gt;
&lt;p&gt;这和传统车载助手的差异很明显。传统助手更像工具按钮，Gemini Live 则更像一个可以连续交流的语音界面。&lt;/p&gt;
&lt;h2 id=&#34;车辆说明书和实时车况是关键差异&#34;&gt;车辆说明书和实时车况是关键差异
&lt;/h2&gt;&lt;p&gt;更值得注意的是，Gemini 不只是回答通用问题。Google 表示，他们和车厂合作，把 Gemini 更深入地接入车辆系统。&lt;/p&gt;
&lt;p&gt;这带来几类更贴近汽车本身的能力。&lt;/p&gt;
&lt;p&gt;第一，用户可以询问车辆功能。&lt;/p&gt;
&lt;p&gt;比如“自动洗车前我应该怎么准备？”或者“我的车库天花板太低，后备箱门会碰到，怎么设置后备箱不要完全打开？”Gemini 会根据车厂提供的车主手册，给出适配具体车型的答案。不同品牌和车型能提供的信息细节会有所差异。&lt;/p&gt;
&lt;p&gt;第二，电动车用户可以询问实时电量和续航。&lt;/p&gt;
&lt;p&gt;例如当前电量、到达目的地时预计剩余电量，或者让 Gemini 查找附近充电站。它还可以结合 Google Maps，帮用户找充电附近的咖啡店等地点。&lt;/p&gt;
&lt;p&gt;第三，部分车内设置可以通过自然语言调整。&lt;/p&gt;
&lt;p&gt;Google 举的例子是用户说“车里又雾又冷”，Gemini 可以理解背后的意图，调高暖风并打开除雾。&lt;/p&gt;
&lt;p&gt;这类能力比单纯把聊天机器人搬进车机更实际。汽车是一个有明确状态、硬件能力和安全边界的环境，AI 助手如果能理解车辆上下文，价值会比普通问答更高。&lt;/p&gt;
&lt;h2 id=&#34;车载-ai-的边界也更重要&#34;&gt;车载 AI 的边界也更重要
&lt;/h2&gt;&lt;p&gt;车内场景对 AI 的要求和手机、网页不同。&lt;/p&gt;
&lt;p&gt;开车时用户不能频繁看屏幕，也不能花太多注意力纠正 AI。助手需要足够简洁、可靠，并且不能在关键场景里制造新的负担。&lt;/p&gt;
&lt;p&gt;所以 Gemini 进入汽车并不意味着所有复杂任务都适合在车里完成。更合理的方向是：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;降低导航和信息查询的操作成本&lt;/li&gt;
&lt;li&gt;用自然语言替代多层菜单&lt;/li&gt;
&lt;li&gt;帮用户快速理解车辆功能&lt;/li&gt;
&lt;li&gt;在不分散注意力的前提下处理消息和媒体&lt;/li&gt;
&lt;li&gt;给 EV 用户更顺滑的充电与路线信息&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;反过来，高风险操作仍然需要清晰边界。比如影响驾驶安全的设置、需要确认的消息发送、涉及车辆控制的动作，都应该有足够明确的确认流程。&lt;/p&gt;
&lt;h2 id=&#34;小结&#34;&gt;小结
&lt;/h2&gt;&lt;p&gt;Gemini 进入 &lt;code&gt;Google built-in&lt;/code&gt; 汽车，是 AI 助手从手机和网页继续向日常环境扩展的一步。&lt;/p&gt;
&lt;p&gt;它的意义不在于车里终于可以“聊天”，而在于车载语音助手开始理解更复杂的意图，并能结合地图、消息、音乐、车辆说明书和部分车况信息来完成任务。&lt;/p&gt;
&lt;p&gt;如果 rollout 顺利，车载语音交互可能会从“记住命令”逐渐变成“描述需求”。这对开车场景很重要，因为真正好的车载 AI，不应该要求驾驶者为它分配太多注意力。&lt;/p&gt;
&lt;p&gt;参考链接：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://blog.google/products-and-platforms/platforms/android/cars-with-google-built-in-gemini-tips-2026/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Your car with Google built-in is about to get smarter, thanks to Gemini - Google Blog&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        
    </channel>
</rss>
