让DeepSeek成为语音助理

前言

我找到了一种适合苹果用户的解决方案:通过 快捷指令(Shortcuts),可以用 Siri 唤起DeepSeek进行多轮对话。这种方法不仅简单易用,还可以免费实现,同时支持调用 GPTLlamaGemini 等多种AI模型。接下来,我将详细讲解配置步骤,让你在不到5分钟内完成设置。


快捷指令简介

首先,我们需要用到苹果生态中的 快捷指令 功能。

什么是快捷指令?

快捷指令是苹果提供的一种自动化工具,允许用户通过设置 Siri 或其他触发条件,快速执行一系列任务或操作。一旦在某个设备(如 iPhone)上设置成功,快捷指令会自动同步到你的所有设备,包括 Apple WatchHomePod
在本次教程中,快捷指令将作为唤起 AI 的核心工具。特别感谢开发者 fatwang2 提供的自研快捷指令 siri-ultra,是这个快捷指令奠定的基础。

如何获取快捷指令

快捷指令本身相当于一台未解锁且没电的手机,而 API Key 和 AI 模型名称 则相当于解锁密码和电源。接下来,我们将教你如何获取这些必要信息并完成配置。


第一步:获取 API Key

什么是 API Key?

API Key 是调用 AI 模型的必要凭证,相当于一把钥匙,告诉 AI 模型是谁在访问它。为了实现快捷指令与 AI 模型的连接,我们需要从 AI 模型接口提供商处获取 API Key。

推荐的接口提供商

经过多次测试,我推荐以下两家接口提供商,它们对大陆和港台用户都非常友好:

  1. 硅基流动 https://siliconflow.cn
  2. Openrouter https://openrouter.ai

接口提供商简介

这些提供商的核心价值在于将各种 AI 技术封装成统一的标准接口,方便开发者和用户快速调用多种 AI 模型。以下是以 硅基流动 为例的具体操作步骤:

硅基流动 API Key 获取步骤

  1. 注册账号

    • 搜索或点击评论区提供的硅基流动链接进入官网。
    • 进入注册页面并完成注册。注意,注册方式不限,但最终需要绑定手机号(支持大陆及港台号码)。
    • 大陆用户需按照法律要求完成实名认证。
  2. 生成 API Key

    • 登录后,进入左侧菜单栏的「API 密钥」页面。
    • 点击「新建 API 密钥」,随意输入描述信息,即可生成 API Key。
    • 点击生成的 API Key 进行复制并保存备用。

Openrouter API Key 获取步骤

流程与硅基流动类似,但大陆用户无需实名认证。以下是操作流程:

硅基流动与 Openrouter 的对比

供应商 硅基流动 Openrouter
实名认证 必须(大陆用户) 不需要
模型种类 DeepSeek、Qwen、Llama 等 相对硅基还支持GPT、Gemini 等
价格 相对适中 相对较高
赠送金额 14元 无赠送

第二步:选择 AI 模型

硅基流动和 Openrouter 都提供了多种大语言模型供选择,包括但不限于:

  • DeepSeek V3
  • DeepSeek R1(蒸馏版)
  • GPT-4o(仅Openrouter)
  • Llama
  • 千问
  • Gemini(仅Openrouter)

如何选择适合的模型

我们需要根据实际需求选择合适的 AI 模型。以下是我的建议:

  1. 日常沟通

    • DeepSeek蒸馏版 R1 是不错的选择,响应速度快,适合日常交流。
    • Llama 和 Qwen 也表现良好。
  2. 专业领域

    • 如果需要深度分析或专业解答,可以选择 GPT-4o 或 DeepSeek V3

模型性能价格对比

以下是几个推荐模型的性能对比表(以“酸菜炒牛肉怎么做”问题为例,计算每 10 元人民币可问答次数):

硅基流动
模型名称 响应时长 价格
Pro/meta-llama/Meta-Llama-3.1-8B-Instruct 5s 每¥10/HK$10.9/NT$44.5 可请求171,291次
Qwen/Qwen2.5-14B-Instruct 5s 每¥10/HK$10.9/NT$44.5可请求102,788次
deepseek-ai/DeepSeek-R1-Distill-Qwen-14B 5s 每¥10/HK$10.9/NT$44.5 可请求102,788次
meta-llama/Llama-3.3-70B-Instruct 6s 每¥10/HK$10.9/NT$44.5可请求17,417次
Pro/deepseek-ai/DeepSeek-V3 8s 每¥10/HK$10.9/NT$44.5 可请求8,993次
Openrouter
模型名称 响应时长 价格
meta-llama/llama-3.3-70b-instruct 6s 每¥10/HK$10.9/NT$44.5 可请求23,823次
google/gemini-2.0-flash-001 6s 每¥10/HK$10.9/NT$44.5 可请求19,986次
deepseek/deepseek-chat 9s 每¥10/HK$10.9/NT$44.5 可请求7,237次
deepseek/deepseek-r1-distill-qwen-14b 8s 每¥10/HK$10.9/NT$44.5 可请求3,123次
openai/gpt-4o(仅参考) 7s 每¥10/HK$10.9/NT$44.5 可请求799次
注意
  • 以价格从低到高排序

  • 响应时长以“我想知道酸菜炒牛肉怎么做”这样的普通问题来计算,但不同的网络环境不同时间会有不同的结果,只能当相对结果看。

  • 价格同样是以“我想知道酸菜炒牛肉怎么做”这个问题和它的答案算,我得到的结果是139个token。

  • 两个供应商对大陆港台用户通用,Openrouter对于大陆用户不需要魔法,但请注意价格差异

    第三步:快捷指令配置

完成 API Key 和 AI 模型的选择后,我们就可以开始配置快捷指令了。这一步非常简单,只需将获取到的信息填入快捷指令中即可。

配置快捷指令步骤

  1. 打开快捷指令https://www.icloud.com/shortcuts/62164ef4784045f3bf9d44931beb3819

    • 在 iPhone、iPad 或 Mac 上打开「快捷指令」应用,找到刚刚下载的 Siri Ultra 快捷指令。

  2. 填写必要信息

    • 向下滑动快捷指令页面,按照提示依次填写以下内容:
      • 第一步:API Key
        • 将从硅基流动或 Openrouter 获取到的 API Key 粘贴到对应位置。
      • 第二步:API URL
        • 硅基流动默认 API URL 已填入。如果使用 Openrouter,请将其 API URL 替换为对应的值。
      • 第三步:AI 模型名称
        • 填入你选择的 AI 模型名称,deepseek-ai/DeepSeek-R1-Distill-Qwen-14B
  3. 保存配置

    • 完成以上步骤后,快捷指令会自动保存设置。
  4. 自定义名称

    • 你可以重命名快捷指令为任意喜欢的名字,例如「悟空叫我」、「妖怪哪里跑」。注意名称不要过短,以避免 Siri 误识别为其他命令。
  5. 测试快捷指令

    • 通过以下方式测试快捷指令是否正常工作:
      • 语音唤起:对 Siri 说出快捷指令名称。
      • 手动触发:直接在快捷指令应用中点击运行。

第四步:扩展玩法

快捷指令的强大之处在于它的灵活性。以下是一些进阶玩法,帮助你充分利用这项工具:

多轮对话模式

开发者设计的 siri-ultra 快捷指令支持多轮对话模式。

  • AI 回答完一个问题后,它会等待你的下一句输入,直到你明确结束对话为止。
  • 结束对话的方式目前包括以下几种:
    • 保持沉默:让快捷指令自动超时退出。
    • 手动停止:手动关闭快捷指令运行。
    • 重新唤起 Siri:通过再次唤起 Siri 停止当前对话。

多模型切换

你可以复制多个快捷指令,并为每个快捷指令配置不同的 AI 模型和名称。例如:

  • 配置一个快捷指令调用 DeepSeek V3,命名为「唐僧」。
  • 配置另一个快捷指令调用 GPT-4o,命名为「悟空」。
    这样,你可以根据需求快速切换不同的 AI 模型。

通过 HomePod 和 Apple Watch 使用

因为快捷指令在苹果生态中是跨设备同步的,你还可以通过以下设备调用:

  • HomePod:直接对 HomePod 说出快捷指令名称即可运行。
  • Apple Watch:在快捷指令应用中运行,或通过 Siri 唤起。

调整 Prompt 内容

快捷指令的第四步允许你自定义 Prompt(提示词)。

  • Prompt 是 AI 模型生成回答的核心依据,你可以调整 Prompt 的内容,让 AI 更加贴合你的需求。
  • 例如,你可以将 Prompt 设置为「假装你是一名厨师,回答所有与美食相关的问题」。

启用互联网访问

通过配置快捷指令的第五步(searchapiAPI Key),你可以让 AI 模型具备访问互联网的能力。

  • 这意味着 AI 可以实时搜索信息,而不是仅依赖其训练数据。
  • 需要注意的是,启用互联网访问可能会增加响应时间和调用成本。

自定义 Siri 应答话术

快捷指令的第七步支持自定义 Siri 的应答话术。

  • 你可以设置 Siri 在回答问题时的语气和风格,例如幽默风趣、正式严肃等。
  • 例如,将 Siri 的默认应答修改为「好的,主人,我正在为您寻找答案」。

第五步:优化与注意事项

目前,这套方案已经非常成熟,但仍有一些可以优化的地方:

  1. 结束对话的自然性

    • 当前结束对话的方式不够自然,需要通过保持沉默或手动操作来停止。
    • 我已向开发者建议改进,希望未来能通过更自然的语音指令(如「再见」、「不聊了」)结束对话。
  2. 模型选择的平衡

    • 不同模型在响应速度、准确性和价格上各有优劣,建议根据实际需求选择适合的模型。
  3. 定期更新快捷指令

    • 开发者可能会更新快捷指令以修复问题或添加新功能,建议定期关注快捷指令的更新动态。

总结

通过快捷指令和 AI 模型的结合,我们成功在苹果生态中实现了随时随地唤起 AI 的能力。这种方法不仅简单易用,还可以根据需求灵活配置,支持多种 AI 模型和场景应用。

  • 如果你是苹果用户并希望低成本体验 AI 的强大功能,这套方案无疑是一个绝佳选择。
  • 如果你对快捷指令的更多玩法感兴趣,可以访问我的个人知识库,获取预配置好的快捷指令和最新更新内容。

最后,感谢开发者 fatwang2 提供的基础支持。开发者本人也提供了自己的AI模型接口平台,https://www.search1api.com,目前提供一定额度的免费试用,且支持网络查询功能,可以尝试


附件

附件里包括了各种AI模型对应不同的供应商的预配置好的快捷指令,帮助你更快搞定。

硅基流动预配置

以价格及响应时长排序,价格为普通应答问题,139个token一个问题计算

Meta-Llama-3.1-8B-Instruct模型,响应时长约5s,10元人民币可请求约17w次

快捷指令链接:https://www.icloud.com/shortcuts/08e2bd856488498db6f869cb67bffb91

Qwen2.5-14B-Instruct模型,响应时长约5s,10元人民币可请求约10w次

快捷指令链接:https://www.icloud.com/shortcuts/359d52a540e246c8a3ffe1602b8f877a

DeepSeek-R1-Distill-Qwen-14B模型,响应时长约5s,10元人民币可请求约10w次

快捷指令链接:https://www.icloud.com/shortcuts/336131f5ebc844f9bbba98442b1c4a56

Llama-3.3-70B模型,响应时长约6s,10元人民币可请求约10w次

快捷指令链接:https://www.icloud.com/shortcuts/4df7e5c4864d4b16b763cb2e8b407f3f

DeepSeek-V3模型,响应时长约8s,10元人民币可请求约8993次

快捷指令链接:https://www.icloud.com/shortcuts/e775104e96f44cfebacaa28d32886d2f

Openrouter预配置

以价格及响应时长排序,价格为普通应答问题,139个token一个问题计算

Llama-3.3-70B模型,响应时长约6s,10元人民币可请求约2.4w次

快捷指令链接:https://www.icloud.com/shortcuts/43a89c7d26e540848c6c5607e3ff66b9

Gemini-2.0-flash模型,响应时长约6s,10元人民币可请求约2w次

快捷指令链接:https://www.icloud.com/shortcuts/7218b048311442729bca59f6f0e9877d

DeepSeek-V3模型,响应时长约9s,10元人民币可请求约7000次

快捷指令链接:https://www.icloud.com/shortcuts/a9724117689c4f2696e92eb87bf4dabc

DeepSeek-R1-Distill-Qwen-14B模型,响应时长约8s,10元人民币可请求约3000次

快捷指令链接:https://www.icloud.com/shortcuts/a94d498ec0ec4e8f831a085041260cef

Gpt-4o模型,响应时长约7s,10元人民币可请求约800次

快捷指令链接:https://www.icloud.com/shortcuts/ea99b788c7e24ec3a6e861d30d963920

Updated on 14 July, 2025

On this page