Skip to content

Deepseek满血版+联网搜索,目前最推荐的使用方式

Updated: at 07:13

从春节到现在,Deepseek 简直火得一塌糊涂,哪里都能看到它的身影,哪里都听到关于它的各种传说。

Deepseek 火,也有一定的道理,开源,推理能力出众,性价比高,这三点就够了(不过也确实没想到火到这种程度,最近各大厂、企事业单位、中小学都在接入 Deepseek了)。

Deepseek 官方网站也因访问量过大经常没办法正常使用,最近身边的很多朋友都在询问我如何才能流畅地使用 Deepseek。干脆写一篇文章讲一讲我目前是如何正常使用 Deepseek R1 满血版的。

提醒一下,这篇文章不会涉及到:

  1. Deepseek 的各种使用技巧
  2. 如何本地部署 Deepseek

一、开箱即用的方式

得益于 Deepseek 的影响力,各大厂商都开始把它集成在自家的产品里了。下面这几个产品都支持 Deepseek R1 满血版 + 联网搜索,是目前相对来说比较推荐的,直接可以使用,免费,速度也挺快,对于大部分场景应该是够用了。

  1. 秘塔搜索

访问地址:https://metaso.cn/

秘塔是比较早就在用的一个在线 AI 服务,它也是比较早支持 Deepseek R1 的,特点是它的联网搜索功能支持多种搜索范围(学术 / 文库 / 图片 / 播客),推荐。

  1. 腾讯元宝

访问地址:https://yuanbao.tencent.com/,网页版,直接打开即可使用,需登录。

  1. 腾讯 ima.copilot

地址:https://ima.qq.com/,这个是客户端或小程序版,客户端需下载到本地安装使用,需登录。

  1. 知乎直答

地址:https://zhida.zhihu.com/,网页版,特点是支持知识库,加上知乎自身的内容优势,应该有一些特点。

  1. 问小白

地址:https://www.wenxiaobai.com/,有网页版,也支持客户端

  1. 微信 AI 搜索

直接在微信里点击最上面的搜索,如果出来的界面中有 “AI搜索” 字样,就代表你已经可以在微信中直接使用 Deepseek R1 的满血版来搜索了。这应该是目前使用 Deepseek R1 最简单的一种方式。

好像现在这项功能还没有针对所有用户开放,不过也应该很快了。

更新:AI 领域,无论是大模型还是各类应用,进展都非常快阿,这篇文章出来没几天,又有不少直接支持 Deepseek R1 满血版的工具和应用了,大家自己多关注一下!

二、API + Page Assist

上面几种方式相信已经满足大部分的日常使用了,而且都还免费。

我自己日常使用 Deepseek R1 的方式稍有不同,采用的是 API + Page Assist 浏览器插件的方式,这种方式需要一些额外配置,API 也会涉及到一些费用,不过从个人使用的角度来说有下面几点优势:

如果你也有这几点诉求,可以按照我下面的手把手教程来进行配置。

1. 准备 API key

目前国内外其实有很多家服务商都在提供 Deepseek R1 的 API 服务支持了。国内的有火山引擎、腾讯云、硅基流动等;国外的有 fireworks.ai、nebius 等。

我自己使用下来,目前最推荐的是国内的火山引擎的提供 API 服务,服务稳定,速度也很快,下面所有的配置也是基于火山引擎提供的服务。

配置会涉及三部分内容: 6. API key 创建 7. 用于聊天的 Deepseek R1 推理接入点 8. 用于知识库的嵌入模型接入点

需要注意的,这里所使用的服务后面都会涉及到一定费用,所以大家最好自己评估一下是否适合自己的需求。

为了使用这里提到的所有 API 服务,首先需要注册,登录后还需要进行个人或企业实名认证。

火山引擎官方注册与登录入口:https://www.volcengine.com/

配置 API key

登录后在右上角选择 “控制台”,进入控制台页面,然后通过最左侧滑出菜单选择 “火山方舟” 进入火山方舟的控制台页面。你也可以直接通过链接:https://console.volcengine.com/ark/ 进入该页面。

在左侧菜单选择 “API Key 管理” ,点击 “创建 API Key”,根据提示创建 API Key。可以将 API Key 复制下来,后面配置会用到。

配置 Deepseek 推理接入点

仍然在前面的火山方舟控制台页面,左侧菜单选择 “在线推理” → “自定义推理接入点” → “创建推理接入点”。

我们需要创建两个推理接入点,一个是 Deepseek R1 推理大模型的接入点;一个本地知识库向量化会用到的嵌入模型接入点

这里嵌入模型使用的是 Doubao-embedding-large 这个模型,对中英文的支持相对来说不错。

在接入点名称下方可以看到一串 ep-2025 打头的字符,这是接入点选择的模型 ID 号,也需要记下来,后面会用上。

2. 客户端配置

支持 API 的客户端其实有不少,在网上推荐比较多的是 Cherry StudioChatWise,这两个其实都不错,也都用过,Cherry Studio 还用得比较久,但这两个工具对我来说都有一点小问题。

直接后面遇到 Page Assist,一个开源的支持本地 AI 的浏览器插件(没错,Page Assist 并非独立的客户端应用),Chrome 和 Edge 浏览器都可以用,目前主力就是用它。

直接搜索引擎或插件市场搜索 Page Assist 就可以找到。

本文中,我并没有部署使用本地的大模型,如果感兴趣的话可以自己去尝试一下。

安装好后,打开该插件,就像是一个有点普通的支持 AI 会话的网页,我们还需要一些配置才能正常使用。

配置 API

Page Assit 界面右上方点击齿轮形状的配置按钮,打开配置页面。

左侧菜单栏点选 “OpenAI 兼容 API” → “添加提供商”,填入相关信息。

管理模型

左侧菜单点选 “管理模型” → “添加新模型”,填入模型相关的信息。

注意:我们需要添加两个新模型,一个是 Deepseek R1 推理模型,用于会话聊天的;一个是 Doubao Embedding Large 嵌入模型,用于本地知识库向量化的。

配置联网搜索

左侧菜单点选 “一般设置”,打开一般设置页面,在“管理网络搜索”区域选择合适的搜索引擎。

我平时使用的是 Google,搜索结果选的 10 条,默认不开启网络搜索,根据自己的需要配置即可。

Page Assist 支持多种搜索引擎,还支持一些 AI 搜索的 API 配置,选择不同的搜索引擎,对于联网搜索的结果会有比较大的影响,大家可以自己对比一下。

配置 RAG

如果要用本地知识库,还需要做两项配置,一个是配置文本嵌入模型;一个是创建自己的知识库。

配置文本嵌入模型

左侧菜单选择 “RAG 设置”,这里主要是设置文本嵌入模型,选择我们前面在模型管理里配置的嵌入模型,也就是我们前面申请的 Doubao Embedding Large 这个模型。

注:为了与本地知识库对话,所有上传到本地知识库的资料都需要进行向量化(简单理解就是转换成可以被大模型识别和处理的一种格式),不同的文本嵌入模型会直接影响到向量化的质量,尤其是对中文的处理,对比测试了一下,感觉 Doubao Embedding Large 这个嵌入模型对中英文的处理效果整体还不错。

创建自己的知识库

左侧菜单选择 “管理知识”,打开管理知识页面,选择 “添加新知识”,然后可以直接上传本地的资料,支持多种格式,我用得最多是 PDF 和 Markdown 文件。

直接使用 PDF 就可以,对于一些中文 PDF,如果为了质量更好,可以事先通过第三方工具把 PDF 转成 Markdown 格式,甚至做一些手动调整后,再上传到知识库。

开始使用

上面是一些必要的配置,然后就可以愉快地使用了。

在使用时,选择配置好的推理模型,也可以选择是否开启联网搜索,下面是一个简单的演示,Deepseek R1 + 联网搜索。

提示词:

提取练习对于学习有什么样的帮助?

Deepseek R1 + 联网搜索

本地知识库问答

要针对本地知识库进行检索问答,需要在输入区域选择并指定知识库,如下图所示。

下面是同样的问题(提示词),但限定通过我的知识库(知识库里是几篇相关的论文)里来检索推理的结果。

从下面思考的过程也可以看出,都是在我自己的本地知识库里检索的。

速度很快,效果也挺好的,而且在下方的引用中,你可以点击对应的 pdf,查看所引用的内容是什么,在 pdf 中哪一页多少行,整个溯源也很方便。

总结

若非极客或中小企业需要提供服务使用,并不建议本地部署 Deepseek R1 模型去使用,对于个人电脑来说,基本上不可能部署 671B 的满血版,而非满血的版本用起来感觉也没太大必要。

另外,能顺畅用起来只是第一步,如何更好地利用这些 AI 大模型或工具去帮助自己学习和工作才是关键,其实,哪怕没有 Deepseek,现有的很多其它 AI 服务,也很强大了,如果用好,对于工作和学习也会有很大的帮助。

后面大家感兴趣的话,再多给大家介绍一些我自己使用的一些实践经验。

更新


Previous Post
AI动手实践:高效提问策略&视觉化输出指南
Next Post
2024 年终总结