通义灵码居然支持Deepseek R1大模型了,现在可以使用通义灵码来调用Deepseek R1大模型,不止是Qwen 2.5 千问大模型。现在只需要安装最新版本的通义灵码插件即可自行切换大模型,支持的大模型为Qwen 2.5、Deepseek-V3和Deepseek-R1,作为竞争对手,这波江湖大义面前,非常支持!!!

除了通义灵码,其它国产大模型插件也支持Deepseek接入的,关键都是免费的,目前推荐的国产AI大模型编程插件,可以参考我之前的文章:
在Deepseek R1出来之前,我一直在使用通义灵码作为开发工作中的AI助手,在开发过程遇到的问题基本可以通过通义灵码进行解决。直到Deepseek R1出现,当我尝试了几个问题以后,发现Deepseek R1在编程方面也不错,于是更多的使用Deepseek R1作为编程助手了。

不过因为Deepseek R1出现较晚,其开发团队力量有限,在我常用的编程工具中没有Deepseek R1的工具,虽然可以通过自己搭建Deepseek R1部署来实现仿OpenAI的方式进行Deepseek R1大模型调用,然而这样效果不理想,首先就是部署Deepseek R1耗费硬件性能,如果你是使用远程api,那就需要付费了,不是完全免费,于是只能在网页中调用。
Deepseek R1官网有时候会卡死无法使用,这时候可以使用360纳米AI等第三方平台进行使用,毕竟Deepseek R1是开源的,可以到处使用。纳米AI的网址为 bot.n.cn
至于如何在本地部署Deepseek R1大模型便接入到开发插件中,可以参考我之前的文章:

如果你还未使用通义灵码,可以去官网下载安装,网址为 https://lingma.aliyun.com/download,插件支持几百种编程语言,支持Visual Studio Code、VIsual Studio和Jetbrains全家桶。

在插件里,支持推理过程显示,但是尚未知道是不是满血的Deepseek R1模型,也不支持联网搜索,不过现在才开始,后续一定会更好。
腾讯云AI代码助手已经支持Deepseek腾讯云AI代码助手,除了自家大模型,也增加了Deepseek R1腾讯云的接入,另外也支持本地部署的大模型接入,腾讯能开放其它厂家,不得不赞,毕竟腾讯公司一向很封闭。
