2月16日,记者从腾讯方面获悉,微信近日正式灰度测试接入DeepSeek。目前,腾讯多个产品除了接入腾讯混元大模型之外,也在探索接入DeepSeek,如腾讯云AI代码助手、腾讯元宝等。记者在采访中了解到,除多家“大厂”已先后宣布接入DeepSeek,一些深圳企业已提前一年将DeepSeek用于研发。
灰度测试,后续持续优化
据介绍,被灰度到的用户,可在对话框顶部搜索入口,看到“AI搜索”字样,点击进入后,可免费使用DeepSeek-R1满血版模型,获得更多元化的搜索体验。
被问及微信的搜索场景为什么要接入大模型时,腾讯方面表示,大模型可以提升搜索的智能化和精准度,如更好地理解用户的搜索意图,分析和处理复杂的查询内容等。结合用户需求,我们在搜索场景中接入了包括混元、DeepSeek在内的大模型,进一步丰富用户的搜索体验。
据悉,微信AI搜索接入的DeepSeek支持联网搜索(用户无需手动选择),基于公众号等丰富的微信生态内容,以及全网优质内容,能为用户提供更全面的高质量回答。AI搜索仅整合公众号及互联网其他公开信息,不会使用用户的个人信息和相关隐私信息。目前该能力还在灰度测试中,将根据用户体验和反馈持续优化。
优势互补,推动更多创新
记者“元宝”提问“微信为什么要接入DeepSeek R1模型”时,它的回答是:技术优势互补方面,DeepSeek R1在长文本推理和复杂逻辑推演方面表现优异,而腾讯自研的混元大模型更擅长即时性、轻量级问答。通过接入DeepSeek R1,微信可以弥补自身在处理复杂查询时的不足,形成能力互补,提升整体AI搜索能力。从行业来看,面对字节跳动、阿里巴巴等竞争对手在AI搜索市场的快速布局,微信通过接入DeepSeek R1,快速加固自己的护城河,防止用户外流,提升市场竞争力。DeepSeek R1作为顶尖开源大模型,降低了微信的研发成本,同时提升了AI能力。微信无需自研模型即可快速实现智能化升级,符合腾讯一贯的用户导向和谨慎的产品路线。“元宝”也表示,微信接入DeepSeek R1,不仅提升了自身产品的智能化水平,也为国内开源大模型生态注入了活力,推动更多创新和突破,促进AI技术的普及和应用。
据不完全统计,目前已有数十家科技“大厂”宣布接入DeepSeek R1模型,涵盖云服务商、应用服务商、手机厂商、芯片厂商等多个领域。例如,科大讯飞开放平台上线了DeepSeek全系大模型,百度文小言(原文心一言)的最新版本也接入了DeepSeek R1模型,并自4月1日起全面免费开放,字节跳动旗下的飞书的相关功能也接入了DeepSeek R1模型。
深企已用DeepSeek写代码
在记者的采访中,深圳一些本地科技接入DeepSeek的时间更早,并已经应用于研发中。移卡执行董事、CTO 罗小辉就表示,移卡在2024年初就本地化部署了Deepseek coder,在此基础上开发了编码助手这个产品包括代码撰写,代码理解,代码补全,代码纠错等。在Coder V2开源后,又切换到V2版本,编码助手的代码生成质量和采纳率有了进一步的提升。2025年1月推出了最新的DeepSeek-R1及蒸馏模型后,迅速完成功能的验证及本地部署。
他表示,DeepSeek是目前开源最彻底的大模型厂商,性能和效率具佳。移卡应用大模型主要从两个方面着手,一是面向企业内部员工的效率工具,二是面向用户或客户的产品开发。考虑到模型对于资源的需求较多,目前大多采用混合部署的方式,即部分本地化,部分外部接口的方式。"我们正在密切关注大模型的小型化方案,期待通过这种方式来缓解资源压力,同时也希望国内涌现更多更经济且够用的GPU资源,本土的大模型和本土的计算设备的接合是我们接下来要重点研究的事项。“他指,移卡准备长期使用以DeepSeek为代表的开源大模型,逐步替换海外AI产品的大模型服务,这将在国外主流大模型同样的质量水准上,大大降低移卡人工智能的应用成本。