用文心大模型生产新闻是种什么体验?近日,读特客户端计划部署文心4.5系列开源模型,成为首批启动接入文心大模型的官方媒体。这一全新大模型引擎将进一步推进AI技术在媒体领域的创新应用与落地,探索新技术新应用在媒体行业的落地应用。
四大场景,给新闻装上AI引擎
此次读特客户端牵手文心大模型,将聚焦四大新闻场景应用,并持续进化:
内容分析
基于文心4.5系列开源模型的多模态理解能力,实现资讯内容的深层次分析,包括质量评估、相关性分析、内容打标及用户行为分析等,显著提升内容的数据处理效率与准确性。
视频理解处理
结合文心大模型和飞桨深度学习框架,精准拆解爆款视频的叙事框架与视觉元素,辅助创意团队生成高转化率内容。
服务问答
基于文心大模型构建读特私有知识库的交互式问答服务,尤其是支持新闻观点、相关内容概念的快速知识检索。
智能搜索
基于文心大模型联网检索增强和深度搜索生成,构建具有联网检索功能和深度信息挖掘的智能搜索应用。
内部赋能,记者拥有“超级数字搭档”
不仅如此,读特客户端内部将向全员开放使用文心大模型,使其成为员工日常工作中的得力助手。
以日常内容生产为例。基于文心大模型,员工将搭建更多辅助工作的Agent智能体,如本地热点内容筛选推荐智能体、民生服务智能体、头脑风暴智能体、舆情数据分析智能体、行业资讯洞察智能体等。
大模型在全方位助力员工提升工作效率和质量的同时,也将员工从繁琐的事务性工作中解脱出来,有更多精力投入到更具价值的创造性工作中,为日常工作注入源源不断的动力。
展望未来,读特客户端与文心大模型团队的合作将不断深化,双方携手共进,致力于构建一个开放、协同、可持续的媒体产业服务生态。在这个生态中,各方将充分发挥自身优势,实现资源共享、优势互补,共同推动 AI 技术在资讯领域的广泛应用和创新发展,迈向智能新纪元。
关于文心4.5系列开源模型
6月30日,文心4.5系列模型正式开源。本次开源模型共10款,涵盖了激活参数规模分别为47B和3B的混合专家(MoE)模型(最大的模型总参数量为424B),以及0.3B的稠密参数模型。
文心4.5系列模型均使用飞桨深度学习框架进行高效训练、推理和部署。在大语言模型的预训练中,模型FLOPs利用率(MFU)达到47%。实验结果显示,该系列模型在多个文本和多模态基准测试中达到SOTA水平,在指令遵循、世界知识记忆、视觉理解和多模态推理任务上效果尤为突出。模型权重按照Apache 2.0协议开源,支持开展学术研究和产业应用。此外,基于飞桨提供开源的产业级开发套件,广泛兼容多种芯片,降低后训练和部署门槛。
编辑 孔盼成 审读 张蕾 二审 李怡天 三审 刘思敏