深湾圆桌 | ChatGPT 将如何挑战评论员?
2023-07-20 10:29
收录于专题:新传播

□ 马立明

ChatGPT是这个春天最火爆的议题。“改变世界”“颠覆业界”“替代人类”等耸人听闻的言论不断从网络中爆出,似乎人类命运再次达到拐点。有不少人尝试了ChatGPT的功能,发现它不仅仅会聊天,还能写论文、写评论、写新闻稿、编程、完成作业。作为长期关注新闻评论的教师,我也尝试输入一些指令,ChatGPT在短短数秒间就完成了一篇评论,写得也是有模有样。但如果说ChatGPT就此替代人类,那无疑是为时过早的。

我此前也系统地研究过社交机器人,它其实早就存在于我们的网络世界里。据说网络上有接近50%的异常流量,很多是社交机器人所为。社交机器人的最大功能是发挥“类人”的作用,作为“腹语”干扰互联网生态。在英国脱欧公投、美国大选、俄乌冲突等国际重大事件中,都能发现社交机器人的影子。在俄乌冲突中,据说就已有GPT-3的参与(ChatGPT是基于Gpt-3.5的框架)。在充斥众多假象的互联网世界中,社交机器人可以起到水军的作用。但是,当你能确定一个机器人主体时,就能发现它的局限性。比如此前推出的人工智能“苹果Siri”“微软小冰”“百度小度”等,你发现它只是抵达了“类人”的程度,对于人类的指令无法对答如流,答非所问的情况并不少见。更重要的是,它看似无所不知,但其答案的素材都来自于网络已有的大数据。一旦数据源出现问题,回答就会走偏。因此,本质上它是一个信息的“食腐动物”,依赖着网络上过时的材料进行拼接。

同样,若让ChatGPT写一篇评论,它可能会快速生产一段有模有样的文字,乍一看质量还行,似乎也有个六七十分的水准。但细细推敲,这些文字段落之间似乎缺乏逻辑关联,少了“文气”。而且,这些文字似曾相识,它们都来自网络世界中已发布的文字。ChatGPT的奥秘是通过大数据检索,将网络上的相关信息剪贴缝合,组成新的文章。但这样的文章,在文本上显然与真正的评论相去甚远。将它作为一篇“作业”应付老师是可以的,若论评论的“灵魂”,则不是ChatGPT可以提供的。

从事评论工作的朋友都知道,真正的好评论是有“灵魂”的。文章不仅有作者独特的观点,而且还能感受到其情绪,文章一气呵成,具有独特的文气。有的评论或许还会提出耳目一新的观点,为读者提供“知识增量”。ChatGPT依靠信息沉渣而生,虽然有缝合信息的能力,但真正要写出高水平的评论,尤其是要提供令人耳目一新的知识增量,恐怕是不可能的。让它写评论,能做到六七十分,甚至是七八十分,但由于它不能“走心”,因此不可能真正做到满分。就像社交机器人,它只是“类人”,而不能真正成为人。

然而,不能说ChatGPT就不会挑战评论界。实话说,我们新闻界在日常确实也生产很多不怎么走心的评论。有些评论四平八稳,内容空洞,道理也是陈词滥调。这种评论确实很容易被ChatGPT取代。要知道,这个软件就是运用陈词滥调的“行家”,它能迅速完成拼接组合。这对评论员而言也会起到倒逼作用,让评论员尽可能少写这种“应景”评论,多走心,多用情,多点创意。永远比人工智能多1分,这就是人的尊严所在。哲人普罗泰戈拉说过,“人才是万物的尺度”。鹦鹉学舌,再怎么像,也只是模仿而已。在技术狂飙的时代,人更需要保持自身的主体性。

作者马立明系暨南大学新闻与传播学院副教授

实习编辑 吴昕圆  审读 李 诚   审核 刁瑜文

免责声明
未经许可或明确书面授权,任何人不得复制、转载、摘编、修改、链接读特客户端内容
推荐阅读
读特热榜
IN视频
鹏友圈

首页