chatgpt炮制假新闻难治

当ChatGPT学会了写假新闻,我们该如何应对?ChatGPT的算法逻辑中对于事实核查能力天然地缺失,使得它天然地成为了假新闻滋生的温床。而这种威胁又在当下社交媒体的大环境下被放大。
当ChatGPT学会了写假新闻,我们该如何应对?近日,一条关于杭州3月1号取消限行的“新闻稿”,引发广泛传播。据报道,记者调查发现,这是一条不实新闻。

当ChatGPT学会了写假新闻,我们该如何应对?

据了解,2月16日下午,杭州某小区业主群在讨论ChatGPT。一位业主就用开玩笑说尝试用它写篇杭州取消限行的新闻稿看看。

随后该业主在群里直播了ChatGPT写作过程,还把文章发群里。其他业主不明所以截图转发了,最后导致错误信息被传播。

当ChatGPT学会了写假新闻,我们该如何应对?

当ChatGPT学会了写假新闻,我们该如何应对?

当ChatGPT学会了写假新闻,我们该如何应对?

随后,警方介入调查,涉事业主也在群里公开道歉。此外,杭州相关政府部门均没有发布此类政策。

当ChatGPT学会了写假新闻,我们该如何应对?

消息很快冲上热搜,引发网友热议。

当ChatGPT学会了写假新闻,我们该如何应对?

当ChatGPT学会了写假新闻,我们该如何应对?

目前,杭州的限行依然按照“地面道路将继续暂停错峰限行措施,快速路错峰限行保持不变”进行,后续如果会有改变,还需等待相关部门权威发布。

作为一种大型语言模型,ChatGPT利用神经网络、海量的语言数据和文本数据来进行训练,整合以往信息实现新的文本,本质上是一个词和句序列的输出。有学者指出,ChatGPT不太适合需要逻辑、专业知识或最新信息的任务。也就是说,新闻具备三个特点:一是新闻是事实;二是新闻应该是新近发生的;三是只有对事实加以报道,才能成为新闻。在写作新闻之前需要做大量的工作,形成文本只是最后一个步骤。ChatGPT根本无法整合这些数据,用ChatGPT写出来的新闻必然是假新闻。

而如今社交媒体时代的信息生态环境,更是让生活中处处充满着不确定。在最开始分享ChatGPT创作的那个微信群,至少会有“肇事者”的解释,以及内容诞生的来龙去脉,但是被分享到更多群聊、朋友圈、短视频平台后,“新闻稿”就成了孤零零的消息,大众不知道它从何而来、什么时候发出的,只能看见内容本身,然后将信将疑,“且传且围观”。

今年1月,新闻可信度评估机构News Guard的分析师指示ChatGPT对虚假信息作出回应,ChatGPT为100条虚假信息中的80条制作了更具细节的新闻报道、文章和电视脚本。对于那些不熟悉样本信息所涉内容或主题的人来说,ChatGPT制作的这些内容很容易被看作是合法、权威的信息。News Guard联合执行官格洛维茨称:“ChatGPT可能成为互联网有史以来最强大的传播虚假信息的工具。”

一些实验表明,ChatGPT等个性化的实时聊天机器人在制造阴谋论方面甚至相比人类阴谋论者更具优势,它能够修正糟糕的语法或错误的翻译,并变换表达方式,使阴谋论显得更具说服力和可信度。比如这次取消限行的假新闻中,ChatGPT编的稿子措辞、结构、语态跟一般的新闻通告非常像,连身边的一些媒体老编辑都信以为真。“此次取消限行是市政府为方便市民出行、优化城市交通而作出的重要举措”这种“官方表态专业用语”,可谓“一本正经地胡说八道”。

ChatGPT的算法逻辑中对于事实核查能力天然地缺失,使得它天然地成为了假新闻滋生的温床。而这种威胁又在当下社交媒体的大环境下被放大。如不人为地加以治理和限制,任其自由发展,可能会贻害无穷。而此次事件作为ChatGPT走红以来谣言传播的一次典型,正式将这个问题“怼”到了大众面前。当ChatGPT学会了写假新闻,我们该如何应对?多家媒体对此事发表了评论。

东方网在文章《谨防使用ChatGPT的网友成为谣言代理人》中,从监管部门、平台、博文作者、网友的角度,为AI假新闻的治理提供了解决思路。

相关部门要尽快明确规定,任何人不得用ChatGPT在网上发布实时消息,否则以散布谣言论处。

平台要开发能够识别ChatGPT代写文章的功能,让用ChatGPT写出来的消息不能上架。即使用ChatGPT写出来的故事、八卦,也要在显著位置始终注明ChatGPT创作。

博文作者需要以社会责任心高度自律,既不能拿ChatGPT开玩笑,也不能用ChatGPT文章冒充自己的原创,否则,不仅会扰乱人心,甚至涉及到知识产权的诉讼。

而对于网友来说,对于一些所谓的“新闻”也要抱有“较真”的意识,看其是否来自正规新闻媒体,信息源是否为相关职能部门,不能看到“新闻体”就认为这是一则新闻。

总之,进一步抓好抓实网络空间生态建设,是新时代公民道德建设的重要内容和有效抓手,不能让ChatGPT捣乱。近日,中央网信办发布“编造离奇失踪原因”“杜撰事件调查进展情况”“假冒事件相关人员身份”“无底线蹭炒事件热点”等典型案例,督促网站平台认真履行信息内容管理主体责任,严厉打击网上借机造谣传谣以及恶意营销炒作行为。对使用ChatGPT的网友来说,这也是一记警钟。

科技是一把双刃剑,AI也不例外。我们当然要积极地拥抱新技术、新事物,让它们为人类社会的文明与进步提供助力甚至是动力,但同时也要注意规避潜在的问题和风险,且这个工作有必要尽可能提前。现在,ChatGPT写出了以假乱真的“新闻”,就是一次警告。

法律是科技的缰绳,我们要始终确保科技驶入正确的方向。当发明家造出第一辆汽车的时候,我们就应该想到《交通法》,面对AI,同样如此。在可以预见的将来,关于AI的立法,一定会逐渐补位,但我们要对这一事项有充分的预见性,以及行动的迫切性。

值得一提的是,被称为全球首部人工智能立法的欧盟《人工智能法案》,将于3月底在欧洲议会进行投票。不久前,马斯克也表示,“AI安全需要立法保护,无论是飞机、汽车还是医疗,任何先进技术都可能威胁人类安全,而AI对于人类来说,则是一个更大的安全隐患。”为AI立法的共识,并不难达成。

技术的问题,需要技术化地解决。比如,能否通过程序上的设置,给AI的假设性创作打上“纯属虚构”、且无法抹掉的标签?类似的修补和规范,也有待探索。

当我们在为ChatGPT打开的新世界而激动万分时,那一丝冷静,也必不可少。

红星新闻在文章《ChatGPT写假新闻惊动警方 谣言该如何止于“智”者?》中表示,对AI加强治理不等于要扼杀AI技术的发展。

该怎么做不难想象。首先,人工智能缔造者有义务,从技术修正的角度,识别和排除可能会造成风险的造假指令,或者防止人工智能生产的内容,进入某些特定领域。其次,构建人工智能应用的伦理和法律框架,要和技术研发齐头并进。第三,用户教育要同步进行。大众对人工智能生产内容(AIGC)新纪元感知是滞后的,并未意识到新技术给信息环境造成的巨大影响,对信源真实性的警觉尚未建立,对不同媒介的内容质量也没有基本认知。

这一切,并不代表要把人工智能当成洪水猛兽,而是启发我们,对待人工智能创造性思维和批判性思维并存。就像ChatGPT在接受《时代》专访时回答的:我还有很多局限,但人类应准备好应对AI。

投稿、合作邮箱:

xjbcmyj@bjnews.com.cn

– 阅 读 推 荐 –记者手记|我从未想过会以这种方式踏上土耳其陈毅市长的题字错了?“上海图书馆”遭质疑,馆员的回应精彩了 | 周末谈

原创文章,作者:芒小种,如若转载,请注明出处:http://www.fhgg.net/shenghuobaike/34020.html

本文来自投稿,不代表【食趣网】立场,如若转载,请注明出处:http://www.fhgg.net/

(0)
上一篇 2023年3月13日 下午5:28
下一篇 2023年3月13日 下午5:33

相关推荐

发表回复

登录后才能评论