当前位置: 杭州网 > 杭网评论 > 热点聚焦 > 社会民生
ChatGPT“假新闻”事件之人工智能风险提示
2023-02-21 11:11:19
杭州网 时评

2月16日,一条关于杭州市政府3月1号取消限行的“新闻稿”忽然在网络上传播开来,在消息源并不确定的情况下,被许多网友转发,甚至一些新闻平台也发布了相关信息。2月17日,浙江之声等官方媒体相继“辟谣”,这条“取消限行”的消息,不过是ChatGPT写的“假新闻”。涉事人也在发布群里公开道歉,至此,整场乌龙结束。

这款由美国OpenAI公司研发的聊天工具近期引发了全网关注,无不惊讶于它强大的意图识别和语言理解能力,以及高质量输出能力等。其火爆程度已毋庸置疑。另一方面,任何技术的发展都可能存在一定的风险因子,除却讨论最热烈的“岗位代替”话题外,ChatGPT背后的使用风险不能忽视。

首先就是人工智能可能带来的传播风险。这条取消限行的“新闻稿”之所以在短时间内被广泛传播,不仅是契合了当前民众对于相关信息的期盼心理,也是因为这条信息自身具备了基本的“新闻要素”:有事实,有依据,有理由,甚至有观点。好在当事人及时澄清,官方媒体及时“辟谣”,这条谣言才没有继续发酵。谷歌高级副总裁曾说:这种人工智能会导致我们产生幻觉,机器正在以一种令人信服但是完全编造的方式来表达自己。在当今新媒体环境下,信息去中心化特征显著,人人可以是发布者,人工智能的“高质量输出”功能可能为某些社会热点埋下“谣言”隐患。

其次是人工智能可能带来的意识形态风险。技术是中性的,但是研发技术的人会有自己的立场。近日,有网友用尝试用ChatGPT写一篇歌颂“xx”的文章,针对不同国家的人,ChatGPT有选择的给出了答案。随后,网友又问了一些包括时政热点事件的看法,ChatGPT的回答并不“友好”。一个号称客观的人工智能,实际上却在不断输出意识形态。未来,如果真的需要落地应用类似的软件,那么其所使用的文本等内容,必须经过严格的把关和审查,警惕这种意识形态输出。

再次是人工智能可能带来的网络安全隐患。ChatGPT因其强大的功能快速出圈,写文案、写论文、编程序……甚至有网友调侃其“可以解决任何问题”。从安全审视的角度来看,就像一位网友的评论:“ChatGPT甚至可以赋予经验不足的攻击者编写更准确的恶意软件代码的能力。”这种之前需要专业人士才能完成的工作,现在,人工智能可能也帮得上忙”。某种角度来讲,保障网络信息安全的难度,又增加了一些。当然,人工智能技术的进步,从来就是一把“双刃剑”,不是“洪水猛兽”,也绝非解决所有问题的“良药”,需要理性、谨慎待之。

来源:杭州网    作者:丁琼洁    编辑:郑秋青    
破解职场性别歧视 促进平等就业权利
联系我们
  • 新闻热线:0571 - 85052222

增值电信业务经营许可证:浙B2-20110366 | 信息网络传播视听节目许可证:1105105 | 互联网新闻信息服务许可证:国新网3312006002
网络文化经营许可:浙网文[2012]0867-091号 | 工信部备案号:浙ICP备11041366号-1
杭州网(杭州网络传媒有限公司)版权所有未经授权禁止复制或镜像
Copyright © 2001 - 2015 Hangzhou.com.cn All Rights Reserved

杭州网

你关心的,都在这里

杭州网·国家重点新闻网站