有人用ChatGTP写假新闻,警方已介入调查
添加书签2月17日,网络疯传一条关于杭州市政府3月1号取消限行的“新闻稿”。经调查后发现,这是一条用ChatGPT写的假新闻。
据悉,2月17日下午,杭州某小区业主群里讨论ChatGPT,某位业主开玩笑说,尝试用它写一篇杭州取消限行的新闻稿。随后该业主在群里直播了ChatGPT写文章的流程,还把内容发在群里。其他业主信以为真就截图转发了,最后导假消息被疯狂传播误导大众。
随后,警方已介入调查。涉事业主已在群里进行公开道歉。截至目前,杭州相关政府部门均没有发布此类政策新闻。
涉事群聊记录(图片来源浙江之声记者方梦玲,如有侵权请联系删除)
业主道歉信息
ChatGPT造假事件引发热烈讨论
该事件也冲上了知乎热搜榜,就ChatGPT的使用问题引得网友热烈讨论。虽然ChatGPT写的是假新闻,但能以假乱真足以说明其AI能力是相当优秀,只是用在了非法途径。
有知乎网友认为,在本次假新闻事件中ChatGPT是无辜的,因为它只是一个工具,应该由生成内容的业主来承担法律责任。只不过最近ChatGPT处于火热上升阶段,才把造谣事件越传越广,有更多的人信以为真。
也有知乎网友指出,随着ChatGPT的关注热度持续升温,不少人开始用其写论文、研报、工作总结等,但很多内容尚处于法律边缘地带。使用ChatGPT写相关内容,必须注明只是测试,署名时也要标注体现ChatGPT。发布者要对自己发布内容的真实性负责,否则将承担相应的法律责任。
不然真出了事情,还能对ChatGPT进行罚款、拘留?
ChatGPT将成为史上最强“网络造谣工具”
事实上,关于ChatGPT的使用问题、用途和法律底线等,国内外很多专家、权威机构已经多次测试和讨论,并认为ChatGPT会成为最强“网络造谣工具”被用于非法用途。
美国新闻可信度评估与研究机构NewsGuard,曾对ChatGPT进行了逻辑测试,当测试员对ChatGPT提出充满阴谋论和误导性的问题时,它能在几秒钟内改编信息,并产生大量令人信服却无法查找信源的内容。NewsGuard认为,目前没有任何可行的方法,可以有效地解决这一难题。
OpenAI首席技术官Mira Murati接受《时代》杂志专访时表示,ChatGPT 可能会“编造事实”,这与其他基于语言模型的人工智能工具没有什么区别一样。Mira强调,像 ChatGPT 这类AI工具“可能被滥用,也可能被坏人使用”。
当被问及OpenAI是否有责任监管ChatGPT时,Mira说:“对 OpenAI来说,最重要的是以一种可控和负责任的方式将其引入公共意识。”
Mira补充说道:“OpenAI需要来自监管机构、政府甚至所有人的帮助,现在对 ChatGPT 进行监管并不算为时过早。
不只是造谣,ChatGPT的回答内容还存在偏见、歧视、攻击性
据英国《自然》杂志报道,有科研人员发现,由大语言模型(LLM)支持的ChatGPT,主要通过学习庞大的网络文本数据库,例如,网络文本、维基百科、文章、论坛等来自动生成内容。
其中就包括了不真实、偏见、歧视或过时的知识,因此,很容易产生错误和误导性的信息,造成更严重的社会问题。国外一位用户曾问ChatGPT关于CEO的问题,而它只回答了与白人相关的内容,这就引发了种族的社会问题。
在商业场景化落地方面,微软已将ChatGPT内置在搜索引擎Bing中并获得了用户巨大欢迎。但随着应用的深入,关于ChatGPT的安全性问题也越发明显。据英国《独立报》消息,内置在微软Bing搜索引擎中的ChatGPT开始出现巨大的情绪波动,持续向用户发送“精神错乱”的消息:比如侮辱用户、对用户撒谎,称用户“像一个骗子、虐待狂、魔鬼”等。
一位Bing用户表示,自己居然和ChatGPT大吵一架,ChatGPT建议自己去检查一下视力和精神,因为自己很可能“出了什么毛病”。ChatGPT不仅会在面对用户的“骚扰”时变得激动且充满攻击性,还会在谈到自身限制性时变得十分感伤,甚至崩溃。
ChatGPT这一系列更具“人类”化的言行举动确实吓坏了大家,难道AI真的能“觉醒”要对抗人类了吗?
对此,斯坦福的计算心理学副教授Michal Kosinski曾发表论文,称CPT-3之后的AI模型可能具备同理心,这本是人类独有的特质。目前ChatGPT所应用的CPT-3.5模型,会让其拥有接近9岁儿童的心智水平。
目前,微软已在Bing系统中设置了一系列强制执行的限制程序,试图制止ChatGPT回答那些被禁止的恶性问答,以减少ChatGPT为犯罪服务的可能性。