澎湃Logo
下载客户端

登录

  • +1

美专家:ChatGPT将增加虚假信息风险

2023-01-31 07:21
来源:澎湃新闻·澎湃号·湃客
字号

原创 美国动态

编者按

2022年末,号称史上最强的人工智能ChatGPT横空出世并迅速走红。ChatGPT是由人工智能研究实验室OpenAI在2022年11月30日发布的全新聊天机器人模型,一款人工智能技术驱动的自然语言处理工具。它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。上线仅几天,它已经“参加”了美国高校的入学资格考试(SAT),成绩为中等学生水平;并用多种语言撰写了无数的诗词、作文和剧本,构思了侦探小说,修改了代码,掀起了一波人工智能发展应用的高潮。从反馈来看,ChatGPT将这些工作都完成得符合甚至超出预期,虽然有时也会“翻车”。但是,一夜爆红背后,能在各个领域无限产出观点的ChatGPT也可能会助长虚假信息和虚假观点,给公共话语和网络监管带来新的挑战。近日,美国休斯顿大学法律中心助理教授尼古拉斯·古根伯格(Nikolas Guggenberger)等在法律事务(Lawfare)网站上撰文,分析了ChatGPT给公共话语带来的挑战,认为社交媒体平台和监管机构应该使用谨慎、平衡的对策,以充分发挥强大的新人工智能系统的好处,同时减轻其危害。文章主要内容如下:

2022年11月30日,美国人工智能研究实验室OpenAI推出了新一代语言模型ChatGPT。它可以起草独特的、看似合理的、大学水平的文章,涵盖从经济学到哲学的各个领域。事实上,在不使用特定工具的情况下,ChatGPT的写作与具有正常表达能力的人类的写作几乎没有区别。

从虚假信息到虚假观点

ChatGPT显然是一个强大的新工具,具有在许多领域产生有益影响的潜力,但它也有弊端。譬如,类似ChatGPT这样的人工智能能够针对任何事产生无限的、近乎免费的“观点”。这些虚假观点将为网络上的影响活动提供动力,并削弱了自由话语中的另一个信任支柱,即我们在网络上与之交流的是真实的人这一理念。

过去几年来,传统媒体更新了其发现虚假信息的方式;社交媒体也在发现、标记和压制虚假信息方面取得了更多成功。然而,类似人类对话的虚假观点带来了新的挑战。简单的机器人可以使用新创建的账户一次又一次地复制和粘贴或多或少相同的社交媒体帖子,这些机器人发布的重复性内容和可疑的发布模式使它们相对容易被社交媒体平台识别和禁止,即使这样做也需要花费时间。

而ChatGPT或类似的人工智能,将使“伪草根营销”(astroturfing,一种带欺骗性质的营销手法,通过雇用写手在网络上大肆宣传某产品,试图营造普通消费者热爱某产品的虚假印象)几乎是免费的,而且很难被发现。与过去的机器人不同,ChatGPT不需要发送几乎相同的复制粘贴的边缘观点。它们可以模仿人类,针对各种主题产生无限的具有连贯性和细微差别的独特内容。这些机器人账户不仅会主动发帖,还会对其他用户的帖子做出响应,并展开长期的对话。

虚假观点可能会排挤人类的观点并助长不信任感

无限供应几乎免费的虚假观点可能会排挤真正的、人类的观点。一旦无法区分机器人专家和人类,那么人们就会开始质疑网络上所有人的身份,尤其是那些和他们持不同意见的人。

当然,ChatGPT也有很多局限性。认知科学家加里·马库斯(Gary Marcus)认为,ChatGPT存在两个核心问题:神经网络“既不可靠也不真实”。谷歌的人工智能研究人员在最近的一篇论文中承认,仅仅扩大模型的规模难以成功。仅扩大规模不会带来“安全和事实基础方面的改进 ”。许多对ChatGPT的怀疑和批评都归结为将其与人类的比较,事实上,大型语言模型并不能像人类那样思考。

虽然人工智能技术存在上述局限,但其依然能够助长人们对网络上其他人的不信任之感。错误、不准确、甚至是捏造的来源,可能会给机器人增加几分“人情味”,准确和真实似乎不再重要,关键是其产生的内容看起来是否可信。而当前版本的ChatGPT在产生看似可信的内容方面的能力并不比普通的推特用户差。

社交媒体平台和监管机构在打击虚假信息方面面临新挑战

社交媒体公司将不得不继续努力发现并禁止这些机器人账户。但是,鉴于目前的能力,至少就规模而言,将人类与人工智能区分开来将是困难的。因此,社交媒体公司可能不得不在执法不足(让大量机器人在网络上活动)和执法过度(将大多数机器人和大量人类一并禁止)之间做选择。也许会出现新的方法来提高平台发现机器人的能力。即便如此,聊天机器人也会继续发展以避免被发现,而公共讨论可能会演变成一场算法之战,计算能力将决定思想市场。

一个可能的解决方案是,弱化那些最可能引起麻烦的内容或直接将其删除,不论其是由人类还是由机器产生的。从言论自由的角度来看,这是一个危险的游戏。即使有人认为一小部分观点——比如公开的种族主义——应该在网络上被禁止,但仅仅删除这些观点对阻止人工智能驱动的“伪草根营销活动”作用不大。类似人类的机器人不需要公开的种族主义,就能产生令人担忧的影响。它们将充斥着关于投票给哪些政治家、支持哪些政策以及应反对哪些地缘政治敌人的观点。

另一个解决方案可能涉及改革社交媒体的商业模式。当前,主要的社交媒体平台主要靠广告盈利。这种模式涉及零成本访问,不仅允许僵尸账户,而且几乎不为访问设置障碍。没有广告的基于订阅的商业模式可能会改变这种考量。创建和维护一个机器人账户将不再是免费的。譬如,Twitter每月支付8美元以获得“蓝色标记”认证(表明账号是获得认证的真实账号)的政策可以起到过滤机器人的作用。此外,订阅模式还要求客户提供支付方式。推特和其他社交媒体平台可以限制其可接受的支付方式,只接受那些需要一些最低限度认证的支付方式,如信用卡和借记卡,而不接受预付卡或比特币。平台还可以限制使用同一种支付方式同时或连续创建的账户数量。这些举措将极大提高机器人账号的运营成本。

政府或许还可以对机器人产生的评论征收庇古税(Pigouvian tax)。庇古税试图量化不良行为的外部社会危害,并迫使从事这种行为的人承担成本。典型的例子是对二氧化碳的排放者征收的碳税。庇古税或许是监管社交媒体上虚假言论的可行方法。监管机构可以每年使用随机抽样的方法对社交媒体网站进行审计,以确定有多少帖子给人完全伪造的印象。然后,对每条虚假的推文征收几美分的税。监管机构还可以用同样的方式,对社交媒体上的机器人账户进行审查,并对平台征税,迫使它们将非人类发布的信息的危害内化。但这种方法也存在显而易见的缺点。它依赖一个庞大的监管机构,对社会成本进行估计也不是一件易事。

错误信息和所谓的“另类事实”已经把公共话语推到了边缘。监管机构和社交媒体公司应仔细考虑高度复杂的机器人生成的内容将如何改变在线话语。谨慎、平衡的反应将使社会获得强大的新人工智能系统的好处,同时减轻其危害。

文章摘译自法律事务网站文章From Fake News to Fake Views: New Challenges Posed by ChatGPT-Like AI。

文中图片来源于网络

文章仅代表作者个人观点,不代表本公众号立场

原标题:《美专家:ChatGPT将增加虚假信息风险》

阅读原文

    本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问http://renzheng.thepaper.cn。

    +1
    收藏
    我要举报

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈