欧洲智库:ChatGPT的利弊分析

IPP评论是国家高端智库华南理工大学公共政策研究院(IPP)官方微信平台。

导读

2022年11月30日,美国人工智能研究公司OpenAI推出了一款全新的人工智能技术驱动的聊天机器人程序—生成式预训练变换模型(ChatGPT)。据称,它具备“高度接近于人类”的语言互动能力,抛出一个问题,只需要数秒,就能整合海量互联网资源,给出一个像模像样的回答,甚至还能完成撰写邮件、视频脚本、文案等任务。ChatGPT一经问世,就掀起了资本市场的巨浪,同时也让许多行业倍感焦虑。

ChatGPT的出现将促使人工智能产业迎来拐点,并进一步带动生产力变革。但从目前的使用情况来看,ChatGPT类的人工智能应用也将带来诸多风险和挑战,本文将以此为中心,对ChatGPT的利弊展开探讨。

图源:网络

★ 本文作者:

维克多·穆尼奥斯(Víctor Muñoz),欧洲外交关系协会(European Council on Foreign Relations, EFCR)客座研究员。

何塞·伊格纳西奥·托雷布兰卡(José Ignacio Torreblanca),欧洲外交关系协会资深研究员。

ChatGPT的潜在风险

鉴于ChatGPT强大的语言互动能力,笔者向ChatGPT提出了一系列问题,详情如下:

Q

ChatGPT会引起地缘变化吗?

A

GPT-3语言模型(即ChatGPT)不会引起地缘变化。变化通常是由人类的决策或事件引起的,而并非人工智能语言模型。Q

ChatGPT能否巩固美国在全球科技领域的优势地位?

A

答案是毋庸置疑的,因为ChatGPT

的创造者是美国人。然而,值得注意的是,除发达国家外,包括中国在内的许多发展中国家也在人工智能领域做出了重大贡献。个别企业或国家的确可通过ChatGPT来提升自身的实力,但不太可能会对地缘格局产生冲击。

Q

ChatGPT可否用于军事目的?

A

ChatGPT

可承担撰写战报、翻译、通信等任务,但军用人工智能技术在全球受到严格监管,且受到道德和法律的约束。如何在军事领域应用ChatGPT,最终取决于政府、军事机构及其他利益相关者的行为。

Q

ChatGPT能否用于制造和传播虚假信息?

A

与其他人工智能语言模型一样,ChatGPT

也可用于制造和传播虚假信息。如果训练数据包含虚假信息,人工智能语言模型会在其生成的文案中产生类似的虚假信息。此外,人工智能模型可针对某个主题快速生成令人信服的文案,这样一来,ChatGPT

生成的信息十分容易被当作是权威信息而大肆传播,而且查证的难度极高。为了免受虚假信息的侵害,组织和个人应该对人工智能语言模型生成的信息进行交叉验证。ChatGPT对全球经济的影响

ChatGPT对上述问题的回答似乎并不具有足够的说服力。从ChatGPT的表现来看,它倾向于淡化人工智能在地缘中的作用,更注重强调人类是地缘的主要施动者。这存在两种解释:第一,ChatGPT尚未发展到足以取代人类政府的程度;第二,ChatGPT中有一些深层次的信息被刻意地隐藏了起来。总之,人类应该像过去重视电脑和互联网那样,正视ChatGPT对世界带来的深刻变革。

围绕ChatGPT的争论主要集中在ChatGPT对全球经济的影响上,其中一个争论焦点为:微软能否利用ChatGPT挑战谷歌在全球搜索引擎的主导地位?全球人工智能领域的竞争显然会比以往更为激烈,OpenAI并非全球唯一研发智能聊天机器人的科技公司。2023年2月7日,谷歌宣布将推出聊天机器人“巴德”,在生成式人工智能领域与OpenAI的ChatGPT一较高下。但只要人工智能的主导权一直掌握在美国科技公司的手中,最终哪一方胜出,其实并不重要。美国科技公司之间的竞争只会进一步加强美国在全球科技领域的领导地位,营造对美国有利的地缘格局。

一旦美国丧失人工智能领域的主导权,其地缘影响将是深远的。中国科技巨头百度曾宣布:将于2023年3月发布其人工智能聊天机器人,其功能与ChatGPT高度相似。换言之,中国和美国在人工智能语言模型上的竞争,将成为中美科技竞争的重要领域之一。

面临日趋激烈的全球科技竞争,欧盟却显得手足无措。用脸谱网(Facebook)创始人扎克伯格(Mark Zuckerberg)的话说:“美国敢于打破常规,迅速抢占未来科技领域的制高点,而欧盟则继续从监管的视角来看待新兴技术的发展,形成了鲜明的对比。”欧洲的人工智能语言模型的研发因欧盟出于对安全的考虑而一再受阻。欧洲数据保护委员会警告称,通过搜集互联网数据来训练人工智能语言模型属于非法行为。甚至有欧盟官员提出,人工智能语言模型的使用应基于对《通用数据保护条例》及《欧盟知识产权法》的尊重。

ChatGPT或成为

传播虚假信息的最强工具

人工智能技术的高速发展助长了虚假信息的传播,而随着ChatGPT的问世,未来的人工智能语言模型可能会让虚假信息更加泛滥化,其后果令人担忧。OpenAI坚称,用户须自行承担使用ChatGPT的全部风险,OpenAI对此不承担任何责任。ChatGPT输出的信息并非100%准确,所有人工智能语言模型均存在一个共同缺陷,即“人工智能幻觉”。“人工智能幻觉”是指人工智能的自信反应,当模型出现“幻觉”时,会生成与提供的源内容无关或听起来合理但不正确的信息。研究发现,“人工智能幻觉”可能会影响ChatGPT大约15至20%的生成信息。

ChatGPT所具备的游说、撰写公文、筹办活动等功能,能够影响一国的和政策取向。某些国家很可能会借助ChatGPT来进一步加大干涉他国内政的力度,极端分子也可能会利用ChatGPT来制造恐慌。

在许多国家看来,ChatGPT的能力越强大,其危害性就越大。人工智能语言模型的滥用现象已经十分严重,这对网络安全构成了严重威胁。人工智能语言模型可用于简化代码构建、检测可疑活动、搜索安全漏洞、管理网络安全风险等正面用途,但同时也可近乎实时地模拟真人的行为,从事犯罪活动(例如发送虚假电子邮件,以诱骗受害人提供个人信息或下载恶意程序)。正因为如此,欧盟近年来一直致力于提高打击虚假信息能力,尤其是反信息操纵与干涉能力。

结语

综上所述,ChatGPT的利弊仍有待观察,但可以肯定的是,ChatGPT的到来必将深刻地影响人类的未来和发展方向。从笔者与ChatGPT的互动结果来看,ChatGPT对地缘的影响尚不明确。此外,人工智能语言模型的共同缺陷(“人工智能幻觉”),使得ChatGPT的可信度大打折扣,这意味着现今的人工智能技术存在一定的局限性,仍有较大的提升空间。

★ 本文译者:曾辉,华南理工大学公共政策研究院研究助理。

编辑:IPP传播

关于IPP华南理工大学公共政策研究院(IPP)是一个独立、非营利性的知识创新与公共政策研究平台。IPP围绕中国的体制改革、社会政策、中国话语权与国际关系等开展一系列的研究工作,并在此基础上形成知识创新和政策咨询协调发展的良好格局。IPP的愿景是打造开放式的知识创新和政策研究平台,成为领先世界的中国智库。

国家高端智库

中国情怀 国际视野