ChatGPT自推出以来,发展迅猛,不仅激发了人工智能研发热潮,更是掀起了关于人工智能伦理与风险的讨论。外媒4月3日报道称,自意大利于3月31日封禁ChatGPT后,德国数据保护专员称,出于数据安全考虑,可能将效仿意大利的做法。法国和爱尔兰的隐私监管机构也表示,正与意大利数据监管机构探讨禁令依据。不少人工智能相关从业者甚至支持人工智能“末日论”,但有评论认为应警惕技术讨论背后隐藏的目的。
“争先恐后”的新兴人工智能
ChatGPT自2022年11月推出以来,一夜成名。目前有数百万人在使用这一新兴人工智能工具。ChatGPT是旧金山初创公司OpenAI开发的一款会话式人工智能聊天机器人。作为一种信息工具,ChatGPT旨在与人类尽可能自然地对话和互动。ChatGPT功能众多,不仅能回答问题、解释复杂的话题,甚至可以创建文章、社交平台帖子甚至诗歌等内容。
【资料图】
短短几个月来,ChatGPT迭代更新,也刺激了不少互联网同行加入这场“AI研发竞赛”。3月14日,OpenAI公开发布大型多模态模型GPT-4,与ChatGPT所用的模型相比,GPT-4不仅能够处理图像内容,且回复的准确性有所提高。GPT-4发布一周后,谷歌紧随其后通过博客宣布放开聊天机器人Bard的部分访问权限。3月16日,微软举办了一场AI发布会,宣布将推出名为Copilot的人工智能服务,将ChatGPT同源技术嵌入办公软件中,在办公场所辅助用户工作。3月22日,据Data.ai数据,内嵌ChatGPT的新版微软必应2月发布后下载量跃升8倍。23日ChatGPT更是迎来了重大更新,不仅可以联网获取最新资讯,更能通过与5000多个第三方插件交互实现规划差旅、比价下单等功能。3月31日,谷歌及其母公司Alphabet的CEO桑达尔·皮查伊在一档播客节目中透露,Bard将接入参数规模更大的大型语言模型PaLM,其数学和逻辑方面的能力将有所提高。
许多行业领袖、人工智能研究人员和专家学者认为以ChatGPT为代表的AI产品是一个根本性的技术转变,其重要性不亚于网络浏览器或iPhone的诞生。但ChatGPT等AI产品的迅猛发展也带来了不少安全隐患和风险担忧。
训练ChatGPT的过程基于摄入人类反馈和海量公开数据进行,因此使用ChatGPT进行创作时,可能涉嫌使用未经原创作者同意的内容而引发所有权和版权争议。不少教育工作者也担心抄袭问题,因为学生可以更容易地使用人工智能来写论文。此外,在与ChatGPT进行交互时,所提交的内容隐私并不能得到很好的保护。3月20日ChatGPT平台就出现了用户对话数据和付款服务支付信息丢失情况。23日,OpenAI的首席执行官山姆·奥特曼公开道歉承认开源库中出现错误,导致部分用户与ChatGPT的聊天记录被泄露。另据《economist》3月30日报道,韩国三星内部已发生三起涉及ChatGPT误用与滥用案例,半导体设备测量资料、产品良率等内容或已被存入ChatGPT学习资料库中。
“飙车”不可取?ChatGPT遭“封杀”
在“快车道”上急速发展的人工智能也引发了多位科技领袖的深切担忧。3月29日,包括特斯拉首席执行官埃隆·马斯克在内的1748人签署公开信,呼吁暂停训练比GPT-4更强大的人工智能系统至少6个月。这封信立即引起了各界关于人工智能伦理和风险的激烈争论。
3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,限制其开发公司OpenAI处理意大利用户信息,并开始立案调查。个人数据保护局指责微软公司支持的OpenAI没有使用任何过滤机制来验证ChatGPT用户的年龄,并且“缺乏任何法律依据来证明大规模收集和存储个人数据是合理的”。
据路透社4月3日报道,意大利禁止ChatGPT的举动,促使其他欧洲国家纷纷开始研究是否需要采取更严厉的措施来控制“广受欢迎的聊天机器人”。尽管欧洲议员们对《欧盟人工智能法案》的内容和范围存在分歧,但一些监管机构认为,让用户有权控制自己个人信息的《通用数据保护条例》等现有法规,可适用于迅速崛起的生成式人工智能公司。
法国和爱尔兰的隐私监管机构近期也表示,已与意大利个人数据保护局取得联系,以了解更多关于禁令的依据。据《德国商报》报道,德国数据保护专员表示,德国可能会效仿意大利,出于数据安全方面的考虑,封杀ChatGPT。OpenAI已于31日在意大利下线ChatGPT,截至目前未对其他欧洲监管机构在各国调查潜在违规行为的问题做出任何回应。
而针对学界对人工智能破坏学术诚信问题的担忧,据《高等教育纪事报》4月3日报道,剽窃检测服务公司Turnitin宣布推出新功能,称有“98%的信心”识别出作业中ChatGPT等工具的使用情况。据该公司称,该工具可供1万多家机构以及210万名教育工作者使用,涵盖学前教育到大学阶段。
人工智能的“兔子洞”将通向何方?
人工智能领域的资深作家莎伦·戈尔德曼在美国科技网站VentureBeat发文称,人工智能脱离实验室后,全面进入时代文化思潮,它带来诱人机会的同时,也为现实世界带来了社会危险,人类正在迈入一个人工智能权力和政治交织的“诡异新世界”。人工智能的每一个领域都像《爱丽丝梦游仙境》里的兔子洞,通向未知的世界。
戈尔德曼则敏锐指出,应用AI和AI预测之间存在明显的脱节。企业高管并不担心人工智能摧毁人类,他们只关心人工智能和机器学习是否能提高工人的工作效率、优化客户服务。但从OpenAI和Anthropic到DeepMind以及整个硅谷的顶级公司依然有不少基于TESCREAL(指超人类主义、外向主义、奇点主义、宇宙主义、理性主义、有效利他主义和长期主义)信仰问题的讨论。人工智能研究人员埃利泽·尤德科夫斯基组建的一个由理性主义者和有效利他主义者构成的庞大在线社区坚信人工智能的存在是一种风险。该社区有许多顶级人工智能实验室的研究人员参与。
前白宫科技政策办公室助理主任文卡塔苏尼安认为,“很多伪装成技术讨论的东西,背后都有一个巨大的政治议程。” 围绕人工智能的讨论已经从技术和科学领域转移到了政治和权力领域。
《洛杉矶时报》则对此有不同看法,称OpenAI的首席执行官山姆·奥特曼一边宣称他“有点害怕”公司的人工智能技术,一边“正帮助建设和尽可能广泛地推广技术,以获取利润”。报道认为,一个高调的技术公司的首席执行官或高管,反复在公众舞台上渲染对自己正在建设和销售的产品的担忧,这种行为背后的逻辑只能是“关于人工智能可怖力量的世界末日论有助于他的营销战略”。
对于人工智能众说纷纭的未来,阿斯彭研究所新兴技术主任卡维洛指出,人们对未来的预测往往充满分歧,应该尝试减少对分歧的关注,转而更多地关注一致的地方——例如,许多对通用人工智能(AGI)持不同意见的人,都认为监管是必要的、AI开发者应承担更多的责任。