(资料图片仅供参考)

要说2023年初的互联网热点当属ChatGPT,但是最近多家公司和机构开始对ChatGPT的使用施加限制。以ChatGPT为代表的人工智能技术在给人类带来便利的同时也引发了诸多担忧。

首先是信息泄露和合规风险。摩根大通近日开始限制员工使用ChatGPT,成为第一家在工作场所限制使用ChatGPT的华尔街投行。随后,花旗集团和高盛集团也加入华尔街禁用ChatGPT之列。而此前,微软和亚马逊因担心泄露机密信息,禁止公司员工向ChatGPT分享敏感数据,因为员工输入的信息可能会被ChatGPT用作进一步迭代的训练数据。咨询公司埃森哲也出于类似原因,警告员工不要将客户信息透露给ChatGPT。

其次是内容剽窃和作弊风险。在大学和出版界,“ChatGPT禁令”已经较为普遍。为避免学生过于依赖此类工具,美国、法国、英国等多国学校发出禁令,禁止学生在学校内使用类似于ChatGPT的人工智能工具完成学习任务和考试。香港大学近日也表示,禁止在港大所有课堂、作业和评估中使用ChatGPT或其他人工智能工具。美国知名科幻杂志《克拉克世界》宣布,由于近期收到大量人工智能生成的稿件,决定停止接收投稿。在学术、应试和文学创作等领域,ChatGPT的表现十分优秀,遭到的反对也最为激烈,因为人们担心对此类软件的过度依赖将会使人丧失独立思考的能力。

此外,ChatGPT等人工智能技术对网络和数据安全的威胁也值得关注。尽管ChatGPT本身尚不具备直接攻击网络安全和数据安全的能力,但由于它具有自然语言生成和理解的能力,能够用来编程或写论文,自然也能被用来编写恶意代码、垃圾邮件等。

任何一项新技术的诞生往往伴随着弊端与风险。面对人工智能带来的挑战,相应的安全技术和监管制度应该跟上。许多大学已经在使用检测抄袭的软件,ChatGPT的开发者OpenAI公司表示,该软件的目标是与教育工作者合作,帮助教师和学生从人工智能中受益,不希望ChatGPT在学校或其他任何地方被用于误导目的,已经在开发应对措施,以帮助识别该系统生成的文本。而针对此类应用的安全风险,目前国内外已经有不少业内企业着手建设人工智能安全平台,以提升对于威胁的检测和响应能力。总体来看,只有在合理的监管和治理之下,人工智能技术才能更好地为人服务。

推荐内容