担心泄密 三星限制员工使用ChatGPT类AI工具

【新唐人北京时间2023年05月03日讯】在人工智能AI)快速发展之际,其给人们带来的忧虑也不断增长。在发现生成性人工智能工具(如ChatGPT)被滥用后,韩国科技巨头三星电子(Samsung Electronics,简称三星)正在采取措施防止信息泄露

据彭博社周二(5月2日)报导,在一些员工向ChatGPT等生成性AI工具提供公司的敏感信息后,三星在发给员工的一份备忘录中限制使用这些工具。

三星在通知中解释说,发送到ChatGPT、Google Bard和Bing等人工智能平台的数据会被存储在外部服务器上,难以对其进行检索或删除,并可能被泄露给其他人。

三星表示,员工被禁止在公司设备上使用AI工具,包括电脑、平板电脑、手机和内部网络,并要求员工不要向个人设备上的这些程序上传公司的敏感信息。

三星电子设备体验(DX)部门最近的一项调查显示,其许多员工使用ChatGPT快速获取信息和方便工作。

“我们要求你认真遵守我们的安全准则,如果不这样做,可能会导致公司信息被破坏或泄露,从而招致纪律处分,甚至包括被解雇。”备忘录中说。

该公司表示正在开发自己的人工智能程序,正在开发中的解决方案主要针对翻译和文档摘要的优化。它将被部署在一个安全的环境中,以提高员工工作的效率并增强便利性。

据韩媒4月初报导,一些三星员工将敏感代码信息上传到ChatGPT,导致公司信息外泄,引起了公司的担忧。在三星公司上个月进行的一项内部调查中,65%的受访者表示,人工智能工具带来了安全风险。

像许多科技公司一样,三星对其知识产权的保护意识很高,包括硬件和软件设计以及产品发布的路线图。虽然目前还不清楚三星的具体信息是否可以从生成性AI工具使用的大型语言模型中检索出来,但即使是抽象的信息也可能被竞争对手利用。

在AI引发越来越多争议的情况下,在三星之前,许多公司已采取了防范措施。

出于对第三方软件访问敏感信息的担忧,华尔街的银行率先限制员工使用ChatGPT,包括花旗集团、高盛和摩根大通在内。这些银行还担心聊天机器人可能会共享敏感的财务信息。

科技巨头亚马逊1月份就警告员工不要使用ChatGPT,因为聊天机器人的回应和该公司的内部数据十分相似。出于对作弊和传播错误信息的担忧,纽约市的学校禁止使用ChatGPT。

除了安全问题,近年来使用生成式AI工具也引发了伦理问题。该技术可用于生成假新闻、深度造假和生成其它误导性或恶意的内容,这可能对个人和整个社会造成严重后果。

AI工具也对多个行业产生了影响。5月2日,近万名好莱坞编剧参加美国作家协会(WGA)组织的罢工,这是编剧们16年来的首次罢工。

编剧们与电影和电视制作人联盟(AMPTP)意见不合。前者要求更高的薪水,更多地分享流媒体所赚取的利润,并保证人工智能不会被用于编剧。WGA将在编剧中使用AI比作剽窃,并表示正在努力规范这项技术,因为它“破坏了编剧的工作标准,包括薪酬”。

(记者李昭希综合报导/责任编辑:林清)

相关文章
评论