AI红利背后,安全风险亮灯
创始人
2024-08-17 20:47:18
0

近年来AI办公的概念蓬勃发展,AI大模型逐渐成为许多办公人士的“亲密伙伴”。用户只需要输入具体需求,就能一键生成文章。部分掌握公司机密的办公人员在起草相关合同或文件时,为节省工作时间,违规将涉密素材和涉密文件内容输入AI 大模型生成文章,并认为只是截取文件片段,不至造成泄密。殊不知,一些AI大模型会自动收集用户输入的信息内容以供自主学习,相关数据资料有一定被泄露的风险。

然而,许多企业并没有意识到他们在使用这些技术时所面临的风险。数据隐私和安全问题是最显而易见的,却意外地经常被忽视。使用ChatGPT等工具来创建摘要或回复电子邮件的员工,可能没有意识到他们可能无意中向外界泄露了机密信息。

AI 使用的隐患

每天,数以百万计的企业都在使用聊天机器人等技术来提升客户支持,在营销中生成内容、创建受众分析,在人力资源部门筛选求职者,检测欺诈交易,优化供应链运营,或者从数据中提取商业智能见解,而一些公司已经因缺乏人工智能监管而面临风险。

在今年的WAIC(世界人工智能大会)上,奇安信集团董事长齐向东表示,大家提到的 AI 风险,一是AI本身存在安全风险,数据污染和投毒轻而易举。二是AI应用存在安全风险,数据泄露和数据滥用防不胜防。当员工向人工智能工具“投喂”数据时,极易造成敏感信息、核心机密和其他数据泄露风险;更可怕的是,不法分子还能利用所掌握的信息和数据,通过AI深度伪造技术创建虚假身份,进行换脸、换声,达到不可告人的目的。三是AI被黑客利用加剧安全风险,饱和式攻击猖獗。生成式AI可以生成恶意软件、钓鱼邮件,也可以快速发现目标系统中的漏洞,从而加速和扩大攻击规模,这大幅降低了网络攻击门槛,网络攻击数量大幅增加。

不久前,安全公司 Zenity 的联合创始人兼 CTO MichaelBargury 在黑帽安全大会上披露,微软内置于Windows 系统的 Copilot AI存在安全隐患。这些漏洞可能被利用来获取用户的敏感信息,如联系人数据,并且可以伪造邮件发送钓鱼邮件,进而诱导企业员工进行不安全的操作,例如修改银行转账信息。

研究人员通过演示展示了黑客如何利用 Copilot泄露数据和进行网络钓鱼攻击。Copilot Studio允许企业自定义聊天机器人,但这需要 AI访问企业数据,从而产生安全风险。攻击者可以通过注入恶意数据来绕过 Copilot 的防护措施。Bargury 指出,当 Al被赋予数据访问权限时,这些数据就成为了攻击的目标。

而去年 5 月,三星推出了一项新政策,要求员工不得在工作场所使用OpenAl的ChatGPT和谷歌 Bard等生成式人工智能。原因在于同年4月,该公司的一名工程师将内部源代码上传到ChatGPT后,意外泄漏了内部源代码。这让三星担忧其数据将通过人工智能平台最终落入其他用户手中。

目前,三星员工已被禁止在公司设备上使用人工智能工具,包括电脑、平板电脑、手机等,但员工仍可以在个人设备上使用。该公司还强调,若违规并导致公司信息或数据泄漏的话,员工将得到纪律处分,情节严重者将被解雇。

而台积电也发布了内部公告,提醒员工应秉持“不揭露公司信息”、“不分享个人隐私”、“不完全相信生成结果”原则谨慎使用网络工具如ChatGPT或Bing AI Chat等。

在日本,银行巨头软银则警告员工使用ChatGPT和其他商业应用,“不要输入公司身份信息或机密数据”。而瑞穗金融集团、三菱日联金融集团和三井住友银行已禁止在公司运营中使用ChatGPT和其他服务。

多地监管层已开始采取行动

许多人工智能系统的透明度和可解释性不足使企业担责。如果企业希望把握人工智能带来的变革机遇,那么明确、详细且全面的人工智能政策就显得至关重要。

首先,围绕人工智能的可接受与不可接受使用行为制定指导方针,应成为防范其潜在风险的基础步骤。然而,必须认识到,有效的人工智能政策不只是风险缓解的手段,它同样也是推动创新和增长的强大动力。

一个精心制定的人工智能政策,其作用不仅限于防御;它还能激发潜力。通过清晰地阐述如何利用人工智能提升生产力和驱动创新,政策提供了一个框架,让企业能够自信地探索和应用人工智能技术。这种明确的指导有助于营造一个环境,在保障安全和遵守道德规范的同时,培养创造性的解决方案。

积极面对这些问题,还将助力企业明确安全和负责任地使用人工智能所需的技术要素。例如,理解基于公共云的人工智能工具如ChatGPT的数据策略,对企业来说至关重要,这有助于它们识别在哪些环节需要更私密、更安全的系统,如本地基础设施。通过这样的认识,企业可以在享受人工智能带来的便利和效率提升的同时,确保数据的安全性和合规性。

作为监管一直较为严格的欧盟,其推出的《人工智能法案》,就旨在通过全面的监管框架确保AI技术的安全、透明和伦理性。法案将AI系统分为四个风险等级:不可接受风险、高风险、有限风险和最小风险。不可接受风险的系统,如社会评分系统,被全面禁止;高风险系统则需通过严格的合规性评估和认证,包括医疗设备和招聘工具等。法案强调透明性、数据治理和隐私保护,推动技术创新和市场信任。通过这种分类监管,欧盟希望保障公众利益,同时促进AI技术的健康发展。

近日,被誉为“人工智能之父”的加拿大科学家杰弗里·辛顿(Geoffrey Hinton)、被誉为“深度学习之父”的加拿大蒙特利尔大学计算机科学教授约书亚·本吉奥(Yoshua Bengio)、撰写最早AI教材的伯克利大学计算机科学教授斯图亚特·罗塞尔(Stuart Russell)以及互联网立法专家、哈佛大学法学教授劳伦斯·赖斯格(Lawrence Lessig)等专家联名签署了一封公开信,支持加州议会一项AI安全监管法案。

他们在公开信中写道:“作为最了解AI系统的专家,我们可以自信地说,(AI引发的)风险很可能存在,而且足够严重,有必要制定相关安全检测和预防措施。我们担心科技公司在追求市场份额和利润最大化的过程中,无法自己化解这些系统性风险。因此需要对这些处于AI赛道前沿的公司制定规则。”

饱受争议的加州《加州AI安全法案》(原为《前沿人工智能模型安全创新法案》)在大幅度削弱后,顺利通过加州众议院拨款委员会的审核。监管范围内的企业应主动采取措施避免模型滥用,还需要拥有紧急关闭模型的能力。此外,他们还需要提交公开声明,概述他们的安全实践。法案引入了“年检”制度,企业需要聘请独立审计员每年评估合规情况。一旦出现违法行为,企业可能面临一千万至三千万美元不等的罚款。

结语

面对AI技术的双刃剑特性,全球各地已经开始警惕 AI 带来的负面影响,从企业到立法机构,都在寻求平衡创新与安全的方法。欧盟的《人工智能法案》和加州的AI安全法案等,都是这一努力的体现。未来,通过确立明确的指导原则和安全框架,相信企业可以在安全与可持续的边界内探索AI的潜力。

相关内容

龙芯中科:通过IP授权、开...
证券之星消息,龙芯中科(688047)07月10日在投资者关系平台...
2025-07-10 21:12:41
原创 ...
在这个瞬息万变的国际局势中,菲律宾国防部长特奥多罗近日作出了一个令...
2025-07-10 17:42:24
八成受访消费企业今年拟引入...
7月10日下午,由南方都市报主办的“2025高品质消费品牌TOP1...
2025-07-10 11:43:05
“上岗”即用的AI客服、A...
目前,随着AI的大范围应用,各类AI Agent产品如雨后春笋般出...
2025-07-10 11:13:02
中国电信刘桂清:拥抱AI,...
瑞士时间7月9日,人工智能向善全球峰会(AI for Good S...
2025-07-10 11:12:36
美年健康:借助AI技术赋能...
证券之星消息,美年健康(002044)07月08日在投资者关系平台...
2025-07-09 22:13:52

热门资讯

原创 2... #春日生活好物种草季#近年来,笔记本电脑市场迎来技术爆发期,尤其在手机厂商跨界入局后,轻薄本在性能、...
AMD锐龙AI 9 HX 37... 2024年6月3日,AMD正式发布全新的锐龙AI 300系列处理器。该系列处理器一经发布就引发大家的...
骁龙本这么猛?联想YOGA A... 在人人都是自媒体的时代,一部手机可以解决出镜拍摄问题,而商务出差、大量码字、图像处理等需求用笔记本则...
5个AI模特生成软件推荐 当前AI模特生成软件市场提供了多样化的解决方案,以下是几款备受推崇的工具: 触站AI:强烈推荐!...
2023年CentOS与Ubu... CentOS与Ubuntu的市场格局与技术特性探讨 在服务器操作系统领域,CentOS与Ubuntu...
苹果macOS 15.1:允许... 苹果公司在其最新的macOS 15.1版本中,推出了一项引人注目的新功能——允许用户将Mac App...
原创 苹... 前言 IQUNIX在做好看的桌面产品上,一直都给我留下非常深刻的印象。而且早期和苹果产品的设计风格...
原创 华... 想在竞争残酷的市场中发力,必须要带来一些激进的卖点,但是随着功能特性的提升,硬件也必须要进行给力才可...
原创 华... 在2024年这个被誉为"AI元年"的关键时刻,随着生成式AI的流行,各家手机厂商都在积极备战AI手机...