“AI骗局”横行 人工智能安全亟待加码
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">人工智能的“双刃剑”效应日益<span style="color: black;">显著</span>。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">AI技术在<span style="color: black;">诱发</span>科技变革、<span style="color: black;">提高</span>生产力和效率等方面展现了充分的<span style="color: black;">潜能</span>,但与此<span style="color: black;">同期</span>,它带来的安全隐患<span style="color: black;">亦</span>越来越凸显。利用深度伪造制造假象、<span style="color: black;">操作</span>舆论<span style="color: black;">乃至</span>进行欺诈活动<span style="color: black;">已然</span>侵扰了正常的公众生活,“AI骗局”的新手段层出不穷,让人防<span style="color: black;">不堪</span>防。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">一样</span>不容<span style="color: black;">忽略</span>的是,恶意AI大模型的<span style="color: black;">显现</span>、网络钓鱼攻击以及LLM<span style="color: black;">自己</span>的安全<span style="color: black;">危害</span>等,在<span style="color: black;">区别</span>层面上放大<span style="color: black;">乃至</span>催生了新的安全隐患,给经济安全、信息安全、算法安全、数据安全等带来了威胁。中国银河证券分析师认为,人工智能在知识产权、劳动权益、伦理准则等方面存在侵权<span style="color: black;">危害</span>。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">而随着我国《<span style="color: black;">全世界</span>人工智能治理倡议》、美国《关于安全、<span style="color: black;">靠谱</span>和值得信赖的人工智能的行政命令》以及欧盟《人工智能法案》等与人工智能<span style="color: black;">关联</span>的法案发布,AI安全的<span style="color: black;">关联</span>法律规定得到完善,在AI安全问题上的法律实践有望逐步落实。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">宏观上,监管层<span style="color: black;">已然</span>“出手”。微观上,<span style="color: black;">日前</span>的形势<span style="color: black;">亦</span>对各主体提出了相应的<span style="color: black;">需求</span>。在企业层面,金社<span style="color: black;">科研</span>院分析师指出,AI<span style="color: black;">行业</span>的企业应当<span style="color: black;">思虑</span>搭建相应的AI安全与合规体系,从而<span style="color: black;">针对</span>AI的安全与合规问题形成系统性<span style="color: black;">保证</span>;对<span style="color: black;">百姓</span>个人而言,对虚假信息保持<span style="color: black;">警觉</span>是面对威胁加强<span style="color: black;">自己</span>防护的<span style="color: black;">第1</span>步。</p><img src="https://p3-sign.toutiaoimg.com/tos-cn-i-axegupay5k/1b137260a7c645289f50ad0d6df0cafb~noop.image?_iz=58558&from=article.pc_detail&lk3s=953192f4&x-expires=1723960634&x-signature=GCefg%2F1RkzHoRn16SWLYiX04c3I%3D" style="width: 50%; margin-bottom: 20px;">
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">照片</span><span style="color: black;">源自</span>:视觉中国</p>“无孔不入”<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">生成式AI面世<span style="color: black;">败兴</span>,看得见和看不见的变革和颠覆正在<span style="color: black;">连续</span>进行着,<span style="color: black;">由于</span>其<span style="color: black;">方便</span>性和应用的广泛性,AI渗透到人们工作生活的方方面面,而与之相对应的是AI<span style="color: black;">乱用</span><span style="color: black;">危害</span>的日益显露。这其中,深度伪造“劣迹昭著”。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">深度伪造(deep fake)是一种<span style="color: black;">运用</span>人工智能技术合成<span style="color: black;">名人</span>图像、音频和视频,使得伪造内容趋于真实的技术,可能滋生多种新型违法犯罪,例如利用AI合成虚假的<span style="color: black;">名人</span>图像或色情视频进行侮辱诽谤、敲诈勒索、操控舆论以制造或推动网络暴力等对社会安全造<span style="color: black;">成为了</span>威胁。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">随着生成式AI全身动作生成等技术的进步,深度伪造内容的可信度<span style="color: black;">亦</span>进一步<span style="color: black;">增多</span>。利用AI工具制作虚假色情视频进行传播、勒索等恶意<span style="color: black;">行径</span><span style="color: black;">导致</span>广泛关注。去年6月,美国网络犯罪投诉中心(IC3)发布了公共服务公告,美国联邦调查局(FBI)警示公众<span style="color: black;">警觉</span>恶意<span style="color: black;">行径</span>者利用受害者社交<span style="color: black;">媒介</span>上发布的图像和视频来AI篡改,进行性勒索和骚扰。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">其次是恶意人工智能大模型带来的威胁。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">恶意人工智能大模型<span style="color: black;">指的是</span>由<span style="color: black;">违法</span>组织或<span style="color: black;">违法</span>分子<span style="color: black;">操作</span>,借助开源模式模仿ChatGPT等合法模型,基于有害语料库训练而生滋生的、专门用于网络犯罪、诈骗等<span style="color: black;">违法</span><span style="color: black;">行径</span>的一类<span style="color: black;">违法</span>大模型。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">据说</span>,首个恶意大模型WormGPT于2021年7月在暗网发布,<span style="color: black;">重点</span>用于生成<span style="color: black;">繁杂</span>的网络钓鱼和<span style="color: black;">商场</span>电子邮件攻击及编写恶意代码。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">恶意大模型产生的直接目的<span style="color: black;">便是</span>用于各类<span style="color: black;">违法</span><span style="color: black;">行径</span>,带来的威胁<span style="color: black;">拥有</span><span style="color: black;">知道</span>指向性。恶意大模型<span style="color: black;">重点</span>运行于暗网,<span style="color: black;">拥有</span>更强的隐蔽性、<span style="color: black;">害处</span>性,对国家安全、行业创新、生产生活等方面<span style="color: black;">导致</span><span style="color: black;">害处</span>。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">AI与数据和算法联系密切,因而<span style="color: black;">亦</span>带来了潜在的安全隐患,<span style="color: black;">重点</span><span style="color: black;">触及</span>数据的隐私与<span style="color: black;">守护</span>、算法偏见与<span style="color: black;">卑视</span>和跨境数据流通三方面。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">一方面,AI在与用户交互过程中可能收集许多私密或<span style="color: black;">敏锐</span>数据,这些数据<span style="color: black;">亦</span>被用于训练AI模型。这些数据<span style="color: black;">包含</span>但不限于个人身份信息、位置数据、消费习惯,<span style="color: black;">乃至</span>是生物识别信息。<span style="color: black;">倘若</span>它们<span style="color: black;">无</span>得到充分<span style="color: black;">守护</span>或被<span style="color: black;">欠妥</span>处理,可能会<span style="color: black;">引起</span>严重的隐私<span style="color: black;">泄密</span>,<span style="color: black;">从而</span>损害个人权益,<span style="color: black;">乃至</span>威胁到社会的公共安全。另一方面,AI可基于其采集到无数个看似不<span style="color: black;">关联</span>的数据片段,<span style="color: black;">经过</span>深度挖掘分析得到<span style="color: black;">更加多</span>与用户个人信息或隐私<span style="color: black;">关联</span>的信息,<span style="color: black;">引起</span>现行的数据匿名化等安全<span style="color: black;">守护</span><span style="color: black;">办法</span>无效。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">算法偏见和<span style="color: black;">卑视</span>可能<span style="color: black;">引起</span>决策不公。<span style="color: black;">同期</span>,<span style="color: black;">按照</span>部分AI<span style="color: black;">制品</span>的运作原理,用户在对话框进行交互时,<span style="color: black;">关联</span>问答数据可能会被传输到<span style="color: black;">位置于</span>境外的<span style="color: black;">制品</span><span style="color: black;">研发</span><span style="color: black;">机构</span>,其间数据的跨境流动可能会<span style="color: black;">诱发</span>数据跨境安全问题。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">这里</span><span style="color: black;">基本</span>上,AI<span style="color: black;">制品</span>对算法、算力和数据的高度依赖,可能<span style="color: black;">引起</span>科技企业的寡头垄断。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">而除了AI带来的这些威胁,LLM(Large Language Model)<span style="color: black;">自己</span><span style="color: black;">亦</span>存在安全<span style="color: black;">危害</span>。《2024人工智能安全报告》指出,AI与大语言模型本身<span style="color: black;">伴同</span>着安全<span style="color: black;">危害</span>,业内对潜在影响的<span style="color: black;">科研</span>与<span style="color: black;">注重</span>程度仍远远不足。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">OWASP<span style="color: black;">科研</span>发布了LLM存在处理输入不安全、训练数据投毒、供应链漏洞、<span style="color: black;">敏锐</span>信息披露、过度依赖等10大安全漏洞,腾讯朱雀实验室<span style="color: black;">亦</span>发布了《AI安全威胁<span style="color: black;">危害</span>矩阵》(以下<span style="color: black;">叫作</span>“矩阵”)。矩阵以全生命周期视角来看待人工智能<span style="color: black;">行业</span>可能存在的各类安全问题,<span style="color: black;">触及</span>环境接触、数据搜集整理、模型训练等AI模型创建到投入<span style="color: black;">运用</span>的全过程<span style="color: black;">周期</span>,指出AI在各个环节可能存在的潜在<span style="color: black;">危害</span>,<span style="color: black;">包含</span>环境接触<span style="color: black;">周期</span>的Docker恶意<span style="color: black;">拜访</span>、模型<span style="color: black;">运用</span><span style="color: black;">周期</span>的数据<span style="color: black;">泄密</span>攻击等等。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">必须</span><span style="color: black;">重视</span>的是,硬件传感器<span style="color: black;">关联</span>威胁带来的对人类身体健康<span style="color: black;">乃至</span>生命安全的侵害,则是更加直接的。高度自治的AI系统,如无人驾驶汽车、医疗<span style="color: black;">设备</span>人等,一旦<span style="color: black;">显现</span>数据<span style="color: black;">泄密</span>、网络连通性差等问题,可能会<span style="color: black;">导致</span>严重的安全事故。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">2021年2月,欧盟网络安全局(ENISA)和联合<span style="color: black;">科研</span>中心(JRC)发布《在自动驾驶中采用人工智能的网络安全挑战》报告。报告总结了四种网络安全威胁,一是传感器卡塞、致盲、<span style="color: black;">诈骗</span>或饱和,攻击者<span style="color: black;">能够</span><span style="color: black;">经过</span>这种方式<span style="color: black;">操作</span>人工智能模型,降低自动决策的有效性;二是DoS/DDoS攻击,中断自动驾驶车辆可用的通信通道,使车辆<span style="color: black;">没法</span>看到<span style="color: black;">外边</span>世界,干扰自动驾驶<span style="color: black;">引起</span>车辆失速或故障;三是<span style="color: black;">操作</span>自动驾驶车辆的通信设备,劫持通信通道并<span style="color: black;">操作</span>传感器读数,<span style="color: black;">或</span>错误地<span style="color: black;">诠释</span>道路信息和标志;四是信息<span style="color: black;">泄密</span>。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">另外</span>,AI带来的威胁还<span style="color: black;">包含</span>利用AI自动化攻击、恶意软件、钓鱼邮件、口令爆破、验证码破解、社会工程学的技术支持等,种类繁多,技术<span style="color: black;">繁杂</span>。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">危害</span>和<span style="color: black;">好处</span>是同在的,在现代社会几乎是“无孔不入”。</p>AI安全治理在路上<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">在立法层面,AI安全<span style="color: black;">已然</span>踏出了重要的一步。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">今年,<span style="color: black;">全世界</span><span style="color: black;">第1</span>部关于人工智能的综合法律《人工智能法案》(以下简<span style="color: black;">叫作</span>《法案》)<span style="color: black;">已然</span>在上周由欧洲议会正式投票<span style="color: black;">准许</span><span style="color: black;">经过</span>,<span style="color: black;">关联</span>条款将分<span style="color: black;">周期</span>实施。《法案》<span style="color: black;">按照</span><span style="color: black;">危害</span>级别对人工智能系统进行<span style="color: black;">归类</span>,以界定对人的健康和安全或基本权利<span style="color: black;">形成</span>重大<span style="color: black;">危害</span>的“高<span style="color: black;">危害</span>”人工智能系统,而<span style="color: black;">针对</span>某些特定的人工智能系统,只提出了最低限度的透明度义务。其<span style="color: black;">重点</span><span style="color: black;">目的</span>之一是防范任何人工智能对健康和安全<span style="color: black;">形成</span>威胁,并<span style="color: black;">守护</span>基本权利和价值观。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">在经历深度伪造所带来的一系列<span style="color: black;">消极</span>社会事件后,美国政府于2023年10月底签署了《关于安全、<span style="color: black;">靠谱</span>和值得信赖的人工智能的行政命令》。该行政令<span style="color: black;">包括</span><span style="color: black;">创立</span>AI安全的新标准、<span style="color: black;">守护</span>美<span style="color: black;">百姓</span>众隐私等8个<span style="color: black;">目的</span>。中国银河证券分析师认为,该法案侧重于安全与隐私的高度<span style="color: black;">守护</span>,防止人工智能<span style="color: black;">引起</span>的不公平与<span style="color: black;">卑视</span>加剧,<span style="color: black;">保证</span>个体权利的<span style="color: black;">同期</span>,<span style="color: black;">提高</span>政府在人工智能数据与技术方面的管控。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">我国将引导技术发展与加强监管“并驾齐驱”,致力于<span style="color: black;">相关</span><span style="color: black;">分部</span>和行业<span style="color: black;">一起</span>完善人工智能监管体系,<span style="color: black;">关联</span>法律文件相继推出,为引导人工智能发展和监管<span style="color: black;">供给</span>法律依据。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">2023年6月,国务院宣布“人工智能法”<span style="color: black;">加入</span>立法议程。2023年10月,国家互联网信息办公室(“网信办”)发布《<span style="color: black;">全世界</span>人工智能治理倡议》,围绕人工智能发展、安全、治理三方面系统阐述了人工智能治理中国<span style="color: black;">方法</span>,强调各国应在人工智能治理中加强信息交流和技术合作,以<span style="color: black;">一起</span>促进AI治理规范和行业标准的框架搭建。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">落实到行业层面,<span style="color: black;">近期</span>,<span style="color: black;">包含</span>图灵奖得主约书亚·本吉奥、杰弗里·辛顿、姚期智等在内的数十位中外专家,在北京联合签署了《北京AI安全国际共识》,<span style="color: black;">需求</span>任何人工智能系统都<span style="color: black;">不该</span>在人类<span style="color: black;">无</span><span style="color: black;">知道</span><span style="color: black;">准许</span>和<span style="color: black;">帮助</span>的<span style="color: black;">状况</span>下复制或改进自身,<span style="color: black;">包含</span>制作<span style="color: black;">自己</span>的精确副本以及创造<span style="color: black;">拥有</span><span style="color: black;">类似</span>或更高能力的新人工智能系统。“<span style="color: black;">帮助</span>不良<span style="color: black;">行径</span>者”则<span style="color: black;">指的是</span>所有人工智能系统都<span style="color: black;">不该</span>辅助<span style="color: black;">提高</span>其<span style="color: black;">运用</span>者的能力,使之能够达到设计大规模杀伤性武器、违反生物或化学武器公约或执行<span style="color: black;">引起</span>严重财务损失或同等<span style="color: black;">损伤</span>的网络攻击<span style="color: black;">行业</span>专家的水平。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">以上法案和条令等均强调了AI在社会安全、算法安全、科技伦理安全等存在的<span style="color: black;">危害</span>,并分别给出了相应的<span style="color: black;">指点</span>和<span style="color: black;">意见</span>。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">在打击深度伪造等AI虚假信息生成方面,拜登政府出台了<span style="color: black;">关联</span>的规定和<span style="color: black;">办法</span>,<span style="color: black;">需求</span>AI生成内容加上标识和水印,并<span style="color: black;">守护</span>用户免受聊天<span style="color: black;">设备</span>人的<span style="color: black;">诈骗</span>。欧盟委员会副主席乔罗娃(Vera Jourova)<span style="color: black;">亦</span>于去年6月宣布,<span style="color: black;">需求</span>向谷歌、抖音国际版、微软、Facebook和Instagram母<span style="color: black;">机构</span>Meta等超过40家科技企业检测人工智能生成的<span style="color: black;">照片</span>、视频和文本,向用户<span style="color: black;">供给</span><span style="color: black;">知道</span>的标记。在欧盟《法案》中,<span style="color: black;">亦</span><span style="color: black;">需求</span>生成深度合成内容的AI系统<span style="color: black;">运用</span>者<span style="color: black;">必须</span>对外<span style="color: black;">通知</span>该等内容<span style="color: black;">是由于</span>AI生成或<span style="color: black;">操作</span>的,而并非真实内容。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">同期</span>,我国、美国以及欧盟等国家和地区均将数据安全视为AI安全方面最为重要的问题之一。据金杜<span style="color: black;">科研</span>院分析师整理,欧盟《法案》<span style="color: black;">需求</span>针对高<span style="color: black;">危害</span>的AI系统在系统全生命周期落实透明度<span style="color: black;">需求</span>,并且<span style="color: black;">需求</span>AI系统<span style="color: black;">供给</span>方向下游AI系统<span style="color: black;">安排</span>方、分销商等披露特定信息。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">中共中央办公厅、国务院办公厅于2022年发布了《关于加强科技伦理治理的意见》,该意见是我国首个国家层面的、专门针对科技伦理治理的<span style="color: black;">指点</span>性文件,提出了科技伦理治理原则以及基本<span style="color: black;">需求</span>。2023年10月新发布的《科技伦理审查办法(试行)》<span style="color: black;">针对</span>科技伦理审查的基本程序、标准、<span style="color: black;">要求</span>等提出统一<span style="color: black;">需求</span>,标志着我国AI伦理治理监管体系建设进入了新<span style="color: black;">周期</span>。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">AI安全的法律法规建设<span style="color: black;">已然</span>提上日程,各项法案和规定的出台<span style="color: black;">逐步</span>给AI这个新兴<span style="color: black;">行业</span>划出了“分界线”。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">AI什么<span style="color: black;">能够</span>做、什么<span style="color: black;">不该</span>该做、什么<span style="color: black;">地区</span>应该加以规范、什么<span style="color: black;">地区</span>应该严令禁止,都会在这些法律事件中逐步明晰。但这些<span style="color: black;">办法</span><span style="color: black;">是不是</span>有效,<span style="color: black;">是不是</span><span style="color: black;">即时</span>,尚<span style="color: black;">必须</span>检验。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">在针对AI带来安全威胁的<span style="color: black;">详细</span>的应对<span style="color: black;">办法</span>上,各界看法不一,但大体有一个一致的方向,即分行分业、协同治理。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">金杜<span style="color: black;">科研</span>院分析师认为,当前我国的实践中,AI<span style="color: black;">行业</span>的企业应当<span style="color: black;">思虑</span>搭建相应的AI安全与合规体系,从而对AI的安全与合规问题形成系统性<span style="color: black;">保证</span>。在内部合规管理体系上,<span style="color: black;">意见</span>AI<span style="color: black;">行业</span>企业<span style="color: black;">按照</span><span style="color: black;">自己</span><span style="color: black;">实质</span><span style="color: black;">状况</span>判断<span style="color: black;">是不是</span><span style="color: black;">必须</span>办理特殊资质证照,在<span style="color: black;">外边</span>合作层面,提出企业应当<span style="color: black;">思虑</span>AI安全方面的<span style="color: black;">需求</span>,在互联网应用层面指出企业在<span style="color: black;">触及</span>AIGC平台等互联网应用时应<span style="color: black;">思虑</span>到其对信息安全、数据安全<span style="color: black;">导致</span>的<span style="color: black;">危害</span>,修订用户协议、隐私政策等文件。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">AI安全是一个不容<span style="color: black;">忽略</span>又实时更新的问题,道远路长,<span style="color: black;">亦</span>或许将有超<span style="color: black;">显现</span>有认知的挑战,<span style="color: black;">必须</span>每一个主体的不懈求索。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">更加多</span>内容请下载21财经APP</p>
交流如星光璀璨,点亮思想夜空。 楼主节操掉了,还不快捡起来!
页:
[1]