天涯论坛

 找回密码
 立即注册
搜索
查看: 65|回复: 2

“AI骗局”横行 人工智能安全亟待加码

[复制链接]

3039

主题

148

回帖

9911万

积分

论坛元老

Rank: 8Rank: 8

积分
99119141
发表于 2024-8-19 08:06:15 | 显示全部楼层 |阅读模式

人工智能的“双刃剑”效应日益显著

AI技术在诱发科技变革、提高生产力和效率等方面展现了充分的潜能,但与此同期,它带来的安全隐患越来越凸显。利用深度伪造制造假象、操作舆论乃至进行欺诈活动已然侵扰了正常的公众生活,“AI骗局”的新手段层出不穷,让人防不堪防。

一样不容忽略的是,恶意AI大模型的显现、网络钓鱼攻击以及LLM自己的安全危害等,在区别层面上放大乃至催生了新的安全隐患,给经济安全、信息安全、算法安全、数据安全等带来了威胁。中国银河证券分析师认为,人工智能在知识产权、劳动权益、伦理准则等方面存在侵权危害

而随着我国《全世界人工智能治理倡议》、美国《关于安全、靠谱和值得信赖的人工智能的行政命令》以及欧盟《人工智能法案》等与人工智能关联的法案发布,AI安全的关联法律规定得到完善,在AI安全问题上的法律实践有望逐步落实。

宏观上,监管层已然“出手”。微观上,日前的形势对各主体提出了相应的需求。在企业层面,金社科研院分析师指出,AI行业的企业应当思虑搭建相应的AI安全与合规体系,从而针对AI的安全与合规问题形成系统性保证;对百姓个人而言,对虚假信息保持警觉是面对威胁加强自己防护的第1步。

照片源自:视觉中国

“无孔不入”

生成式AI面世败兴,看得见和看不见的变革和颠覆正在连续进行着,由于方便性和应用的广泛性,AI渗透到人们工作生活的方方面面,而与之相对应的是AI乱用危害的日益显露。这其中,深度伪造“劣迹昭著”。

深度伪造(deep fake)是一种运用人工智能技术合成名人图像、音频和视频,使得伪造内容趋于真实的技术,可能滋生多种新型违法犯罪,例如利用AI合成虚假的名人图像或色情视频进行侮辱诽谤、敲诈勒索、操控舆论以制造或推动网络暴力等对社会安全造成为了威胁。

随着生成式AI全身动作生成等技术的进步,深度伪造内容的可信度进一步增多。利用AI工具制作虚假色情视频进行传播、勒索等恶意行径导致广泛关注。去年6月,美国网络犯罪投诉中心(IC3)发布了公共服务公告,美国联邦调查局(FBI)警示公众警觉恶意行径者利用受害者社交媒介上发布的图像和视频来AI篡改,进行性勒索和骚扰。

其次是恶意人工智能大模型带来的威胁。

恶意人工智能大模型指的是违法组织或违法分子操作,借助开源模式模仿ChatGPT等合法模型,基于有害语料库训练而生滋生的、专门用于网络犯罪、诈骗等违法行径的一类违法大模型。

据说,首个恶意大模型WormGPT于2021年7月在暗网发布,重点用于生成繁杂的网络钓鱼和商场电子邮件攻击及编写恶意代码。

恶意大模型产生的直接目的便是用于各类违法行径,带来的威胁拥有知道指向性。恶意大模型重点运行于暗网,拥有更强的隐蔽性、害处性,对国家安全、行业创新、生产生活等方面导致害处

AI与数据和算法联系密切,因而带来了潜在的安全隐患,重点触及数据的隐私与守护、算法偏见与卑视和跨境数据流通三方面。

一方面,AI在与用户交互过程中可能收集许多私密或敏锐数据,这些数据被用于训练AI模型。这些数据包含但不限于个人身份信息、位置数据、消费习惯,乃至是生物识别信息。倘若它们得到充分守护或被欠妥处理,可能会引起严重的隐私泄密从而损害个人权益,乃至威胁到社会的公共安全。另一方面,AI可基于其采集到无数个看似不关联的数据片段,经过深度挖掘分析得到更加多与用户个人信息或隐私关联的信息,引起现行的数据匿名化等安全守护办法无效。

算法偏见和卑视可能引起决策不公。同期按照部分AI制品的运作原理,用户在对话框进行交互时,关联问答数据可能会被传输到位置于境外的制品研发机构,其间数据的跨境流动可能会诱发数据跨境安全问题。

这里基本上,AI制品对算法、算力和数据的高度依赖,可能引起科技企业的寡头垄断。

而除了AI带来的这些威胁,LLM(Large Language Model)自己存在安全危害。《2024人工智能安全报告》指出,AI与大语言模型本身伴同着安全危害,业内对潜在影响的科研注重程度仍远远不足。

OWASP科研发布了LLM存在处理输入不安全、训练数据投毒、供应链漏洞、敏锐信息披露、过度依赖等10大安全漏洞,腾讯朱雀实验室发布了《AI安全威胁危害矩阵》(以下叫作“矩阵”)。矩阵以全生命周期视角来看待人工智能行业可能存在的各类安全问题,触及环境接触、数据搜集整理、模型训练等AI模型创建到投入运用的全过程周期,指出AI在各个环节可能存在的潜在危害包含环境接触周期的Docker恶意拜访、模型运用周期的数据泄密攻击等等。

必须重视的是,硬件传感器关联威胁带来的对人类身体健康乃至生命安全的侵害,则是更加直接的。高度自治的AI系统,如无人驾驶汽车、医疗设备人等,一旦显现数据泄密、网络连通性差等问题,可能会导致严重的安全事故。

2021年2月,欧盟网络安全局(ENISA)和联合科研中心(JRC)发布《在自动驾驶中采用人工智能的网络安全挑战》报告。报告总结了四种网络安全威胁,一是传感器卡塞、致盲、诈骗或饱和,攻击者能够经过这种方式操作人工智能模型,降低自动决策的有效性;二是DoS/DDoS攻击,中断自动驾驶车辆可用的通信通道,使车辆没法看到外边世界,干扰自动驾驶引起车辆失速或故障;三是操作自动驾驶车辆的通信设备,劫持通信通道并操作传感器读数,错误地诠释道路信息和标志;四是信息泄密

另外,AI带来的威胁还包含利用AI自动化攻击、恶意软件、钓鱼邮件、口令爆破、验证码破解、社会工程学的技术支持等,种类繁多,技术繁杂

危害好处是同在的,在现代社会几乎是“无孔不入”。

AI安全治理在路上

在立法层面,AI安全已然踏出了重要的一步。

今年,全世界第1部关于人工智能的综合法律《人工智能法案》(以下简叫作《法案》)已然在上周由欧洲议会正式投票准许经过关联条款将分周期实施。《法案》按照危害级别对人工智能系统进行归类,以界定对人的健康和安全或基本权利形成重大危害的“高危害”人工智能系统,而针对某些特定的人工智能系统,只提出了最低限度的透明度义务。其重点目的之一是防范任何人工智能对健康和安全形成威胁,并守护基本权利和价值观。

在经历深度伪造所带来的一系列消极社会事件后,美国政府于2023年10月底签署了《关于安全、靠谱和值得信赖的人工智能的行政命令》。该行政令包括创立AI安全的新标准、守护百姓众隐私等8个目的。中国银河证券分析师认为,该法案侧重于安全与隐私的高度守护,防止人工智能引起的不公平与卑视加剧,保证个体权利的同期提高政府在人工智能数据与技术方面的管控。

我国将引导技术发展与加强监管“并驾齐驱”,致力于相关分部和行业一起完善人工智能监管体系,关联法律文件相继推出,为引导人工智能发展和监管供给法律依据。

2023年6月,国务院宣布“人工智能法”加入立法议程。2023年10月,国家互联网信息办公室(“网信办”)发布《全世界人工智能治理倡议》,围绕人工智能发展、安全、治理三方面系统阐述了人工智能治理中国方法,强调各国应在人工智能治理中加强信息交流和技术合作,以一起促进AI治理规范和行业标准的框架搭建。

落实到行业层面,近期包含图灵奖得主约书亚·本吉奥、杰弗里·辛顿、姚期智等在内的数十位中外专家,在北京联合签署了《北京AI安全国际共识》,需求任何人工智能系统都不该在人类知道准许帮助状况下复制或改进自身,包含制作自己的精确副本以及创造拥有类似或更高能力的新人工智能系统。“帮助不良行径者”则指的是所有人工智能系统都不该辅助提高运用者的能力,使之能够达到设计大规模杀伤性武器、违反生物或化学武器公约或执行引起严重财务损失或同等损伤的网络攻击行业专家的水平。

以上法案和条令等均强调了AI在社会安全、算法安全、科技伦理安全等存在的危害,并分别给出了相应的指点意见

在打击深度伪造等AI虚假信息生成方面,拜登政府出台了关联的规定和办法需求AI生成内容加上标识和水印,并守护用户免受聊天设备人的诈骗。欧盟委员会副主席乔罗娃(Vera Jourova)于去年6月宣布,需求向谷歌、抖音国际版、微软、Facebook和Instagram母机构Meta等超过40家科技企业检测人工智能生成的照片、视频和文本,向用户供给知道的标记。在欧盟《法案》中,需求生成深度合成内容的AI系统运用必须对外通知该等内容是由于AI生成或操作的,而并非真实内容。

同期,我国、美国以及欧盟等国家和地区均将数据安全视为AI安全方面最为重要的问题之一。据金杜科研院分析师整理,欧盟《法案》需求针对高危害的AI系统在系统全生命周期落实透明度需求,并且需求AI系统供给方向下游AI系统安排方、分销商等披露特定信息。

中共中央办公厅、国务院办公厅于2022年发布了《关于加强科技伦理治理的意见》,该意见是我国首个国家层面的、专门针对科技伦理治理的指点性文件,提出了科技伦理治理原则以及基本需求。2023年10月新发布的《科技伦理审查办法(试行)》针对科技伦理审查的基本程序、标准、要求等提出统一需求,标志着我国AI伦理治理监管体系建设进入了新周期

AI安全的法律法规建设已然提上日程,各项法案和规定的出台逐步给AI这个新兴行业划出了“分界线”。

AI什么能够做、什么不该该做、什么地区应该加以规范、什么地区应该严令禁止,都会在这些法律事件中逐步明晰。但这些办法是不是有效,是不是即时,尚必须检验。

在针对AI带来安全威胁的详细的应对办法上,各界看法不一,但大体有一个一致的方向,即分行分业、协同治理。

金杜科研院分析师认为,当前我国的实践中,AI行业的企业应当思虑搭建相应的AI安全与合规体系,从而对AI的安全与合规问题形成系统性保证。在内部合规管理体系上,意见AI行业企业按照自己实质状况判断是不是必须办理特殊资质证照,在外边合作层面,提出企业应当思虑AI安全方面的需求,在互联网应用层面指出企业在触及AIGC平台等互联网应用时应思虑到其对信息安全、数据安全导致危害,修订用户协议、隐私政策等文件。

AI安全是一个不容忽略又实时更新的问题,道远路长,或许将有超显现有认知的挑战,必须每一个主体的不懈求索。

更加多内容请下载21财经APP





上一篇:看似“人工智能”,实则“人为陷阱” 揭开借助AI技术实施诈骗的新招数
下一篇:ai撰写论文可靠吗?安全吗?
回复

使用道具 举报

0

主题

1万

回帖

1

积分

新手上路

Rank: 1

积分
1
发表于 2024-9-8 16:54:50 | 显示全部楼层
交流如星光璀璨,点亮思想夜空。
回复

使用道具 举报

3138

主题

3万

回帖

9996万

积分

论坛元老

Rank: 8Rank: 8

积分
99968624
发表于 2024-10-26 01:25:46 | 显示全部楼层
楼主节操掉了,还不快捡起来!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

站点统计|Archiver|手机版|小黑屋|天涯论坛 ( 非经营性网站 )|网站地图

GMT+8, 2024-11-23 10:27 , Processed in 0.134215 second(s), 22 queries .

Powered by Discuz! X3.4

Copyright © 2001-2023, Tencent Cloud.