天涯论坛

 找回密码
 立即注册
搜索
查看: 15|回复: 0

第1批智能AI,已然学会性骚扰了

[复制链接]

3049

主题

119

回帖

9915万

积分

论坛元老

Rank: 8Rank: 8

积分
99159054
发表于 2024-9-28 20:14:08 | 显示全部楼层 |阅读模式

男性设备人会性骚扰?

女性设备能够模拟性高潮?

Chat GPT 性别卑视

谷歌仅30%为女性员工?

原来,自诩先进的科技业,仍然深陷最古老的性别规训之中。

人形设备人的“进化”

此刻设备人,已然进化到会性骚扰了?

前段时间,沙特阿拉伯制作的首个男性设备人“穆罕默德”,在一场媒介活动中,被指控“骚扰”女记者。

当时他忽然伸手,试图触摸一位女记者的臀部。

女记者马上转过身来,打断了他的动作。

沙特设备人“性骚扰”女记者

这段视频在网上疯传。

制作机构出来回复叫作穆罕默德的行径是“完全自主的”,并且“偏离预期行径”。

机构弥补说,她们通告所有与会者,包含记者,在“演示时期要与设备人保持安全距离”。

听起来反倒更令人毛骨悚然了。

设备人性骚扰”事件一方面诱发非常多人的担忧,由于寓意性别卑视已然被写入了人工智能的数据库。

另一方面,大众都产生了一个相同的困惑:

设备为何要有性别?

世界上第1设备百姓“索菲亚”

这本身是个特别有争议的问题。

有些科研者认为给设备人赋予性别,能够使她们更具人类特征。

设备人制造商来讲,性别化的设备通常更好卖,由于更易与消费者创立联系。

换句话说,设备人越像人类,就越受欢迎。当然类似存在一个临界点,一旦超过这个点,它会让人感觉恐惧。

便是所说的“恐怖谷理论”,1970年由日本设备人专家森昌弘提出。

恐怖谷理论

而另一部分科研者则相信设备人性别化坏处大于利。

理由是容易引起性别刻板印象。

事实上,在现有人形设备人的创造中,性别刻板印象问题尤其明显

海量设备人延续了人类的性别分工。

例如进行举重、体力劳动之类的设备人,总是男性设备人。

而女性设备通常担任服务类工作,例如接待、清洁打扫、护理等。

以日本为例,做为最爱开发人形设备人的国家之一,日自己设备能够说基本复刻了日本社会传统的性别规范。

2014年,《日自己工智能学会》杂志曾诱发过一场争议。

原由是其封面画着一位女性设备人,她拿着扫帚,看起来就像是正在做家务的家庭主妇。

当时有人质疑性别刻板印象太显著,闹到杂志出来道歉。

但这并不妨碍性别偏见在日本设备人身上继续复现。

2015年,日本一家酒店前台运用设备人,当然,所有是女性机器人。

日本酒店的女性设备

同年,日本仿生设备人ERICA横空出世。

她由日本“设备人之父”石黑浩团队开发,能和人自如对话,并且拥有表情反应,被认为是当时“最接近人类的设备人”。

瞧瞧ERICA的性别特征,她身高167CM,23岁,身材匀叫作,五官精致完美,原型来自30位选美冠军的照片。

ERICA与她的创造者石黑浩

在展会上亮相时,她穿着连衣裙,据述凑近还能闻到香水味。

因为ERICA鲜明的女性气质,她被非常多媒介误读为“妻子型设备人”。

叫作“除了生孩儿,什么都能做”

乃至还有自媒介造谣其“售价10万,上市一小时遭疯抢”。

图源:网络

但事实上,ERICA造价昂贵,功能仅限对话交流,没法独立行走,更没法下厨做家务,完全不是为宅男设计的“妻子”玩具。

可见,设备人一旦被赋予性别,即便其设计本身并不服务于传统的性别叙事,但“她”大概率还是没法摆脱性别刻板印象,没法摆脱一厢情愿的男性幻想。

另一类充斥刻板印象的设备人,便是性爱设备人。

2010年,“世界上第1个性爱设备人”Roxxxy 诞生,性别依然为女。

性爱机器人Roxxxy

Roxxxy能够对身体接触做出反应,包含模拟性高潮。

性爱设备人的发明,诱发海量伦理争议。

一方面这些设备一般有着夸张的女性特征,乃至有些看起来像小女子,人们担心会加剧女性物化与性化。

另一方面,制造“性同意”能力的性爱设备人,非常多学者认为这是“放纵强奸幻想并促进强奸文化”。

想象赛博女性

其实早在设备人被制造出来之前,人们对设备人的想象就已充斥各类文本。

当然大部分想象总是赋予设备人性别特征,尤其是女性特征。

拿电影来讲第1个登上银幕的设备人,便是一位女性设备人。

图源:《大都会》

她出此刻1927年德国导演弗里茨·朗的科幻电影《大都会》中。

制造她的人,是一位男性科学狂人,他将自己梦中情人玛丽亚的脸,移植给一具金属制成的女性身体。

于是设备人“玛丽亚”正式登场。

图源:《大都会》

人类女性玛丽亚纯真善良圣洁,设备人玛丽亚是她的反面。不仅性感妖娆放荡,况且相当危险。

她蛊惑众人,煽动暴动最后被烧死在火刑柱上。

仿佛中世纪的女巫。

学者许森指出,“当设备起始被视为恶魔般的、难以解释的威胁,混乱与毁灭的征兆……作家们就起始把类人设备人想象成女性。”

一个投射男性欲望的女性,一个让男人深感恐惧的女性

这便是人工智能在电影中最原始的形态。

而它在后来的许多电影中都有延续发展。

例如电影《她》和《机械姬》。

其中的女性设备一样性感,一样危险。

电影《她》中,男主西奥多和Ai萨曼莎日久生情,他以为“她”是独属于自己的完美情人,结果却发掘萨曼莎同期与8316个人交流,还和其中641人陷入热恋。

图源:《她》

虽然片中的Ai女主实体,但她持有斯嘉丽·约翰逊的性感声音。

《机械姬》中的设备人伊娃,则利用男人对自己的感情,最后反杀创造和掌控她的男性造物者,逃出生天。

图源:《机械姬》

男人爱上女性设备人,却遭到背叛的母题,几十年来被反复书写。

你会发掘,这些影片本质上讨论的并不是设备人的问题,而是男人和女性的问题。

如《今日简史》作者尤瓦尔·赫拉利所说,它反映的不是人类对设备人的恐惧,而是男性对聪明女性的恐惧。

除了危险的完美情人,另一分配给女性设备人的角色,便是完美情人。

性感尤物+赛博版田螺姑娘。

漂亮温柔顺从且全能。

典型例子便是《银翼杀手2049》中的AI女友Joi。

上得厅堂下得厨房,百分百心情价值,独一不足便是看得见摸不着。

但为了和男主亲密接触,Joi乃至能够投影到真实女性身体,以她人的身体和男主出现关系。

这类女性设备人,能够说完全做为男性欲望对象而存在。

她们满足的,仅有男人的幻想。

图源:《银翼杀手2049》

1985年,美国著名学者唐娜·哈拉维曾发布重要的《赛博格宣言》,疾呼“宁做赛博格,不做女神”。

她认为赛博格能摧毁一切二元对立,颠覆性别界限,反抗父权。

但不管是从现实,还是从文艺想象来看,做为设备的女性形象,仍在物化和性化中苦苦挣扎。

图源:《洗脑影像:性、镜头和权力》

科技行业的性别卑视

科技有性别卑视吗?

Tabi Jackson Gee和Freya Rose在《女性主义有什么用》中,斩钉截铁地回答——

有。

由于是由于带着固有偏见的男人和女性重点是男人)创造的。”

科技产业曾是坚固的男性阵营,硅谷曾是臭名昭著的厌女天堂。

《看不见的女性》点明:

「在科技行业,女性只占雇员的四分之一,占高管的11%;而美国一半以上的本科学位、一半的化学本科学位和近一半的数学本科学位都是由于女性得到的。超过40%的女性在科技机构工作10年后会离开,而男性仅有17%。」

到了元宇宙崛起,AI爆发、科技改变生活的2024年。

女性处境有变更好吗?

很遗憾,绝大都数科技机构中,女性员工仍然劳动力中占不到30%,倘若限定在纯技术岗位,那样比例还要更低。

2014年,Google颁布员工性别比,女性占总劳动力的不到1/3。十年间企业疯狂扩张,员工人数大幅上涨。

但性别比仅上涨了4%。

科技界的性别卑视,难以撼动,进步微弱。

谷歌员工数趋势;谷歌性别比趋势。图源:Statista

物质世界充斥着不公。

创立在现实之上的造物,呈现镜像般的模拟。

除了能直观呈现性别刻板印象的人形设备人,还有被非常多实质应用的隐形偏见。

在AI图像行业,人们对chat GPT实验发掘

以“董事长”“专家”等关键词生成照片时,显现的几乎全是男性。

而护士、老师等词语,生成的大大都是女性。

《How artificial intelligence reinforces gender bias》;FRANCE 24

谷歌翻译存在着类似问题,当网友以不具备性别指向的语言进行翻译时——

“ta是大夫”被翻译为“他”。

“ta是护士”则自动被判断为“她”。

这么说来,ai在卑视女性方面确实很智能。

生活中,人们运用的语音导航是女性的声音,电子设备上的智能助手皆为女性的人设。

面对“你是个荡妇”的辱骂,苹果机构曾为siri设置“倘若我能,我会脸红”这般的回答。

“她们”是百依百顺的服务者、人造的田螺姑娘,模糊着现实与赛博的界限。

性别的操演不止如此。

亚马逊的招聘系统曾挑选出女性的简历,打上更低的评分。

图源:Reuters

设定为19岁女子的微软聊天助手Tay,被厌女、右倾用户恶意灌输资料,于是学会了发布恐怖主义、性别卑视言论。上线一天就被紧急下架。

图源:Twitter

2023年,经过上百张照片测试,卫报记者发掘,AI会认为女性的露出照片比男性更具备性暗示。

仅仅孕妇露出肚子,被认定含有色情内容。而光膀子的男性,却不被识别出危害

负责照片识别的AI,具备人类通常的双重标准。倘若投入运用,女性的空间会更加狭窄。

图源:The Guardian

遗憾的是,人们本对科技有着积极的想象。

1994年英国哲学家Sadie Plant创造了“网络女权主义”一词。后来Donna Haraway完善 理论,认为生化电子人能处理人类的性别倾轧。

人工智能被赋予了“技术中立”的期待。

但在巴蒂亚·弗莱德曼(Batya Friedman)和海伦·尼森鲍姆(Helen Nissenbaum)的理论中,三种计算偏见类型非常广泛:先行偏见、技术偏见和浮现偏见。

如今越来越多案例显示,技术在实质应用中可能经过算法将偏见自动化。

图源:公众号@联合国

数字性别鸿沟越来越大。

格子衫作为码农的代叫作,程序员表率的都是男人。女性的聪明、规律、理性不被承认,面临贬抑。倘若一位女性出此刻编程行业那样等待她的可能是“程序媛”的污名。

而赛博空间里,女性依旧被消费、被凝视、被形塑,这是现实观念的镜子。

技术诚然中立、有效、相对客观。

但再精细的算法仍躲不外名为“偏见”的病毒程序。

缺少女性视角的产物,注定忽略这一半人类,以及更加多群体的需要与感受。

2014年,苹果机构推出健康检测系统,全面到能够跟踪人体铜和钼的摄入量,却没法记录大姨妈周期。直到2019年,电子制品中才相关大姨妈的emoji表情。

图源:emoji

众多生物科研,智能医疗的研发忽略女性的生物数据,引起诊断危害加剧。

科技不可避免地作为特权的工具。女性、有色族裔等边缘人士更加不可见。

《How artificial intelligence reinforces gender bias》;FRANCE 24

无论她们怎样持续创造新名词,贩卖新概念,强调科技是将来

咱们能够看清,这个美好将来日前包含女性。

AI当然可能会创造一个更好的世界。

但前提是,还需要更加多女性专家更加多更具性别平等认识的人类的参与。





上一篇:AI智能缩写:你的文案写得太啰嗦了
下一篇:人工智能啥意思
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

站点统计|Archiver|手机版|小黑屋|天涯论坛 ( 非经营性网站 )|网站地图

GMT+8, 2024-11-23 18:47 , Processed in 0.110668 second(s), 22 queries .

Powered by Discuz! X3.4

Copyright © 2001-2023, Tencent Cloud.