微信扫一扫 马上订阅 新闻爱好者小程序

看不见的“大象”:算法中的性别歧视
作者:范红霞 孙金波
来源:  发布时间:2021-11-04  点击量:1325次
【摘要】随着算法的适用场景越来越广泛,各种算法推荐和算法模型日益左右着我们的认知与决策,而算法偏见和算法歧视问题也逐渐暴露出来。从算法偏见、数据库偏差和认知语言及编码歧视等角度分析算法性别歧视的表现和成因发现,算法中的性别歧视将加重对女性的物化和数字化异化,会进一步加大“数字性别鸿沟”。因此必须在伦理、法律和技术规则方面加强规制,通过算法正义,推动性别平等化。
一、技术与性别歧视   随着算法的适用场景越来越广泛,各种算法推荐和算法模型日益左右着我们的认知与决策,而算法偏见和算法歧视问题也逐渐暴露出来。人们担心因为性别、种族、年龄和身份地位等方面的歧视,会蔓延到人工智能和算法技术中,从而将现实中的偏见、不公正和不平等复制到技术领域,加重社会分化和意识形态分裂的危机。 事实上,这些担忧在某种程度上也恰恰成为现实。如卡内基梅隆大学Amit Datta等学者研究了求职者性别与招聘广告推送的关系,利用数据软件发现男性用户组收到“年薪在20万美元以上”职位推荐的数量是女性用户组的6倍。[1]另外,据路透社2018年的报道,亚马逊公司研发出来的自动招聘系统存在性别歧视的问题,该系统在对求职者的简历进行筛选时,会对女性求职者进行降级处理,而提高男性候选人的排名。[2]在当下流行的共享经济模式中,也出现了性别不平等的倾向。张凌寒通过实证研究的方式发现,像家政、代驾、保姆、外卖员这一类的工作,在传统就业模式中就存在性别不平等关系以及对工人的剥削和歧视,且在共享经济灵活就业中更得到了加强——如通过平台评级和评论系统,使得性别弱势、低收入、受教育程度低等弱势群体的弱势地位随着共享经济灵活就业的发展进一步加强。[3] 技术女性主义者认为女性被排除在技术之外,始于人类社会最初的劳动分工,女性负责采摘果
立即购买,享受随时随地阅读的乐趣 ¥ 3.00
上一篇:国际传播视域下外宣主流媒体提升国   下一篇:新媒体环境中的网络诚信与生态自净

打赏

2018人打赏
全部评论 0
查看更多评论
新闻爱好者 2024年第4期 总第556期 出版时间 2024年4月 查看详细内容

Yaoyuan_lucky

  • ¥5
  • ¥10
  • ¥15
  • ¥20
  • 其他金额
支付类型: