二维码
 天天资讯云

扫一扫关注

当前位置: 首页 » 新闻资讯 » 企业新闻 » 正文

一项新研究提供了一种更好的方法,让人工智能对每个人都更公平

放大字体  缩小字体 发布日期:2025-01-14 07:06:44    来源:本站    作者:admin    浏览次数:53    评论:0
导读

      在一篇新论文中,来自卡内基梅隆大学和史蒂文斯理工学院的研究人员展示了一种思考人工智能决策的公平影响的新方式。

  

  person and decision

  在一篇新论文中,来自卡内基梅隆大学和史蒂文斯理工学院的研究人员展示了一种思考人工智能决策的公平影响的新方式。

  他们借鉴了一个被称为社会福利优化的传统,该传统旨在通过关注个人的整体利益和伤害来做出更公平的决策。该方法可用于评估人工智能公平性的行业标准评估工具,该工具查看受保护群体的批准率。

  卡内基梅隆大学泰珀商学院运筹学教授约翰·胡克(John Hooker)解释说:“在评估公平性时,人工智能社区试图确保在经济水平、种族、民族背景、性别和其他类别上不同的群体得到公平对待。”他是这项研究的合著者,并于5月29日在瑞典乌普萨拉举行的约束规划、人工智能和运筹学集成国际会议(CPAIOR)上发表了这篇论文。这篇论文获得了最佳论文奖。

  想象一下,人工智能系统决定谁可以获得抵押贷款或谁可以获得工作面试的情况。传统的公平方法可能只能确保来自不同群体的相同比例的人获得批准。

  但是,如果被拒绝抵押贷款对弱势群体的负面影响要比对优势群体的负面影响大得多呢?通过采用社会福利优化方法,人工智能系统可以做出对每个人,特别是弱势群体都有更好结果的决策。

  这项研究的重点是“阿尔法公平”,这是一种在公平和为每个人获得最大利益之间找到平衡的方法。Alpha公平可以根据情况调整,或多或少地平衡公平和效率。

  Hooker和他的合著者展示了如何使用社会福利优化来比较目前人工智能中使用的群体公平的不同评估。通过使用这种方法,我们可以了解在不同的环境中应用不同的群体公平工具的好处。它还将这些群体公平评估工具与经济学和工程学中使用的更广泛的公平效率标准联系起来。

  泰珀商学院商业伦理学副教授德里克·莱本(Derek Leben)和史蒂文斯理工学院助理教授维奥莱特·陈(Violet Chen)共同撰写了这项研究。陈在泰珀商学院获得博士学位。

  莱本说:“我们的研究结果表明,社会福利优化可以揭示如何在人工智能中实现群体公平这一激烈讨论的问题。”

  这项研究对人工智能系统开发者和政策制定者都很重要。开发者可以通过采用更广泛的公平方法并理解公平措施的局限性来创造更公平和有效的AI模型。它还强调了在人工智能发展中考虑社会公正的重要性,确保技术促进社会不同群体之间的公平。

  该论文发表在CPAIOR 2024 Proceedings上。

  更多信息请参见:陈薇等,基于社会福利优化的群体公平评估,约束规划、人工智能与运筹学的集成(2024)。引文:新的研究提供了一种更好的方法,使人工智能对每个人都更公平(2024,6月5日)检索自https://techxplore.com/news/2024-06-ai-fairer.html本文受版权保护。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。

 
(文/admin)
打赏
免责声明
• 
部分文章来源于网络,我们均标明出处,如果您不希望我们展现您的文章,请与我们联系,我们会尽快处理。
0相关评论
 

(c)2023-2023 www.pec33.com All Rights Reserved

苏ICP备10204009号