Discuz! Board

 找回密碼
 立即註冊
搜索
熱搜: 活動 交友 discuz
查看: 2|回復: 0

据包含固有偏见或反映社

[複製鏈接]

1

主題

1

帖子

5

積分

新手上路

Rank: 1

積分
5
發表於 2025-3-5 11:31:01 | 顯示全部樓層 |閱讀模式
因此,如果训练数会偏见,人工智能系统可能会在做出决策时无意中延续和放大这些偏见。 人工智能如何会出现偏见? 研究和调查揭示了人工智能偏见的存在及其影响。例如,麻省理工学院和斯坦福大学的一篇新论文发现,知名科技公司的面部识别系统对女性和肤色较深的人的错误率更高。 实验表明,对于浅肤色男性,判断性别的错误率始终低于 0.8%,而对于深色皮肤的女性,错误率明显较高,在一个案例中超过了 20%,在另外两个案例中超过了 34%。


由于人工智能系统更容易错误识别这些人,因此它可能导致执法和 荷兰电话号码数据 招聘流程等领域出现潜在的歧视,因为这些技术可以(而且经常)用于识别可能的罪犯和执法部门通缉的人。 该研究的结果还引发了人们对这些程序中使用的神经网络的训练和评估的担忧,强调了检查面部分析系统中偏见的重要性,并表明需要进一步调查其他人工智能应用中可能存在的差异。


另一个例子是当我们分析贷款信用分析中使用的人工智能时。 贷款审批算法(也称为信用评分算法)通常被金融机构用来评估贷款申请人的信用度——如果该算法根据与少数群体相关的因素分配更高的风险分数,这些社区的个人可能难以获得贷款或受到不利的贷款条款的影响,从而延续系统性不平等并限制经济机会。 对此,负责任贷款中心拉丁裔事务主任阿拉塞利·帕纳梅尼奥 (Aracely Panameño) 表示,“输入承保算法的数据质量至关重要。



回復

使用道具 舉報

您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

Archiver|手機版|自動贊助|GameHost抗攻擊論壇

GMT+8, 2025-4-4 21:39 , Processed in 0.030920 second(s), 18 queries .

抗攻擊 by GameHost X3.4

© 2001-2017 Comsenz Inc.

快速回復 返回頂部 返回列表
一粒米 | 中興米 | 論壇美工 | 設計 抗ddos | 天堂私服 | ddos | ddos | 防ddos | 防禦ddos | 防ddos主機 | 天堂美工 | 設計 防ddos主機 | 抗ddos主機 | 抗ddos | 抗ddos主機 | 抗攻擊論壇 | 天堂自動贊助 | 免費論壇 | 天堂私服 | 天堂123 | 台南清潔 | 天堂 | 天堂私服 | 免費論壇申請 | 抗ddos | 虛擬主機 | 實體主機 | vps | 網域註冊 | 抗攻擊遊戲主機 | ddos |