“風險評估”評分是一種用來計算刑事被告未來犯罪幾率的工具,它正在成為一種常見的現象,為全國刑事司法系統的量刑程式和其他步驟提供資訊。但批評人士長期以來一直指責,這種評估可能是緩解負擔過重的制度的一種方式,對少數民族的傷害不成比例。
黑人被告被錯誤地預測犯罪率是白人被告的兩倍
ProPublica的非營利調查小組分析了佛羅裡達州布勞沃德縣兩年來逮捕的7000多人的風險得分,希望能為這場辯論增添一些資料,追蹤在未來兩年裡誰被指控犯有新的罪行。這份出版物報道了從這一分析中得出的一些令人不安的發現。
ProPublica稱,該縣使用的演算法錯誤地預測了黑人被告未來的犯罪率,幾乎是白人被告的兩倍。控制種族與犯罪史、年齡和性別等因素的資料,黑人被告的犯罪率仍然相當高。總的來說,這份出版物寫道,只有20%的被告預測會犯下暴力罪行。
該縣使用一個名為Northpointe的公司提供的系統。ProPublica寫道,為了得出評估分數,該公司使用了一份問卷,問卷中有這樣的問題:“你的父母中有人被送進過監獄或監獄嗎?”儘管不包括關於種族的問題,但有些問題可能與種族有關。Northpointe對這份報告的分析提出了異議,儘管它說它的具體計算是專有的。
儘管有這樣的爭議,風險評估的想**在獲得相當大的吸引力。正如ProPublica所指出的,一項懸而未決的量刑改革法案將要求聯邦監獄使用風險評估。
...。“種族隔離”一詞代表了幾百年來南非白人壓制和歧視黑人和有色人種的方式。這種歧視終於結束了,因為第一位聖雄甘地(Mahatma Gandhi)在20世紀初為印第安人和有色人種的權利而不懈努力,後來又以納爾遜·曼德拉(Nelson Ma...
... 此後,使用者發現了智慧裁剪演算法中的一個缺陷。當用戶在Twitter上釋出一張白人和黑人的照片時,Twitter的自動裁剪工具會不斷地從圖片預覽中裁剪出黑人。其他使用者甚至對黑色卡通人物的照片進...
...成比例的影響。直到今年7月,Facebook才表示將開始研究其演算法中的種族偏見,此前,Facebook的高管們花了數年時間,為其主要應用程式和Instagram組建了新的專注於研究的股票團隊,以**這種做法。 現在,該公司表示,它正在採...
...的分數,這對許多人來說是個好訊息,但即使使用教師的預測也會帶來自身的問題。正如《連線》所指出的,一些研究表明,這種預測可能會受到自身種族偏見的影響。2009年的一項研究發現,在一組英語考試中,巴基斯坦學生...
...網路和Instagram的種族偏見,特別是其使用人工智慧訓練的演算法是否會對黑人、西班牙裔和其他代表性不足的群體產生不利影響。Facebook的一位發言人告訴Verge,這個團隊將“負責確保我們所做的每件事都有公平和公平的產品開...
...後者。該公司上週推出了產品搜尋,但由於使用者發現其演算法存在偏差和不準確之處,在社交媒體上引起了大量關注。 例如,在Genderify中鍵入名稱“Meghan Smith”,服務將提供評估:“**:39.60%,**:60.40%”。但是,將該名稱更...
... 他說,公司將專注於四個領域:騷擾、驗證、分發和演算法偏差。為了解決騷擾問題,Mosseri表示,公司將研究其黑人使用者在Instagram內外體驗到的具體安全問題,以及如何保護人們免受這些問題的影響。它還將檢查用於驗...
...拉克奧巴馬(Barack Obama)的一張低解析度照片輸入到一個演算法中,該演算法設計用於生成不相關的人臉,輸出的是一個白人。 也不僅僅是奧巴馬。用同樣的演算法,從低解析度的輸入中生成女演員Lucy Liu或女議員Ale...
...學家組成的聯盟呼籲學術界停止發表聲稱利用面部掃描和犯罪統計等資料訓練的演算法來預測個人犯罪行為的研究。 關鍵技術聯盟說,這樣的工作不僅在科學上是文盲,而且使對黑人和有色人種的偏見迴圈永久化。...