《血汗AI》的預言:你未來的老闆可能是一台機器 | 報導者 亞馬遜的案例所示,種族化與性別化的系統會影響個人使用的語言類型、行為模式,以及別人看待他們的方式,即使據稱是中立的演算法,在執行評估時亦是如此。因此,如果演算法只被訓練去看到履歷中提及的性格特質、具體技能與某些關鍵字的普遍性,依然可能產生歧視性的結果。 阅读报道 | 封存报道 更多来自 #報導者 分享到: 共享到 X(在新窗口中打开) X 在 Facebook 上共享(在新窗口中打开) Facebook 赞 正在加载…… Related