時間:2018-05-28 來源:互聯網 瀏覽量:
來源:futurism
編輯:肖琴
【新智元導讀】微軟希望創建一種工具來檢測AI算法,並提醒人們算法可能基於種族或性別對待他們。
微軟公司最新加入試圖解決算法偏見的科技公司行列——算法偏見是指,提供給AI係統的數據不足,以致結果反映出社會本身的偏見或不公平的觀點。
微軟加入穀歌和Facebook的行列,創建工具來尋找未適當訓練的AI。但是微軟用於發現算法偏見的新算法隻能找到並標記算法已經存在的問題。這意味著,比如說,導致警察偏見增加的程序如果沒被發現,仍然會被建立和使用。
為了真正地創造公平、惠及每一個人的AI,需要在前端有更多關注。公司可以通過第三方來審查他們的算法,例如引入外部專家,並在代碼本身或被輸入的數據中尋找偏見的跡象。
一些人工智能公司已經開始聘請審查人員來查看他們的代碼。但這也要求AI係統足夠簡單,一遍有人能夠發現問題區域,或者要求審查人員精通代碼。對於更複雜的深度學習算法來說,這種方法並不總是可行。
另一個可能的答案是,為實際創造AI的人提供更好的培訓,這樣他們就能更好地發現自己的觀點和偏見,並防止這些偏見被算法解釋為事實。這並不意味著程序員們正在編碼種族主義機器。但是,因為每個人都有某些隱含的偏見,技術世界將會從幫助人們更好地理解他們自己的世界觀中受益。
這些都是主要的解決方案,需要對技術的開發方式進行觀念上的轉變,即使對希望開發這些過濾器和標記算法偏見的公司來說也是如此。
研究人員和公司開始關注這個問題,這是一個好的跡象。