網站地圖

導航

AI人工智能算法出錯時,需要更多力量去反擊
點擊數:次  更新時間:2018-12-10 10:17

同城交友

 

政府和私營公司正在快速部署人工智能系統,但公眾缺乏在失敗時保持這些系統負責的工具。這是AI Now發布的一份新報告中的主要結論之一,AI Now是微軟和谷歌等科技公司以及紐約大學附屬公司員工的家。

 
該報告研究了人工智能和算法系統的社會挑戰,在研究人員稱之為“問責制差距”時,該技術被整合到“跨核心社會領域”。他們提出了十項建議,包括要求政府對面部識別進行監管(微軟總裁布拉德·史密斯(Brad Smith )本周也提倡的東西)和人工智能產品的“真相廣告”法律,這樣公司就不能簡單地用技術的聲譽來交易他們的服務。
 
大型科技公司已經發現自己陷入人工智能淘金熱,從招聘到醫療保健以及出售服務等眾多市場都有所收費。但是,正如AI現在的聯合創始人,谷歌開放研究小組的負責人梅雷迪思惠特克告訴相關媒體, “他們對利益和效用的許多主張并沒有得到公眾可獲得的科學證據的支持。”
 
根據泄露的內部文件,惠特克提供了IBM Watson系統的例子,該系統在Memorial Sloan Kettering癌癥中心的試驗診斷期間給出了“不安全和不正確的治療建議” 。惠特克說:“他們的營銷部門對他們的技術的近乎神奇的特性做出的聲明從未經過同行評審的研究證實。”
 
2018年是人工智能的“級聯丑聞”
 
AI Now的報告的作者說,這一事件只是2018年政府和大型科技公司部署的人工智能和算法系統的一系列“級聯丑聞”之一。其他一些涉及Facebook 幫助促進緬甸種族滅絕的指控,以及啟示作為Project Maven和Cambridge Analytica丑聞的一部分,谷歌正在幫助軍隊為無人機構建AI工具。
 
在所有這些案例中,硅谷最有價值的公司都引起了公眾的強烈抗議和內部異議。這一年,谷歌員工放棄了公司的五角大樓合同,微軟員工迫使公司停止與移民和海關執法局(ICE)合作,以及谷歌,優步,eBay和Airbnb的員工罷工,抗議涉及性騷擾的問題。
 
惠特克表示,這些抗議活動得到勞動力聯盟和AI Now自身研究倡議的支持,已成為“公眾責任的意外和可喜的力量”。

 
但報告很清楚:公眾需要更多。在政府采用自動決策系統(ADS)時,公民正義的危險尤為明顯。這些包括用于計算監禁和分配醫療援助的算法。通常,報告的作者說,軟件被引入這些領域,目的是降低成本和提高效率。但結果往往是系統做出無法解釋或上訴的決策。
 
AI Now的報告引用了一些例子,包括Tammy Dobbs,一位患有腦癱的阿肯色州居民,她的醫療補助提供的家庭護理每周減少56小時至32小時,沒有任何解釋。法律援助成功起訴了阿肯色州,并且算法分配制度被認為是違憲的。
 
惠特克和其他同事AI現任聯合創始人,微軟研究員凱特克勞福德表示,將ADS整合到政府服務中已經超過了我們審計這些系統的能力。但是,他們說,可以采取具體步驟來解決這個問題。其中包括要求向政府出售服務的技術供應商放棄商業秘密保護,從而使研究人員能夠更好地檢查他們的算法。
 
“如果我們想要公共責任,我們必須能夠審計這項技術。”
 
克勞福德說:“你必須能夠說,'你已經從醫療補助中被切斷了,這就是原因',你不能用黑盒子系統做到這一點。” “如果我們想要公共責任,我們必須能夠審計這項技術。”
 
另一個需要立即采取行動的領域,即配對,是使用面部識別和影響識別。前者越來越多地被警察部隊,中國,美國和歐洲使用。例如,亞馬遜的Rekognition軟件已由奧蘭多和華盛頓縣的警察部署,盡管測試表明該軟件在不同種族中的表現可能不同。在使用Rekognition 識別國會議員的測試中,非白人成員的錯誤率為39%,而白人成員的錯誤率僅為5%。對于影響識別,公司聲稱技術可以掃描某人的臉并閱讀他們的性格甚至意圖,AI Now的作者說公司經常兜售偽科學。

 
盡管存在這些挑戰,但Whittaker和Crawford表示,2018年已經表明,當人工智能問責制和偏見問題暴露出來時,技術員工,立法者和公眾都愿意行動而不是默許。
 
關于由硅谷最大的公司孵化的算法丑聞,克勞福德說:“他們'快速行動,打破事物'的意識形態打破了許多對我們來說非常珍貴的事情,現在我們必須開始考慮公共利益“。
 
Whittaker說:“你所看到的是,人們正在意識到網絡 - 烏托邦技術修辭與這些技術在日常生活中所使用的現實之間的矛盾。”
電話 短信 聯系
7串8奖金怎么算