翻譯|行業(yè)資訊|編輯:況魚(yú)杰|2020-11-02 15:36:16.123|閱讀 963 次
概述:現(xiàn)在算法已成為日常生活中不可或缺的一部分。算法會(huì)為我們提供建議,這些建議是我們的GPS建議我們開(kāi)車(chē)去的路線,我們選擇的音樂(lè)流媒體服務(wù)為我們播放的播放列表,我們的社交媒體帳戶(hù)認(rèn)為我們希望與之成為朋友的人。
# 界面/圖表報(bào)表/文檔/IDE等千款熱門(mén)軟控件火熱銷(xiāo)售中 >>
現(xiàn)在算法已成為日常生活中不可或缺的一部分。算法會(huì)為我們提供建議,這些建議是我們的GPS建議我們開(kāi)車(chē)去的路線,我們選擇的音樂(lè)流媒體服務(wù)為我們播放的播放列表,我們的社交媒體帳戶(hù)認(rèn)為我們希望與之成為朋友的人。
但是,諸如2018年Cambridge Analytica和Facebook丑聞之類(lèi)的爭(zhēng)議使我們對(duì)與數(shù)據(jù)捕獲,分析和利用方式有關(guān)的道德準(zhǔn)則進(jìn)行了三思。
數(shù)據(jù)和可用于挖掘它們的算法不是敵人。每天與自己選擇的智能家居設(shè)備對(duì)話的任何人都可以證明,負(fù)責(zé)任地收集和挖掘數(shù)據(jù)可以改善我們的生活。但是一切都應(yīng)該在確保隱私得到保護(hù)的情況下,應(yīng)該是符合道德的開(kāi)發(fā),想要實(shí)現(xiàn)這一目標(biāo)的關(guān)鍵是透明度機(jī)制。
在2016年,研究安德魯·塔特(Andrew Tutt)呼吁采用“ FDA演算法”,
“日益復(fù)雜的算法的興起要求人們對(duì)如何最好地預(yù)防,阻止和補(bǔ)償其造成的危害進(jìn)行批判性思考。算法監(jiān)管將需要聯(lián)邦統(tǒng)一性,專(zhuān)家判斷,政治獨(dú)立性和上市前審查來(lái)預(yù)防-而不扼殺創(chuàng)新 –將不可接受的危險(xiǎn)算法引入市場(chǎng)”。
代替現(xiàn)有的權(quán)威,可以看一下機(jī)器學(xué)習(xí)的公平性,問(wèn)責(zé)制和透明度所創(chuàng)建的開(kāi)發(fā)原則,以幫助開(kāi)發(fā)人員和產(chǎn)品經(jīng)理以公開(kāi)負(fù)責(zé)的方式設(shè)計(jì)和實(shí)現(xiàn)算法系統(tǒng):
為算法決策系統(tǒng)對(duì)個(gè)人或社會(huì)的不利影響提供外部可見(jiàn)的補(bǔ)救途徑,并為負(fù)責(zé)及時(shí)解決此類(lèi)問(wèn)題的人員指定內(nèi)部角色。
確保可以以非技術(shù)性的方式向最終用戶(hù)和其他利益相關(guān)者解釋算法決策以及驅(qū)動(dòng)這些決策的任何數(shù)據(jù)。
在整個(gè)算法及其數(shù)據(jù)源中識(shí)別,記錄和闡明錯(cuò)誤和不確定性的來(lái)源,以便可以理解預(yù)期和最壞情況的影響并為緩解程序提供信息。
通過(guò)提供可進(jìn)行監(jiān)視,檢查或批評(píng)的信息,包括提供詳細(xì)的文檔,技術(shù)上合適的API和允許的使用條款,使感興趣的第三方能夠探查,理解和審查算法的行為。
在跨不同受眾特征(例如種族,性別等)進(jìn)行比較時(shí),請(qǐng)確保算法決策不會(huì)產(chǎn)生歧視性或不公正的影響。
可以肯定地說(shuō),算法并不會(huì)像人類(lèi)一樣會(huì)出現(xiàn)例如疲勞這一類(lèi)的錯(cuò)誤,但是使用算法進(jìn)行決策存在局限性,這進(jìn)一步強(qiáng)調(diào)了負(fù)責(zé)任的開(kāi)發(fā)的重要性。透明度和“黑匣子”效應(yīng)通常被認(rèn)為是算法的局限性,對(duì)于研究人員來(lái)說(shuō),了解他們打算使用的任何算法的工作原理,了解其是否適合目的尤其重要。
機(jī)器學(xué)習(xí)算法經(jīng)過(guò)訓(xùn)練,可以根據(jù)并非總是具有代表性的數(shù)據(jù)提出建議,因此,系統(tǒng)性偏差可能會(huì)被忽略,并且會(huì)隨著時(shí)間的流逝而擴(kuò)散。在研究環(huán)境中控制所有數(shù)據(jù)的要素至關(guān)重要。出于同樣的原因,當(dāng)計(jì)算機(jī)崩潰或我們生活中的另一臺(tái)設(shè)備出現(xiàn)故障時(shí),我們常常會(huì)感到驚訝-我們傾向于將算法視為無(wú)懈可擊。但是,重要的是要了解它們的平均性能,并且只能進(jìn)一步強(qiáng)調(diào)研究環(huán)境中對(duì)透明度和控制的需求。
表面上部署好算法的恐怖故事不乏其人,只是產(chǎn)生了相當(dāng)負(fù)面的結(jié)果。例如,2016年,Microsoft的工程師創(chuàng)建了一個(gè)名為“ Tay”的Twitter機(jī)器人,該機(jī)器人由算法驅(qū)動(dòng),使其能夠根據(jù)發(fā)布的推文對(duì)“千禧一代”做出回應(yīng)。然而,在數(shù)小時(shí)之內(nèi),Tay在推特上發(fā)布了種族主義,性別歧視和否認(rèn)大屠殺的推文,證明了這項(xiàng)技術(shù)是容易犯錯(cuò)的,它只是學(xué)習(xí)了然后反映了目標(biāo)受眾的性別歧視和種族主義偏見(jiàn)。
2017年初,亞馬遜的Alexa智能家居設(shè)備成為頭條新聞,當(dāng)時(shí)達(dá)拉斯的一名6歲女孩在與該設(shè)備進(jìn)行了關(guān)于她對(duì)這些東西的愛(ài)的交談之后,能夠?yàn)樽约河嗁?gòu)160美元的玩具屋和一罐餅干。隨著這個(gè)故事在全國(guó)范圍內(nèi)引起了人們的關(guān)注,據(jù)報(bào)道,基于收聽(tīng)電視新聞報(bào)道,Alexa設(shè)備為其他家庭下了同樣的訂單。
這些示例說(shuō)明了需要特別注意針對(duì)機(jī)器學(xué)習(xí)開(kāi)發(fā)的算法,以及開(kāi)發(fā)負(fù)責(zé)人在確保限制意外后果方面所起的作用。
對(duì)于在工作中使用該技術(shù)的研究人員,人工智能提出了“黑匣子”的概念。但是,只要開(kāi)發(fā)人員將透明性和研究人員的控制原則結(jié)合起來(lái),軟件就可以成為盟友并被視為研究助手。而在QSR,也將繼續(xù)以我們的研究基礎(chǔ)開(kāi)發(fā)這些工具,以使其更加準(zhǔn)確,透明,并最終改善研究人員的工作壽命。
慧都為您傾情推薦算法專(zhuān)題>>,更多有關(guān)算法的軟件和資訊,請(qǐng)點(diǎn)擊在線客服
本站文章除注明轉(zhuǎn)載外,均為本站原創(chuàng)或翻譯。歡迎任何形式的轉(zhuǎn)載,但請(qǐng)務(wù)必注明出處、不得修改原文相關(guān)鏈接,如果存在內(nèi)容上的異議請(qǐng)郵件反饋至chenjj@fc6vip.cn
文章轉(zhuǎn)載自: