歐盟和美國(guó)采取行動(dòng)解決人工智能倫理問題


歐盟的AIA將是世界上第一個(gè)對(duì)人工智能的橫向監(jiān)管。
美國(guó)和歐盟被數(shù)千英里的大西洋所分割,它們監(jiān)管人工智能的方法同樣廣泛。形勢(shì)也是動(dòng)態(tài)的,美國(guó)方面的最新變化將于今天推出 - 大約在歐盟采取重大舉措七周后。
大西洋兩岸的賭注都很高,其影響與確定監(jiān)禁判決和選擇誰(shuí)被雇用一樣不同。
歐盟的《人工智能法案》(AIA)于12月6日獲得歐盟理事會(huì)批準(zhǔn),最早將于3月由歐洲議會(huì)審議,該法案將在基于風(fēng)險(xiǎn)的層次結(jié)構(gòu)下監(jiān)管人工智能應(yīng)用、產(chǎn)品和服務(wù):風(fēng)險(xiǎn)越高,規(guī)則越嚴(yán)格。
如果獲得通過,歐盟的AIA將成為世界上第一個(gè)橫向的AIA,涵蓋所有行業(yè)和應(yīng)用。人工智能的監(jiān)管.
相比之下,美國(guó)沒有專門針對(duì) 規(guī)范人工智能的使用,而是依靠現(xiàn)有的法律、藍(lán)圖、框架、標(biāo)準(zhǔn)和法規(guī),這些法律、藍(lán)圖、框架、標(biāo)準(zhǔn)和法規(guī)可以拼接在一起,以指導(dǎo)人工智能的道德使用。然而,雖然企業(yè)和政府可以受到框架的指導(dǎo),但它們是自愿的,不會(huì)為那些在使用人工智能對(duì)付他們時(shí)受到傷害的消費(fèi)者提供任何保護(hù)。
除了聯(lián)邦行動(dòng)的拼湊之外,地方和州政府正在制定法律來解決就業(yè)中的人工智能偏見,如紐約市和整個(gè)加利福尼亞州,以及科羅拉多州的保險(xiǎn)。新聞媒體上沒有出現(xiàn)任何擬議或頒布的地方法律來解決在監(jiān)獄中使用人工智能或監(jiān)獄判決的問題。然而,在2016年,威斯康星州男子埃里克·盧米斯(Eric Loomis)起訴該州六年監(jiān)禁未成功,該判決部分基于人工智能軟件。 《紐約時(shí)報(bào)》報(bào)道.Loomis辯稱,他的正當(dāng)程序權(quán)利受到侵犯,因?yàn)樗麩o法檢查或質(zhì)疑軟件的算法。
“我想說我們?nèi)匀恍枰?lián)邦政府的基礎(chǔ),”DataRobot的全球人工智能倫理學(xué)家Haniyeh Mahmoudian告訴EE Times?!皣@隱私的事情,幾乎每個(gè)美國(guó)人都有權(quán)享有,這是聯(lián)邦政府應(yīng)該照顧的事情。

Elham Tabassi(來源:NIST信息技術(shù)實(shí)驗(yàn)室)
最新的國(guó)家指南預(yù)計(jì)將于今天由美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)發(fā)布。
NIST的自愿框架旨在幫助美國(guó)組織管理可能影響美國(guó)個(gè)人,組織和社會(huì)的AI風(fēng)險(xiǎn)。該框架通過將可信度考慮因素(例如可解釋性和減輕有害偏見)納入人工智能產(chǎn)品、服務(wù)和系統(tǒng)來實(shí)現(xiàn)這一目標(biāo)。
“在短期內(nèi),我們想要做的是培養(yǎng)信任,”NIST信息技術(shù)實(shí)驗(yàn)室參謀長(zhǎng)Elham Tabassi說?!拔覀兺ㄟ^了解和管理人工智能系統(tǒng)的風(fēng)險(xiǎn)來做到這一點(diǎn),以便它可以幫助保護(hù)公民自由和權(quán)利,提高安全性,同時(shí)為創(chuàng)新提供和創(chuàng)造機(jī)會(huì)。
從長(zhǎng)遠(yuǎn)來看,“我們談?wù)摽蚣苁茄b備人工智能團(tuán)隊(duì),無論他們主要是設(shè)計(jì),開發(fā)或部署人工智能的人,從考慮風(fēng)險(xiǎn)和影響的角度思考人工智能,”NIST研究科學(xué)家Reva Schwartz說。

Reva Schwartz(來源:NIST信息技術(shù)實(shí)驗(yàn)室)
在NIST框架發(fā)布之前,喬·拜登總統(tǒng)領(lǐng)導(dǎo)下的白宮于10月發(fā)布了“人工智能權(quán)利法案藍(lán)圖”。它列出了五項(xiàng)原則來指導(dǎo)人工智能的道德使用:
系統(tǒng)應(yīng)該是安全有效的。
算法和系統(tǒng)不應(yīng)該歧視。
人們應(yīng)該受到保護(hù),免受濫用數(shù)據(jù)行為的侵害,并控制他們的數(shù)據(jù)的使用方式。
自動(dòng)化系統(tǒng)應(yīng)該是透明的。
選擇退出人工智能系統(tǒng)以支持人為干預(yù)應(yīng)該是一種選擇。
拜登的輕監(jiān)管方法似乎遵循 輕觸調(diào)節(jié) 受到他的前任的青睞。
不要等待立法
美國(guó)沒有人工智能法律,因?yàn)榧夹g(shù)變化如此之快,以至于立法者無法確定足夠長(zhǎng)的時(shí)間讓他們制定立法,律師事務(wù)所DLA Piper的合伙人Danny Tobey告訴EE Times。

丹尼·托比(來源:歐華律師事務(wù)所)
“每個(gè)人都在制定框架,但很少有人會(huì)制定你可以計(jì)劃的硬性規(guī)定,”他說?!拔覀儽怀兄Z了人工智能權(quán)利法案,但我們得到了一個(gè)沒有法律效力的'人工智能權(quán)利法案藍(lán)圖'。
托比認(rèn)為,全球監(jiān)管提案圍繞第三方審計(jì)和影響評(píng)估保持一致,以測(cè)試基于人工智能的應(yīng)用程序的安全性、非歧視性和道德人工智能的其他關(guān)鍵方面。他說,這些是公司已經(jīng)可以使用的工具。
“解決方案是讓公司甚至在立法最終確定之前就開始測(cè)試這些預(yù)期標(biāo)準(zhǔn)的人工智能技術(shù),旨在構(gòu)建面向未來、合規(guī)的人工智能系統(tǒng),以預(yù)測(cè)即將到來的法規(guī),”他說。
歐盟至少有一家公司與托比的想法一致:總部位于荷蘭的恩智浦半導(dǎo)體公司已經(jīng)開發(fā)了自己的公司。 人工智能倫理倡議.
美國(guó)需要特定的人工智能法律嗎?
難道美國(guó)已經(jīng)有了保護(hù)公眾免受人工智能不道德使用所需的法律嗎?
9月,美國(guó)證券交易委員會(huì)主席加里·根斯勒(Gary Gensler)在麻省理工學(xué)院人工智能政策論壇峰會(huì)上談到了這個(gè)問題,探討了圍繞人工智能部署的政策挑戰(zhàn)。
“通過我們的立法機(jī)構(gòu),我們通過了保護(hù)公眾的法律,”他說?!斑@是安全,健康,投資者保護(hù),金融穩(wěn)定。這些仍然是久經(jīng)考驗(yàn)的真正公共政策。
他說,與其認(rèn)為我們需要一部新法律,因?yàn)槲覀冇幸粋€(gè)新的工具——人工智能——立法者和其他人應(yīng)該關(guān)注現(xiàn)有法律的適用方式。
美國(guó)證券交易委員會(huì)著眼于現(xiàn)有的投資者保護(hù)法,而銀行業(yè)的必然結(jié)果是《平等信貸機(jī)會(huì)法》?!豆阶》糠ā繁Wo(hù)人們?cè)谏暾?qǐng)抵押貸款時(shí)免受歧視。
自我監(jiān)管是答案嗎?
Diveplane的領(lǐng)導(dǎo)者是人工智能驅(qū)動(dòng)的商業(yè)和國(guó)防軟件開發(fā)商,他們想要拜登的藍(lán)圖,歐盟的AIA等等。

邁克·卡普斯(來源:潛水飛機(jī))
“這將有助于保護(hù)消費(fèi)者,”Diveplane的總法律顧問兼首席法務(wù)官M(fèi)ichael Meehan告訴EE Times。“人們認(rèn)為這與公司可能想要的背道而馳。但事實(shí)是,包括潛水飛機(jī)在內(nèi)的大多數(shù)公司都需要指導(dǎo)。
米漢指出,這兩個(gè)政府都沒有在人工智能法律或法規(guī)中規(guī)定“安全港”來降低用戶的風(fēng)險(xiǎn)。
安全港是法律中的一項(xiàng)規(guī)定,如果滿足某些條件,則給予保護(hù),免于懲罰或承擔(dān)責(zé)任。例如,如果一個(gè)正確實(shí)施的、基于實(shí)例的人工智能貸款審批系統(tǒng)檢測(cè)到偏見,它可以標(biāo)記問題以供人工審查。
Diveplane首席執(zhí)行官邁克·卡普斯(Mike Capps)也歡迎監(jiān)管,但他也是該行業(yè)自我監(jiān)管的支持者。
為了說明原因,他指出了美國(guó)的患者隱私法。1996 年健康保險(xiǎn)流通與責(zé)任法案 (HIPAA) 為從醫(yī)療記錄中擦除識(shí)別信息的用戶提供了一個(gè)安全港。不幸的是,將清理過的數(shù)據(jù)庫(kù)與另一個(gè)數(shù)據(jù)寶庫(kù)交叉引用可以幫助梳理出應(yīng)該匿名的人的身份。
這可能是20世紀(jì)立法者沒有預(yù)料到的。
“如果你對(duì)當(dāng)今計(jì)算機(jī)的工作方式設(shè)定一些硬性的東西,你就沒有能力適應(yīng)......當(dāng)你寫它時(shí)不存在的技術(shù),“卡普斯說。
根據(jù)其網(wǎng)站,這種想法促使Diveplane共同創(chuàng)立了數(shù)據(jù)與信任聯(lián)盟,這是一個(gè)非營(yíng)利性聯(lián)盟,其成員“學(xué)習(xí),開發(fā)和采用負(fù)責(zé)任的數(shù)據(jù)和人工智能實(shí)踐”??ㄆ账故锹?lián)盟領(lǐng)導(dǎo)委員會(huì)的成員,與NFL,CVS Health和IBM等實(shí)體的代表一起。
該小組正在制定道德人工智能的標(biāo)準(zhǔn)。
“這些規(guī)則將繼續(xù)改變和發(fā)展,因?yàn)樗鼈儽仨氝@樣做,”卡普斯說。“我會(huì)把它寫成法律嗎?不,我肯定不會(huì),但我肯定會(huì)把它看作是一個(gè)例子,說明如何建立一個(gè)靈活的系統(tǒng)來最大限度地減少偏見。
Mahmoudian表示,隨著新數(shù)據(jù)的出現(xiàn),歐盟AIA有語(yǔ)言重新審視分配給申請(qǐng)的風(fēng)險(xiǎn)級(jí)別。她說,這在Instagram這樣的案例中很重要,例如,Instagram曾經(jīng)被認(rèn)為是無害的,但在發(fā)病幾年后被證明會(huì)對(duì)青少年的心理健康產(chǎn)生負(fù)面影響。
本文最初發(fā)表于 電子電氣時(shí)報(bào).
Ilene Wolff是一名自由撰稿人,在技術(shù)和工程方面擁有豐富的經(jīng)驗(yàn)。她為各種出版物做出了貢獻(xiàn),包括《智能制造》雜志、《制造工程》雜志、《安娜堡觀察家》、《DBusiness》雜志和《克萊恩的底特律商業(yè)》。
責(zé)任編輯:David
【免責(zé)聲明】
1、本文內(nèi)容、數(shù)據(jù)、圖表等來源于網(wǎng)絡(luò)引用或其他公開資料,版權(quán)歸屬原作者、原發(fā)表出處。若版權(quán)所有方對(duì)本文的引用持有異議,請(qǐng)聯(lián)系拍明芯城(marketing@iczoom.com),本方將及時(shí)處理。
2、本文的引用僅供讀者交流學(xué)習(xí)使用,不涉及商業(yè)目的。
3、本文內(nèi)容僅代表作者觀點(diǎn),拍明芯城不對(duì)內(nèi)容的準(zhǔn)確性、可靠性或完整性提供明示或暗示的保證。讀者閱讀本文后做出的決定或行為,是基于自主意愿和獨(dú)立判斷做出的,請(qǐng)讀者明確相關(guān)結(jié)果。
4、如需轉(zhuǎn)載本方擁有版權(quán)的文章,請(qǐng)聯(lián)系拍明芯城(marketing@iczoom.com)注明“轉(zhuǎn)載原因”。未經(jīng)允許私自轉(zhuǎn)載拍明芯城將保留追究其法律責(zé)任的權(quán)利。
拍明芯城擁有對(duì)此聲明的最終解釋權(quán)。