于曉華:建立人工智能責(zé)任標(biāo)準(zhǔn) 促進(jìn)人工智能健康發(fā)展
時(shí)間:2023-05-04來(lái)源:未知 作者:acebm 點(diǎn)擊:
次
01
人工智能的可能風(fēng)險(xiǎn)
隨著大型人工智能程序ChatGPT獲得了在自然語(yǔ)言處理方面的突破,可以預(yù)期人工智能大型模型很快會(huì)獲得大規(guī)模拓展和應(yīng)用,這會(huì)推動(dòng)整個(gè)經(jīng)濟(jì)轉(zhuǎn)型和社會(huì)結(jié)構(gòu)變化。人工智能是未來(lái)的產(chǎn)業(yè)發(fā)展方向,是“國(guó)際競(jìng)爭(zhēng)的新焦點(diǎn)”,和“經(jīng)濟(jì)發(fā)展的新引擎”。不過(guò),人工智能的開(kāi)發(fā)和使用可能會(huì)存在潛在多種政治、經(jīng)濟(jì)、社會(huì)、倫理以及國(guó)家安全等風(fēng)險(xiǎn)。具體而言,包括以下幾個(gè)方面:
1.偏見(jiàn)和歧視風(fēng)險(xiǎn):人工智能系統(tǒng)的訓(xùn)練和應(yīng)用可能受到不平等和歧視性數(shù)據(jù)集的影響,導(dǎo)致其產(chǎn)生不公平的決策和結(jié)果,從而導(dǎo)致社會(huì)群體對(duì)立和社會(huì)矛盾激化。例如,在面部識(shí)別技術(shù)中,如果使用的數(shù)據(jù)集缺乏多樣性,則該技術(shù)可能會(huì)對(duì)某些人或群體進(jìn)行歧視性的識(shí)別。
2.隱私和安全風(fēng)險(xiǎn):人工智能技術(shù)處理大量的數(shù)據(jù),如果未正確管理這些數(shù)據(jù),可能會(huì)導(dǎo)致用戶(hù)隱私的泄露和系統(tǒng)安全的受損。例如,在個(gè)人數(shù)據(jù)分析和預(yù)測(cè)中,如果沒(méi)有保護(hù)用戶(hù)的數(shù)據(jù)隱私,可能會(huì)導(dǎo)致用戶(hù)的個(gè)人信息被濫用。
3.透明度和可解釋性風(fēng)險(xiǎn):人工智能技術(shù)可能難以解釋其決策和行為的邏輯,這可能會(huì)導(dǎo)致人們對(duì)其信任度下降。例如,在自動(dòng)駕駛汽車(chē)中,如果無(wú)法解釋該技術(shù)在緊急情況下做出的決策,可能會(huì)導(dǎo)致人們對(duì)其使用的不信任。
4.安全和責(zé)任風(fēng)險(xiǎn):人工智能技術(shù)可能被濫用或被黑客攻擊,從而導(dǎo)致系統(tǒng)的崩潰和安全風(fēng)險(xiǎn)的提高。此外,人工智能的使用也可能會(huì)導(dǎo)致意外傷害和財(cái)產(chǎn)損失,因此需要對(duì)人工智能技術(shù)的使用和決策進(jìn)行監(jiān)管和責(zé)任制。
5.社會(huì)和經(jīng)濟(jì)風(fēng)險(xiǎn):人工智能的普及和發(fā)展可能會(huì)導(dǎo)致某些職業(yè)和產(chǎn)業(yè)的消失,從而對(duì)社會(huì)和經(jīng)濟(jì)產(chǎn)生負(fù)面影響。例如,自動(dòng)化生產(chǎn)線可能會(huì)導(dǎo)致失業(yè)率的增加,對(duì)經(jīng)濟(jì)產(chǎn)生負(fù)面影響。
所以,在歐美等人工智能技術(shù)領(lǐng)先的國(guó)家,面對(duì)可能的各種風(fēng)險(xiǎn)未雨綢繆,在企業(yè)層面制定責(zé)任標(biāo)準(zhǔn),在國(guó)家層面制定各種監(jiān)管措施,來(lái)管理和減少這些風(fēng)險(xiǎn),以確保人工智能技術(shù)的發(fā)展與社會(huì)和諧發(fā)展相一致。
02
企業(yè)責(zé)任標(biāo)準(zhǔn)的制定:微軟和谷歌的例子
01.微軟的標(biāo)準(zhǔn)
ChatGPT的最大投資人為微軟公司,ChatGPT現(xiàn)在也融入到微軟的搜索引擎“必應(yīng)”中去了。微軟公司提出了一系列原則和行動(dòng),以確保人工智能的開(kāi)發(fā)、應(yīng)用和使用符合道德和社會(huì)價(jià)值觀,保護(hù)用戶(hù)和社會(huì)的權(quán)益和利益,減少各種風(fēng)險(xiǎn)。其主要包括以下四個(gè)方面:
1.透明度:微軟要求公開(kāi)披露人工智能技術(shù)和算法的原理和運(yùn)行方式,以便用戶(hù)和相關(guān)利益相關(guān)者了解其工作原理和可能影響。
2.公平性:微軟要求確保人工智能系統(tǒng)不歧視任何人,不對(duì)某些群體或個(gè)人進(jìn)行不當(dāng)或有害的區(qū)分對(duì)待。人工智能應(yīng)該被設(shè)計(jì)和使用,以符合包容性、多樣性和平等的原則。
3.隱私和安全:微軟要求確保個(gè)人信息的保護(hù),避免人工智能系統(tǒng)被濫用或被黑客攻擊。微軟會(huì)采取合適的措施來(lái)保護(hù)人工智能系統(tǒng)的安全性,防止信息泄露和濫用。
4.負(fù)責(zé)任的使用:微軟要求確保人工智能系統(tǒng)的使用是合法、符合倫理和社會(huì)可接受的。微軟要求在人工智能的開(kāi)發(fā)和使用中考慮到其可能的影響,并在必要時(shí)采取措施減少或消除這些影響。
02.谷歌的標(biāo)準(zhǔn)
谷歌作為微軟的競(jìng)爭(zhēng)對(duì)手,為了確保人工智能的開(kāi)發(fā)和使用符合道德、法律和社會(huì)價(jià)值觀,和微軟類(lèi)似,也制定了一系列類(lèi)似的責(zé)任標(biāo)準(zhǔn),其主要包括以下幾個(gè)方面:
1.有意識(shí)的使用:谷歌要求人工智能系統(tǒng)的設(shè)計(jì)和使用必須是有意識(shí)的,并符合公共利益。它們應(yīng)該旨在解決實(shí)際問(wèn)題,提高效率和創(chuàng)造價(jià)值,并且不能用于任何違反法律、倫理和社會(huì)價(jià)值觀的目的。
2.公平性和反歧視:谷歌要求人工智能系統(tǒng)必須保證公平性,并且不能歧視任何人或群體。它們應(yīng)該能夠?yàn)樗腥颂峁┕姆?wù)和機(jī)會(huì),避免刻意或不必要地偏袒某些人或群體。
3.數(shù)據(jù)隱私和安全:谷歌要求保護(hù)用戶(hù)的數(shù)據(jù)隱私和安全,并確保人工智能系統(tǒng)不被濫用或被黑客攻擊。它們應(yīng)該有適當(dāng)?shù)陌踩Wo(hù)和風(fēng)險(xiǎn)管理措施,并遵守相關(guān)的數(shù)據(jù)保護(hù)法律和標(biāo)準(zhǔn)。
4.透明度和可解釋性:谷歌要求人工智能系統(tǒng)的運(yùn)作原理必須是透明和可解釋的。它們應(yīng)該能夠解釋其推薦和決策的基礎(chǔ),使用戶(hù)和利益相關(guān)者能夠了解其工作方式,進(jìn)而做出明智的決策。
5.人類(lèi)控制和責(zé)任:谷歌要求確保人工智能系統(tǒng)的使用和決策受到人類(lèi)控制,且需要負(fù)責(zé)任。人類(lèi)應(yīng)該能夠監(jiān)督人工智能的行為和效果,并有權(quán)對(duì)其決策做出調(diào)整或糾正。
03
美國(guó)政府對(duì)人工智能的監(jiān)管體系
美國(guó)政府早就意識(shí)到人工智能是未來(lái)的產(chǎn)業(yè)發(fā)展方向,是“國(guó)際競(jìng)爭(zhēng)的新焦點(diǎn)”,也是“國(guó)家安全”的重要內(nèi)容。美國(guó)在不斷支持人工智能技術(shù)發(fā)展的同時(shí),也制定了一系列法律和政策來(lái)監(jiān)管人工智能的有序發(fā)展,減少人工智能的各種風(fēng)險(xiǎn)。
1.《AI政策法案》(AI in Government Act of 2019):該法案于2019年簽署,旨在推動(dòng)政府機(jī)構(gòu)更廣泛地采用人工智能技術(shù),包括人工智能培訓(xùn)和研究計(jì)劃、人工智能倫理原則和人工智能安全措施等。
2.《算法透明度法案》(Algorithmic Accountability Act):該法案于2019年提出,旨在要求企業(yè)公開(kāi)其使用的算法及其可能的偏見(jiàn)和歧視性,并要求聯(lián)邦機(jī)構(gòu)評(píng)估算法的公平性和透明度。
3.《機(jī)器人責(zé)任法案》(Roboethics Commission Act):該法案于2019年提出,旨在要求成立一個(gè)由政府和私營(yíng)部門(mén)代表組成的機(jī)器人倫理委員會(huì),以指導(dǎo)和監(jiān)管機(jī)器人和人工智能技術(shù)的發(fā)展和使用。
4.《人工智能研究和發(fā)展政策》(National Artificial Intelligence Research and Development Strategic Plan):該政策于2016年發(fā)布,旨在推動(dòng)美國(guó)在人工智能領(lǐng)域的研究和發(fā)展,并制定人工智能領(lǐng)域的倫理、隱私和安全準(zhǔn)則等。
除了以上法律和政策外,美國(guó)還有一些機(jī)構(gòu)和組織負(fù)責(zé)監(jiān)督和規(guī)范人工智能的發(fā)展和應(yīng)用,包括國(guó)家人工智能研究和發(fā)展戰(zhàn)略委員會(huì)、國(guó)家人工智能標(biāo)準(zhǔn)化委員會(huì)等。此外,一些州和城市也開(kāi)始推出各自的人工智能監(jiān)管法規(guī),以確保人工智能技術(shù)的安全和透明度。
04
建立人工智能責(zé)任標(biāo)準(zhǔn),促進(jìn)我國(guó)人工智能健康發(fā)展的政策建議
1.建議全國(guó)人大制定《人工智能法》以及國(guó)務(wù)院制定相關(guān)的實(shí)施細(xì)則,以增強(qiáng)人工智能算法的公平性和透明性;同時(shí)確立人工智能開(kāi)發(fā)和使用的安全責(zé)任和倫理標(biāo)準(zhǔn)。
2.建立跨部際的人工智能安全和責(zé)任委員會(huì),協(xié)調(diào)人工智能相關(guān)政策,從根本上保障產(chǎn)業(yè)發(fā)展與國(guó)家安全的協(xié)調(diào)發(fā)展。人工智能不僅是一項(xiàng)技術(shù),它的發(fā)展對(duì)社會(huì)、經(jīng)濟(jì)、政治、安全以及法律等所有方方面面都會(huì)產(chǎn)生重大影響,而且這種影響是深遠(yuǎn)的,所以一個(gè)跨部委的協(xié)調(diào)機(jī)構(gòu)是必要的。
3.促進(jìn)行業(yè)和企業(yè)建立開(kāi)發(fā)和應(yīng)用人工智能的責(zé)任標(biāo)準(zhǔn)。由于國(guó)家人工智能責(zé)任標(biāo)準(zhǔn)是一般性原則,不可能兼顧行業(yè)和企業(yè)的特殊性。這要求企業(yè)在開(kāi)發(fā)和應(yīng)用人工智能的時(shí)候,除了遵守國(guó)家法律,還必須建立本行業(yè)和本企業(yè)相應(yīng)的人工智能責(zé)任標(biāo)準(zhǔn)。
(文章轉(zhuǎn)載自“長(zhǎng)江產(chǎn)經(jīng)智庫(kù)”微信公眾號(hào))