編者按
全球第四次工業(yè)化浪潮助推了數(shù)字時(shí)代的“AI”智能見風(fēng)瘋長,AI仿佛一夜之間占據(jù)了人們的頭腦空間,從生產(chǎn)、生活的方方面面,AI的確改變了人類的思維方式,提升了生活效率。
在工業(yè)生產(chǎn)中,自動(dòng)化、數(shù)字化生產(chǎn)提高了企業(yè)生產(chǎn)質(zhì)效;在醫(yī)藥健康領(lǐng)域,“數(shù)字醫(yī)生”可以幫助醫(yī)生精準(zhǔn)快速診斷疾?。辉诮逃I(lǐng)域,AI可以為學(xué)生制定個(gè)性化學(xué)習(xí)方案;在商業(yè)領(lǐng)域,數(shù)字人直播、智能試衣鏡給消費(fèi)者帶來更貼心的服務(wù)……
然而,隨著AI的廣泛應(yīng)用,一系列因AI而生的問題也逐漸浮出水面。本文將從多個(gè)角度探討如何規(guī)范AI發(fā)展,為生活和工作賦能。
隱憂:AI時(shí)代面臨的倫理與治理挑戰(zhàn)
隨著計(jì)算能力和數(shù)據(jù)資源的進(jìn)一步提升,AI技術(shù)取得巨大突破。時(shí)至今日,AI已成為我們生活的一部分,正逐步改變?nèi)藗冋J(rèn)識世界、處理問題的方式。但AI在推進(jìn)社會(huì)變革的同時(shí)也帶來了一系列不容忽視的社會(huì)問題。
一是深度偽造難辨真?zhèn)巍?022年底,ChatGPT橫空出世,刷新了人們對生成式AI的認(rèn)知。今年2月,OpenAI推出文生視頻模型Sora,生成的視頻畫面可媲美電影鏡頭。AI使內(nèi)容生產(chǎn)更加快捷、簡單,一些心懷不軌的人則通過AI技術(shù)制作虛假新聞引發(fā)社會(huì)恐慌、用AI復(fù)活逝者賺取流量,甚至通過AI換臉技術(shù)實(shí)施詐騙,擾亂公共秩序,觸碰法律和道德底線。
二是隱私泄漏危機(jī)四伏。隨著AI技術(shù)的發(fā)展,語音助手、智能家居等“飛入尋常百姓家”,但在使用中,一些應(yīng)用系統(tǒng)會(huì)過度采集用戶數(shù)據(jù),包括個(gè)人隱私信息,增加隱私泄漏風(fēng)險(xiǎn)。例如,滴滴公司曾被爆違法處理個(gè)人信息647.09億條,包括人臉識別、身份證號等敏感個(gè)人信息。另外,企業(yè)在使用AI工具尋求答案時(shí),AI默認(rèn)將提問的信息存入學(xué)習(xí)庫,存在數(shù)據(jù)泄漏的風(fēng)險(xiǎn),可能會(huì)給企業(yè)帶來難以估量的損失。此前韓國三星公司就發(fā)生過此類事件,導(dǎo)致機(jī)密信息被盜取。
三是算法加劇社會(huì)歧視。由于AI系統(tǒng)的訓(xùn)練數(shù)據(jù)通常來自人類社會(huì),如果“喂”給系統(tǒng)的訓(xùn)練數(shù)據(jù)帶有社會(huì)和文化偏見,將導(dǎo)致算法對特定群體做出不公平的判斷。此外,如果算法設(shè)計(jì)者存在主觀偏見,將制作出自帶歧視“基因”的AI工具,而這一“暗箱操作”具有隱蔽性,很難被發(fā)現(xiàn),將加劇社會(huì)不公平、不平等現(xiàn)象。例如,此前亞馬遜曾設(shè)計(jì)了一個(gè)AI招聘算法,該算法在讀取到帶有“women”的相關(guān)詞時(shí),會(huì)自動(dòng)降低簡歷的權(quán)重。
四是AI侵權(quán)難以認(rèn)定。AI企業(yè)為了訓(xùn)練大模型需要大量數(shù)據(jù),而這些數(shù)據(jù)可能包含已經(jīng)發(fā)布的作品,如果這些作品是在未經(jīng)許可或未付款的情況下獲取的,將侵犯創(chuàng)作者的合法權(quán)益。例如,此前8家美國新聞機(jī)構(gòu)對OpenAI提起訴訟,指控其私自使用他們的新聞作品訓(xùn)練AI。同時(shí),AI如果模仿已有作品的特征元素,生成與原作高度相似的內(nèi)容,將侵犯原作的版權(quán),此類生成式AI作品侵權(quán)事件在全國已多次發(fā)生。
五是引發(fā)學(xué)術(shù)誠信危機(jī)。隨著ChatGPT等生成式AI工具的普及,一些學(xué)生過度依賴AI,簡單地將ChatGPT生成的文本拼湊成論文,引發(fā)學(xué)術(shù)不端,大大降低了論文的學(xué)術(shù)價(jià)值和創(chuàng)新價(jià)值。如果不對此類現(xiàn)象加以管控,學(xué)術(shù)誠信危機(jī)將影響各類學(xué)科研究,從長遠(yuǎn)看也不利于個(gè)人的學(xué)術(shù)成長。
思考:規(guī)范AI發(fā)展的智庫方案
任何一項(xiàng)技術(shù)性革命都是一把“雙刃劍”,AI技術(shù)也是如此,面對這些挑戰(zhàn),應(yīng)構(gòu)建高效聯(lián)動(dòng)的治理框架,將問題發(fā)現(xiàn)與應(yīng)對措施落到治理實(shí)踐中,促進(jìn)AI產(chǎn)業(yè)健康發(fā)展。
1、政府“三位一體”,規(guī)劃AI產(chǎn)業(yè)發(fā)展路徑
立法劃定“紅線”。積極推進(jìn)AI立法工作,針對AI發(fā)展中的權(quán)責(zé)不清、數(shù)據(jù)安全漏洞、技術(shù)濫用、內(nèi)容侵權(quán)等問題,集思廣益探討AI立法草案,盡快發(fā)布有統(tǒng)領(lǐng)性的上位法,明確AI技術(shù)的使用邊界、數(shù)據(jù)保護(hù)標(biāo)準(zhǔn)、算法透明度等,為AI健康發(fā)展提供法律保障,為用戶合理維權(quán)提供法律支持。
軟法規(guī)范發(fā)展。發(fā)布全國性AI產(chǎn)業(yè)標(biāo)準(zhǔn)化建設(shè)指南,針對工業(yè)、金融、醫(yī)藥、教育等各行業(yè)制定具體的技術(shù)要求和應(yīng)用指南,形成統(tǒng)一的行業(yè)共識。對AI產(chǎn)業(yè)的基礎(chǔ)共性標(biāo)準(zhǔn)、基礎(chǔ)支撐標(biāo)準(zhǔn)、關(guān)鍵技術(shù)標(biāo)準(zhǔn)、安全管理標(biāo)準(zhǔn)等進(jìn)行明確規(guī)定,為企業(yè)提供預(yù)見性指導(dǎo),維護(hù)產(chǎn)業(yè)生態(tài)環(huán)境。完善學(xué)術(shù)誠信制度,通過制度約束,提高研究人員學(xué)術(shù)道德意識。
監(jiān)管推動(dòng)落實(shí)。建立專門的AI監(jiān)管機(jī)構(gòu),負(fù)責(zé)對AI企業(yè)的技術(shù)研發(fā)、應(yīng)用進(jìn)行全程監(jiān)督,及時(shí)發(fā)現(xiàn)并糾正違反法律和產(chǎn)業(yè)規(guī)定的行為,了解并分析產(chǎn)業(yè)內(nèi)暴露出的最新風(fēng)險(xiǎn)隱患,修補(bǔ)可能出現(xiàn)的“漏洞”。引導(dǎo)企業(yè)加強(qiáng)自我監(jiān)管,建立內(nèi)部審查機(jī)制。
2、企業(yè)強(qiáng)化自治,提升規(guī)范治理質(zhì)效
提升企業(yè)透明度。AI系統(tǒng)開發(fā)者應(yīng)適度公開AI算法的基本原理、決策邏輯、數(shù)據(jù)來源及可能對用戶產(chǎn)生的影響,確保算法透明得到落實(shí),有效避免企業(yè)的“黑箱操作”,增強(qiáng)用戶對AI工具的信任。
強(qiáng)化行業(yè)自律。組建AI產(chǎn)業(yè)協(xié)會(huì),構(gòu)建行業(yè)信用體系,并吸納金融、醫(yī)療、制造等領(lǐng)域的企業(yè)、高校、科研院所加入,制定協(xié)會(huì)公約,促進(jìn)企業(yè)自律,維護(hù)良性生態(tài)。定期組織企業(yè)開展交流活動(dòng),打造AI技術(shù)、成果的交流與共享平臺(tái),促進(jìn)產(chǎn)業(yè)協(xié)同進(jìn)步。
加強(qiáng)技術(shù)研發(fā)。AI系統(tǒng)開發(fā)者可加強(qiáng)研發(fā),解決目前AI應(yīng)用領(lǐng)域存在的學(xué)術(shù)造假、算法歧視等“痛點(diǎn)”問題。通過技術(shù)升級精準(zhǔn)識別被篡改后的文字和圖片,打擊學(xué)術(shù)不端和偽造行為,規(guī)范AI技術(shù)應(yīng)用。優(yōu)化算法設(shè)計(jì),確保算法本身沒有設(shè)計(jì)歧視,并使用一些公平性指標(biāo)來評估AI模型的公平性。
3、用戶要辯證看待,趨利避害
積極擁抱AI。AI時(shí)代是社會(huì)發(fā)展的必然趨勢,如果不想被社會(huì)淘汰,我們應(yīng)該積極擁抱AI,接受新事物,嘗試新技術(shù),為生活工作提供便利,并及時(shí)反饋?zhàn)约旱氖褂皿w驗(yàn)和改進(jìn)建議,通過有效的反饋,促進(jìn)AI健康發(fā)展。
合理使用AI。對于AI我們既不能棄之不用,也不能過于依賴,要認(rèn)識到AI只是工具,絕不能代替?zhèn)€人的思考,不能養(yǎng)成靠“拐杖”行走的習(xí)慣,還應(yīng)專注于提升自身能力,合理使用AI工具,不可把AI作為研究成果,杜絕學(xué)術(shù)造假行為。
理性辨別AI。在使用AI軟件之前要詳細(xì)了解隱私政策,確保自己的隱私安全、數(shù)據(jù)安全。對于AI生成的信息要有辨別能力,不輕信、不傳謠,對于通過網(wǎng)絡(luò)進(jìn)行的錢財(cái)交易要高度警惕,防止AI欺詐。
結(jié)語
AI技術(shù)已經(jīng)成為全球科技進(jìn)步的新動(dòng)能和主導(dǎo)力量,它將帶來一個(gè)充滿機(jī)遇又面臨挑戰(zhàn)的時(shí)代。為了確保AI技術(shù)的健康發(fā)展,既要“放得開”,又要“收得住”,需要為其戴上“緊箍咒”,及時(shí)洞察和掌控AI應(yīng)用中出現(xiàn)的問題。同時(shí),也要對AI保持寬容度,不能因噎廢食,容許其在可控的范圍內(nèi)發(fā)生問題,嘗試“容錯(cuò)機(jī)制”。秉持一種既規(guī)范又不失開放的態(tài)度,妥善處理好AI技術(shù)創(chuàng)新與治理之間的矛盾,即要遏制其危害,也不能阻礙其發(fā)展。通過政府、行業(yè)、社會(huì)同向發(fā)力,精心構(gòu)建一套規(guī)范的發(fā)展體系、應(yīng)用體系、管理體系,為社會(huì)治理現(xiàn)代化賦能,為經(jīng)濟(jì)高質(zhì)量發(fā)展助力。
(作者:王牌智庫首席專家、董事長 上官同君)