作者簡介
王一帆,華中科技大學(xué)公共管理學(xué)院博士研究生;
姚洪(通訊作者),廣州大學(xué)公共管理學(xué)院講師,Email: yaohong@gzhu.edu.cn。
摘要
隨著生成式人工智能(Generative AI)的迅速發(fā)展,其在國家治理中的應(yīng)用正日益深化,推動(dòng)了治理方式的重大變革。本文基于生成式AI的發(fā)展歷程,深入探討了其在國家治理中的重要應(yīng)用場景,總結(jié)了當(dāng)前的關(guān)鍵趨勢,包括決策智能化、服務(wù)響應(yīng)精準(zhǔn)化、治理結(jié)構(gòu)扁平化、人機(jī)協(xié)同化及監(jiān)督透明化。然而,生成式AI的廣泛應(yīng)用也帶來了數(shù)據(jù)隱私與安全、算法透明度不足、倫理道德風(fēng)險(xiǎn)、數(shù)字主權(quán)等核心挑戰(zhàn)。針對這些問題,本文提出了包括雙軌治理模式、加強(qiáng)算法透明與問責(zé)、平衡數(shù)據(jù)共享與隱私保護(hù)等應(yīng)對策略,力求在保障國家安全與社會(huì)信任的前提下,推動(dòng)生成式AI的可持續(xù)發(fā)展。本文的研究對生成式AI在國家治理中的負(fù)責(zé)任應(yīng)用提供了理論支持和實(shí)踐指導(dǎo)。
關(guān)鍵詞
生成式人工智能;國家治理;智能決策;倫理治理
一、引言
生成式人工智能(Generative AI)隨著數(shù)字化、智能化的深入發(fā)展,在國家治理中迅速崛起并成為重要工具。生成式AI不同于傳統(tǒng)人工智能,其核心在于能夠基于數(shù)據(jù)生成包括文本、圖像、聲音等多種模態(tài)在內(nèi)的新內(nèi)容,因此在多個(gè)國家治理領(lǐng)域展現(xiàn)出了巨大的潛力。生成式AI目前已初步應(yīng)用于多個(gè)方面(詳見表1),包括政策決策支持、公共服務(wù)、社會(huì)安全和市場監(jiān)管等。比如,在公共服務(wù)領(lǐng)域,生成式人工智能能夠幫助政府提供更多個(gè)性化和智能化的服務(wù)方案;生成式AI在社會(huì)安全管理中,能夠協(xié)助政府通過風(fēng)險(xiǎn)預(yù)測、輿情監(jiān)控等手段,對突發(fā)事件做出快速反應(yīng);在政策制定上,生成式AI可以為決策提供數(shù)據(jù)支持,從而使政策更科學(xué)、更高效。近年來,全球多個(gè)國家已將生成式AI技術(shù)納入國家治理體系,探索其在提高治理效率、優(yōu)化資源配置等方面的作用。然而,高速發(fā)展的生成式AI在帶來技術(shù)進(jìn)步的同時(shí),也引發(fā)了數(shù)據(jù)隱私泄露、算法偏見、倫理道德風(fēng)險(xiǎn)等諸多治理問題。推動(dòng)生成式AI在國家治理中的合理應(yīng)用,既面臨機(jī)遇,又充滿挑戰(zhàn),現(xiàn)實(shí)緊迫性極高,這些問題直接關(guān)系到政府治理的穩(wěn)定性和公眾信任度。
表1 生成式人工智能在國家治理中的應(yīng)用場景
為明確本文的研究對象,首先需要對“國家治理”和“生成式人工智能”這兩個(gè)核心概念進(jìn)行界定。國家治理是指國家通過各種政府機(jī)構(gòu)、法律法規(guī)、公共政策和社會(huì)資源的協(xié)調(diào)運(yùn)作,確保社會(huì)穩(wěn)定、公共利益和經(jīng)濟(jì)發(fā)展的過程。它涵蓋政策決策、公共服務(wù)、市場監(jiān)管、社會(huì)安全等多方面內(nèi)容,是國家運(yùn)轉(zhuǎn)的重要支柱。國家治理不僅僅是單一的管理活動(dòng),還包括多主體的協(xié)同運(yùn)作、跨部門的數(shù)據(jù)共享和信息交換,目的是實(shí)現(xiàn)社會(huì)的長治久安和公民的福祉。在現(xiàn)代化的國家治理體系中,人工智能逐漸成為提升治理效能的重要技術(shù)手段。生成式人工智能則是基于深度學(xué)習(xí)技術(shù)的AI分支,具備生成內(nèi)容的能力,與傳統(tǒng)的AI主要用于分析和識(shí)別不同,它能夠通過對已有數(shù)據(jù)的學(xué)習(xí)生成具有創(chuàng)新性和結(jié)構(gòu)性的新數(shù)據(jù)。生成式AI的發(fā)展歷程可以劃分為四個(gè)階段:萌芽階段(20世紀(jì)50年代至2000年)、初步發(fā)展階段(2000年至2014年)、快速提升階段(2014年至2020年)、大規(guī)模應(yīng)用與創(chuàng)新階段(2020年至今),目前已進(jìn)入大規(guī)模實(shí)用化階段(詳見表2)。在當(dāng)前階段,生成式AI憑借其內(nèi)容生成和數(shù)據(jù)處理的高效能力,已逐漸應(yīng)用于文本生成、智能決策、內(nèi)容創(chuàng)作等多個(gè)領(lǐng)域。該類生成式人工智能技術(shù)相對于傳統(tǒng)人工智能而言,具有較強(qiáng)的自主生成能力與創(chuàng)新性,在政策扶持方面、在服務(wù)優(yōu)化和社會(huì)安定性方面,能夠?yàn)閲抑卫碇袕?fù)雜任務(wù)的開展提供一個(gè)強(qiáng)有力的技術(shù)支持。
表2 生成式人工智能的發(fā)展歷程
在上述研究背景下,值得深入探討的核心問題有三個(gè):第一,生成式人工智能在國家治理中的發(fā)展有哪些重要趨勢?第二,國家治理中的生成式人工智能面臨什么核心挑戰(zhàn)?第三,對于生成式AI的合理應(yīng)用,政府應(yīng)該采取怎樣的應(yīng)對策略才能有效推進(jìn)?圍繞著這些問題,本文旨在揭示生成式人工智能的應(yīng)用現(xiàn)狀和在國家治理中的潛在問題,并期望以新的視角為該領(lǐng)域提出相應(yīng)的應(yīng)對措施。從研究意義上講,這篇文章理論價(jià)值很大,實(shí)踐價(jià)值也很大。首先,理論意義在于,本文結(jié)合了國家治理和生成式AI兩個(gè)領(lǐng)域,對生成式AI如何重塑國家治理體系進(jìn)行了探索,拓寬了生成式AI在社會(huì)科學(xué)研究中的應(yīng)用范圍,同時(shí)也為國家治理提供了一條新的研究路徑。其次,實(shí)踐意義在于,本文分析了生成式AI在國家治理中的潛力和風(fēng)險(xiǎn),為政府部門在保障數(shù)據(jù)隱私、安全和社會(huì)公平的同時(shí),如何合理利用生成式AI,幫助政府實(shí)現(xiàn)生成式AI負(fù)責(zé)任的發(fā)展,提供了政策建議。
二、國家治理中生成式人工智能發(fā)展的重要趨勢
(一)決策智能化與數(shù)據(jù)驅(qū)動(dòng)化
生成式人工智能在政府決策中的應(yīng)用加速了決策的智能化與數(shù)據(jù)驅(qū)動(dòng)化轉(zhuǎn)型,通過對海量數(shù)據(jù)的處理和分析,生成式AI大幅提升了政府在決策過程中的科學(xué)性和數(shù)據(jù)支持能力。隨著生成式AI的廣泛應(yīng)用,數(shù)據(jù)驅(qū)動(dòng)的決策模式逐步成為政府管理的常態(tài)化方式。政策制定從以往依賴主觀經(jīng)驗(yàn)、感知判斷為主,逐漸向基于海量數(shù)據(jù)、深度分析的科學(xué)決策轉(zhuǎn)型,促使政府能夠在政策制定中更全面、精準(zhǔn)地把握社會(huì)態(tài)勢。
在生成式AI的輔助下,政府能夠從龐大的信息資源中提取有價(jià)值的見解,識(shí)別出潛在的風(fēng)險(xiǎn)、機(jī)遇和趨勢。例如,通過對社會(huì)經(jīng)濟(jì)數(shù)據(jù)的全面分析,生成式AI可以預(yù)測經(jīng)濟(jì)發(fā)展中的風(fēng)險(xiǎn)節(jié)點(diǎn),提前規(guī)劃干預(yù)措施。這種數(shù)據(jù)驅(qū)動(dòng)式的決策模式,在加快決策過程、使政府在應(yīng)對突發(fā)事件及應(yīng)對復(fù)雜社會(huì)問題上更加靈活高效的同時(shí),也使政策的精準(zhǔn)度得到提高,使政策對現(xiàn)實(shí)需求實(shí)現(xiàn)更好的回應(yīng)。另外,在多部門數(shù)據(jù)協(xié)作中生成式AI還可以實(shí)現(xiàn)數(shù)據(jù)共享,將各部門資源及數(shù)據(jù)整合在一起,形成一個(gè)促進(jìn)政策跨部門協(xié)調(diào)和資源最優(yōu)配置的更全面的分析視角。
生成式AI的引進(jìn)使決策的透明度和客觀性都得到了加強(qiáng)。數(shù)據(jù)驅(qū)動(dòng)的決策減少了主觀判斷對政策的影響,使政策制定過程更多地建立在事實(shí)的基礎(chǔ)上,以客觀數(shù)據(jù)為基礎(chǔ),以算法為支持,減少人為因素造成的偏見與干擾?;跀?shù)據(jù)的智能決策還可以支持決策過程的溯源和驗(yàn)證,從而有助于增強(qiáng)公眾對政策透明度和決策公正性的信任,通過生成式AI輔助分析,政府可以對政策執(zhí)行效果進(jìn)行實(shí)時(shí)監(jiān)控,并對政策方向和力度進(jìn)行動(dòng)態(tài)調(diào)整,使治理與社會(huì)發(fā)展變化更加適應(yīng)。
(二)服務(wù)個(gè)性化與響應(yīng)精準(zhǔn)化
在公共服務(wù)領(lǐng)域中生成式人工智能促進(jìn)了服務(wù)個(gè)性化和響應(yīng)精準(zhǔn)化的發(fā)展,從而使政府對不同人群的特定需求提供有針對性的服務(wù)?;跉v史資料的分析及實(shí)時(shí)回饋,生成式AI能夠?qū)γ總€(gè)個(gè)體或者群體需求的特點(diǎn)加以準(zhǔn)確的識(shí)別從而為公共服務(wù)的個(gè)性化提供技術(shù)支持。比如,在社會(huì)保障領(lǐng)域當(dāng)中,基于國民年齡、健康狀況以及收入水平的數(shù)據(jù),生成式人工智能就可以對其將來可能需要的社會(huì)福利進(jìn)行預(yù)測從而事先準(zhǔn)備相關(guān)的資源,保證服務(wù)的時(shí)效性和準(zhǔn)確度。
生成式AI的個(gè)性化服務(wù)在醫(yī)療教育和其他重點(diǎn)領(lǐng)域尤其突出。跟據(jù)病人的病歷、藥物歷史、生活習(xí)慣等因素,AI系統(tǒng)可向其提出健康管理的個(gè)性化建議及診療方案,從而為病人提供較為精確的公共醫(yī)療服務(wù)。在教育領(lǐng)域中,基于學(xué)生的學(xué)習(xí)習(xí)慣、興趣愛好以及弱勢科目所生成的學(xué)習(xí)方案、輔導(dǎo)計(jì)劃,從而使每個(gè)學(xué)生的個(gè)性化教育方案得到有力支撐。這種基于生成式AI的精準(zhǔn)反應(yīng),不但提高了資源的利用率,而且在時(shí)間上和成本上都減少了浪費(fèi),讓公共服務(wù)的效能有了明顯提升。
此外,通過對資源進(jìn)行智能化配置從而對服務(wù)流程加以優(yōu)化,生成式人工智能使得政府可以在突發(fā)情況下或緊急需要時(shí)做出快速響應(yīng)。AI系統(tǒng)通過對各種數(shù)據(jù)的實(shí)時(shí)監(jiān)視和分析,能夠?qū)Y源需求的波動(dòng)進(jìn)行識(shí)別從而對資源配置進(jìn)行動(dòng)態(tài)的調(diào)整。比如說,在應(yīng)對流感等公共衛(wèi)生問題時(shí)就可以將醫(yī)療資源在疾病高發(fā)期優(yōu)先配置,從而保證了高需求時(shí)期資源的充足性和服務(wù)的高質(zhì)量。同時(shí),生成式AI還能通過預(yù)測模型預(yù)判服務(wù)需求高峰,提前做好準(zhǔn)備,確保公共服務(wù)的穩(wěn)定性和高效性。
(三)結(jié)構(gòu)扁平化與協(xié)作高效化
生成式人工智能正推動(dòng)傳統(tǒng)治理結(jié)構(gòu)向扁平化和協(xié)作高效化轉(zhuǎn)型,使政府逐步擺脫對科層制管理的依賴,向更加靈活的治理模式邁進(jìn)。生成式AI通過跨部門的數(shù)據(jù)共享和信息流動(dòng),使各部門之間的溝通和協(xié)作更加高效、透明,從而減少了“信息孤島”現(xiàn)象,促進(jìn)了治理資源的最優(yōu)配置。例如,生成式AI可以快速分析來自不同部門的數(shù)據(jù),整合出跨領(lǐng)域的洞見,使各部門可以在同一信息基礎(chǔ)上制定和執(zhí)行政策,從而避免了由于信息分散導(dǎo)致的決策延遲和效率低下。
生成式AI還增強(qiáng)了政府部門間的無縫協(xié)作能力。在傳統(tǒng)的科層制管理模式下,跨部門協(xié)作往往涉及復(fù)雜的審批流程和信息傳遞,導(dǎo)致執(zhí)行效率降低。但是在生成式AI的輔助下,各部門之間依靠智能平臺(tái)和數(shù)據(jù)共享體系就能夠?qū)崿F(xiàn)無延遲的信息交換與決策協(xié)調(diào)。不管是針對突發(fā)公共事件中還是推進(jìn)大型的跨部門項(xiàng)目,生成式AI都能夠?qū)⒂嘘P(guān)資料進(jìn)行自動(dòng)化的整合,輔助部門之間任務(wù)的分配、進(jìn)度的協(xié)調(diào),從而使協(xié)作過程變得靈活、高效起來。這種協(xié)作的高效化除了降低溝通成本之外,還能提高政府適應(yīng)變化、滿足大眾需求的治理響應(yīng)速度。
此外,生成式人工智能所帶來的這種結(jié)構(gòu)扁平化趨勢也簡化了政府內(nèi)部的層級流程,使得信息在各個(gè)層級上的傳輸加速加快。高層決策者可以直接從基層中獲取信息并通過生成式AI的實(shí)時(shí)數(shù)據(jù)分析及可視化功能,做出更加快速的、精確的決定。通過智能化的任務(wù)分配以及自動(dòng)化的反饋機(jī)制,生成式人工智能還可以使基層工作人員與上級部門的指令實(shí)現(xiàn)較為直接的對接,減少了中間層級的冗余,并縮短了指令傳達(dá)的鏈條,從而可以提高政策實(shí)施的效率和精度。
(四)人機(jī)協(xié)同化與操作智慧化
在國家治理中,人機(jī)協(xié)同化和操作智能化在生成式人工智能應(yīng)用之后正逐步成為一種重要的走向。作為信息處理工具的生成式AI,已經(jīng)融入了治理過程中的各個(gè)環(huán)節(jié)中,成為支持決策、預(yù)測風(fēng)險(xiǎn)、執(zhí)行管理的關(guān)鍵力量。通過與人類的相互協(xié)作,生成式人工智能可以為政府提供更加智慧的操作支持,推動(dòng)國家治理的高效化。
生成式AI在海量數(shù)據(jù)分析及風(fēng)險(xiǎn)預(yù)測中所表現(xiàn)出強(qiáng)大能力,為政府部門提供了更加可靠的決策基礎(chǔ)。比如在突發(fā)事件管理中,生成式人工智能可以幫助人類決策者制訂一個(gè)高效科學(xué)的應(yīng)對預(yù)案從而縮短反應(yīng)時(shí)間,提高應(yīng)急管理的精準(zhǔn)性。這種強(qiáng)大功能的實(shí)現(xiàn)依靠的是AI系統(tǒng)對歷史資料、實(shí)時(shí)信息和外部情報(bào)的總和分析。生成式人工智能的這種實(shí)時(shí)分析及預(yù)測能力使政府對風(fēng)險(xiǎn)的預(yù)防以及資源的調(diào)度能夠具有前瞻性,從而使得治理過程的智能化水平大幅提升。
在人機(jī)協(xié)同的模式下,生成式人工智能既是決策的輔助性工具,又是執(zhí)行的重要“合作者”。人工智能能夠承擔(dān)高度重復(fù)型、數(shù)據(jù)密集型的工作,從而為人類工作人員減輕負(fù)擔(dān),使后者能夠更多地投入到創(chuàng)造性、戰(zhàn)略性的工作中來。例如生成式人工智能可以完全自動(dòng)化地處理公文、分析大眾反饋以及跟蹤政策的實(shí)施效果,為人類管理者提供即時(shí)的數(shù)據(jù)反饋以及戰(zhàn)略性的建議。這種智能化操作支持,使得公共服務(wù)的工作效率有了很大提高,也使政策執(zhí)行變得更準(zhǔn)確,更加具有可控性。
此外,生成式人工智能促使治理方式的智能化程度加深,讓復(fù)雜化問題的解決更具綜合性和高效性。人工智能不但可對現(xiàn)有資料做深度分析還可以將多源資料結(jié)合起來進(jìn)行預(yù)測及情景模擬,從而幫助政府部門的決策過程更加科學(xué),最終確保政策的可行性與適應(yīng)性。政府在應(yīng)對復(fù)雜社會(huì)問題時(shí)通過這種智慧化的操作支持可以更加靈活和精準(zhǔn)地做出反應(yīng), 從而有助于增強(qiáng)國家治理的綜合性及科學(xué)性。
(五)參與多元化與監(jiān)督透明化
生成式人工智能的應(yīng)用正在推動(dòng)國家治理中的參與多元化和監(jiān)督透明化,逐步構(gòu)建以公眾廣泛參與為核心的共治模式,生成式AI通過智能交互系統(tǒng)、在線平臺(tái)和自動(dòng)反饋機(jī)制,拓展了公眾參與的渠道,突破了時(shí)空限制,使各類人群都能輕松參與政策討論、表達(dá)意見,進(jìn)一步豐富了公共治理的多元參與形式。例如,基于生成式AI的在線平臺(tái),公眾可以在政策形成的各個(gè)階段隨時(shí)提交意見或建議,反饋迅速傳達(dá)至相關(guān)部門,增強(qiáng)了政策制定的開放性和包容性。
生成式AI還能夠?qū)碜圆煌后w的大量反饋進(jìn)行快速、精準(zhǔn)的分析,自動(dòng)分類和匯總公眾的意見,將數(shù)據(jù)化的見解提供給決策者。該類智能反饋機(jī)制不但增強(qiáng)了政府認(rèn)識(shí)民意的深度與廣度,而且讓更多聲音能夠更有效地參與到政策討論中,為決策提供多維度的數(shù)據(jù)支撐。在公共意見搜集及資料分析方面,AI技術(shù)的優(yōu)勢有利于打破信息壁壘使不同利益群體的需求得到較為及時(shí)的反映,從而實(shí)現(xiàn)較為全面有效的治理過程。
同時(shí),監(jiān)督的透明性也受到生成式AI應(yīng)用的促進(jìn)。AI技術(shù)能夠使決策過程中的政府行為能夠被實(shí)時(shí)跟蹤和記錄在案,也能使政府行為在政策執(zhí)行過程中保持公開化和透明性,以便于公眾和媒體的監(jiān)督。比如,生成式AI可以通過視覺化的形式來呈現(xiàn)政策執(zhí)行的進(jìn)度、問題的反饋以及調(diào)整的情況,為大眾所查閱,從而使得政策執(zhí)行更加的透明和可追溯。另外,人工智能系統(tǒng)還可以分析公共政策實(shí)施的效果以及公眾的反饋,來幫助政府識(shí)別可能出現(xiàn)的問題以及存在的薄弱部分,從而對政策過程做進(jìn)一步地優(yōu)化。
三、國家治理中生成式人工智能發(fā)展的核心挑戰(zhàn)
(一)數(shù)據(jù)隱私與安全風(fēng)險(xiǎn)
生成式人工智能在國家治理中的廣泛應(yīng)用,依賴于大量的個(gè)人和敏感數(shù)據(jù)進(jìn)行模型訓(xùn)練和優(yōu)化,雖然這一特點(diǎn)對治理效率的提升起到了積極作用,但在數(shù)據(jù)隱私和安全方面也帶來了重大隱患。首先,生成式AI需要分析大量的個(gè)人數(shù)據(jù),這些數(shù)據(jù)往往包含高度隱私的信息,如身份信息、行為記錄、健康狀況等,以實(shí)現(xiàn)精準(zhǔn)、個(gè)性化的決策支持。這些敏感信息在數(shù)據(jù)的收集、存儲(chǔ)和處理過程中,極易被泄露或?yàn)E用,一旦產(chǎn)生疏漏或管理不善等情況,就會(huì)造成對個(gè)人隱私的嚴(yán)重侵犯。
其次,生成式AI為了整合多元信息,提高決策的全面性和準(zhǔn)確性,在應(yīng)用中需要跨部門的數(shù)據(jù)共享。但跨部門的數(shù)據(jù)流轉(zhuǎn)往往增加了數(shù)據(jù)管理的復(fù)雜性,尤其是在數(shù)據(jù)安全措施不統(tǒng)一、保護(hù)機(jī)制不到位的情況下,數(shù)據(jù)傳輸過程中很可能發(fā)生數(shù)據(jù)泄露或篡改。此外,不同部門對于數(shù)據(jù)存取權(quán)限的控制差異也可能導(dǎo)致數(shù)據(jù)被濫用,使得數(shù)據(jù)隱私風(fēng)險(xiǎn)進(jìn)一步加劇。尤其是在涉及多層級、多系統(tǒng)的復(fù)雜治理場景中,數(shù)據(jù)的頻繁交換和重復(fù)存儲(chǔ)增加了泄露的概率。
另外,生成式AI模型本身也可能無意中泄露敏感信息。AI模型在訓(xùn)練時(shí)會(huì)提取數(shù)據(jù)中的特征并學(xué)習(xí)模式,但在生成新內(nèi)容時(shí),AI可能將訓(xùn)練數(shù)據(jù)中的隱私信息“帶出”模型,尤其是在模型復(fù)雜度較高的情況下,這種隱性泄露更為難以察覺。一旦被惡意利用,這些輸出的隱私信息可能對個(gè)人造成不可估量的損害,甚至引發(fā)社會(huì)安全問題。
最后,生成式AI的高數(shù)據(jù)依賴性為網(wǎng)絡(luò)攻擊提供了新的途徑。生成式AI系統(tǒng)需要持續(xù)接入和更新數(shù)據(jù),頻繁的網(wǎng)絡(luò)交互在一定程度上增大了網(wǎng)絡(luò)安全的風(fēng)險(xiǎn)。攻擊者可能通過網(wǎng)絡(luò)漏洞竊取、篡改或操控?cái)?shù)據(jù),直接影響到生成式AI的決策準(zhǔn)確性和可靠性,甚至導(dǎo)致錯(cuò)誤的公共決策。這種潛在的安全威脅不僅會(huì)使個(gè)體隱私暴露于風(fēng)險(xiǎn)中,更可能危及國家的數(shù)據(jù)安全和社會(huì)穩(wěn)定。因此,生成式AI在國家治理中的數(shù)據(jù)隱私和安全風(fēng)險(xiǎn)日益緊迫,需要引起高度重視。
(二)算法透明度與問責(zé)缺失
生成式人工智能的“黑箱”特性,使國家治理中的透明性、問責(zé)機(jī)制面臨嚴(yán)峻的挑戰(zhàn)。由于生成式人工智能系統(tǒng)通常采用由大量層級和節(jié)點(diǎn)組成的復(fù)雜深度學(xué)習(xí)模型,其內(nèi)部計(jì)算過程很難解釋,因此它的具體決策邏輯和依據(jù)很難被外界所了解。這種不透明性限制了公眾對AI系統(tǒng)的認(rèn)識(shí)和信任,特別是生成式AI用于涉及公眾利益的決策場景時(shí),透明度的缺乏使得公眾對人工智能決策的合理性、公正性難以確定,甚至?xí)a(chǎn)生懷疑、不信任等情況。
在國家治理中,責(zé)任劃分的模糊是由于透明度不夠造成的。生成式AI系統(tǒng)發(fā)生差錯(cuò)或偏差時(shí),具體責(zé)任方難以被清晰地追溯。在傳統(tǒng)決策中,人類決策者需要為自己的決策承擔(dān)責(zé)任,但在AI決策中,由于模型訓(xùn)練過程中的數(shù)據(jù)偏差、算法設(shè)計(jì)的缺陷、模型參數(shù)的設(shè)置不當(dāng),甚至算法本身的局限性等多重因素都有可能導(dǎo)致錯(cuò)誤的產(chǎn)生,從而導(dǎo)致責(zé)任的界定異常復(fù)雜。這種模糊的責(zé)任歸屬,讓AI一旦決策失誤,就很難確定到底該追究誰的責(zé)任,不僅可能造成追責(zé)難的現(xiàn)實(shí)問題,也會(huì)讓國家治理的公信力大打折扣。
生成式人工智能缺乏透明度的問題在公共服務(wù)領(lǐng)域特別明顯。公共服務(wù)需要保證公平性與公開性,但是生成式人工智能的“黑箱”性質(zhì)使公眾很難知道其決策的依據(jù)從而導(dǎo)致公共決策的公信力下降。例如,在政府資源分配或社會(huì)保障決策中,如果人工智能在決策時(shí)采用了偏見數(shù)據(jù)或訓(xùn)練中出現(xiàn)誤差,那么某些群體將會(huì)遭到不公正的對待,并且由于算法不透明,公眾很難識(shí)別或者質(zhì)疑這些決策依據(jù)的合理性。
更嚴(yán)重的是,外部對其進(jìn)行監(jiān)管的可能性受到生成式AI復(fù)雜性的限制。對一般公眾乃至專業(yè)人士而言,生成式AI系統(tǒng)運(yùn)行的原理很難理解,這就造成了公眾在質(zhì)疑AI決策時(shí)缺乏基本的監(jiān)督能力。一方面,大眾是無法辨認(rèn)AI決策的潛在問題的;另一方面,即使出現(xiàn)了問題,也很難弄清原因或提出質(zhì)疑,這使得“黑箱”效應(yīng)進(jìn)一步加劇,使公共服務(wù)透明度、公信力受到損害。
(三)倫理與道德風(fēng)險(xiǎn)
生成式人工智能在國家治理中應(yīng)用會(huì)帶來倫理、道德方面的顯著危險(xiǎn)。首先,由于生成式人工智能系統(tǒng)的決策和內(nèi)容強(qiáng)烈依賴于歷史數(shù)據(jù),后者往往包括性別、種族、年齡等現(xiàn)實(shí)社會(huì)中的隱性偏見。這些偏見和不公平因素在AI的訓(xùn)練過程當(dāng)中可能會(huì)被納入到一個(gè)決策模型中來,從而在應(yīng)用中產(chǎn)生一種歧視性或者不公正的決策。這種偏見在公共服務(wù)的應(yīng)用當(dāng)中,不僅僅會(huì)使得特定人群受到歧視,而且加劇社會(huì)的不公平,從而影響到社會(huì)的包容性和公正性。
此外,生成式AI在國家治理中的普遍運(yùn)用,或使政府過分依賴技術(shù),而對治理中應(yīng)有的人性化因素置之不理。AI的高效與自動(dòng)化特性,使很多政府部門為了追求管理效率,往往會(huì)傾向于通過技術(shù)手段簡化決策流程,但這種傾向容易忽略公眾的個(gè)體需求和特殊情況,造成決策與服務(wù)缺乏人性化考量。比如基于算法的決策,在面對突發(fā)狀況或個(gè)體差異時(shí),不能真正體現(xiàn)社會(huì)治理的包容性與多元化,就可能表現(xiàn)出刻板、機(jī)械的處理方式。
生成式AI的倫理風(fēng)險(xiǎn)也表現(xiàn)為誤導(dǎo)和操縱信息方面。人工智能的生成能力可以被用于內(nèi)容的自動(dòng)生產(chǎn),從而方便了虛假信息的生成。如果生成式人工智能被用于制造虛假新聞、誤導(dǎo)性宣傳或操縱社會(huì)輿論,就有可能嚴(yán)重威脅到公眾的知情權(quán)、判斷力和社會(huì)信任。這種操控性的應(yīng)用方式可能破壞社會(huì)信任,甚至引發(fā)社會(huì)不安和沖突,影響國家治理的穩(wěn)定性和合法性。
最后,生成式AI系統(tǒng)的應(yīng)用還可能引發(fā)責(zé)任歸屬的倫理難題。AI在決策和執(zhí)行過程中若出現(xiàn)錯(cuò)誤或帶來負(fù)面后果,責(zé)任的劃分會(huì)變得復(fù)雜且模糊。生成式AI的決策偏差可能來源于數(shù)據(jù)質(zhì)量、算法設(shè)計(jì)或外部環(huán)境等多種因素,而不同于傳統(tǒng)的人工決策,這些因素往往難以追溯和歸責(zé)。這種不清晰的責(zé)任歸屬不僅影響公共治理的透明度,也可能引發(fā)公眾對AI決策的不信任,使得社會(huì)各界在面對AI錯(cuò)誤時(shí)難以獲得公正的問責(zé)和補(bǔ)償。
(四)數(shù)字主權(quán)與國際競爭壓力
生成式人工智能的發(fā)展使數(shù)字主權(quán)問題和國際技術(shù)競爭壓力日益凸顯。作為新興的技術(shù)領(lǐng)域,生成式AI被各國視為增強(qiáng)國家競爭力的關(guān)鍵資源,因此圍繞數(shù)據(jù)主權(quán)、技術(shù)自主和標(biāo)準(zhǔn)制定權(quán)展開了激烈的全球競爭。首先,生成式AI在數(shù)據(jù)處理和分析中高度依賴海量數(shù)據(jù),而這些數(shù)據(jù)的流動(dòng)和存儲(chǔ)直接關(guān)系到國家的數(shù)據(jù)主權(quán)和安全。為了確保對數(shù)據(jù)資源的控制力,許多國家實(shí)施了嚴(yán)格的數(shù)據(jù)本土化政策,力圖在國際數(shù)據(jù)流動(dòng)中保障自身的主權(quán)利益。這種政策措施雖然有效保護(hù)了本國數(shù)據(jù)資源,但也增加了跨國數(shù)據(jù)合作的復(fù)雜性。
此外,生成式AI的核心技術(shù)和算法開發(fā)是掌握技術(shù)主導(dǎo)權(quán)的關(guān)鍵所在,而這正成為全球技術(shù)競爭中的重要戰(zhàn)場。擁有領(lǐng)先的AI技術(shù)不僅意味著更強(qiáng)的經(jīng)濟(jì)實(shí)力和創(chuàng)新能力,也意味著在國際技術(shù)標(biāo)準(zhǔn)制定中占據(jù)主導(dǎo)地位。技術(shù)壟斷和標(biāo)準(zhǔn)輸出正成為各國競爭的焦點(diǎn),一些技術(shù)領(lǐng)先的國家通過專利、技術(shù)封鎖等手段限制其他國家進(jìn)入核心技術(shù)領(lǐng)域,從而在生成式AI的標(biāo)準(zhǔn)制定中掌握話語權(quán)。這種技術(shù)壟斷不僅限制了新興國家的技術(shù)發(fā)展,也使許多國家在生成式AI應(yīng)用中受制于人,削弱了其在國際競爭中的自主性。
與此同時(shí),生成式AI在國家治理中的應(yīng)用還面臨數(shù)據(jù)保護(hù)和技術(shù)標(biāo)準(zhǔn)獨(dú)立性的雙重挑戰(zhàn)。國際技術(shù)競爭的加劇使得各國在數(shù)據(jù)保護(hù)和網(wǎng)絡(luò)安全方面加強(qiáng)防護(hù)措施,以防止數(shù)據(jù)泄露和信息被竊取。但在這一過程中,部分國家過度依賴外國技術(shù)的局面也愈加明顯。對于技術(shù)依賴性較強(qiáng)的國家來說,一旦關(guān)鍵技術(shù)被限制,可能直接影響到生成式AI的正常運(yùn)行和發(fā)展,甚至威脅到國家的數(shù)字主權(quán)。因此,如何在國際技術(shù)競爭中既保持技術(shù)獨(dú)立性又確保數(shù)據(jù)安全,已成為當(dāng)前數(shù)字主權(quán)面臨的核心難題。
(五)公共服務(wù)中的數(shù)字鴻溝與社會(huì)不平等
盡管生成式AI在提升公共服務(wù)效率和響應(yīng)速度方面展現(xiàn)了顯著優(yōu)勢,但其廣泛應(yīng)用也可能加劇數(shù)字鴻溝,進(jìn)一步擴(kuò)大社會(huì)不平等。生成式AI依靠的是應(yīng)用和理解數(shù)字技術(shù)的能力,所以它對大眾的數(shù)字素養(yǎng)要求更高。但社會(huì)上存在著極其不均衡的數(shù)字素養(yǎng)差異,對于在適應(yīng)以AI為基礎(chǔ)的公共服務(wù)模式時(shí)面臨著顯著障礙的老年人、偏遠(yuǎn)地區(qū)居民和低收入人群而言,他們的數(shù)字素養(yǎng)可能使其難以適應(yīng)智能服務(wù)流程,這將導(dǎo)致他們在享受公共服務(wù)時(shí)處于嚴(yán)重劣勢。
這種數(shù)字鴻溝不僅影響到個(gè)體在獲取服務(wù)方面的便利性,還可能加劇社會(huì)資源分配的不平等程度。舉例來說,生成式AI可以在智能醫(yī)療、在線教育和公眾信息獲取等領(lǐng)域提供個(gè)性化、精準(zhǔn)化的服務(wù),但不熟悉技術(shù)的群體不僅難以將這些服務(wù)有效地利用起來,甚至連所需的基礎(chǔ)信息都不能得到。特別是在重要的民生領(lǐng)域,如公共衛(wèi)生、社會(huì)救助等方面,數(shù)字鴻溝會(huì)導(dǎo)致一些弱勢群體在社會(huì)經(jīng)濟(jì)上處于更加不利的地位,無法獲取同等的資源與救助。
此外,生成式AI技術(shù)的應(yīng)用往往集中在城市和經(jīng)濟(jì)發(fā)達(dá)地區(qū),而偏遠(yuǎn)地區(qū)和經(jīng)濟(jì)欠發(fā)達(dá)地區(qū)基礎(chǔ)設(shè)施的不完善,導(dǎo)致AI技術(shù)的全面覆蓋在這些地區(qū)難以實(shí)現(xiàn)。這不僅造成了資源在城鄉(xiāng)間的不均衡分配,而且也加劇了區(qū)域間數(shù)字差距。生成式AI帶來的新型公共服務(wù),由于缺乏必要的設(shè)備和網(wǎng)絡(luò)支持,難以被一些偏遠(yuǎn)地區(qū)的居民所使用,使得后者在社會(huì)和經(jīng)濟(jì)上形成一個(gè)“信息孤島”。這種區(qū)域性的數(shù)字鴻溝阻礙了生成式AI的普及應(yīng)用,也使得公共服務(wù)在國家治理中的普惠性目標(biāo)受到限制。
社會(huì)不平等在生成式AI的應(yīng)用過程中可能進(jìn)一步固化甚至擴(kuò)大。例如,在就業(yè)市場中,生成式AI的普及對高技術(shù)人群帶來了更多的就業(yè)機(jī)會(huì)和職業(yè)發(fā)展,而低技能勞動(dòng)者的工作機(jī)會(huì)可能被自動(dòng)化系統(tǒng)所取代,導(dǎo)致其在經(jīng)濟(jì)上的競爭力進(jìn)一步減弱。生成式AI帶來的這種結(jié)構(gòu)性差異將加劇經(jīng)濟(jì)不平等,使得社會(huì)的各階層在資源和機(jī)會(huì)獲取上愈加不均。
(六)國家安全與意識(shí)形態(tài)風(fēng)險(xiǎn)
生成式人工智能的廣泛應(yīng)用在國家安全和意識(shí)形態(tài)層面帶來了顯著的風(fēng)險(xiǎn)。首先,生成式AI具備強(qiáng)大的內(nèi)容生成能力,這一特性使其在輿論操控和虛假信息傳播方面成為潛在的威脅。生成式AI可以自動(dòng)生成大量的文字、圖片、視頻等內(nèi)容,易于偽造和傳播虛假信息。例如,通過生成虛假新聞或深度偽造的視頻,生成式AI能夠誤導(dǎo)公眾,對社會(huì)認(rèn)知形成錯(cuò)誤引導(dǎo)。這類虛假信息在社交媒體上快速傳播,可能引發(fā)社會(huì)恐慌、激化群體沖突,甚至破壞社會(huì)信任,嚴(yán)重影響國家的意識(shí)形態(tài)穩(wěn)定。
此外,生成式AI的操控性也使其成為境內(nèi)外勢力影響輿論和干預(yù)內(nèi)政的工具。由于生成式AI的內(nèi)容生成具有高度的隱蔽性,敵對勢力可以利用AI生成的信息在特定事件上煽動(dòng)情緒、混淆視聽,削弱公眾對國家政策的信任。這種外部干預(yù)通過生成式AI的廣泛傳播,可能改變公眾的認(rèn)知,甚至顛覆主流意識(shí)形態(tài),給國家治理帶來巨大的挑戰(zhàn)。
在網(wǎng)絡(luò)安全方面,生成式AI的應(yīng)用也帶來了新的攻擊手段,成為網(wǎng)絡(luò)攻擊的潛在風(fēng)險(xiǎn)。生成式AI能夠讓欺騙性較強(qiáng)的釣魚郵件、惡意代碼或自動(dòng)化攻擊手段,更容易被黑客或其他惡意分子使用,從而使網(wǎng)絡(luò)攻擊更加難以防范。例如,AI產(chǎn)生的惡意內(nèi)容可以騙取用戶的敏感信息或在誘使系統(tǒng)實(shí)施惡意操作,增加了網(wǎng)絡(luò)攻擊的隱蔽性和危害性。一旦遇到基于AI的網(wǎng)絡(luò)攻擊,對關(guān)鍵信息基礎(chǔ)設(shè)施和政府?dāng)?shù)據(jù)庫而言將造成十分嚴(yán)重的后果,并可能導(dǎo)致敏感數(shù)據(jù)外泄、系統(tǒng)坍塌等,對國家安全基本穩(wěn)定構(gòu)成威脅。
此外,生成式AI的濫用有可能造成安全管控難度的加大。人工智能生成的內(nèi)容與真實(shí)信息難以被區(qū)分開來,使國家對信息的監(jiān)管變得復(fù)雜起來,增加了公共信息流通的篩選驗(yàn)證成本。同時(shí),生成式AI的高度智能化使得信息監(jiān)管和安全保護(hù)措施很難迅速適應(yīng)新的威脅,也削弱了國家安全體系的抗風(fēng)險(xiǎn)能力。
生成式人工智能在國家安全和意識(shí)形態(tài)方面的風(fēng)險(xiǎn),不僅局限于網(wǎng)絡(luò)安全,而且包括信息操縱、輿論介入和敵對勢力的潛在利用等。生成式人工智能的應(yīng)用一旦脫離監(jiān)管,就會(huì)嚴(yán)重威脅到國家安全和社會(huì)穩(wěn)定,使維護(hù)信息安全和意識(shí)形態(tài)穩(wěn)定的難度大大增加,最終會(huì)對國家安全和社會(huì)穩(wěn)定的嚴(yán)重威脅。
四、國家治理中生成式人工智能發(fā)展的應(yīng)對策略
(一)雙軌治理:結(jié)合“硬法”約束與“軟法”引導(dǎo)
在國家治理中,為確保生成式AI的有效和可控應(yīng)用,雙軌治理的“硬法”與“軟法”結(jié)合策略是關(guān)鍵,首先,硬法治理通過強(qiáng)制性立法和政策約束來規(guī)范AI技術(shù)的使用和發(fā)展。具體而言,硬法手段包括制定嚴(yán)格的法律條款,明確數(shù)據(jù)保護(hù)、隱私管理、算法透明等方面的要求,為生成式AI的開發(fā)、應(yīng)用和監(jiān)管設(shè)定統(tǒng)一的法律標(biāo)準(zhǔn)。此外,硬法治理還需建立專門的監(jiān)管機(jī)構(gòu),通過例行檢查、技術(shù)審核和數(shù)據(jù)合規(guī)性審查等方式,定期監(jiān)督生成式AI在政府治理中的實(shí)際運(yùn)作。監(jiān)管機(jī)構(gòu)可以依據(jù)法律規(guī)定實(shí)施處罰、限制甚至叫停未達(dá)標(biāo)的AI應(yīng)用項(xiàng)目,從而保障硬性規(guī)制的執(zhí)行效果,使生成式AI的應(yīng)用過程合規(guī)且透明。
同時(shí),軟法治理以靈活的管理方式,輔以道德準(zhǔn)則、技術(shù)標(biāo)準(zhǔn)和行業(yè)自律等非強(qiáng)制性手段,增強(qiáng)AI治理的適應(yīng)性。軟法治理中,行業(yè)協(xié)會(huì)、學(xué)術(shù)機(jī)構(gòu)等可制定生成式AI的行為準(zhǔn)則和技術(shù)規(guī)范,推動(dòng)行業(yè)自律,確保AI系統(tǒng)符合道德底線和社會(huì)責(zé)任。例如,對于行業(yè)協(xié)會(huì)而言可以頒布倫理準(zhǔn)則來指導(dǎo)人工智能開發(fā)企業(yè)在技術(shù)上的運(yùn)用中主動(dòng)考慮社會(huì)責(zé)任、規(guī)避潛在的不利作用。另外通過倡導(dǎo)企業(yè)自愿采用行業(yè)的最佳實(shí)踐及標(biāo)準(zhǔn),軟法手段不需要依靠立法的漫長過程就可以在迅速變化的技術(shù)環(huán)境中就形成為一個(gè)有規(guī)范的系統(tǒng),這種柔性管理機(jī)制在保證生成式AI不會(huì)偏離社會(huì)價(jià)值觀和倫理要求的同時(shí)又能夠很快地適應(yīng)新的技術(shù)改變和應(yīng)用情景,使生成式AI能夠快速地滿足社會(huì)價(jià)值和倫理的要求。
硬法與軟法在雙軌治理模式中是相補(bǔ)充的:硬法以法律約束提供基礎(chǔ)保障,保證了生成式人工智能的應(yīng)用不違背基本法律和合規(guī)的要求;另一方面,軟法通過行業(yè)標(biāo)準(zhǔn)及道德準(zhǔn)則,為生成式人工智能的發(fā)展提供方向指導(dǎo)及倫理保證。如在數(shù)據(jù)使用以及隱私保護(hù)方面,硬法可以強(qiáng)制性地要求數(shù)據(jù)加密、去標(biāo)識(shí)化等技術(shù)措施,而軟法則對行業(yè)采用最佳做法加以引導(dǎo),從而促使企業(yè)自覺地提高數(shù)據(jù)處理、保護(hù)方面的能力。通過這種組合式的治理方式,不僅保證了生成式AI的法律合規(guī),而且增強(qiáng)了它的適應(yīng)性,保證了在國家治理中生成式AI技術(shù)能夠做到高效、安全,實(shí)現(xiàn)穩(wěn)健發(fā)展。
(二)算法透明與公眾問責(zé)機(jī)制
確立算法透明化及公眾問責(zé)制,是保障生成式人工智能在國家治理中得到公開、公正應(yīng)用的關(guān)鍵一步。首先,強(qiáng)化人工智能系統(tǒng)可信度的核心是促使算法透明性。政府要保證生成式人工智能有足夠的決策透明度,尤其是要公開決策過程中的輸入數(shù)據(jù)、決策邏輯、最終結(jié)果。公眾可以較為全面地理解生成式人工智能運(yùn)行方式,通過公開算法的關(guān)鍵原理來降低公眾的不信任度。另外,政府要制訂相關(guān)準(zhǔn)則來限制敏感或者高度依賴數(shù)據(jù)的應(yīng)用,要求其必須具備可解釋性,從而確保公眾在知情的基礎(chǔ)上來評估生成式人工智能的運(yùn)作。
在透明度的基礎(chǔ)上建立問責(zé)機(jī)制顯得格外重要。政府可成立專門負(fù)責(zé)處理生成式人工智能應(yīng)用問題的部門或工作組,對生成式人工智能的責(zé)任劃分加以明確。一旦生成式人工智能的決策引起質(zhì)疑或是造成不良影響的,公眾可以通過專門的反饋渠道進(jìn)行投訴或報(bào)告,問責(zé)部門需要及時(shí)回應(yīng)并進(jìn)行調(diào)查,從而使得公眾的監(jiān)督權(quán)得到保障。同時(shí)政府應(yīng)建立包括事前評估、事中監(jiān)視及事后審查在內(nèi)的一套完善的問責(zé)流程,以確保錯(cuò)誤發(fā)生時(shí),能夠及時(shí)采取糾正措施,并實(shí)現(xiàn)快速的追責(zé)。
算法透明與責(zé)任追究機(jī)制的有效結(jié)合,還需賦予公眾適當(dāng)?shù)馁|(zhì)疑權(quán)和參與權(quán)。例如,政府可組織算法審查會(huì)或討論會(huì),邀請專家及公眾代表參加對算法的評審,確保AI系統(tǒng)的設(shè)計(jì)及應(yīng)用符合公共利益。還可定期發(fā)布生成式AI系統(tǒng)的應(yīng)用報(bào)告,披露AI系統(tǒng)的決策精確性、錯(cuò)誤率及改善情況等內(nèi)容。通過對AI系統(tǒng)的定期披露及審查,可以進(jìn)一步提高算法透明性,并且使問責(zé)制更加有效地發(fā)揮作用。
(三)跨部門數(shù)據(jù)共享與隱私保護(hù)的平衡
在國家治理中,生成式AI的高效應(yīng)用依賴跨部門的數(shù)據(jù)共享,但隱私保護(hù)也是確保其安全運(yùn)行的關(guān)鍵。為此,政府需要在數(shù)據(jù)共享過程中采用先進(jìn)的數(shù)據(jù)保護(hù)技術(shù),以實(shí)現(xiàn)數(shù)據(jù)的安全流通。首先,數(shù)據(jù)加密技術(shù)是保障數(shù)據(jù)傳輸安全的重要手段,通過加密數(shù)據(jù)在不同部門之間的傳輸過程,能有效防止數(shù)據(jù)被未經(jīng)授權(quán)的人員截取和訪問?;诿荑€的加密技術(shù)以及多層加密協(xié)議可以確保數(shù)據(jù)在傳輸中的安全性,即便在數(shù)據(jù)傳輸路徑上遭遇安全風(fēng)險(xiǎn),也能最大程度上減少數(shù)據(jù)泄露的風(fēng)險(xiǎn)。
其次,去標(biāo)識(shí)化和差分隱私技術(shù)能夠在跨部門數(shù)據(jù)共享時(shí)確保隱私信息不被泄露。去標(biāo)識(shí)化處理可以在數(shù)據(jù)共享之前移除或模糊敏感信息,使數(shù)據(jù)在脫離個(gè)體信息的情況下仍具備分析價(jià)值。而差分隱私技術(shù)則通過向數(shù)據(jù)中引入噪聲,使數(shù)據(jù)分析結(jié)果無法識(shí)別出個(gè)人信息,這樣即使在數(shù)據(jù)分析過程中共享的聚合數(shù)據(jù)也能在隱私保護(hù)和信息提取之間實(shí)現(xiàn)平衡。這些技術(shù)手段有助于在多部門數(shù)據(jù)共享時(shí)既能保障分析精度,又不會(huì)因個(gè)體信息的泄露而侵犯隱私。
此外,政府應(yīng)設(shè)立專門的數(shù)據(jù)保護(hù)和隱私管理機(jī)構(gòu),對跨部門的數(shù)據(jù)共享行為進(jìn)行監(jiān)督和管理。此類機(jī)構(gòu)可以對每個(gè)部門的數(shù)據(jù)共享申請進(jìn)行審查,確保數(shù)據(jù)的使用范圍合理合法,同時(shí)設(shè)立嚴(yán)格的訪問權(quán)限控制系統(tǒng),防止數(shù)據(jù)的非法使用。定期開展數(shù)據(jù)共享的審查活動(dòng),包括訪問日志審查、數(shù)據(jù)使用情況追蹤等措施,可以有效防止數(shù)據(jù)濫用和隱私泄露,確保各部門的數(shù)據(jù)共享行為始終處于規(guī)范之中。
為進(jìn)一步確保隱私保護(hù)和數(shù)據(jù)共享的平衡,政府還可以建立跨部門的數(shù)據(jù)共享協(xié)議,明確數(shù)據(jù)共享的準(zhǔn)入條件、使用范圍和責(zé)任分配。該協(xié)議可以規(guī)范各部門在共享和使用數(shù)據(jù)時(shí)的行為,同時(shí)也為數(shù)據(jù)泄露或隱私風(fēng)險(xiǎn)提供追責(zé)依據(jù)。通過這些制度保障,跨部門的數(shù)據(jù)共享能夠在法律和技術(shù)的雙重支持下穩(wěn)健進(jìn)行,既能發(fā)揮生成式AI的治理效能,又能最大程度地保護(hù)公民的隱私權(quán)利,實(shí)現(xiàn)數(shù)據(jù)流動(dòng)與隱私保護(hù)的雙贏。
(四)倫理與價(jià)值導(dǎo)向的規(guī)范框架:倡導(dǎo)“善智”發(fā)展
在生成式AI的國家治理應(yīng)用中,確保AI技術(shù)與社會(huì)道德相一致的關(guān)鍵是建立以倫理道德和價(jià)值導(dǎo)向?yàn)楹诵牡囊?guī)范框架。為此,政府可以明確主張“善智”的發(fā)展原則,確保生成式AI應(yīng)用的道德性和公正性,建立“不傷害人,不歧視人,不操縱人,不代替人”的準(zhǔn)則。首先,AI應(yīng)用的嚴(yán)格倫理評估可以通過引入倫理審查機(jī)制來實(shí)現(xiàn)。這一機(jī)制可以在AI應(yīng)用的前、中、后各個(gè)階段進(jìn)行審查,以確保在實(shí)際操作過程中不會(huì)出現(xiàn)偏見或決策不公的情況。例如,在AI算法上線前,需要進(jìn)行道德影響測試,檢查其是否會(huì)因數(shù)據(jù)或模型的偏差而導(dǎo)致不公平現(xiàn)象,從而最大程度地避免由于AI帶來的歧視或道德風(fēng)險(xiǎn)。
同時(shí),建立專門的AI倫理委員會(huì)是強(qiáng)化治理的一項(xiàng)重要措施。倫理委員會(huì)可邀請學(xué)術(shù)界人士、法律專家、科技公司代表和公眾代表以組建多層次社會(huì)監(jiān)督體系。該委員會(huì)可以制定倫理準(zhǔn)則,并對人工智能的應(yīng)用進(jìn)行定期審核和評估,及時(shí)發(fā)現(xiàn)和糾正AI系統(tǒng)中的倫理缺陷,確保人工智能應(yīng)用過程符合公認(rèn)的社會(huì)倫理準(zhǔn)則。另外,倫理委員會(huì)還可以接受公眾的反饋和舉報(bào),幫助政府及時(shí)發(fā)現(xiàn)AI技術(shù)在治理方面的潛在倫理問題,從而使生成式AI的應(yīng)用更加具有透明度,也更加具有公眾的信任度。
為加強(qiáng)“善智”原則的貫徹落實(shí),政府也可以制定適用于生成式AI的倫理規(guī)范和技術(shù)標(biāo)準(zhǔn),以促進(jìn)道德規(guī)范的標(biāo)準(zhǔn)化。這些標(biāo)準(zhǔn)要涵蓋AI開發(fā)、數(shù)據(jù)使用、算法設(shè)計(jì)、應(yīng)用過程等內(nèi)容,并對任何可能帶來不公平或歧視性結(jié)果的行為予以明確禁止。例如,在設(shè)計(jì)生成式AI系統(tǒng)時(shí),為了保證系統(tǒng)輸出達(dá)到倫理要求,就要求在模型中避免使用包含偏見的數(shù)據(jù),或者通過技術(shù)手段消除模型中的偏見。
最后,政府可以通過宣傳和教育,提升各部門和AI從業(yè)者的倫理意識(shí)。通過開展倫理培訓(xùn)和宣傳活動(dòng),向相關(guān)人員普及AI倫理知識(shí)和“善智”原則,使AI開發(fā)和應(yīng)用團(tuán)隊(duì)在實(shí)際操作中時(shí)刻保持道德自覺,主動(dòng)規(guī)避可能的倫理風(fēng)險(xiǎn)。這一系列措施不僅可以為生成式AI的應(yīng)用提供可靠的倫理保障,還能夠在國家治理中形成一個(gè)具備道德底線和社會(huì)責(zé)任感的技術(shù)應(yīng)用環(huán)境,使生成式AI的發(fā)展符合人類價(jià)值觀,朝著“善智”發(fā)展方向邁進(jìn)。
(五)提升數(shù)字主權(quán)和技術(shù)自主創(chuàng)新
為了在生成式AI的國際競爭中確保國家的數(shù)字主權(quán)和技術(shù)自主性,政府應(yīng)當(dāng)采取系統(tǒng)性的政策和支持措施,推動(dòng)技術(shù)自主創(chuàng)新,確保關(guān)鍵技術(shù)不受制于人。首先,政府應(yīng)大幅增加對生成式AI技術(shù)研發(fā)的財(cái)政投入,尤其在基礎(chǔ)研究、核心算法開發(fā)和數(shù)據(jù)處理等領(lǐng)域,設(shè)立專項(xiàng)資金支持科研項(xiàng)目,鼓勵(lì)高校和科研機(jī)構(gòu)加強(qiáng)對生成式AI技術(shù)的深入攻關(guān)。這些資金支持不僅有助于培育一批擁有自主知識(shí)產(chǎn)權(quán)的核心技術(shù),還能吸引頂尖人才投入AI研發(fā),提升國家在該領(lǐng)域的技術(shù)自主性。
其次,構(gòu)建本土的AI技術(shù)創(chuàng)新生態(tài)系統(tǒng)是推動(dòng)技術(shù)自主的關(guān)鍵。政府可以通過補(bǔ)貼政策支持企業(yè)與研究單位及產(chǎn)業(yè)鏈上的合作伙伴,合作建立一條包含基礎(chǔ)性研發(fā)、技術(shù)應(yīng)用及營銷的創(chuàng)新鏈條。比如為促進(jìn)生成式人工智能技術(shù)在本土進(jìn)行多方面的合作發(fā)展,可以提供包括研發(fā)稅收減免、創(chuàng)新性補(bǔ)貼及技術(shù)型人才培養(yǎng)資助在內(nèi)的激勵(lì)性措施。該種生態(tài)系統(tǒng)不但有利于國家在核心AI技術(shù)方面實(shí)現(xiàn)自主控制,而且有助于構(gòu)建人工智能的多層次、多領(lǐng)域的應(yīng)用場景,加快生成式人工智能在國家治理中的廣泛應(yīng)用。
同時(shí),國際技術(shù)合作是提高數(shù)字主體地位的有效手段。政府可主動(dòng)建立同各國的技術(shù)合作伙伴關(guān)系,聯(lián)合研究數(shù)據(jù)安全及隱私保護(hù)等問題,制訂數(shù)字主權(quán)保護(hù)政策及國際技術(shù)合作框架。通過參與制訂國際規(guī)則來增強(qiáng)話語權(quán),從而保證本國技術(shù)及數(shù)據(jù)安全不受外部干涉。同時(shí)與友好國家簽訂雙邊或多邊的科技協(xié)定,來開展跨國技術(shù)的研發(fā)和交流,一起來應(yīng)對生成式人工智能技術(shù)的全球性挑戰(zhàn)。
最后,政府還需加大對技術(shù)型人才的培養(yǎng),以形成具有國際競爭能力的技術(shù)型人才隊(duì)伍??梢耘c國內(nèi)外著名高校合作設(shè)立專門的人工智能技術(shù)研究所,培養(yǎng)具有尖端AI技術(shù)的專業(yè)人才,另外還要增加高水平科研平臺(tái)和實(shí)驗(yàn)條件,來鼓勵(lì)本土科技術(shù)人才創(chuàng)新從而減少對外部人才以及技術(shù)的依靠。這一系列措施不但可以提高本土人才研發(fā)的能力,而且通過人才的創(chuàng)新能力以及專業(yè)素質(zhì)為國家在生成式AI領(lǐng)域建立永久性的技術(shù)優(yōu)勢,從而在國際競爭中強(qiáng)化國家的數(shù)字主權(quán)并占據(jù)更加重要的位置。
(六)動(dòng)態(tài)風(fēng)險(xiǎn)評估與安全監(jiān)控機(jī)制
為確保國家治理中生成式人工智能的安全應(yīng)用,應(yīng)建立動(dòng)態(tài)風(fēng)險(xiǎn)評估和安全監(jiān)控機(jī)制,以應(yīng)對潛在的技術(shù)風(fēng)險(xiǎn)。首先,建立一套完整的安監(jiān)流程是安全監(jiān)控工作的要訣。政府要在新的生成式人工智能系統(tǒng)上線之前對其開展全面的技術(shù)、倫理方面的風(fēng)險(xiǎn)評估,識(shí)別出安全隱患。風(fēng)險(xiǎn)評估工作的重點(diǎn)放在數(shù)據(jù)的使用、算法的正義性、隱私的保護(hù)以及系統(tǒng)的可控性方面。另外,評估過程還要依托獨(dú)立的第三方機(jī)構(gòu)來開展,以保證評估的客觀性和全面性。
其次,對于生成式AI系統(tǒng)而言,政府需要建立一個(gè)持續(xù)監(jiān)視的實(shí)時(shí)預(yù)警系統(tǒng)。政府可以通過監(jiān)視系統(tǒng)來及時(shí)識(shí)別出存在于人工智能系統(tǒng)運(yùn)行過程中的缺陷以及異常行為,從而對潛在的危險(xiǎn)提前作出反應(yīng)。例如,可以通過建立異常行為偵測機(jī)制來監(jiān)視系統(tǒng)的運(yùn)行狀態(tài)、識(shí)別出偏離預(yù)期的數(shù)據(jù)與決策,從而達(dá)到防微杜漸的目的。建立預(yù)警系統(tǒng)不但能夠?yàn)橄到y(tǒng)的長效性提供保障,而且可以使突發(fā)危機(jī)所帶來的不利沖擊大大降低。
此外,政府要在生成式人工智能的高風(fēng)險(xiǎn)應(yīng)用領(lǐng)域?qū)嵭袊?yán)苛的審批程序。對涉及國家安全、金融安全及敏感數(shù)據(jù)的應(yīng)用場景,政府要建立多層次審批制度來對其設(shè)計(jì)、測試、運(yùn)維進(jìn)行嚴(yán)格監(jiān)督,確保生成式AI的應(yīng)用不會(huì)給國家安全及社會(huì)穩(wěn)定造成威脅。審批流程應(yīng)包括安全性試驗(yàn)、倫理評價(jià)及可靠性驗(yàn)證等。對于高風(fēng)險(xiǎn)AI系統(tǒng)的定期審查也是必要措施,政府要對人工智能系統(tǒng)的性能和安全性予以定期的復(fù)審,以保證系統(tǒng)隨著環(huán)境的變化而不斷做出調(diào)整,以以維持其運(yùn)行的合規(guī)性及安全性。
最后,為使生成式AI系統(tǒng)按照監(jiān)控、評價(jià)結(jié)果及時(shí)地改進(jìn)、優(yōu)化,應(yīng)由政府建立反饋和更新機(jī)制。為了應(yīng)對不斷出現(xiàn)的新風(fēng)險(xiǎn),政府可通過動(dòng)態(tài)風(fēng)險(xiǎn)評估及連續(xù)的安全監(jiān)視,不斷地調(diào)整人工智能系統(tǒng)參數(shù)、優(yōu)化算法結(jié)構(gòu)、完善數(shù)據(jù)管理過程。該機(jī)制的建立使各種安全威脅及技術(shù)變化在生成式AI的應(yīng)用中得到及時(shí)有效的應(yīng)對,從而確保其在國家治理中實(shí)現(xiàn)長效性、穩(wěn)定性、安全性。
五、結(jié)論
國家治理中生成式人工智能的普遍運(yùn)用在促進(jìn)治理模式的深度改變的同時(shí)帶來了新的挑戰(zhàn)和應(yīng)對策略。從趨勢上看,生成式人工智能不但加快了決策的智能化和數(shù)據(jù)驅(qū)動(dòng)化,在實(shí)現(xiàn)公共服務(wù)的個(gè)性化及反應(yīng)精準(zhǔn)化的同時(shí),也促進(jìn)了政府結(jié)構(gòu)扁平化與協(xié)作高效化,進(jìn)一步促進(jìn)了人機(jī)協(xié)同化、操作智慧化,另外,生成式人工智能的廣泛應(yīng)用還促進(jìn)了參與的多元化與監(jiān)督的透明化。這些趨勢為國家治理效能帶來了顯著進(jìn)步,在生成式人工智能的推動(dòng)下國家治理正朝著智能化、透明化及協(xié)作化的方向發(fā)展。
與此同時(shí),生成式AI的應(yīng)用也帶來了不可忽視的重大挑戰(zhàn)。國家治理中生成式人工智能的應(yīng)用所面臨的核心挑戰(zhàn)是數(shù)據(jù)隱私與安全風(fēng)險(xiǎn)、算法透明度與問責(zé)缺失、倫理與道德困境、數(shù)字主權(quán)的壓力、社會(huì)不平等以及國家安全與意識(shí)形態(tài)風(fēng)險(xiǎn)。目前亟待解決的關(guān)鍵課題是如何在國家治理中平衡生成式人工智能的技術(shù)進(jìn)步和潛在風(fēng)險(xiǎn),確保其在國家治理中的正向作用。
要應(yīng)對這些挑戰(zhàn),需要采取包括建立雙軌治理模式、結(jié)合硬法約束和軟法引導(dǎo)進(jìn)行治理的多層次治理策略,推動(dòng)生成式AI的規(guī)范應(yīng)用;為確保AI決策的可理解性和責(zé)任歸屬清晰,需要強(qiáng)化算法透明和責(zé)任追究機(jī)制;在跨部門共享數(shù)據(jù)和保護(hù)隱私之間取得平衡;建立以倫理道德和價(jià)值導(dǎo)向?yàn)榛A(chǔ)的“善智”發(fā)展框架;提升數(shù)字主權(quán)和技術(shù)自主創(chuàng)新水平以維護(hù)生成式AI領(lǐng)域的國家獨(dú)立性;以及建立確保敏感領(lǐng)域生成式AI安全應(yīng)用的動(dòng)態(tài)風(fēng)險(xiǎn)評估和安全監(jiān)測機(jī)制。通過這些綜合戰(zhàn)略,生成式AI在國家治理中的運(yùn)用將會(huì)更加安全、也會(huì)更加穩(wěn)健。
總之,作為一種創(chuàng)新性技術(shù),生成式人工智能為國家治理帶來了前所未有的機(jī)遇、帶來了深刻的挑戰(zhàn)。為了實(shí)現(xiàn)生成式人工智能可持續(xù)發(fā)展,使其成為國家治理能力提升、社會(huì)進(jìn)步的一個(gè)重要工具,就必須充分認(rèn)識(shí)到它的潛在危險(xiǎn)并且采取有效的治理措施。面向未來,為了在國家治理中發(fā)揮生成式人工智能的積極作用、促進(jìn)國家治理體系的現(xiàn)代化轉(zhuǎn)型,政府應(yīng)該在技術(shù)、法律、倫理以及政策的多維度下,不斷完善人工智能的治理框架,保障生成式人工智能在國家治理中的積極作用。
(參考文獻(xiàn)從略)
來源:信息技術(shù)與管理應(yīng)用雜志