【內在的事務撮要】 作為一種自立算法決議計劃,人工智能技巧曾經滲入到公共決議計劃經過歷程的各個環節,使公共決議計劃形式發生嚴重變更。本文基于公共政策輪迴實際的視角,提出了一小我工智能算法對公共政策的題目界定與議程設置、政策制訂、政策履行和政策評價包養 四個階段的影響與利用的剖析框架,指出人工智能算法經由過程其年夜數據處置才能和猜測剖析才能,對進步公共決議計劃的迷信性、精準性和有用性施展了宏大的感化。與此同時,人工智能算法存在的算法成見、猜測誤差和算法“黑箱”等題目能夠激發公共決議計劃掉靈和符合法規性危機。最后,本文還提出,為了公道應用人工智能技巧進步公共決議計劃包養網 的有用性,躲避算法決議計劃的風險,決議計劃者應追蹤關心人工智能算法決議計劃與人類慣例性決議計劃的利用范圍、實用性以及兩者之間的互補和諧關系,同時在算法驅動的公共決議計劃各個環節中加大力度公共介入,樹立介入式算法決議計劃框架。
【要害詞】 人工智能,算法決議計劃,公共決議計劃,風險與挑釁
一、引言
人工智能(artificial intelligence, AI)是盤算機迷信的一個分支,其目標是開闢一種具有智能行動的機械,完成在沒有明白編程號令的情形下,使盤算機自立采取舉動。機械進修和年夜數據是人工智能的兩年夜焦點要素。機械進修是人工智能的年夜腦,是支撐人工智能的基本算法;年夜數據則是完成人工智能算法運算的基本原料。機械進修基于算法來解析和練習數據,停止進修,從實際世界中辨認形式,發明趨向,作出猜測和決議計劃,并在此基本上履行特定義務。算法就是對解題計劃的正確而完全的描寫,是一系列處理題目的清楚指令。算法代表著用體系的方式描寫、處理題目的戰略機制,對必定規范的輸出,在無限時光內取得所請求的輸入。從實質上說,人工智能就是一種基于算法的自立決議計劃體系。包養 以年夜數據為基本的,以機械進修及深度進修算法為焦點的人工智能自立決議計劃體系被稱為算法決議計劃(Zouridis, van Eck & Bovens, 2020)。
決議計劃是行政行動的焦點。一方面,跟著人工智能的鼓起,人工智能對公共決議計劃體系中的權要與專家決議計劃等慣例決議計劃形式起到了重塑感化。今朝,國際外學者對年夜數據驅動的公共決議計劃優化研討較為豐盛,如年夜數據影響“公共決議計劃輪迴”的模子化研討(Höchtl, Parycek & Schöllhammer,2016),年夜數據驅動的議程設相信息化、備擇計劃會商全平易近化、決議計劃履行主動化、決議計劃評價及時化以及全經過歷程跨範疇綜合集成化等五個方面的公共決議計劃立異研討等(陳一帆、胡象明,2019)。可是,人工智能算法對公共決議計劃經過歷程和環節若何施展影響,影響機制是什么等題目尚未在實際和實證層面上獲得充足答覆。另一方面,算法決議計劃的風險題目也惹起越來越多的警戒和切磋。部門學者對人工智能利用于公共決議計劃持謹嚴立場,以為人工智能算法的內涵缺點及其不妥應用,如算法誤差、算法過錯、算法輕視、算法“黑箱”、審查難等題目(Osoba & Welser, 2017;Chiao, 2019),將發生嚴重的行政倫理題目,如人工智能對決議計劃公正、公平、通明性和可問責性的挑釁,侵略國民信息隱私權,加劇社會不服等(于文軒,2017)。但是,這些切磋較少剖析人工智能算法決議計劃在公共決議計劃經過歷程中發生的風險的詳細情勢及其起源。
鑒戒年夜數據驅動的公共決議計劃輪迴模子(Höchtl, Parycek & Schöllhammer, 2016),以及人工智能對當局與公共政策影響的最新研討(Valle-Cruz et al., 2019),本文起首基于政策學者對政策經過歷程經典的四個階段劃分(Dunn, 2015),成長一小我工智能算法在公共決議計劃範疇中利用形狀與感化機制的剖析框架,浮現人工智能對公共決議計劃各階段與經過歷程的深入影響。其次,本文將對公共決議計劃各個階段的算法決議計劃風險及其起源題目停止切磋。最后,本文還將會商若何均衡人工智能算法決議計劃與慣例決議計劃之間的關系,論述這兩類決議計劃機制的實用范圍和互補關系,并對進步算法決議計劃的大眾介入性,躲避算法決議計劃的風險提出若干政策提出。
二、人工智能驅動的公共決議計劃:一個剖析框架
人工智能在公共決議計劃中宏大的利用潛力源于人工智能的兩年夜基礎才能。第一,人工智能的年夜數據天生和處置效能為公共決議計劃供給了豐盛的決議計劃信息。信息是決議計劃的基石,在決議計劃的全經過歷程中施展至關主要的影響。在充滿著復雜性和不斷定性的決議計劃周遭的狀況下,海量的信息充滿在各個範疇和運動中。但是,信息範圍越年夜,信息的構造性就越差。相當年夜比例的數據浮現非構造形狀,如圖像數據、天然說話數據、文本數據、語音錄像數據等。據國際數據公司(International Data Corporation, IDC)的猜測,2018 年到 2025年之間,全球發生的數據量將會從 33澤字節(ZB)增加到175澤字節,此中跨越 80% 的數據都是處置難度較年夜的非構造化數據。①但是,人類的思想才能和運算速率非常無限,在彙集和處置海量非構造化數據時存在著本錢高、速率低和正確率低的優勢。非構造化數據需轉化為盤算機可以處置的構造化數據才會便利決議計劃者進一個步驟剖析。人工智能的機械進修與深度進修方式憑仗文本發掘、常識庫主動構建、圖像錄像辨認與天生、天然說話處置等技巧,疾速、便捷且年夜範圍地將非構造化數據轉化為構造化數據。例如,對于說話情勢多樣而意義含混的天然說話數據,人工智能可以削減文本的含混性,辨認分歧的詞匯,銜接說話中的邏輯,解讀說話的佈景常識,對說話與文本停止標誌和分類。以後,人工智能可以疾速地瀏覽海量的政策文本,并對政策內在的事務停止分類(Rice & Christopher, 2021)。人工智能的圖像辨認技巧經由過程抽取辨認圖像的各類特征,輔助網站運營商和當局收集監管部分對錄像和圖片停止東西的品質、版權、涉恐涉黃辨別和標誌。
第二,人工智能機械進修算法的猜測剖析才能為公共決議計劃供給直接的支撐。人工智能應用算法來剖析數據,并從中進修,從而對實際世界中的事務作出決議計劃和猜測。由人工智能算法驅動的決議計劃基于年夜數據和高緯數據挑選猜測因子,建構非線性和高度交互的猜測模子,很是正確地猜測了高度復雜的景象與數據間的關系(Mullainat包養網 han & Spiess, 2017)。人工智能算法決議計劃在晉陞猜測的準確性上具有人腦判定、專家猜測和傳十足計模子無法相比的上風。起首,由于人腦獲取和處置信息才能的局限、非感性的成見和感情原因的影響,人腦的猜測後果遠不及統計模子(Grove & Meehl, 1996),而傳統的統計模子無法應對實際世界的變量間復雜而含混的關系與形式,難以正確地復原真正的的數據天生經過歷程,以因果揣度為目的的傳十足計模子的猜測才能非常無限。與傳十足計模子分歧,人工智能算法重要追蹤關心的是猜測的正確性,答應數據本身決議變量的擬合經過歷程,從而盡能夠準確地擬合現實的數據點,跟著模子擬合的正確性的進步,人工智能算法的猜測才能也就越強。人工智能算法憑仗其優勝的猜測剖析才能為公共決議計劃供給了強盛的智能支撐。
21世紀,特殊是2010年以來,人工智能對公共決議計劃的參與浮現一個由淺到深,由邊沿到焦點的經過歷程。人工智能最後對公共決議計劃的影響重要集中在簡化當局一線辦事部分任務流程,改良市平易近辦事和進步機構處事效力方面,包養網 如主動答覆市平易近題目,幫助任務職員填寫和搜刮文檔,對顧客需求停止分類和選擇辦事途徑,翻譯和草擬文件等(Mehr, 2017)。一項包養 研討表白,人工智能的主動化才能可以輔助任務職員在履行記載信息、處置文檔表格等基礎行政義務時節儉30%的時光(Viechnicki & Eggers, 2017)。跟著當局運動對人工智能算法開放度越來越高,人工智能算法也開端參與公共決議計劃的焦點環節,如政策制訂、履行與評價環節,并且介入到當局的一些焦點公共辦事與決議計劃範疇,如公共路況、醫療、教導、周遭的狀況、公共平安與社會福利範疇。算法驅動的公共決議計劃的典範案例包含美國沃森人工智能(Watson AI)幫助醫療診斷,中國杭州和新加坡等地城市聰明路況電子訊號燈與擁堵預警體系,美國洛杉磯等地實行的人工智能犯法區域風險猜測和火災檢測體系等(Berryhill et al., 2019)。在這一階段,算法決議計劃的義務不只僅是簡化行政流程,處置法式性和重復性義務這些簡略的行政任務,並且是充足施展人工智能的年夜數據處置和剖析猜測才能,進步公共辦事的效力、東西的品質和精準性,立異公共辦事的供應,甚至決議資本設置裝備擺設和權力分派這些公共決議計劃的焦點題目。
那么人工智能的年夜數據處置與猜測剖析才能若何與公共決議計劃相聯合,為公共決議計劃體系供給支撐呢?本文成長了一小我工智能驅動公共決議計劃經過歷程的剖析框架,浮現人工智能對當局公共決議計劃各個階段的深入影響。為了便于簡練地輿解復雜的公共政策體系和決議計劃經過歷程,政策學者把政策經過歷程劃分為四個彼此聯絡接觸的階段:政策題目界定與議程設置、政策計劃design與政策制訂、政策履行,以及政策評價。筆者將一一切磋在公共決議計劃的四個階段中,人工智能的兩年夜效能若何施展感化(見圖1)。表1歸納綜合了人工智能的年夜數據處置和猜測剖析在決議計劃四個階段中的詳細實行形狀及其影響。
(一)人工智能、政策題目界定及議程設定
政策題目界定訂定合同程設定是公共決議計劃經過歷程的出發點,公共決議計劃起首要斷定政接應該優先處理哪包養網 些題目?對政策議程設定的研討重要追蹤關心兩類題目:一是可以保家衛國。職責是強行參軍,在軍營裡經過三個月的鐵血訓練,被送上戰場。社會題目的性質是什么,當局干涉這一題目的需要性安在,即題目界定。題目界定在議包養網 程設定經過歷程中施展著特別感化,社會題目可否進進議程在很年夜水平上取決于題目若何被社會認知和建構,如題目發生的成果是好的仍是壞的,題目的主要性水平若何,以及題目能否有處理的計劃(Baumgartner & Jones, 2015)。二是在大批社會題目中,哪些題目被決議計劃者所追蹤關心,這些題目若何進進政策議程,即政策議程設置。當局表裡的舉動者老是追求以各類手腕來影響題目界定訂定合同程設定經過歷程。傳統上,除了當局決議計劃者外,消息媒體的傳佈,專家學者的決議計劃徵詢和好處他沒有立即同意。首先,太突然了。其次,他和藍玉華是否注定是一輩子的夫妻,不得而知。現在提孩子已經太遙遠了。團體的游說運動等都是影響政策議程的主要手腕(Kingdon, 1995)。議程設定經過歷程的焦點是若何使政策題目從公共議程上升到決議計劃者留意力范圍內,并進進正式政策議程。現有研討發明,有多種形式推進了政策題目進進決議計劃議程(Howlett & Ramesh, 2003):第一種是內部建議形式,即社會氣力經由過程發動大眾支撐推進當局追蹤關心某一政策題目;第二種是外部建議形式,指的是決議計劃相干者不消大眾支撐而影響議程,如好處團體自力發動某些社會群體直接影響當局決議計劃;第三種形式是支撐發動形式,是沒有大眾介入的決議計劃議程初步斷定后,當局再發動大眾支撐該項政策題目;第四種形式是整合形式,即當一項政策題目曾經取得大眾的普遍支撐和共鳴后,當局再適應平易近意推進議程樹立。在年夜數據時期,人工智能是影響題目界定和塑造議程設定形式的主要手腕,經由過程分歧于傳統的媒體、好處集團和專家行動的方法施展影響。
起首,人工智能的年夜數據處置才能是當局表裡各類舉動者界定題目的主要東西或平臺。在年夜數據時期,weibo、微信、推特和臉書等在線社交東西成為主要的線上公共題目會商和決議計劃介入平臺,社交媒體年夜數據作為主要的公共言論形狀,是決議計劃者獲守信息訂定合同程設置的主要起源。一方面,當局決議計劃者在設置政策議程時越來越器重收集年夜數據和在線公共言論。當一項公共題目激發熱議或言論風暴時,決議計劃者可以應用人工智能技巧,如天然說話處置、文本感情剖析、數據發掘和圖形辨認等剖析事務或題目激發的言論意向,如言論內在的事務、言論包養網 情感及其變更趨向與傳佈道路等,從而有助于決議計劃者把握事務或題目成因,對其能夠發生的政治社會后果停止精準辨認,決議能否將該事務歸入政策議程。在這種意義上,人工智能算法可以有用地完成議程設定的內部發動,使得某些政策題目可以快捷地進進政策議程。另一方面,決議計劃者面對的題目信息高度複雜,而決議計劃者在留意力、認知才能和信息處置才能方面存在局限性(Workman, Jones & Jochim, 2009),某些社會題目的好處相干者偏向于應用人工智能技巧彙集和處置有利于本身好處的數據,特殊是社交媒體數據,隨后對這些數據停止構造化處置,將構造化數據傳遞給當局決議計劃者。是以,人工智能的年夜數據處置才能助力議程設定的外部發動,有助于某些好處集團所偏好的政策題目惹起決議計劃者的留意力,從而推進這些題目進進決議計劃議程。
其次,決議決議計劃者能否把某項題目歸入政策議程的一個主要斟酌是題目本身的性質,對于那些過度復雜、成因未明,或許現階段缺少處理方式的題目,決議計劃者很難將其歸入決議計劃議程(Anderson, 2003)。人工智能的猜測剖析才能,可以輔助決議計劃者猜測題目的產生概率、復雜性或嚴重水平,或許剖析題目的成因、后果以及處理思緒,從而幫助決議計劃者判定哪些題目可以成為政策題目。在議程設置階段,人工智能的猜測剖析才能獲得較為廣泛的利用。在經濟範疇,當局應用人工智能技巧停止將來年度的經濟猜測,為中持久經濟政策的制訂供給基本。在公共衛生範疇,“谷歌流感趨向”經由過程剖析以“流感檢測”為要害詞的幾十億次搜刮記載來猜測流感發病率,在初期猜測的正確率很高,幫助疾控部分決議能否啟動流感緊迫應對法式(Butler, 2013)。在公共平安範疇,當局部分經由過程對社交媒體的年夜數據剖析和處置,判定抗議、動亂等危機迸發與舒展的趨向,從而提早采取保護次序和避免沖突進級的政策辦法(Leetaru,2011)。
(二)人工智能與政策制訂
政策備選計劃的提出和選擇是公共決議計劃的要害步調,特殊是政策計劃的決定也被稱為最典範的決議計劃經過歷程。依據感性主義政策剖析形式,政策制訂經過歷程需求起首明白政策目標,繼而感性地剖析備選計劃,同時當局部分經由過程應用各類常識、技巧和東西完美計劃design,然后陳說各個政策計劃,依照尺度對計劃後果停止評價和猜測,最后對計劃停止選擇(韋默、瓦伊寧,2013)。在古代社會中,政策計劃能否被接收取決于多種原因,此中兩個基礎原因尤為遭到追蹤關心:一是計劃的符合法規性和政治支撐,被大眾特殊是目的群體普遍接收的政策計劃無疑具有更高的符合法規性;二是政策計劃的技巧可行性和實行後果的可預期性。
在計劃design和制訂環節,政策制訂者需求借助各類建議運動,應用專家常識、技巧東西,特殊是信息搜集和處置技巧使得計劃具有符合法規性和知足績效前提。全部政策計劃的design和選擇經過歷程都是樹立在信息處置的基本上,人工智能算法憑仗其信息處置和猜測剖析才能,在政策計劃design和制訂環節中施展著明顯的感化。起首,人工智能可以推進對備選計劃停止充足的大眾選擇和會商,從而有助于優化備選計劃的東西的品質,并且使計劃取得普遍的大眾支撐,為政策履行發明傑出的周遭的狀況。人工智能的天然說話處置等技巧可以對internet,特殊是新興社交媒體上大眾關于政策計劃的提出、評論、留言等非構造化數據停止深刻的文本發掘和感情剖析,從而斷定這些數據的特征趨向,辨認此中的分歧政策偏好(Kamateri, 2015:71-77)。其次,人工智能模子的強盛猜測才能可以精準猜測各個政策計劃的實行後果,為計劃的選擇供給根據。在政策計劃選擇的傳統本錢收益剖析框架中,人工智能算法可以猜測政策的本錢和收益,從而領導政策計劃的選擇。在醫療政策範疇,人工智能算法被用于猜測個別潛伏的疾病風險及醫療本錢,并基于猜測成果領導醫療政策重點干涉那些具有較高患病風險的對象,以及醫治本錢更高的病人。這不只可以使得無限的醫療、護理資本獲得公道設置裝備擺設,並且可以或許把持醫療所需支出的增加。在猜測政策本錢前,決議計劃者還需求辨認政策目的群體,例如要猜測某項稅收優惠政策的本錢,那么必需先猜測這項政策所觸及的目的群體多少數字,從而盤算稅收優惠能夠招致的減稅總額。在美國非常風行的人工智能算法幫助司法決議計劃中,對于犯法嫌疑人的處置有分歧的政策計劃:關押等候審判、取保候審以及直接進獄。應用人工智能算法,依據既有的犯法數據,基于犯法嫌疑人特質、案件信息等相干特征,猜測他們再次犯法的概率,從而決議他們是進獄仍是被取保候審(Kleinberg et al., 2017)包養網 。
(三)人工智能與政策履行
無論是誇包養 大明白政策目的和決議計劃者把持才能的自上而下的形式,仍是誇大決議計劃履行部分不受拘束包養 裁量權以及下級決議計劃者與政策履行部分高低和諧互動的自下而上的形式,政策履行最焦點的關鍵就是信息不合錯誤稱題目。履行者比政策制訂者,政策目的群體比履行者具有信息上風,他們很不難消極履行政策或許躲避政策,決議計劃者實時而充足地獲取政策履行信息,就能有用地對履行經過歷程停止監視或和諧。人工智能算法可以或許為履行經過歷程供給及時而充分的履行信息,緩解因信息誤差和不合錯誤稱而招致的履行誤差和阻塞題目。在政策履行環節,人工智能基于其猜測剖析和年夜數據處置才能對目的主體與履行計劃停止精準選擇(Höchtl, Parycek & Schöllhammer, 2016)。
第一,人工智能的年夜數據處置才能使得決議計劃者獲取和處置政策履行信息的才能有了宏大的晉陞。人工智能可以及時獲取海量的政策履行數據,并對非構造化數據停止構造化處置,從而把構造化數據敏捷傳輸給決議計劃者和政策履行部分。在路況和社會治安範疇,基于人工智能的攝像與人臉辨認體系可以及時傳輸人車流量和途徑路況擁堵狀態、街道人群密集水平和可疑人物等信息。在新冠疫情防控戰爭中,口罩佩帶辨認、主動測溫、防疫安康信息碼等基于人工智能算法的疫情防控體系被普遍應用,使得疫情防控部分可以第一時光獲取中高風險對象的特征、過程及其親密接觸對象等信息。
第二,人工智能的猜測剖析才能可以幫助決議計劃者辨認政策履行的目的主體、重點對象和履行計劃,進步履行的主動化水平。在政策履行經過歷程中,哪些目的群體是政策履行的重要目的,履行經過歷程中哪些環節或範疇能夠呈現題目,針對分歧的題目,哪些履行東西和計劃更為有用,這些題目都是決議政策履行成敗的要害。人工智能基于對履行中信息的剖析,可以或許精準地猜測哪些履行題目會呈現,呈現的概率是幾多,或許依據個別的社會經濟特征和行動形式精準辨認政策的目的群體及其行動,從而可以明顯進步履行的精準性和勝利率。在路況範疇,人工智包養網 能體系可以依據陌頭及時反應的路況數據,猜測途徑擁堵水平,從而主動變換紅綠燈,加重路況擁堵水平,削減行人車輛等候時光。
(四)人工智能與政策評價
政策評價是政策履行中的靜態信息或履行完成后對績效與成果的評價和反應運動。在公共決議計劃環節中,對政策績效停止評價一向是一個困難,重要的妨礙是政策績效信息難以丈量或難以彙集和處置,並且缺乏迷信正確的評價方式。此外,政策評價也是一個政治行動,某些部分為了防止被究查義務,堅持組織穩固而決心使政策目的含混而難以丈量,使得政策評價流于情勢(Hood, 2002)。在年夜數據時期,人工智能算法可以有用緩解由于信息缺乏、監控有力以及部分好處等原因招致的政策評價困難。人工智能可以普遍用于對包養網 于政策履行及時數據的反應和政策履行後果的監控與猜測,在處理績效信息獲取和丈量困難方面上具有奇特的上風。一方面,人工智能的年夜數據處置才能將輔助決議計劃者第一時光獲取政策履行的及時數據,完成連續的政策評價。人工智能對履行體系的反應數據、內部的消息報道、社交媒體等數據的發掘,可以輔包養 助決議計劃者敏捷發明政策履行走樣景象,監測到官員的違規行動或履行目的的違反政策行動,極年夜地增進了對政策實行後果停止及時評價。另一方面,決議計劃者應用人工智能算法對政策實行後果停止精包養網 準猜測,政策實行后把人工智能的猜測成果和現實成果停止比擬,評價政策猜測成果的完成水平。在教導範疇,美國華盛頓哥倫比亞特區應用教員績效評價體系(IMPACT),基于教員講授技能、行動治理和先生成就的9個績效目標,應用人工智能算法猜測和評價教員任務績效并停止打分(Cameron, 2017)。
盡管對政策經過歷程四個階段的劃分和闡述包養 有助于啟示我們懂得政策經過歷程的基礎面孔和要素,可是現實的政策經過歷程中各個環節都浮現穿插融會、高度互動和輪迴來去的特征(Sabatier, 1999)。起首,政策履行與政策評價彼此融會交錯,履行經過歷程中決議計劃者時辰追蹤關心政策後果,對政策實行情形停止及時監視與評價。其次,政策履行、政策評價與政策制訂環節也密不成分,決議計劃者經由過程對政策履行的監控和對政策後果的評價,不中斷地調劑和轉變政策目的和政策計劃,對政策計劃停止再制訂。最后,政策計劃制訂環節與政策議程設置環節也是輪迴來去、往返互動的,政策計劃的design、政策東西的選擇在很年夜水平上取決于政策題目的界定和好處相干方對議程設置的影響,當題目界定產生變更時,政策計劃也會被從頭design。由于實際政策經過歷程具有非線性的往返來去、互動互構屬性,算法驅動的公共決議計劃經過歷程也浮現上述特征。一些當局部分應用人工智能技巧對包含社交媒體在內的internet應用者發帖和評論年夜數據的彙集和處置,可以第一時光評判政策履行經過歷程中大眾的看法和反應的題目,為決議計劃者調劑政策或履行方法供給支撐,這一經過歷程就包括了政策履行、評價和政策再制訂等外容。我國部門省份扶貧與農業資金治理的“internet + 監察”平臺經由過程對資金直接發放的數據停止脫敏和分類處置后,在數據平臺上同一公布,最年夜限制地對社會公然,大眾可以直接在平臺上查詢本身和別人的補助信息,對于不適當或守法的資金應用情形停止上訴和告發(鄔彬、肖漢宇,2020),這小我工智能算法平臺同時完成了政策履行監控和政策後果評價的目標。
三、人工智能算法決議計劃的風險
盡管人工智能算法決議計劃極年夜地進步了公共決議計劃的技巧感性,但是,實際中人工智能算法并不完善,存在著算法誤差、成見和不通明等風險,對公共決議計劃輪迴的各階段都能夠帶來分歧水平的要挾,對公共決議計劃的公平、公然等公共價值發生潛伏的迫害,從而招致不成疏忽的政治社會題目。
(一)題目界定與政策議程設置階段的算法風險
在這一階段,人工智能激發的決議計劃風險重要表現為數據本身的誤差以及報酬把持題目激發的猜測掉敗和偏誤,由此招致題目界定與政策議程設置的偏離與過錯。人工智能算法的年夜數據處置和猜測剖析技巧都激烈依靠汗青練習數據的特征和形式,汗青數據的誤差和成見很能夠招致人工智能數據處置和猜測剖析成果的偏誤。在題目界按時,決議計劃者應用人工智能處置相干數據,剖析并猜測題目的情勢及其成因,但是即便是年夜數據也未必能反應數據的全貌,年夜數據的代表性有時反而不如抽樣數據。特殊是以後的人工智能應用的年夜數據多是起源于包含社交媒體在內的internet和傳統消息媒體,這些數據背后的用戶分布不具有生齒統計學上的代表性,應用這些年夜數據做出的題目界定和大眾立場剖析很能夠是不真正的的。更嚴重的是,部門社交媒體的大眾立場與看法也是不穩固的,很不難遭到一些突發事務、媒體偏向性陳述的影響,或許遭到部門看法魁首言論把持與收集事務的積極介入者戰略性發聲的攪擾,這時顛末人工智能剖析后停止的題目界定和提出的政策議題很能夠偏離真正的的大眾偏好,甚至反應的是部門人群和特別好處團體的偏好。此中一個典範的景象是收集上假消息和鼓動性信息的泛濫,不只加劇了社會決裂與政治沖突,並且不難把持大眾立場,誤導當局決議計劃行動。②
(二)政策計劃design與決議計劃階段的算法風險
在政策計劃design與決議計劃階段,人工智能算法決議計劃的重要風險表示為兩個方面:一是政策計劃受報酬言論把持而構成虛偽支撐,招致政策計劃“劣幣驅趕良幣”;二是人工智能算法猜測的宏大誤差招致政策計劃掉敗激發的政治社會風險。起首,政策計劃design階段異樣能夠呈現虛偽公共言論或大眾言論被報酬把持的題目。一些政治集團、極端組織或許特別好處團隊能夠應用人工智能技巧主動天生虛偽或詐騙性信息,傳佈極端敵視性談吐進犯晦氣于其本身的政策計劃,或極力宣傳合適本身好處的政策計劃,進而引誘大眾言論導向,推進或禁止立法經由過程某些政策計劃。③其次,人工智能對政策計劃本錢收益與政策實行後果的預評價也很能夠呈現誤差。一些人工智能算法基于陳腐的數據,或許有偏誤的汗青數據,提出的政策計劃自己就是有誤差的,或許只實用于特定場景和國情下的政策題目,面對新政策周遭的狀況時很能夠無法發生感化。在人工智能醫療範疇,沃森腫瘤人工智能醫治計劃就遭到良多非議,批駁者以為沃森腫瘤人工智能診療重要是基于醫學期刊文章和專家提出的虛擬案例樹立猜測模子,練習數據中很少有實際的腫瘤診療病例,這就招致沃森腫瘤人工智能體系很能夠無法給出正確的計劃,甚至給出的醫治提出與尺度化的醫治指南相沖突(Ross & Swetlitzi, 2017)。
(三)政策履行階段的算法風險
在政策履行環節,人工智能算法決議計劃的風險重要表現在由于存在算法誤差和“黑箱”題目而發生的履行誤差與掉敗,激發公共政策符合法規性危機。盡管人工智能算法經由過程精益求精數據東西的品質,調劑模子參數和調換更高等的算法可以或許進步猜測的正確率,可是猜測誤差和掉誤老是不免,沒有一個算法的猜測正確率是100%。假如輸出模子的數據自己有著體系性誤差,那么就會給模子猜測成果帶來極年夜的偏誤。在政策履行經過歷程中,有偏誤的人工智能體系能夠會對政策目的群體辨認掉敗,發生假陽性和假陰性兩類誤差題目。假陽性誤差使得履行者把不合適政策特征的過錯對象看成對的對象處置,招致政策履行本錢上升或政策資本的揮霍。假陰性誤差則會把對的的政策對象消除在外,招致政策履行嚴重歪曲甚至掉敗。人工智能招致在政策履行中發生假陰性誤差并不少見。在衛生範疇,從2009年到2018年,英國國度安康體系的乳腺癌篩查調劑軟件呈現猜測誤差,招致約45萬名68歲到71歲的女性掉往了最后一次停止乳腺癌檢討的機遇,其成果能夠致使135人到270人提早逝世亡(Charette, 2018)。
算法決議計劃的“黑箱”和不通明特征使得政策履行缺乏通明性和介入性,傷害損失了政策履行的符合法規性。政策履行具有符合法規性的條件除了政策的有用性外,別的一個主要準繩是包管經過歷程的公然公正和平易近主介入。在權要體系體例的技巧感性主導下,政策履行的通明性和介入性曾經遭到很年夜的減弱。但是人工智能算法的“黑箱”特征使得算法決議計劃面對加倍明顯的決議計劃不通明、義務不清楚、問非難度年夜的窘境。起首,復雜精緻的人工智能算法自己就是一個“黑箱”(Burrell, 2016)。盡管應用者了解算法猜測成果和正確度,可是由于模子擬合經過歷程觸及大批變量和數據,猜測因子和成果之間缺乏因果聯絡接觸,猜測經過歷程往往過分復雜而難以直不雅懂得。算法決議計劃的“黑箱”特征一方面招致當局部分應用者只能選擇信任算法的正確性和公平性,使得算法決議計劃無法獲得有用監視和實時改正。另一方面,對于政策目的群體,由于當局部分無法說明算法決議計劃經過歷程,大眾當然也不克不及懂得算法決議計劃的合法性,這就招致算法決議計劃難以取得大眾的支撐和信賴。其次,人工智能算法決議計劃能夠使得履行掉誤的義務回屬難以界定,加至公眾問責的難度。以後公共決議計劃算法機械體系都是由第三方公司開闢保護,一旦產生由算法掉靈而招致的決議計劃掉誤,就能夠激發嚴重社會題目和喪失,義務究查和政治問責將面對更年夜的難度。當局部分能夠將義務推給算法和算法開闢公司,算法開闢公司則以貿易機密為由謝絕公然接收內部審查,其成果使得問責經過歷程漫長而難以發生定包養 論。英國乳腺癌篩查漏檢丑聞產生后,英國國度衛生醫療辦事系統(NHS)、公共衛生局(PHE)以及擔任軟件開闢的日立徵詢公司都在彼此責備對方(Donnelly, 2018)。
(四)政策評價的算法風險
在政策評價環節,算法決議計劃的重要風險來自評價中存在的算法輕視和誤差題目。盡管人工智能基于其年夜數據發掘和天生才能可以或許及時獲取政策履行信息,可是人工智能體系獲取的履行信息并不老是公平和正確的。人工智能算法最重要的成見能夠源于數據自己。一方面,能夠由于數據樣本較小,練習集數據與全體數據分布存在較年夜的誤差,使得應用練習集擬合的模子無法對樣本外未知數據停止正確的猜測。另一方面,即便樣本數據量夠年夜,可是數據集也能夠呈現汗青遺留的數據偏誤題包養 目。人工智能模子基于汗青數據做出猜測,由于政治社會體系體例、人類決議計劃和文明中的既有偏誤,有些汗青數據自己就是高度不服衡的。數據集存在的不服衡性使得某類群體數據在樣本中被過度代表,而其他類型的群體則代表性缺乏,招致在猜測模子中,某些猜測因子傾向于某類群體,典範的例子就是人工智能算法中存在種族和性別成見題目。良多美法律王法公法院應用北角(Northpointe)公司基于人工智能算法design的犯法風險評價體系(Criminal Risk Assessment)猜測犯法行動。但是,2016年,著名的非營利媒體“為了國民”(ProPublica)查詢拜訪發明,美國一些法院應用這套體系猜測犯法風險和法庭對犯法嫌疑人停止保釋和量刑決議計劃時,以為黑人比白人再次犯法的概率更高,這種晦氣于有色人種的人工智能犯法風險評價在美國司法體系里越來越廣泛。④招致猜測成見的本源是美國汗青上犯法和再犯法統計中黑人等有色人種比例過高,美國司法系統對黑人等有色人種的輕視題目非常凸起包養網 (Angwin et al., 2016)。
此外,一些法式性的行政義務履行經過歷程比擬簡略,人工智能評價可以包管較高的正確性和公平性,可是對于政策績效難以丈量的運動,人工智能評價體系難以做到正確靠得住,再加上決議計劃者和政策履行者的偏好,以及好處相干者的機遇主義行動招致的政策履行經過歷程的歪曲和誤差,使一些偏誤和虛偽的信息大批涌現,從而使得人工智能在政策評價時產生誤差。在教導範疇,2011年美國休斯敦市自力學區應用算法模子“教導增值評價體系”,依據先生的尺度化測試成就來決議教員的獎金,隨后學區還進一個步驟應用這一算法來決議教員的聘請,此舉激發了教員工會的激烈不滿。他們以為該體系評價、評價的先生尺度化成就并不克不及完整反應教員的任務投進,並且決議先生成就的原因良多,有些是教員無法掌控的,是以該體包養網系的評價成果既不正確也不公正。后來顛末評價,發明這一體系的猜測經過歷程不只難以說明,並且成果也不準確,法院終極顛覆了該算法的決議計劃(Zeph, 2017)。
四、政策提出
基于對人工智能驅動公共決議計劃經過歷程及其風險的闡述,本文對公共決議計劃者若何公道應用人工智能技巧進步公共決議計劃的有用性,同時躲避算法決議計劃的潛伏風險,提出響應的政策提出。
(一)公道選擇算法決議計劃與慣例決議計劃
在公共決議計劃體系中,依據算法對決議計劃經過歷程主導性的高下,算法決議計劃和人類慣例決議計劃之間的關系及其互動形狀重要浮現以下三種形式(Zouridis, van Eck & Bovens, 2020):第一種是算法自立決議計劃形式。這類形式中,算法代替人類慣例決議計劃,決議計劃經過歷程完整主動化,人類決議計劃者簡直沒有不受拘束裁量空間,近乎聽命于算法。這類形式的典範情勢如對城市途徑等市政舉措措施壞損的智能監控與預警。第二種形式是算法幫助形式,算法在公共決議計劃中施展側重要感化,對人類慣例決議計劃起到幫助和支撐感化。可是,人類慣例決議計劃依然是主導性的,人類決議計劃者對算法幫助經過歷程堅持著自力的判定、干涉和把持。當下,算法幫助形式利用范圍越來越普遍,除了一些公共平安和應急治理決議計劃,如火災、犯法熱門地域、平安衛生檢測外,還進一個步驟成長到對國民社會權力和標準的分派範疇,如社會救助對象界定、疾病猜測、測試成就鑒定、教員績效評價等。第三種形式可以被稱為算法徵詢形式。這個形式里,算法對公共決議計劃是無關緊要的,算法參與決議計劃的水平不深,年夜多情形是在數據搜集經過歷程中被選擇性地應用。算法對人類慣例決議計劃只起到決議計劃徵詢的感化,如供給相干數據信息,算法猜測的成果也只是作為人類慣例決議計劃的參考,并不會對人類決議計劃起到決議性感化或主要的幫助感化。
上述三種決議計劃形式的選擇重要取決于決議計劃義務和場景的特征。主流不雅點以為,人工智能在決議計劃中的上風重要表現在高度重復性、機械性或日常性的行政法式性場景中,不需求權要行使過多的不受拘束裁量權和停止價值判定(Bullock, 2019)。這類決議計劃場景義務絕對簡略直不雅,有一套固定的決議計劃法式,同時可以或許發生海量的具有重復性行政年夜數據,數據間關系也易于懂得,從而有利于施展人工智能年夜數據天生和猜測剖析才能,是以比擬合適算法主導和算法幫助的決議計劃形式。在公共政策經過歷程的幾個環節中,絕對而言,事務性題目界定和法式性政策履行階段更合適算法主導形式。可是,另一方面,在一些具有高度復雜性的,需求較多不受拘束裁量權、價值判定和機動處置的政策制訂、履行和評價等政策經過歷程,人工智能就不善於了。一項研討表白,當局決議計劃者看待算法決議包養 計劃的立場跟著決議計劃義務復雜性的增添而趨勢消極,決議計劃復雜性越高,決議計劃者對算法決議計劃的承認度就越低(Nagtegaal, 2021)。在高度復雜包養網 的義務中,人類決議計劃應當是主導性的。此外,公共政策制訂經過歷程除了請求有進步效力,下降本錢等技巧感性外,更主要的是要遵照公平、公然與符合法規性等公共價值準繩。對于觸及價值判定、社會包養 辨別和倫理評價等運動,如人的性命平安、人身不受拘束、社會權力分派,應當防止由算法主導決議計劃。在這些範疇,大眾加倍偏好慣例性的權要決議計“小時候,家鄉被洪水淹沒,瘟疫席捲了村子。當我父親病逝無家可歸時,奴隸們不得不選擇出賣自己當奴隸才能生存。”鈣劃或大眾介入政策制訂,對算法有著自然的不信賴感和膽怯心思,任何渺小的人工智能猜測誤差都能夠激發大眾的激烈不滿和政治爭議。總之,應防止對人工智能技巧及其推進的算法決議計劃的科學,謹慎決議哪些類型的公共政策的決議計劃實用于人工智能技巧,均衡算法決議計劃和人類慣例決議計劃的關系,完成算法決議計劃和人類決議計劃各就其位,各得其所,經由過程彼此和諧和共同進步公共決議計劃的效力和符合法規性。
(二)樹立介入式的算法決議計劃框架
在算法驅動的公共決議計劃各個環節中加大力度公共介入,樹立介入式的算法決議計劃框架。公共決議計劃的實質特征在于“公共”,公共的價值不雅包含決議計劃成果的公正公平,以及決議計劃經過歷程的公然和大眾介入。算法驅動的公共決議計劃經過歷程也應當愛崇上述公共決議計劃的基礎價值不雅。針對算法決議計劃中存在的“黑箱”和輕視題目,公然與大眾介入理應占據更主要的腳色。算法決議計劃各個環節的大眾介入也是防止人工智能算法決議計劃風險的要害。是以,本文提倡樹立介入式的算法決議計劃框架,這個框架應當包含以下幾個要素:第一,要吸納政策相干者和好處主體介入算法的design,算法決議計劃計劃的制訂和選擇經過歷程中。為了防止因數據成見和誤差題目而招致的題目界定訂定合同程設置的偏離和錯誤,應經由過程年夜範圍大眾查詢拜訪、代表性好處相干方的訪談包養 與協商懇談會等平易近主介入方法停止算法design和構建,并進步算法的公然性和通明性,如經由過程協商或投票等大眾介入方法來斷定算法應當應用的特征集。第二,算法決議計劃的成果在政策計劃制訂或實行前,應當向社會公然,接收大眾和好處相干方的看法和反應,最后再決議能否采用或實行。在前提答應的情形下,將算法決議計劃供給的計劃和人類決議計劃制訂的計劃停止比擬,觸及敏感的權力分派決議計劃時,要看算法決議計劃能否比人類決議計劃更能增進分派的公正性。第三,由于算法存在的誤差或掉誤能夠激發政策履行的誤差與掉敗風險,應在政策履行經過歷程中樹立大眾介入和干涉機制。本文提出樹立人工智能研討職員與社會迷信、人文、性別、醫學、周遭的狀況和法令等方面的專家停止一起配合交通的軌制系統,如在當局或公司層面樹立人工智能倫理委員會,委員會成員由各範疇專家、企業和當局人士組成,對算法體系停止政治與倫理審查。當決議應用人工智能停止公共決議計劃時,除了當局決議計劃者和算法design者,好處相干者和大眾都應當有權力和機遇監控人工智能算法決議計劃運作全經過歷程,特殊要警戒模子能夠發生的成見、輕視和不公正題目。在題目和風險發生時決議計劃者應實時停止干涉,并且為遭到不公平待遇的群體供給權力接濟。
*本文獲得國度天然迷信基金青年項目“我國處所財務結余包養 對財務收入周期性影響及其機制研討”(項目編號:71904130)和深圳市教導迷信計劃2020年度課題重點贊助項目“先行示范區計謀下深圳市高級教導產研融會效力評價與機制優化研討”(項目編號:zdzz20003)贊助。
參考文獻:
陳一帆、胡象明,2019,《年夜數據驅動型的公共決議計劃經過歷程立異及後果評價——基于SSCI和SCI的文獻研討》,載《電子政務》第8期。
[美]戴維·L·韋默、[加]艾丹·R·瓦伊寧,2013,《公共政策剖析:實際與實行》,劉偉譯校,北京:中國國民年夜學出書社,第15—20頁。
鄔彬、肖漢宇,2020,《年夜數據利用與腐朽管理:基于“internet + 監視”的深度個案研討》,載《暨南學報(哲學社會迷信版)》第10期。
于文軒,2017,《年夜數據之殤:對人文、倫理和平易近主的挑釁》,載《電子政務》第11期。
Anderson, J. E., 2003, Public Policymaking: An Introduction, Boston: Houghton, Mifflin Company.
Angwin, J., J. Larson, S. Mattu, & L. Kirchner, 2016, “Machine Bias There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks,” Propublica, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing,2020年6月16日拜訪。
Baumgartner, F. R. & B. D. Jones, 2015, The Politics of Information: Problem Definition and the Course of Public Policy in America, Chicago: University of Chicago Press.
Berryhill, J., K. K. Heang, R. Clogher, & K. McBride, 2019, Hello, World: Artificial Intelligence and Its Use in the Public Sector, OECD Working Paper on Public Governance, No. 36.
Bullock, J. B., 2019, “Artificial Intelligence, Discretion, and Bureaucracy,” The American Review of Public Administration, Vol. 49, Iss. 7.
Burrell, J., 2016, “How the Machine ‘Thinks’: Understanding Opacity in Machine Learning Algorithms,” Big Data & Society, Vol. 3, No. 1.
Butler, D., 2013, “When Google Got Flu Wrong,” Nature, Vol. 494, No. 7436.
Charette, R. N., “450,000 Women Missed Breast Cancer Screenings Due to ‘Algorithm Failure,’” IEEE Spectrum, https://spectrum.ieee.org/riskfactor/computing/it/450000-woman-missed-breast-cancer-screening-exams-in-uk-due-to-algorithm-failure, 2021年8月17日拜訪。
Chiao, V., 2019, “Fairness, Accountability and Transparency: Notes on Algorithmic Decision-Making in Criminal Justice,” International Journal of Law in Context, Vol. 15, Special Iss. 2.
Donnelly, L., 2018, “Breast包養網 Screening Scandal Deepens as It Firm Says Senior Health Officials Ignored Its Warnings,” The Telegraph, May 4, https://www.telegraph.co.uk/news/2018/05/04/breast-screening-scandal-deepens-firm-says-senior-health-officials, 2020年6月16日拜訪。
Dunn, W. N., 2015, Public Policy Analysis: An Introduction, New York: Routledge Taylor & Franeis Group.
Grove, W. M. & P. E. Meehl, 1996, “Comparative Efficiency of Informal (Subjective, Impressionistic) and Formal (Mechanical, Algorithmic) Prediction Procedures: The Clinical-Statistical Controversy,” Psychology, Public Policy, and Law, Vol. 2, No. 2.
Höchtl, J., P. Parycek, & R. Schöllhammer, 2016, “Big Data in the Policy Cycle: Policy Decision Making in the Digital Era,” Journal of Organizational Computing and Electronic Commerce, Vol. 26, Iss. 1-2.
Howlett, M. & M. Ramesh, 2003, Studying Public Policy: Policy Cycles and Policy Subsystems, Oxford University Press.
Hood, C., 2002, “The Risk Game and the Blame Game,” Government and Opposition, Vol. 37, No. 1.
Kamateri, E. et al., 2015, “Comparative Analysis of Tools and Technologies for Policy Making,” in Janssen, M., M. A. Wimmer, & A. Deljoo (eds.), Policy Practice and Digital Science: Integrating Complex Systems, Social Simulation and Public Administration in Policy Research, Cham: Springer International Publishing Switzerland.
Kingdon, J. W., 1995, Agenda, Alternatives, and Public Policies, New York: HarperCollins College Publishers.
Kleinberg, J., H. Lakkaraju, J. Leskovec, J. Ludwig, & S. Mullainathan, 2017, “Human Decisions and Machine Predictions,” The Quarterly Journal of Economics, Vol. 133, Iss. 1.
Langford, Cameron, 2017, “Houston Schools Must Face Teacher Evaluation Lawsuit,” Courthouse News Service,https://www.courthousenews.com/houston-schools-must-face-teacher-evaluation-lawsuit/, 2020年6月16日拜訪。
Leetaru, K., 2011, “Culturomics 2.0: Forecasting Large-Scale Human Behavior Using Global News Media Tone in Time and Space,” First Monday, Vol. 16, No. 9.
Mehr, Hila, 2017, “Artificial Intelligence for Citizen Services and Government,” Ash Center Democratic Gover來沒有想過,自己會是第一個嫁給她的人。狼狽的不是婆婆,也不是生活中的貧窮,而是她的丈夫。nance and Innovation, Harvard Kennedy School, https://ash.harvard.edu/files/ash/files/artificial_intelligence_for_citizen_services.pdf.
Mullainathan, S. & J. Spiess, 2017, “Machine Learning: An Applied Econometric Approac包養h,” Journal of Economic Perspectives, Vol. 31, No. 2.
Nagtegaal R., 2021, “The Impact of Using Algorithms for Managerial Decisions on Public Employees’ Procedural Justice,” Government Information Quarterly, Vol. 38, Iss. 1.
Osoba, O. A. & V. W. Welser, 2017, An Intelligence in Our Image: The Risks of Bias and Errors in Artificial Intelligence, Canta Monica: Rand Corporation.
Rice, D. R. & Christopher J. Zorn, 2021, “Corpus-Based Dictionaries for Sentiment Analysis of Specialized Vocabularies,” Political Science Research and Methods, Vol. 9, Iss. 1.
Ross, C. & I. Swetlitzi, 2017, “IBM Pitched its Watson Supercomputer as a Revolution in Cancer Care. It’s Nowhere Close,” https://www.statnews. com/2017/09/05/watson-ibm-cancer/, 2020年6月16日拜訪。
Sabatier, P.A., 1999, “The Need for Better Theories,” in P. A. Sabatier (ed.), Theories of the Policy Process, Boulder, CO: Westview Press.
Valle-Cruz, David., Edgar Alejandro Ruvalcaba-Gomez, Rodrigo Sandoval-Almazan, & J. Ignacio Criado, 2019, “A Review of Artificial Intelligence in Government and its Potential from a Public Policy Perspective,” Proceeding of the 20th A裴奕眼睛亮晶晶的看著兒媳婦,發現她對自己的吸引力真的是越來越大了。如果他不趕緊和她分開,他的感情用不了多久就會nnual International Conference on Digital Government Research, Dubai, United Arab Emirates.
Viechnicki, Peter & William D. Eggers, 2017, How Much Time and Money Can AI Save Government? Cognitive Technologies Could Free up Hundreds of Millions of Public Sector Worke包養網 r Hours, New York: Deloitte University Press.
Workman, S., B. D. Jones, & A. E. Jochim, 2009, “Information Processing and Policy Dynamics,” Policy Studies Journal, Vol. 37, No. 1.
Zeph, Capo & Janet Bass, 2017, “Federal Suit Settlement: End of Value-Added Measures for包養網 Teacher Termination in Houston,” AFT, https://www.aft.org/press-release/federal-suit-settlement-end-value-added-measures-tea包養 cher-termination-hous, 2020年6月30日拜訪。
Zouridis, Stavros, Marlies van Eck, & Mark Bovens, 2020, “Automated Discretion,” in Peter Hupe & Tony Evans (eds.), Discretion and the Quest for Controlled Freedom, Cham: Palgrave Macmillan.
【注釋】
①姚春鴿:《年夜數據時期的年夜變更》,載《國民郵電報》2012年5月29日,第2版。
②一個典範的例子是2016年美國年夜選時代“劍橋剖析”這一政治人工智能公司,應用5000萬臉書(Facebook)用戶信息停止人工智能剖析與猜測,剖析這些用戶的心思特征和政治偏好,并進而推進定制政治市場行銷和消息,從而影響用戶的投票行動。
③除了劍橋剖析公司的事破例,近年呈現了一種名為“深度捏造”(deepfake)的人工智能換臉技巧可以真切捏造某些引導人的錄像和語音信息,極年夜進步虛偽信息的可托度,使其影響力剎時被萬萬倍擴展,取得大批大眾追蹤關心,進而把持大眾情感,激發社會凌亂從而到達某些特別目標。
④美國司法部原部長埃里克·霍爾德就正告基于人工智能猜測的犯法概率評分體系能夠會誤導法庭判決,他說:“盡管該體系的design出于好心,可是我煩惱它會損壞特性化和公正公理,加劇在刑事司法體系和社會中曾經廣泛存在的不公平題目”(Angwin et al., 2016)。
【作者簡介】 吳進進:深圳年夜學公共治理系(Wu Jinjin, Department of public Management, Shenzhen University)
符陽:深圳年夜學公共治理系(Fu Yang, Department of public Management, Shenzhen University)
發佈留言