久久天天躁综合夜夜黑人鲁色,超91在线,久久夜视频,91av免费在线观看,在线视频二区,亚洲欧美日韩专区一,在线播放国产一区二区三区

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 中國品牌 > 領(lǐng)軍人物 > 正文

薛瀾:人工智能時代內(nèi)容生成的倫理治理

人工智能時代內(nèi)容生成的倫理治理——訪清華大學文科資深教授、人工智能國際治理研究院院長薛瀾

人工智能時代內(nèi)容生成的倫理治理——訪清華大學文科資深教授、人工智能國際治理研究院院長薛瀾

技術(shù)進步帶來虛假錯誤內(nèi)容的生成風險

學習時報:近年來,生成式人工智能引起社會各界大范圍關(guān)注。與以往內(nèi)容生產(chǎn)主要依賴于人類自身的經(jīng)驗和創(chuàng)新相比,人工智能時代內(nèi)容生成的核心變革體現(xiàn)在哪些方面?

薛瀾:與以往人類社會的內(nèi)容生產(chǎn)機制相比,從大數(shù)據(jù)中自動獲取知識的機器學習是人工智能時代的主要機制和技術(shù)驅(qū)動力。隨著大數(shù)據(jù)技術(shù)在多領(lǐng)域的廣泛應(yīng)用和市場規(guī)模的快速增長,生成式人工智能技術(shù)已成為人類進行內(nèi)容生產(chǎn)的有力工具,拓展了新創(chuàng)意的展示方法,大大超越了人類以往的內(nèi)容生產(chǎn)效率,甚至正在重塑人類社會內(nèi)容生產(chǎn)和傳播的底層邏輯。

人工智能技術(shù)對內(nèi)容生產(chǎn)的顛覆性突破,首先體現(xiàn)在生產(chǎn)效率的指數(shù)級提升。比如,在傳統(tǒng)內(nèi)容創(chuàng)作中,一部作品往往需要很長一段時間,但通過大語言模型,只需要輸入提示詞或者初步構(gòu)想,就可以實現(xiàn)秒級生成。其次,生成式人工智能技術(shù)的廣泛應(yīng)用在很多領(lǐng)域大幅降低了知識獲取和內(nèi)容創(chuàng)作的門檻,這不僅降低了專業(yè)創(chuàng)作的成本,更賦予了普通用戶參與內(nèi)容生產(chǎn)的能力,在一定程度上創(chuàng)造了“全民創(chuàng)作”的可能。

學習時報:對于各種生成式人工智能技術(shù)的開發(fā)應(yīng)用,人們在享受便利的同時,也正在經(jīng)受著各類虛假錯誤內(nèi)容的困擾,您怎么看這類問題的產(chǎn)生?

薛瀾:技術(shù)紅利與技術(shù)缺陷是共生共存的。從生成機制上說,生成式人工智能帶來的虛假錯誤內(nèi)容主要分為三類。

一是人工智能技術(shù)本身具有的內(nèi)生風險。比如,技術(shù)幻覺風險在內(nèi)容生產(chǎn)過程中普遍存在。技術(shù)本身無法對源頭數(shù)據(jù)進行真假辨別,加上理解能力有限、模型架構(gòu)缺陷等原因,人工智能技術(shù)在實際應(yīng)用中呈現(xiàn)出一定的內(nèi)容重構(gòu)特征,可能輸出看似嚴謹合理,實際上卻與事實或邏輯不符的虛假錯誤內(nèi)容,出現(xiàn)“一本正經(jīng)地說假話”現(xiàn)象。

二是技術(shù)開發(fā)過程中的風險。技術(shù)的算法歧視是由訓練數(shù)據(jù)的思維映射而引發(fā)的。人工智能技術(shù)在訓練、學習過程中所用數(shù)據(jù),都是人類社會以往產(chǎn)生的,必然帶有主觀色彩和人類活動特征。生成式人工智能應(yīng)用的過程,實質(zhì)上是對過往人類社會模式的特征進行總結(jié)并用來對未來社會進行感知和決策的過程,復制并延續(xù)傳統(tǒng)社會特征自然也就不可避免,使得現(xiàn)階段生成式人工智能技術(shù)無法完全避免歧視。整體而言,人類借助以往的經(jīng)驗、知識儲備和信息查證,相對容易識別技術(shù)內(nèi)生風險、開發(fā)訓練風險引發(fā)的虛假錯誤內(nèi)容。

三是基于技術(shù)應(yīng)用或濫用的風險。任何技術(shù)本質(zhì)上都是工具,它的倫理困境在于使用的方向問題。對這類風險要辯證看待。第一種情況,在善意的應(yīng)用中帶來了無意的負面影響。例如,網(wǎng)友用人工智能“復活”已故明星,本意是表達懷念,但未經(jīng)家屬同意,反而可能讓逝者親屬再次承受痛苦,甚至涉及肖像權(quán)爭議。技術(shù)應(yīng)用初衷是善意的,但因缺乏倫理考量,帶來了情感傷害和法律風險。第二種情況,深度造假與惡意應(yīng)用。由于技術(shù)加持,主觀惡意的內(nèi)容造假突破了以往“耳聽為虛、眼見為實”的真實性判斷方式,語音合成、視頻換臉等生成的“超真實”虛假內(nèi)容沖擊著社會信用基礎(chǔ),“眼見未必為實”具有以往謠言難以企及的破壞力,傳統(tǒng)社會信用評判方式面臨著崩塌風險。而且,惡意應(yīng)用的危害力因技術(shù)的普及而成倍增長。更嚴峻的情形是,一些主觀惡意的虛假錯誤內(nèi)容生成已經(jīng)形成完整的產(chǎn)業(yè)鏈條,從定制虛假內(nèi)容生產(chǎn)到隱秘傳播渠道,呈現(xiàn)出專業(yè)化、規(guī)模化的特征。與技術(shù)缺陷導致的虛假錯誤內(nèi)容相比,這類內(nèi)容更不易被發(fā)現(xiàn),危害程度更大。

所以,我們對人工智能技術(shù)進行監(jiān)管,主要是建立一個合理的治理體系,對濫用、惡用人工智能技術(shù)所帶來的各類已經(jīng)產(chǎn)生的危害或尚未有實質(zhì)危害的潛在風險進行規(guī)制。

人工智能時代需要敏捷治理

學習時報:由于生成式人工智能技術(shù)的飛速發(fā)展,傳統(tǒng)治理模式已經(jīng)跟不上現(xiàn)實內(nèi)容生態(tài)治理需求,我們需要做怎樣的調(diào)整?

薛瀾:自2022年底ChatGPT 發(fā)布以來,生成式人工智能技術(shù)日新月異,幾秒鐘就可以生成用戶所需的視頻、音頻或文本,人工智能技術(shù)的超預期迭代速度和不可預測的發(fā)展特征,對治理體系的同步演進提出了巨大挑戰(zhàn)。

一方面,以生成式人工智能為代表的人工智能產(chǎn)業(yè)目前屬于新興產(chǎn)業(yè),其以創(chuàng)新為主要驅(qū)動力,滿足并激發(fā)了海量的社會需求,可以說是一種在市場需求主導下通過技術(shù)創(chuàng)新和商業(yè)模式創(chuàng)新而形成的產(chǎn)業(yè)。高度不確定性是新興產(chǎn)業(yè)的突出特征,關(guān)鍵技術(shù)的迭代,市場需求、競爭環(huán)境、商業(yè)模式、價值理念等方面的變化往往難以捉摸甚至瞬息萬變,這就產(chǎn)生了技術(shù)發(fā)展與技術(shù)治理步調(diào)不一致的問題。同時,市場信心在新興產(chǎn)業(yè)發(fā)展中起著關(guān)鍵性作用。一旦有關(guān)方面釋放強監(jiān)管信號,或發(fā)生有關(guān)產(chǎn)業(yè)發(fā)展的負外部事件,新興產(chǎn)業(yè)的創(chuàng)新路徑和方向?qū)艿街苯佑绊?,甚至遭受毀滅性打擊?/p>

另一方面,以生成式人工智能為代表的人工智能產(chǎn)業(yè)發(fā)展帶來的倫理風險和負外部性問題也需要引起關(guān)注,并采取科學合理的措施降低社會風險,確保其健康可持續(xù)發(fā)展。在新興產(chǎn)業(yè)發(fā)展過程中,政府監(jiān)管能夠?qū)ο嚓P(guān)產(chǎn)業(yè)的技術(shù)和商業(yè)模式起到一定程度的正向引導作用,幫助企業(yè)有效規(guī)避可能產(chǎn)生的系列社會風險,營造負責任的企業(yè)形象,為產(chǎn)業(yè)高質(zhì)量發(fā)展創(chuàng)造良好的社會支持氛圍。

在人工智能時代,我們要堅持敏捷治理理念,做到監(jiān)管不是關(guān)門禁入,而是實現(xiàn)開門有序進入。敏捷治理的目標框架主要包含兩個維度,一是維護產(chǎn)業(yè)創(chuàng)新,二是規(guī)制產(chǎn)業(yè)發(fā)展帶來的負面影響。具體地說,就是適應(yīng)人工智能技術(shù)發(fā)展的速度要求,配置產(chǎn)業(yè)發(fā)展所需的制度資源,維護技術(shù)創(chuàng)新導向,防控產(chǎn)業(yè)風險,促進公眾利益最大化,從而實現(xiàn)治理目標的有機平衡。

學習時報:這么說來,敏捷治理是具有一整套原則體系的治理模式。具體該如何實施敏捷治理?

薛瀾:一是治理上的快速反應(yīng),發(fā)揮信號警示作用。傳統(tǒng)治理模式的突出特征是治理對象的不確定性低,發(fā)展路徑和方向比較穩(wěn)定,政府有充足的時間充實論證、制定相關(guān)監(jiān)管判斷的依據(jù),形成完整的制度化的規(guī)則體系。而以生成式人工智能為代表的人工智能技術(shù)瞬息萬變,如果延續(xù)這種治理模式,可能尚未完全弄清監(jiān)管判斷標準,治理對象就已經(jīng)發(fā)生了變化。以往我們因為理念調(diào)整不及時在其他領(lǐng)域是有過深刻教訓的,必須引以為戒。所以,適應(yīng)人工智能時代的產(chǎn)業(yè)發(fā)展需要,治理需要突出敏捷性,迅速對已經(jīng)出現(xiàn)或有苗頭性的風險進行規(guī)制,給各有關(guān)主體一個信號,并隨著實踐變化不斷迭代,及時完善優(yōu)化措施。

二是工具選擇上突出柔性原則,引導為主,懲罰為輔。在傳統(tǒng)治理中,政府監(jiān)管是在發(fā)現(xiàn)問題、確定問題之后通過正常行政或法律程序制定實施規(guī)則的,政策工具以懲處為主,表現(xiàn)為“過程慢、力度大”。而對以生成式人工智能為代表的人工智能產(chǎn)業(yè),敏捷治理在工具的選擇上就要反過來,即“下手快、力度輕”。“快”可以減少企業(yè)技術(shù)路徑和商業(yè)模式的調(diào)整損失;“輕”主要突出方向性和試探性,企業(yè)可以馬上得知監(jiān)管態(tài)度,知曉對產(chǎn)業(yè)治理的方向。需要注意的一點是,這種工具選擇的邏輯是引導而不是懲罰,但如果企業(yè)對政府的有關(guān)引導視而不見、置之不理造成不良后果,政府也有必要采取嚴格的監(jiān)管措施。

三是治理關(guān)系上實現(xiàn)重塑,形成共同體機制。在傳統(tǒng)治理模式中,政府監(jiān)管具有鮮明的問題導向,監(jiān)管者與被監(jiān)管者之間呈現(xiàn)典型的“貓和老鼠”關(guān)系。政府主要通過抓企業(yè)的負面行為實現(xiàn)監(jiān)管,盡可能制定一套全面完整的監(jiān)管規(guī)則,而企業(yè)由于法規(guī)意識不強,為了擴大自己的盈利空間,會通過尋找規(guī)則漏洞來逃避監(jiān)管,二者往往位于對立面。但在以生成式人工智能為代表的人工智能時代,企業(yè)很多時候不知道再往前會出現(xiàn)什么樣的創(chuàng)新,政府也不知道會產(chǎn)生什么樣的風險,監(jiān)管者與被監(jiān)管者對未來發(fā)展趨勢處于“共同無知”的狀態(tài),二者之間的對立關(guān)系演化為互相依賴關(guān)系。這就需要雙方在共同利益的基礎(chǔ)上開展深入交流與充分溝通,探索找到一個合適的空間,使得企業(yè)的創(chuàng)新探索不會突破政府規(guī)制的底線,政府的規(guī)則不會完全地束縛企業(yè)創(chuàng)新的手腳。這樣的合作關(guān)系有助于政府更好了解技術(shù)和市場發(fā)展走向,正確評估相關(guān)風險并執(zhí)行合理的規(guī)制措施,也使企業(yè)清晰洞察產(chǎn)業(yè)發(fā)展可能帶來的風險和政府治理目標,明晰產(chǎn)業(yè)發(fā)展邊界,共同塑造和引領(lǐng)產(chǎn)業(yè)的技術(shù)路徑和商業(yè)模式選擇,實現(xiàn)政府和企業(yè)的合作共贏,滿足良好的互動預期。

學習時報:在內(nèi)容生成領(lǐng)域,實施敏捷治理的方向和原則已經(jīng)很清晰了,但在微觀層面,需要解決好哪些難題?

薛瀾:敏捷治理要真正落地并不容易。在內(nèi)容生成領(lǐng)域,我們面臨的其中一個難題就是如何確定內(nèi)容生成主體行為的責任以及采取什么樣的懲罰措施。

理論上,實施內(nèi)容造假的主體肯定存在違法甚至犯罪行為。但假如一個人生成了虛假錯誤內(nèi)容,甚至嚴重一點說涉及敏感話題,但并沒有進行廣泛傳播,也沒有產(chǎn)生負面的社會影響,這種情況下如何判定行為的惡劣程度?假如造假內(nèi)容不敏感,但造成了大范圍傳播,又該如何判定責任?如果用戶僅是出于個人娛樂等目的生成了虛假內(nèi)容,但被平臺誤推送,造成了不良社會影響,責任又該如何劃分?這些都對政策工具反應(yīng)的速度和靈活性造成了難題。

對虛假錯誤內(nèi)容治理要形成多元合力

學習時報:由于生成式人工智能技術(shù)的低門檻、普及化特性,參與主體也比以往更為廣泛和多元,政府、研發(fā)企業(yè)、應(yīng)用平臺、用戶、普通大眾等都是直接參與者和利益主體。剛剛講了政府治理理念的調(diào)整,企業(yè)在內(nèi)容治理中要承擔哪些責任?

薛瀾:在人工智能時代的內(nèi)容生成生態(tài)中,企業(yè)作為技術(shù)開發(fā)和應(yīng)用的主體承擔著重要的責任。針對人工智能產(chǎn)業(yè)發(fā)展所帶來的風險,我國已經(jīng)形成了較為立體的治理體系,可以分為上、中、下層。上層是2019年發(fā)布的《新一代人工智能治理原則——發(fā)展負責任的人工智能》和2021年發(fā)布的《新一代人工智能倫理規(guī)范》。中層是針對人工智能具體領(lǐng)域的法律法規(guī),比如2023年發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》、2025年發(fā)布的《人工智能生成合成內(nèi)容標識辦法》等。下層就是鼓勵企業(yè)加強內(nèi)部機制建設(shè),成立倫理委員會等。不論是技術(shù)開發(fā)企業(yè)還是技術(shù)應(yīng)用平臺企業(yè),都必須遵守國家相關(guān)的法律法規(guī)要求,確保生成的內(nèi)容健康、準確、真實,并嚴格按照內(nèi)容標識辦法對人工智能生成的內(nèi)容進行標注,確保消費者的知情權(quán)。

除了合規(guī)性要求,企業(yè)還需要多做一步,投入更多時間和精力做好技術(shù)自糾,防范和應(yīng)對自身技術(shù)系統(tǒng)被惡用的風險。比如通過預訓練數(shù)據(jù)清洗,對某些敏感數(shù)據(jù)進行有效識別并剔除,提高源頭數(shù)據(jù)質(zhì)量;在內(nèi)容生成過程中設(shè)置過濾環(huán)節(jié),及時識別用戶的主觀濫用、惡用意圖,攔截違規(guī)生成內(nèi)容;對醫(yī)療等敏感領(lǐng)域的內(nèi)容生成實施人工審核兜底;通過用戶反饋學習,拒絕違背法律法規(guī)、社會公序良俗的內(nèi)容生成要求,降低模型倫理風險;等等。

學習時報:在內(nèi)容生成生態(tài)的治理中,除了要發(fā)揮有效市場和有為政府的作用,我看到您的團隊還提出了“有機社會”的治理理念。

薛瀾:打造良好的內(nèi)容生成生態(tài),不僅要發(fā)揮政府、企業(yè)的作用,更需要形成利益共同體意識,建立多元治理格局,重視公眾在內(nèi)容生成生態(tài)治理中的地位和作用。

首先,公眾具有用戶和受眾雙重角色,能夠直觀感知內(nèi)容生成質(zhì)量。要提高他們的辨別能力和維護良好內(nèi)容生態(tài)、參與社會倫理判斷的責任意識,對不良生成內(nèi)容及時反饋,必要時對各類虛假錯誤內(nèi)容或惡意應(yīng)用行為進行舉報,配合有關(guān)部門加強監(jiān)督。

其次,使用者推動技術(shù)創(chuàng)新。隨著新一輪科技革命和產(chǎn)業(yè)變革的深入發(fā)展,傳統(tǒng)以生產(chǎn)者為中心的創(chuàng)新模式逐漸被以使用者為中心的創(chuàng)新模式所替代。使用者創(chuàng)新是指產(chǎn)品的最終用戶基于自身需求和使用經(jīng)驗,對現(xiàn)有產(chǎn)品或服務(wù)進行改進或重新設(shè)計,甚至開發(fā)出全新解決方案的創(chuàng)新行為,其核心驅(qū)動力在于使用者對實際應(yīng)用場景的深刻理解和對新需求的切身感知。生成式人工智能技術(shù)的研發(fā)與應(yīng)用本身是滿足市場需求的結(jié)果,而用戶在使用過程中會由于新需求的出現(xiàn),產(chǎn)生對現(xiàn)有技術(shù)的優(yōu)化需求,從而對生成式人工智能技術(shù)進行需求導向的創(chuàng)新重塑。因此,我們應(yīng)該積極鼓勵公眾廣泛參與,發(fā)揮使用者創(chuàng)新的集體智慧,促進內(nèi)容生成技術(shù)的功能優(yōu)化和使用場景的創(chuàng)造性拓展。

最后,公眾作為使用者也應(yīng)加強自律意識,善用生成式人工智能技術(shù),明確新技術(shù)新工具是用來創(chuàng)造價值、增加社會福祉的。在內(nèi)容傳播上要有責任意識,對接觸到的虛假錯誤內(nèi)容要堅決說“不”,從個體做起,匯聚推動人工智能技術(shù)良性發(fā)展的善意力量。反過來,為了提高公眾對人工智能技術(shù)的認識和理解、對虛假錯誤內(nèi)容的辨別能力,政府和有關(guān)機構(gòu)要著力推動科普教育力度,建立信息驗證平臺,利用講座、展覽等方式普及人工智能技術(shù)的基本原理和應(yīng)用場景,幫助他們認識技術(shù)的局限性和各類潛在風險。借助各類公眾號、視頻號等新媒體平臺發(fā)布科普文章和視頻,提升公眾的科學素養(yǎng)和防范意識,培養(yǎng)公眾對接收到的各類信息的正確態(tài)度和閱讀習慣,為構(gòu)建良好的內(nèi)容生成生態(tài)營造良好的社會環(huán)境。

現(xiàn)在,很多機構(gòu)在積極開發(fā)相關(guān)的內(nèi)容監(jiān)測平臺,這方面存在很大技術(shù)潛力和積極社會價值。但事實核查有著巨大挑戰(zhàn),目前的治理存在著“道高一尺、魔高一丈”的困境,需要建立政府主導、產(chǎn)學研協(xié)同、公眾廣泛參與的立體化治理體系,形成強大的治理合力。

總之,創(chuàng)新和治理的平衡是人工智能技術(shù)發(fā)展的永恒主題。

內(nèi)容生成技術(shù)會導致創(chuàng)造力依賴和情感鈍化嗎

學習時報:智能化一直以來是人類的夢想,但我們都沒預料到它會以如此迅猛的速度成為現(xiàn)實。對生成式人工智能技術(shù)而言,未來我們需要警惕哪些新興風險?

薛瀾:隨著人工智能技術(shù)的進一步發(fā)展,人類社會正在進入全新的智能化時代,未來生成式人工智能技術(shù)的發(fā)展可能會超乎我們的想象??梢钥隙ǖ氖?,未來生成式人工智能技術(shù)應(yīng)用會更加廣泛,更精準地理解并滿足用戶需要,生成更具多樣性、個性化和創(chuàng)造力的高質(zhì)量內(nèi)容,為人類提供更加豐富的選擇。這當然也會帶來一系列的倫理風險。其中最值得警惕的是技術(shù)引發(fā)的人類創(chuàng)造力依賴和情感鈍化風險。

首先,人工智能在內(nèi)容生成、決策支持和日常任務(wù)中的廣泛應(yīng)用,可能導致人類逐漸喪失獨立思考和解決問題的能力。例如,當人工智能能夠完全替代人類完成寫作、設(shè)計甚至決策任務(wù)時,無形中人類就減少了深度思考和反復試錯的過程,而這些恰恰是創(chuàng)造力激發(fā)和積累的關(guān)鍵環(huán)節(jié)。如此一來,長期依賴人工智能生成的內(nèi)容,可能會使人類的原創(chuàng)思維和表達能力逐漸退化,最終導致整體創(chuàng)造力的萎縮。

其次,人工智能技術(shù)雖然提升了信息獲取效率,但其中可能摻雜了用戶算法分析和系統(tǒng)自身的算法歧視,從而將人們困在“信息繭房”中,限制了接觸多元觀點的機會,進而削弱思維的廣泛性、靈活性和創(chuàng)新性。當算法不斷迎合用戶的偏好,人類主動探索、批判性思考和跨領(lǐng)域聯(lián)想的能力可能會逐漸減弱,而這些能力正是創(chuàng)造力的核心要素。

再次,在情感層面,人工智能的介入可能改變傳統(tǒng)的人際互動方式。例如,過度依賴人工智能聊天機器人來代替真實的人與人、人與社會的人際交往鏈接,不可避免地會導致共情能力下降和情感表達簡化。目前,人工智能技術(shù)已能夠模擬人類情感并提供即時滿足,而且部分群體對自我情緒價值的要求十分強烈,從而可能逐漸失去處理復雜人際關(guān)系的耐心和意愿。此外,人工智能在藝術(shù)創(chuàng)作,如詩歌、音樂、繪畫等方面的廣泛應(yīng)用,可能使人類情感表達趨于標準化、模式化,削弱個體獨特的情感深度和主觀體驗。

需要明確,人工智能技術(shù)的工具屬性,在任何時候都不能改變。任何技術(shù)的發(fā)展,本質(zhì)上都是人類出于科學角度對穩(wěn)定性和精準性的追求,以彌補人類能力的不確定性短板。因此,在二者的關(guān)系中,人是居于第一位的,人發(fā)明并使用技術(shù)工具,決不能出現(xiàn)工具駕馭人的情況。人與工具的最本質(zhì)區(qū)別之一就在于人的無窮創(chuàng)造力和真實情感感知力。從當前情況看,我們這一代人對此原則的認知比較清晰,但下一代,尤其是從童年時期即接觸智能設(shè)備的青年群體,可能更習慣人機交互方式,對這種風險就需要警惕,就要進行積極干預和引導。

解決的關(guān)鍵就在于人類如何主動管理和平衡技術(shù)的使用。如果能夠?qū)⑷斯ぶ悄苁冀K定位為輔助工具而非替代品,鼓勵人機協(xié)作而非被動依賴,同時重視教育體系中創(chuàng)造力與情感培養(yǎng)的核心地位,技術(shù)就可能成為增強人類能力的催化劑。以往的經(jīng)驗表明,技術(shù)進步往往伴隨新的挑戰(zhàn),但人類的適應(yīng)能力和主觀能動性始終是化解風險的關(guān)鍵。因此,未來要建立合理的人工智能使用規(guī)范,確保技術(shù)發(fā)展服務(wù)于人類的長遠福祉,堅決避免削弱我們的本質(zhì)能力的現(xiàn)象。

營造有利于年輕人創(chuàng)新創(chuàng)業(yè)的良好生態(tài)

學習時報:我們談?wù)擄L險,本質(zhì)上是希望塑造科技向善的理念,促進生成式人工智能技術(shù)在健康有序的軌道上發(fā)展才是我們的最終目的。

薛瀾:對。內(nèi)容生成技術(shù)也好,具身智能也好,它們都屬于科技創(chuàng)新。我們中國的老百姓對科技創(chuàng)新的態(tài)度總體來講是非常支持、積極擁抱的,接受程度普遍較高。與其他國家相比,這是非常難得的,也是我們的一個突出優(yōu)勢。

除了公眾支持,我們還要創(chuàng)造一個更加有利于包括生成式人工智能在內(nèi)的技術(shù)發(fā)展的良好創(chuàng)新生態(tài)。在人工智能領(lǐng)域,年輕人表現(xiàn)得十分搶眼,他們有想法、有熱情,需要為他們提供嘗試的機會。在內(nèi)容生成領(lǐng)域,我們國家的監(jiān)管是非常嚴格的,主要是為了保障國家安全、維護網(wǎng)絡(luò)空間清朗、保護社會大眾的個人合法權(quán)益,同時也在積極探索適應(yīng)技術(shù)發(fā)展的監(jiān)管模式。未來政府規(guī)制要增強包容性,明晰大的監(jiān)管框架,在這個框架下推動形成濃厚的鼓勵創(chuàng)新的氛圍。

學習時報:這種良好的創(chuàng)新生態(tài)具體包括哪些內(nèi)容呢?

薛瀾:首先,要有一定數(shù)量的實力雄厚的研究型大學。一方面,高校是培養(yǎng)人的,人才是創(chuàng)新創(chuàng)業(yè)的主體,活躍的年輕人很大程度上就是大學畢業(yè)生甚至在校生。而且,實力雄厚的大學也會形成“人才磁場”,吸引國內(nèi)外人才集聚。另一方面,高校是重大科技突破的策源地,可以通過校企鏈接,持續(xù)不斷地促進科技創(chuàng)新成果轉(zhuǎn)化,為企業(yè)保持科技領(lǐng)先地位、產(chǎn)業(yè)升級提供創(chuàng)新驅(qū)動力。所以,科研實力強勁的高校是基礎(chǔ)。

其次,要形成多元的資本投入。在創(chuàng)新生態(tài)里面,資本的來源包括政府補貼、金融貸款,也包括民營資本、外資等等。企業(yè)對資本的需求是全周期的,如種子期需要高校創(chuàng)新基金、政府科研經(jīng)費支持,初創(chuàng)期需要政府引導基金、風險投資等,重點是創(chuàng)新培育;成長期需要私募股權(quán)投資,上市后需要通過公開募股、企業(yè)債券等獲取資本,重點是實現(xiàn)資本的規(guī)?;x能;等等。只有形成豐富的資本結(jié)構(gòu),才能適應(yīng)不同類型、不同時期的企業(yè)發(fā)展需求。

再次,比較適宜的生活環(huán)境。這個“適宜”涵蓋很多方面。比如房價要友好,能提供多層次的住房保障,包括公租房、人才公寓等,讓年輕人“有的住”,對安居有盼頭;創(chuàng)業(yè)要友好,有完善的創(chuàng)業(yè)配套機制和創(chuàng)業(yè)氛圍,對創(chuàng)業(yè)失敗進行政策兜底,讓年輕人“敢創(chuàng)業(yè)”;交通要友好,無論上下班通勤還是出差都十分便利,讓年輕人“少折騰”;生活要友好,除了賺錢,還要滿足年輕人對休閑娛樂的高品質(zhì)精神追求,讓年輕人“活得爽”;等等。

最后,打造無事不擾、有求必應(yīng)的營商環(huán)境。“無事不擾”強調(diào)政府的定力,“有求必應(yīng)”強調(diào)政府的能力,需要政府既克制大包大攬的沖動,又保持周到服務(wù)的熱忱;既尊重市場規(guī)律,又不推卸責任,做好對各類企業(yè)健康有序成長的扶持和服務(wù)工作。

[責任編輯:潘旺旺]