亚洲一区精品动漫|亚洲日韩欧美综合中文字幕|久久久国产精品视频!|久久艹视频一区

<rp id="exnmd"><video id="exnmd"></video></rp>
<ol id="exnmd"><strong id="exnmd"><td id="exnmd"></td></strong></ol>
    • <address id="exnmd"></address>
      <rp id="exnmd"></rp>
      <u id="exnmd"><option id="exnmd"></option></u>
    • <cite id="exnmd"></cite>

      【科學的溫度】AI換臉火爆的背后:如何防止人工智能技術被“惡用”?

      分享到:

      【科學的溫度】AI換臉火爆的背后:如何防止人工智能技術被“惡用”?

      2022年12月22日 15:20 來源:中國新聞網(wǎng)
      大字體
      小字體
      分享到:

        中新網(wǎng)12月22日電 (記者 李金磊)數(shù)字化3.0時代,人類生活越來越離不開人工智能。如何防止人工智能技術被“惡用”?越來越多的虛擬人是否會取代部分真人職業(yè)?如何克服算法歧視,讓人工智能實現(xiàn)可知、可信、可控、可用?

        圍繞上述熱點問題,清華大學人工智能國際治理研究院副院長、人工智能治理研究中心主任梁正接受了中新網(wǎng)專訪,進行解讀。

      清華大學人工智能國際治理研究院副院長、人工智能治理研究中心主任梁正。受訪者供圖

        防止人工智能技術被“惡用”

        AI換臉、AI換聲、三維重建、智能對話……深度合成技術應用日益廣泛,催生了美顏美妝、影視制作、智能客服、虛擬主播、元宇宙等應用服務,但也存在著被惡意利用的現(xiàn)象,一些不法人員用來制作、復制、發(fā)布、傳播違法和不良信息,詆毀、貶損他人名譽、榮譽,仿冒他人身份實施詐騙等。

        怎樣抵御這些可能的“惡用”?梁正表示,對于深度合成,AI換臉是一個典型的應用。最近三部門出臺了《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》,對于規(guī)范深度合成服務提出了明確要求。

        根據(jù)規(guī)定,提供人臉、人聲等生物識別信息顯著編輯功能的,應當提示使用者依法告知被編輯的個人,并取得其單獨同意。提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等具有生成或者顯著改變信息內容功能服務的,應當在生成或者編輯的信息內容的合理位置、區(qū)域進行顯著標識,向公眾提示信息內容的合成情況,避免公眾混淆或者誤認。

        梁正指出,使用個人肖像如果沒有征得同意,就去公共互聯(lián)網(wǎng)上采集使用的話,這屬于違法行為。平臺上如果有類似應用,平臺就有責任去監(jiān)督。即使是合法的使用,也要打上標簽,讓大家知道這不是真的,一定程度上可以減少深度合成內容產(chǎn)生的認知偏差和社會誤導。如果平臺自己去提供這一類服務,還要求用相應的工具去識別它不是真實的,這就對平臺提出了更高的要求。

        “不僅要合法合規(guī),而且還要合意?!?梁正表示,要進一步完善法律法規(guī),嚴格落實相關規(guī)定,建立健全懲罰制度,個人要有維權意識,通過救濟渠道維護自身合法權益,從而減少AI被惡意利用的現(xiàn)象。

      資料圖:2022世界人工智能大會上,人機互動吸引觀眾。 湯彥俊 攝

        虛擬人已經(jīng)開始取代部分真人職業(yè)

        近年來,虛擬代言人、虛擬主播、虛擬演員歌手,越來越多虛擬人在被推向市場。人們擔心,虛擬人在未來或將取代部分真人職業(yè)。

        “在娛樂、新聞領域,虛擬人的應用越來越多,因為它是一個低成本、高效率的方式?!痹诹赫磥?,虛擬人越來越多也是一種必然的趨勢,而且已經(jīng)在替代部分真人職業(yè)了。比如,現(xiàn)在很多虛擬新聞主播,還有電話客服越來越多使用智能語音服務?!斑@個替代它一定是會部分發(fā)生的?!?/p>

        新生事物發(fā)展背后也存在一些隱患。梁正提醒,大家不要把真假弄混了,虛擬人的形象、內容、對話都是基于訓練的結果,或者是事先編好的,如果把它當成真人的話,就會產(chǎn)生誤導。

        “比如說,跟對話機器人去對話要非常小心。對于有些敏感話題,因為它背后沒有意識,是順著你說的,如果沒有干預就可能產(chǎn)生誤導,但它沒有辦法承擔責任。所以要對虛擬形象的深度合成打上標簽,并限定它的使用場景。特別是在教育醫(yī)療這樣一些敏感的高風險場景,人工干預是必須的?!绷赫f。

        梁正認為,虛擬人的應用總體要分場景,在游戲、天氣預報、新聞播報等一些低風險場景問題不大,但如果是高風險場景,就要非常小心,虛擬形象能夠做什么,什么不能做,要把界限劃清楚,比如心理陪伴機器人,要評估它說的話帶來的長期心理影響是什么樣的。

        下一代人工智能應該是可解釋的

        人工智能不離開算法,算法公平和算法歧視話題也備受關注。國外一些研究和媒體報道提到,算法開發(fā)者或算法本身根據(jù)大數(shù)據(jù)積累存在種族、性別、文化等歧視的可能性。

        對此,梁正表示,算法是依據(jù)數(shù)據(jù)訓練出來的,數(shù)據(jù)的有偏性是導致算法本身有偏性的一個主要原因。所以,算法歧視不是算法造成的,是社會本身造成的,是算法本身的技術特點所導致的,使用大量已經(jīng)帶有傾向性的數(shù)據(jù),算法也就會作出一種傾向性的判斷。

        梁正指出,要想改變這種偏見,首先要糾正社會偏見。所以在使用數(shù)據(jù)的時候,要進行人工干預,在統(tǒng)計學上可以通過一些模擬數(shù)據(jù)來做一個平衡,但根本上是要賦予人工智能以常識,要把一些因果的因素考慮進去,而不是單純只依賴于這種數(shù)據(jù)。

        “絕對的算法公平并不存在。” 梁正認為,算法公平具有多維性,常常面臨“不可能三角”式的挑戰(zhàn)。在公共管理領域中,起點公平、過程公平、結果公平三者同時實現(xiàn)基本是不可能的。絕對的公平實際上在算法的設計中其實也是做不到的,關鍵取決于你要什么樣的目標。

        梁正表示,要實現(xiàn)人工智能可知、可信、可控、可用。可知也就是可解釋,這是最基礎也是最復雜的層面,下一代人工智能應該是可解釋的,如果說它不能夠被解釋的話,就會限制它很多方面的應用和大家對它的信任。算法可解釋,這種條件下才能夠放心去使用它。

        “現(xiàn)在最大的問題就是黑箱,現(xiàn)有的人工智能是基于數(shù)據(jù)訓練出來,你不知道中間發(fā)生的事,而新一代的人工智能就是要在數(shù)據(jù)的基礎加上知識,甚至要加上我們的邏輯,讓它能夠按照我們可理解的方式運行?!绷赫f。(完)

      【編輯:蘇亦瑜】
      發(fā)表評論 文明上網(wǎng)理性發(fā)言,請遵守新聞評論服務協(xié)議
      本網(wǎng)站所刊載信息,不代表中新社和中新網(wǎng)觀點。 刊用本網(wǎng)站稿件,務經(jīng)書面授權。
      未經(jīng)授權禁止轉載、摘編、復制及建立鏡像,違者將依法追究法律責任。
      Copyright ©1999-2024 chinanews.com. All Rights Reserved

      評論

      頂部