<menuitem id="kvf8t"></menuitem>

    <strike id="kvf8t"><label id="kvf8t"><var id="kvf8t"></var></label></strike>
    <ruby id="kvf8t"><del id="kvf8t"></del></ruby>

    <ruby id="kvf8t"></ruby>

    <noframes id="kvf8t"><option id="kvf8t"></option></noframes>

    立即打開
    假新聞2.0:人工智能將攪亂美國總統大選?

    假新聞2.0:人工智能將攪亂美國總統大選?

    Jeremy Kahn 2023-05-09

    社交媒體已經對此前的美國總統大選造成了嚴重破壞?,F在,生成式人工智能陰森逼近,我們準備好了嗎?

    預計人工智能將為那些針對選民的虛假信息提供不懈動力——但也有可能為打擊這種虛假信息做出貢獻。圖片來源:SCOTTY PERRY—BLOOMBERG/GETTY IMAGES

    今年2月27日,在如火如荼的芝加哥市市長選舉前夕,一個自稱“芝加哥湖畔新聞”(Chicago Lakefront News)的推特(Twitter)賬號發布了候選人保羅·瓦拉斯(Paul Vallas)的一張照片和一段音頻。此前擔任市政府預算主任和學區主管的瓦拉斯,是四位角逐芝加哥最高職位的參選人之一。根據這段音頻,他似乎在刻意淡化警察槍擊事件,說“在我那個時代,”一位警察在其職業生涯中可能會殺死多達18位平民,“沒有人會眨一下眼睛?!边@段音頻繼續說道:“這種‘停止為警察提供資金’的言論將導致芝加哥陷于動蕩,無法無天。我們現在需要做的,不是撤銷警察資金,而是重新為他們提供資金支持?!?/p>

    事實證明,瓦拉斯并沒有說過這些話。這段音頻很快就被證偽,很可能是用某個容易訪問、用于克隆聲音的人工智能軟件制作而成的。在音頻發布前幾天才注冊的“芝加哥湖畔新聞”賬號很快就刪除了這條推文——但在此之前,它已經被成千上萬的人看到并廣泛轉發,一些人顯然上當了,相信“錄音”是真實的。依照目前的情形看,這段音頻對市長選舉影響甚微:瓦拉斯贏得了多數選票,并在本文發稿時進入第二輪決選階段(他最終以微弱劣勢敗北——譯注)。但專家們表示,這種克隆瓦拉斯聲音的做法堪稱一次令人驚悚的預演:拜人工智能的飛速發展所賜,2024年美國總統大選很可能會遭遇類似虛假信息的侵襲。

    這些新型人工智能系統被統稱為“生成式人工智能”。比如,最近大火特火的文本處理工具ChatGPT只需要幾個提示,就能夠生成學生期末論文和商業電子郵件。但它只是這種技術的一個例子而已。一家名為ElevenLabs的公司發布了一款可以利用僅僅幾秒長的樣本來克隆聲音的軟件。此外,現在任何人都能夠訂購OpenAI的DALL-E 2、Stable Diffusion或Midjourney等軟件生成的逼真靜態圖像。盡管人工智能利用文本提示創建視頻的能力還處于初級階段,例如位于紐約的新創企業Runway開發的軟件可以生成幾秒鐘長的視頻片段,但精通深度偽造技術的騙子完全能夠制作出足以亂真、讓許多人上當受騙的假視頻。

    紐約大學(New York University)的認知科學名譽教授、人工智能專家加里·馬庫斯(Gary Marcus)憂心忡忡地表示:“這真的令人不寒而栗,寢食難安?!彼恢痹诰婀?,支撐這項技術的大型語言模型是民主面臨的一大威脅。盡管我們已經在過去幾屆的美國總統大選中見證過人們利用社交媒體發布和傳播虛假信息的景象,但人工智能的強悍能力遠非人類所能企及——正是這種以前所未有的數量和速度傳播假消息的能力,以及非母語人士現在只需要敲幾下鍵盤就可以用大多數語言寫出通暢文本這一事實,讓這種新技術成為一個巨大的威脅?!昂茈y想象人工智能生成的虛假信息不會在下次大選中掀起波瀾?!彼f。

    并不是每個人都確信,如今的情勢像馬庫斯描述的那樣驚悚——至少現在還不是。專門研究人工智能和新興技術影響的布魯金斯學會(Brookings Institution)的研究員克里斯·梅塞羅爾(Chris Meserole)指出,最近幾屆的美國總統選舉已經出現了非常高水平的人造虛假信息,他不確定新的人工智能語言模型會帶來顯著的變化?!拔艺J為這不會徹底改變游戲規則,2024年預計不會跟2020年或2016年有明顯的不同?!彼f。

    梅塞羅爾還表示,視頻深度偽造技術還不足以攪亂2024年美國總統大選(盡管他認為,2028年的情況恐怕會有所不同)。真正讓梅塞羅爾擔憂的是語音克隆。他指出,一個很容易想象的場景是,一段音頻在選舉的關鍵時刻浮出水面,它記錄的據稱是候選人在私下場合里發表的可恥言論。盡管在場人士可能會否認音頻的真實性,但外人恐怕很難確定。

    那么,虛假敘事究竟是會說服任何人,還是只會強化一些人的現有信念?牛津互聯網研究所(Oxford Internet Institute)的技術與監管教授桑德拉·瓦赫特(Sandra Wachter)稱,相關研究給出了相互矛盾的結論。但在一場勢均力敵的選舉中,即便是這種邊際效應,也可能是決定性的。

    面對機器生成式假新聞的威脅,一些人認為人工智能本身可能是最好的防御手段。在西班牙,一家名為Newtral、專門對政客言論進行事實核查的公司,正在試驗類似于ChatGPT的大型語言模型。該公司的首席技術官魯本·米格斯·佩雷斯(Ruben Miguez Perez)表示,這些模型不能真正驗證事實,但可以幫助人們更好地揭穿謊言。這種技術能夠在一段內容做出值得核查的事實聲明時進行標記,還可以檢測其他宣揚相同敘事的內容,這一過程稱為“聲明匹配”。他說,與其他機器學習技術結合使用,這些大型語言模型也有望根據內容蘊含的情緒來評估某種說法是錯誤信息的可能性。米格斯·佩雷斯指出,借助這些方法,Newtral已經將識別可疑陳述所耗費的時間減少了70%到80%。

    大型社交媒體平臺,比如Facebook和谷歌(Google)旗下的YouTube,一直在研究具備類似功能的人工智能系統。Facebook的母公司Meta表示,在2020年美國總統大選前夕,這家社交平臺為超過1.8億條被第三方事實核查員揭穿的內容貼上了警告標識。盡管如此,仍然有大量虛假信息蒙混過關。事實上,人工智能模型尤其難以捕捉那些借助圖像和文本來傳遞觀點的“表情包”。Meta宣稱,自2020年美國總統大選以來,其人工智能系統獲得了長足進步,但虛假敘事散布者正在持續不斷地設計一批批人工智能模型從未見過的新變體。

    馬庫斯指出,合理的監管或許能夠發揮一定作用:政府應該要求大型語言模型的創建者刻上“數字水印”,從而讓其他算法更容易識別人工智能生成的內容。作為ChatGPT的創建者,OpenAI確實談過這種水印,但尚未付諸實施。與此同時,該公司還發布了免費的人工智能內容檢測軟件,但這種軟件只在大約三分之一的情況下有效。馬庫斯還表示,美國國會應該將大規模制造和傳播虛假信息定為非法行為。盡管第一修正案(First Amendment)的支持者可能會高聲反對,但憲法的制定者無論如何都想象不到未來有一天,人們只需要按一下按鈕,就可以利用技術生成無數令人信服的謊言。

    話說回來,美國在建國之時,即18世紀末期,也是一個傳播虛假信息的黃金時代。層出不窮的匿名傳單和黨派報紙肆無忌憚地兜售政敵和對立黨派的卑鄙故事。牛津大學的瓦赫特指出,民主在那時得以幸存。也許這一次也會如此。但我們很可能會見證一場史無前例的選舉活動。

    譯者:任文科

    掃描二維碼下載財富APP
    色视频在线观看无码|免费观看97干97爱97操|午夜s级女人优|日本a∨视频
    <menuitem id="kvf8t"></menuitem>

    <strike id="kvf8t"><label id="kvf8t"><var id="kvf8t"></var></label></strike>
    <ruby id="kvf8t"><del id="kvf8t"></del></ruby>

    <ruby id="kvf8t"></ruby>

    <noframes id="kvf8t"><option id="kvf8t"></option></noframes>