<menuitem id="kvf8t"></menuitem>

    <strike id="kvf8t"><label id="kvf8t"><var id="kvf8t"></var></label></strike>
    <ruby id="kvf8t"><del id="kvf8t"></del></ruby>

    <ruby id="kvf8t"></ruby>

    <noframes id="kvf8t"><option id="kvf8t"></option></noframes>

    首頁 500強 活動 榜單 商業 科技 領導力 專題 品牌中心
    雜志訂閱

    當AI拒絕畫出白人:它在重塑我們的道德觀嗎?

    王昉
    2024-03-07

    技術已經不再是一個中立的工具

    文本設置
    小號
    默認
    大號
    Plus(0條)

    最近美國社交媒體上一個持續發酵的話題是:AI因為太講政治正確而翻車了。

    事情是這樣的:有人請谷歌的AI大模型Gemini作一幅“美國開國元勛”的肖像畫,Gemini給出了四幅圖,包括一位佩戴傳統頭飾的美洲原住民男子、一位黑人男子、一位膚色較深的非白人男子以及一位亞裔男子。

    而我們都知道,從華盛頓到杰斐遜,一眾美國開國元勛,全是白人。事實上,他們中的不少人當時還在自家莊園中蓄著黑奴,這在后世被視作他們政治生涯的污點。

    這些圖被分享到社交媒體后引發嘩然,馬斯克等一眾意見領袖炮轟這是“反文明”、“瘋狂的種族主義”。當然,這里的種族主義,指的是對白種人的反向歧視。

    這又引發了一波仿效行動:網友們請Gemini生成各種人像圖,結果發現它就像被施了魔咒,就是不大情愿畫出白人形象。風暴愈演愈烈,谷歌公開道歉,并暫停了Gemini的人像作圖功能。

    這場風波,看似大模型犯的低級錯誤,實際上卻可能源于人類的弄巧成拙。有技術專家分析,谷歌很可能是在“幕后”向用戶的提示語中添加了更能體現種族多樣性的關鍵詞,比如把用戶輸入的“一位廚師的肖像”的提示語,調整成了“一位土著廚師的肖像”。

    這樣的干預,顯然是為了糾正令人擔心的“算法歧視”現象。

    過去幾十年間用于機器訓練的數據中,白人的、男性的數據遠比其他膚色的、女性的更豐富,導致機器在人臉識別時普遍“偏愛”白人中年男性。比如,早在2015年,谷歌就因其照片應用程序將兩位黑人的照片標記為“大猩猩”而道歉。直到最近,一項調查發現,美國開發的算法對亞裔和非洲裔的人臉識別錯誤率要比對白人的高10倍以上;而亞洲開發的算法中,對白人和亞洲人的識別錯誤率差距較小。

    再比如,亞馬遜曾經試圖開發一種自動化招聘系統,利用機器學習來分析求職者的簡歷并為他們打分。實踐一年后,工程師們發現,這套算法“不喜歡女性”,因為基于數據,它得出了“男性更可靠”的觀點,降低了女性簡歷的權重。

    也就是說,假如放任不管,算法將加劇人類社會中的偏見和不平等。但是,人類若要干預,應該干預到什么程度?依據什么準則?

    美國國父是真實存在過的人物,因此算法可以根據歷史常識來減少錯誤。甚至有技術專家觀察到,對于這類問題,人類越少干預,大模型越能產生更準確或更接近真相的結果。

    但對于那些沒有正確答案、需要體現某種價值判斷的問題,算法處理起來就棘手得多。比如,算法完全可以根據俄烏兩國的人口、經濟、軍力、地緣格局,精準高效地算出哪國更有可能在戰爭中獲勝,但至于這場戰爭該不該發生,它必定給不出答案。AI代表了人類工具理性的新高峰,但問題一旦關涉價值理性和道德判斷,就超出了它的能力范圍。

    那么我們是否可以為AI劃出一個讓它揚長避短的工作范圍?簡單說,由人類決定一件事情要不要做、怎么做之后,讓AI幫忙,把這件事最高效地做成。

    但這種想法將技術視作完全中性的工具,忽視了一點,那就是技術反過來會影響人,人無時無刻不受到技術的調節和改造。

    美國技術哲學家唐·伊德(Don Ihde)舉過伊甸園的例子:伊甸園中的人最初是赤身裸體的,用知覺直接感受這個世界,偷吃了智慧樹上的果實后,人突然有了羞恥心,用無花果樹的葉子做成衣服。于是,衣服成了人類歷史上第一件技術制品,它的出現,加上后來出現的眼鏡、汽車、手機等技術工具,完全重構了我們感知和理解世界的方式。

    一個更現代的例子,是準媽媽在孕期的超聲波檢查。通過這項技術,一對夫婦能探查嬰兒是否健康,如果有畸形,可能選擇放棄分娩。因此,生不生孩子這樣重大的道德決策,實際上是人和技術共同完成的。

    最前沿的機器學習中,甚至已經開始嵌入道德取舍。比如,自動駕駛技術不僅要讓機器學會轉動車輪的角度、油門剎車的力度,還要學習在即將發生碰撞,不得不選擇犧牲一方、保全另一方的緊急狀況下,如何做出抉擇。麻省理工學院的認知科學家伊亞德·拉萬(Iyad Rahwan)就說過,每次自動駕駛汽車做出避讓動作時,它已經“暗中決定了不同群體的危險程度”。

    因此,技術哲學家主張,技術已經不再是一個中立的工具,人與技術的關系嚴格來說是一種交互關系,甚至可以說是交往關系。既然技術可以反過來影響人,我們就可以將倫理價值嵌入到技術中,使用技術來促使人按照道德規范來行動。

    這么看來,Gemini“不愿畫白人”風波,有它的積極意義。它說明算法工程師們意識到了數據內含的歧視與不公,并展開了積極行動;它矯枉過正引發的討論,進一步提升了全社會的警覺,起碼讓我們不會在無意識中,任由技術進一步放大這種不公。

    AI已不僅是執行命令的工具,它就是一面人類審視自我的“鏡子”,倒映出了人類自己的價值觀和道德標準。而且,它在某種程度上已經開始反過來塑造我們新的道德認知。

    那么如何設計AI,才能使其成為促進社會正義和道德進步的積極力量?這不僅是工程師的責任,也是全社會共同面臨的課題。伴隨著這個問題,人類與技術的關系將進入一個新紀元。(財富中文網)

    0條Plus
    精彩評論
    評論

    撰寫或查看更多評論

    請打開財富Plus APP

    前往打開
    熱讀文章
    色视频在线观看无码|免费观看97干97爱97操|午夜s级女人优|日本a∨视频
    <menuitem id="kvf8t"></menuitem>

    <strike id="kvf8t"><label id="kvf8t"><var id="kvf8t"></var></label></strike>
    <ruby id="kvf8t"><del id="kvf8t"></del></ruby>

    <ruby id="kvf8t"></ruby>

    <noframes id="kvf8t"><option id="kvf8t"></option></noframes>