<menuitem id="kvf8t"></menuitem>

    <strike id="kvf8t"><label id="kvf8t"><var id="kvf8t"></var></label></strike>
    <ruby id="kvf8t"><del id="kvf8t"></del></ruby>

    <ruby id="kvf8t"></ruby>

    <noframes id="kvf8t"><option id="kvf8t"></option></noframes>

    首頁 500強 活動 榜單 商業 科技 領導力 專題 品牌中心
    雜志訂閱

    AI有時會“一本正經地胡說八道”,谷歌CEO也不完全明白原因

    WILL DANIEL
    2023-04-21

    聊天機器人有時會胡編亂造,這個嚴重問題至今尚未解決。

    文本設置
    小號
    默認
    大號
    Plus(0條)

    谷歌母公司Alphabet的CEO桑德爾·皮查伊。圖片來源:MATEUSZ WLODARCZYK—NURPHOTO/GETTY IMAGES

    最近各大科技巨頭都在人工智能聊天機器人上發力,谷歌也不例外。它最新推出的Bard聊天機器人可以迅速生成任何東西——從關于莎翁文學的論文,到說唱歌詞。但是以Bard為代表的這些聊天機器人還有一個嚴重的問題尚未解決。那就是它們有時會胡編亂造。

    比如說,在CBS電視臺上周日的《60分鐘》節目上,Bard在談到通脹問題時,曾自信滿滿地宣稱,彼得·特明的《通脹戰爭:一部現代史》一書“講述了美國的通脹史”,這本書還探討了美國的通脹政策。問題是這本書根本就不存在。

    問題是,Bard撒的這個謊具有很強的迷惑性。彼得·特明是麻省理工學院的一位知名經濟學家,他研究的領域就是通貨膨脹,而且寫過十幾本經濟學方面的書,只不過沒有任何一本叫這個名字。Bard在回答通脹問題時,不光“幻想”出了這本書,甚至還“幻想”出了一系列其他經濟學書籍的名稱和摘要。

    Bard是谷歌推出的一款對標ChatGPT的聊天機器人,它是今年三月份才剛剛發布的,但它已經不只一次在公開場合鬧笑話了。此前它曾在一次公開演示中聲稱,詹姆斯韋伯太空望遠鏡曾在2015年首次捕捉到一顆系外行星的照片,但是實際上,Bard所說的這顆行星是位于智利的“甚大望遠鏡”于2014年發現的。

    像Bard和ChatGPT這樣的聊天機器人都使用了大型語言模型(又稱LLMs)來對數十億個數據點進行分析,來預測語義中的下一個單詞。這種方法又叫所謂的“生成式人工智能”。它有時會給產生一種言之鑿鑿的錯覺,讓人覺得它給出的答案是可信的,但事實并非如此。那么AI機器人的這種“一本正經地胡說八道”是否是一種普遍現象呢?

    對此,谷歌CEO桑達爾·皮查伊上周日在接受《60分鐘》采訪時承認,這個問題是“意料之中”的?!斑@個領域目前還沒有人能解決‘錯覺’的問題。所有型號的生成式AI都存在這個問題?!?/p>

    當被到這個問題未來是否會得到解決時,皮查伊表示:“在這個問題上有很多爭論?!钡J為,他的團隊最終會在這方面“取得進展”。

    一些人工智能專家指出,由于人工智能系統的復雜性,要取得這種進展,可能是一件很困難的事。皮查伊表示,就連谷歌的工程師都“無法完全理解”人工智能技術有時為何會有那樣的反應。

    他表示:“我們這個領域的人把這方面的問題稱為‘黑箱’。你也不知道它為什么會這樣說,或者為什么會出錯?!?/p>

    皮查伊說,谷歌工程師們對AI聊天機器人的工作模式“已經有了一些概念”,他們對生成式AI的理解水平正在提高?!安贿^目前的技術水平就是這樣?!辈贿^對于一些批評人士來說,皮查伊這個解釋顯然不能讓他們滿意。不少批評人士警告說,復雜的人工智能系統很可能會引發意想不到的后果。

    比如,微軟創始人比爾·蓋茨今年3月表示,人工智能技術的發展很可能會加劇全球的貧富差距。他在一篇博客文章中寫道:“市場力量不可能自然而然地產生自動幫助窮人的AI產品和服務,更有可能發生的是相反的情況?!?/p>

    最近幾個月,伊隆·馬斯克也反復在公開場合提到人工智能可能造成的風險。他表示,這項技術對經濟的沖擊將不亞于“小行星撞擊地球”。上個月,馬斯克甚至聯名1100多位科技企業CEO、技術專家和AI研究人員,呼吁全球暫停開發人工智能工具6個月——當然很多人不知道的是,他同時正忙著創辦自己的人工智能公司。

    斯坦福大學人本AI研究中心曾對人工智能行業的從業者進行過一項年度調查,調查結果顯示,很多AI從業者認為,人工智能技術的發展,使得“深度造假”變得越來越容易,這很可能會加劇虛假信息的泛濫,甚至有可能危害環境。該研究中心上周表示,AI帶來的威脅甚至有可能達到“核級別的災難”。

    上周日,谷歌CEO皮查伊也在參加節目時透露,即便是在谷歌內部,也有一些研究人員擔心,人工智能一旦應用不當,“可能會產生非常有害的影響”。他還表示:“我們尚未找到所有問題的答案,而且這項技術的發展是很快的。如果你問我,這個問題有沒有可能讓我睡不著覺,答案是當然肯定的?!?/p>

    皮查伊還表示,為了確保人工智能造福所有人,AI系統的開發工作“不僅應該包括工程師,還應該包括社會科學家、倫理學家、哲學家等等”。

    “我認為,這些問題是社會在發展過程中需要解決的問題,而不應該由一個公司來決定?!彼f。(財富中文網)

    譯者:樸成奎

    最近各大科技巨頭都在人工智能聊天機器人上發力,谷歌也不例外。它最新推出的Bard聊天機器人可以迅速生成任何東西——從關于莎翁文學的論文,到說唱歌詞。但是以Bard為代表的這些聊天機器人還有一個嚴重的問題尚未解決。那就是它們有時會胡編亂造。

    比如說,在CBS電視臺上周日的《60分鐘》節目上,Bard在談到通脹問題時,曾自信滿滿地宣稱,彼得·特明的《通脹戰爭:一部現代史》一書“講述了美國的通脹史”,這本書還探討了美國的通脹政策。問題是這本書根本就不存在。

    問題是,Bard撒的這個謊具有很強的迷惑性。彼得·特明是麻省理工學院的一位知名經濟學家,他研究的領域就是通貨膨脹,而且寫過十幾本經濟學方面的書,只不過沒有任何一本叫這個名字。Bard在回答通脹問題時,不光“幻想”出了這本書,甚至還“幻想”出了一系列其他經濟學書籍的名稱和摘要。

    Bard是谷歌推出的一款對標ChatGPT的聊天機器人,它是今年三月份才剛剛發布的,但它已經不只一次在公開場合鬧笑話了。此前它曾在一次公開演示中聲稱,詹姆斯韋伯太空望遠鏡曾在2015年首次捕捉到一顆系外行星的照片,但是實際上,Bard所說的這顆行星是位于智利的“甚大望遠鏡”于2014年發現的。

    像Bard和ChatGPT這樣的聊天機器人都使用了大型語言模型(又稱LLMs)來對數十億個數據點進行分析,來預測語義中的下一個單詞。這種方法又叫所謂的“生成式人工智能”。它有時會給產生一種言之鑿鑿的錯覺,讓人覺得它給出的答案是可信的,但事實并非如此。那么AI機器人的這種“一本正經地胡說八道”是否是一種普遍現象呢?

    對此,谷歌CEO桑達爾·皮查伊上周日在接受《60分鐘》采訪時承認,這個問題是“意料之中”的?!斑@個領域目前還沒有人能解決‘錯覺’的問題。所有型號的生成式AI都存在這個問題?!?/p>

    當被到這個問題未來是否會得到解決時,皮查伊表示:“在這個問題上有很多爭論?!钡J為,他的團隊最終會在這方面“取得進展”。

    一些人工智能專家指出,由于人工智能系統的復雜性,要取得這種進展,可能是一件很困難的事。皮查伊表示,就連谷歌的工程師都“無法完全理解”人工智能技術有時為何會有那樣的反應。

    他表示:“我們這個領域的人把這方面的問題稱為‘黑箱’。你也不知道它為什么會這樣說,或者為什么會出錯?!?/p>

    皮查伊說,谷歌工程師們對AI聊天機器人的工作模式“已經有了一些概念”,他們對生成式AI的理解水平正在提高?!安贿^目前的技術水平就是這樣?!辈贿^對于一些批評人士來說,皮查伊這個解釋顯然不能讓他們滿意。不少批評人士警告說,復雜的人工智能系統很可能會引發意想不到的后果。

    比如,微軟創始人比爾·蓋茨今年3月表示,人工智能技術的發展很可能會加劇全球的貧富差距。他在一篇博客文章中寫道:“市場力量不可能自然而然地產生自動幫助窮人的AI產品和服務,更有可能發生的是相反的情況?!?/p>

    最近幾個月,伊隆·馬斯克也反復在公開場合提到人工智能可能造成的風險。他表示,這項技術對經濟的沖擊將不亞于“小行星撞擊地球”。上個月,馬斯克甚至聯名1100多位科技企業CEO、技術專家和AI研究人員,呼吁全球暫停開發人工智能工具6個月——當然很多人不知道的是,他同時正忙著創辦自己的人工智能公司。

    斯坦福大學人本AI研究中心曾對人工智能行業的從業者進行過一項年度調查,調查結果顯示,很多AI從業者認為,人工智能技術的發展,使得“深度造假”變得越來越容易,這很可能會加劇虛假信息的泛濫,甚至有可能危害環境。該研究中心上周表示,AI帶來的威脅甚至有可能達到“核級別的災難”。

    上周日,谷歌CEO皮查伊也在參加節目時透露,即便是在谷歌內部,也有一些研究人員擔心,人工智能一旦應用不當,“可能會產生非常有害的影響”。他還表示:“我們尚未找到所有問題的答案,而且這項技術的發展是很快的。如果你問我,這個問題有沒有可能讓我睡不著覺,答案是當然肯定的?!?/p>

    皮查伊還表示,為了確保人工智能造福所有人,AI系統的開發工作“不僅應該包括工程師,還應該包括社會科學家、倫理學家、哲學家等等”。

    “我認為,這些問題是社會在發展過程中需要解決的問題,而不應該由一個公司來決定?!彼f。(財富中文網)

    譯者:樸成奎

    Google’s new chatbot, Bard, is part of a revolutionary wave of artificial intelligence (A.I.) being developed that can rapidly generate anything from an essay on William Shakespeare to rap lyrics in the style of DMX. But Bard and all of its chatbot peers still have at least one serious problem—they sometimes make stuff up.

    The latest evidence of this unwelcome tendency was displayed during CBS’ 60 Minutes on Sunday. The Inflation Wars: A Modern History by Peter Temin “provides a history of inflation in the United States” and discusses the policies that have been used to control it, Bard confidently declared during the report. The problem is the book doesn’t exist.

    It’s an interesting lie by Bard—because it could be true. Temin is an accomplished MIT economist who studies inflation and has written over a dozen books on economics, he just never wrote one called The Inflation Wars: A Modern History. Bard “hallucinated” that, as well as names and summaries for a whole list of other economics books in response to a question about inflation.

    It’s not the first public error the chatbot has made. When Bard was released in March to counter OpenAI’s rival ChatGPT, it claimed in a public demonstration that the James Webb Space Telescope was the first to capture an image of an exoplanet in 2005, but the aptly named Very Large Telescope had actually accomplished the task a year earlier in Chile.

    Chatbots like Bard and ChatGPT use large language models, or LLMs, that leverage billions of data points to predict the next word in a string of text. This method of so-called generative A.I. tends to produce hallucinations in which the models generate text that appears plausible, yet isn’t factual. But with all the work being done on LLMs, are these types of hallucinations still common?

    “Yes,” Google CEO Sundar Pichai admitted in his 60 Minutes interview Sunday, saying they’re “expected.” “No one in the field has yet solved the hallucination problems. All models do have this as an issue.”

    When asked if the hallucination problem will be solved in the future, Pichai noted “it’s a matter of intense debate,” but said he thinks his team will eventually “make progress.”

    That progress may be difficult to come by, as some A.I. experts have noted, due to the complex nature of A.I. systems. Pichai explained that there are still parts of A.I. technology that his engineers “don’t fully understand.”

    “There is an aspect of this which we call—all of us in the field—call it a ‘black box,’” he said. “And you can’t quite tell why it said this, or why it got it wrong.”

    Pichai said his engineers “have some ideas” about how their chatbot works, and their ability to understand the model is improving. “But that’s where the state of the art is,” he noted. That answer may not be good enough for some critics who warn about potential unintended consequences of complex A.I. systems, however.

    Microsoft cofounder Bill Gates, for example, argued in March that the development of A.I. tech could exacerbate wealth inequality globally. “Market forces won’t naturally produce AI products and services that help the poorest,” the billionaire wrote in a blog post. “The opposite is more likely.”

    And Elon Musk has been sounding the alarm about the dangers of A.I. for months now, arguing the technology will hit the economy “like an asteroid.” The Tesla and Twitter CEO was part of a group of more than 1,100 CEOs, technologists, and A.I. researchers who called for a six-month pause on developing A.I. tools last month—even though he was busy creating his own rival A.I. startup behind the scenes.

    A.I. systems could also exacerbate the flood of misinformation through the creation of deep fakes—hoax images of events or people created by A.I.—and even harm the environment, according to researchers surveyed in an annual report on the technology by Stanford University’s Institute for Human-Centered A.I., who warned the threat amounts to a potential “nuclear-level catastrophe” last week.

    On Sunday, Google’s Pichai revealed he shares some of the researchers’ concerns, arguing A.I. “can be very harmful” if deployed improperly. “We don’t have all the answers there yet—and the technology is moving fast. So does that keep me up at night? Absolutely,” he said.

    Pichai added that the development of A.I. systems should include “not just engineers, but social scientists, ethicists, philosophers, and so on” to ensure the outcome benefits everyone.

    “I think these are all things society needs to figure out as we move along. It’s not for a company to decide,” he said.

    財富中文網所刊載內容之知識產權為財富媒體知識產權有限公司及/或相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、復制及建立鏡像等任何使用。
    0條Plus
    精彩評論
    評論

    撰寫或查看更多評論

    請打開財富Plus APP

    前往打開
    熱讀文章
    色视频在线观看无码|免费观看97干97爱97操|午夜s级女人优|日本a∨视频
    <menuitem id="kvf8t"></menuitem>

    <strike id="kvf8t"><label id="kvf8t"><var id="kvf8t"></var></label></strike>
    <ruby id="kvf8t"><del id="kvf8t"></del></ruby>

    <ruby id="kvf8t"></ruby>

    <noframes id="kvf8t"><option id="kvf8t"></option></noframes>