<li id="jf4qb"><acronym id="jf4qb"></acronym></li>
      <dd id="jf4qb"><track id="jf4qb"></track></dd>

      <button id="jf4qb"><acronym id="jf4qb"></acronym></button>

      ChatGPT令人著迷,但仍沒有解決AI聊天機器人“捏造事實”的缺陷

      極客網·極客觀察12月13日 ChatGPT這種能言善辯的新型聊天機器人最近成為了互聯網的寵兒。它展示了對話式人工智能有多么吸引人,即使生成了一些胡編亂造的內容。

      由初創公司OpenAI開發的ChatGPT自從上周發布以來已經得到業界人士的高度關注。一些早期用戶已經在網上發布了他們的實驗截圖,驚嘆于它能夠生成幾乎任何主題的短文,可以模仿寫作,回答復雜的編碼問題等等。有人預測,這項服務將使傳統的搜索引擎和家庭作業變得過時。 

      image001.jpg

      和許多人一樣,Abacus首席執行官Bindu Reddy最近也正在關注ChatGPT。該公司是一家人工智能開發商,已經在探索如何使用ChatGPT來幫助編寫技術文檔。Reddy說,“我們已經進行了測試,并且效果很好?!?/p>

      AI聊天機器人不新鮮,ChatGPT有何優勢?

      ChatGPT核心的人工智能實際上并不是什么新鮮事物。這是一種名為GPT-3的人工智能模型的一個版本,它根據從網絡上收集的大量文本中提取的模式生成文本。該模型作為一種商業API可供程序員使用。

      事實表明,在某些時候,它可以很好地回答問題和生成文本。但要讓服務以一種特定的方式做出響應,就需要精心制作正確的提示,以將其輸入到軟件中。

      ChatGPT之所以脫穎而出,是因為它可以接受一個自然措辭的問題,并使用GPT-3的一個新變體GPT-3.5來回答它。這一調整釋放了一種新的能力,為強大的人工智能模型提供了一個引人注目的新界面,幾乎任何人都可以使用。OpenAI免費開放了這項服務,而且它的小故障也很有趣,這也推動了聊天機器人的應用,例如類似于一些使用人工智能創建圖像的工具被證明是制作表情包的理想工具。 

      OpenAI并沒有發布關于如何為其文本生成軟件提供更加自然的新界面的全部細節,但該公司在一篇博客中分享了一些信息。其開發團隊將編寫的答案作為訓練數據輸入GPT-3.5,然后使用一種被稱為強化學習的模擬獎懲形式來推動模型為示例問題提供更好的答案。 

      斯坦福大學教授克里Christopher Potts表示,OpenAI之前展示過的用于幫助ChatGPT回答問題的方法,似乎是幫助人工智能以一種更具有相關性的方式處理語言的重要一步。盡管他認為這可能會使他的研究工作更加復雜,但他也說,“這讓我開始思考,在那些要求簡短回答作業的課程上,我該怎么做?!?nbsp;

      麻省理工學院研究人工智能和語言的助理教授Jacob Andreas表示,該系統似乎有可能擴大能夠使用人工智能語言工具的人群。他說:“ChatGPT在一個熟悉的界面上呈現的內容,會導致人們應用一種習慣應用于與其互動的其他代理(人類)的心理模型?!?nbsp;

      ChatGPT有潛力,但仍沒解決該領域固有缺陷

      在一項技術上添加一個漂亮的新界面也可能是一種炒作。盡管具有潛力,ChatGPT也顯示出困擾文本生成工具的缺陷。 

      在過去的幾年,OpenAI和其他公司已經證明,經過大量圖像或文本訓練的人工智能算法可以取得令人印象深刻的成就。但是,因為它們純粹是使用統計的方式模仿人類制作的圖像和文本,而不是真正地學習世界是如何運作的,因此這些程序也容易捏造事實,并重復使用ChatGPT中仍然存在的仇恨言論和偏見。該系統的早期用戶已經發現,該服務可能就某個特定主題編造出看起來很有說服力的廢話。

      雖然ChatGPT的設計顯然是為了防止用戶說出不快的事情或推薦任何非法或令人討厭的內容,但仍然可能表現出可怕的偏見。用戶還表示,可以繞過它的控制,例如告訴ChatGPT生成一個討論如何接管世界的電影劇本,這提供了一種避免拒絕回答此類計劃的直接請求的方法。Andreas說:“他們顯然試圖采取一些防護措施,但很難到位。這似乎仍然是一個尚未解決的問題?!?/p>

      表面上能言善辯、知識淵博的聊天機器人,如果能自信地制造謊言,可能會讓那些尚未解決的問題變得更麻煩。

      自從全球第一個聊天機器人在1966年誕生以來,研究人員已經注意到,即使是其對話能力并不完善也能鼓勵人們將其擬人化,并對這種軟件產生信任。今年7月,谷歌的一名工程師被停職,其原因是他聲稱自己正在測試的一款基于類似ChatGPT技術的人工智能聊天程序可能具有感知能力。即使大多數人抵制這種邏輯上的飛躍,人工智能程序也可以用來誤導人們,或者讓他們陷入錯誤信任的困境。 

      一些語言算法專家警告說,像ChatGPT這樣的聊天機器人可能會誘使人們使用可能造成傷害的工具。華盛頓大學語言學教授Emily Bender說:“每當有新的模型問世,人們就會被其炒作所吸引?!?nbsp;

      Bender表示,ChatGPT的不可靠性使其在執行現實任務中存在一些問題。例如,盡管有人建議它可以取代谷歌搜索,作為回答事實問題的一種方式,但它經常生成令人信服的廢話,這顯然并不合格。OpenAI此前曾表示,曾要求客戶使用過濾系統來保持GPT-3的一致性,但事實證明它們有時并不完美。

      麻省理工學院的Andreas表示,ChatGPT界面的成功現在給設計者帶來了新的挑戰。他說:“看到人們與這些人工智能工具互動,真是太棒了。但我們如何實際地向他們傳達這個模型能做什么,不能做什么?” 

      Reddy也了解ChatGPT的局限性,但仍對其發展潛力感到興奮。她預計,終有一天,這樣的工具不僅有用,而且足夠令人信服,可以為人類提供某種形式的陪伴,“ChatGPT可能會成為一個偉大的心理治療師?!?/p>

      (免責聲明:本網站內容主要來自原創、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
      任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

      亚洲特级毛片AAAAA

        <li id="jf4qb"><acronym id="jf4qb"></acronym></li>
          <dd id="jf4qb"><track id="jf4qb"></track></dd>

          <button id="jf4qb"><acronym id="jf4qb"></acronym></button>