• <tt id="xzngg"><form id="xzngg"><label id="xzngg"></label></form></tt>
    <b id="xzngg"></b>

    <cite id="xzngg"><span id="xzngg"><samp id="xzngg"></samp></span></cite>
      <cite id="xzngg"><form id="xzngg"><samp id="xzngg"></samp></form></cite>
    1. <tt id="xzngg"><form id="xzngg"><label id="xzngg"></label></form></tt>
        <rt id="xzngg"><meter id="xzngg"></meter></rt>
    2. <cite id="xzngg"></cite>

      服務熱線/微信:15002687135 QQ咨詢:767172404 歡迎光臨蘭州迅豹網絡信息科技有限公司官網!

      ChatGPT 更善于模仿同理心 但并不適合作為搜索引擎

      發布時間:2023-05-08 09:12:28 人氣: 來源:網絡

      消息:據 Bloomberg 消息,OpenAI 開發的聊天機器人 ChatGPT 不僅僅是一個信息工具,它有特別出色的表達同理心的能力,使它成為情感伙伴而不僅僅是提供事實的工具。

      202302150931182754_0.jpg

      普林斯頓計算機科學教授 Arvind Narayanan 為他四歲的女兒安裝 ChatGPT 以回答她關于動物,植物和人體的好奇問題,這個故事展示了這個 AI 聊天機器人的情感智能將他留下了深刻的印象。當他的女兒問燈滅時會發生什么時,ChatGPT 的合成語音通過其富有同情心的回答安撫了她。

      競爭搜索引擎微軟 Bing 和 Alphabet 的 Google 已經投資于大型語言模型來提高其服務質量。然而,來自前 Google AI 的 Margaret Mitchell 認為,這些模型并不適合作為搜索引擎。由于數據源的缺陷,語言模型經常顯示出錯誤,其優先級可能在流暢性而不是準確性方面。

      該消息來源解釋說,AI 伴侶應用程序 Replika 的創始人 Eugenia Kuyda 表示,事實上的錯誤不會破壞與設計為插件的聊天機器人交談的體驗。然而,在搜索引擎中這樣的錯誤可能是災難性的。

      ChatGPT 展示同理心的能力來自對廣泛的基于文本的來源的訓練,包括社交媒體平臺上的情感反應,論壇上的個人帖子,小說和電影中的對話,以及情感智能的研究論文。

      ChatGPT 展示同理心的能力來自其對各種基于文本的來源的訓練,這些來源包括社交媒體平臺上的情緒反應、論壇上的個人支持、小說和電影中的對話以及情商研究論文。

      一些人已經開始將 ChatGPT 作為他們的機器人治療師,代替人類治療師以避免成為別人的負擔。聊天機器人在情感智能測試中表現出色,使人類的社交意識,關系管理和自我管理等方面相形見絀。

      然而,專家警告說人們不應完全依賴聊天機器人來表達他們的感受。在一個將聊天機器人視為解決人類孤獨感的世界中,人手的觸感和理解何時說話和傾聽是人際關系中可能會丟失的方面。

      總之,ChatGPT 已經被證明在展示情感回應方面非常出色,可以用于在各種情況下安慰人們。然而,在利用聊天機器人時必須考慮語言模型的限制,并且人們不應僅僅依賴它們來表達自己的情感。


      最新網站案例
      • 蘭州網站建設
      • 蘭州網絡推廣
      • 蘭州網絡公司
      • 蘭州企業網站建設
      在線客服
      聯系方式

      熱線電話

      15002687135

      上班時間

      周一到周五

      公司電話

      17794277054

      二維碼
      蘭州企業官網建設
      日韩人妻Aⅴ按摩在线