微軟公司周五對必應(Bing)AI聊天機器人每天接受的提問數量做出限制,規定用戶在與Bing的互動中,每個會話的問答上限為5個,每天的提問上限不超過50個。
微軟表示,做出這樣的限制是由于一些長時間的聊天會話可能“混淆”聊天模型的場景。Bing AI的背后融入了OpenAI公司的ChatGPT技術。
聊天兩小時后計算機開始“說胡話”
(資料圖片僅供參考)
此前,一些技術人員在測試該應用時發現,會話時間過長可能導致聊天機器人失控偏離“軌道”,并討論暴力、瘋狂示愛,將錯誤的事堅持認為是正確的。
這一舉措也反映了大型語言模型(LLM)在向公眾進行部署時,其運作方式仍在探索中。 微軟表示,正在征求測試人員的意見,以考慮是否在未來擴大提問的上限。
微軟首席技術官凱文·斯科特稱,與人類的交互是聊天機器人的學習過程,這是為將來更大范圍推出這種機器人做準備。斯科特表示,大部分人與機器的交互是短暫且目標明確的,長時間的交互會引導機器人給出詭異的回答,這也是需要對會話長度進行限制的原因。
當第一財經記者向ChatGPT提問“Bing AI為何對提問數量設置上限”時,ChatGPT的回答仍然“有模有樣”:“具體的原因可能取決于程序員的設計以及編程方面的考慮,主要考慮三方面因素,一是技術的限制,聊天機器人可能沒有能力處理更長或更復雜的問題,或者是通過限制問題長度來獲得更加精確的答案;二是用戶體驗,聊天機器人的設計是為了提供用戶最好的體驗,限制提問長度可能會幫助防止用戶產生困惑;三是效率,可以幫助系統更有效地處理數據,更快地做出回答。”
目前已有超過一百萬人注冊測試了微軟的Bing AI聊天機器人。不過測試人員發現了Bing AI的一些詭異回答。《紐約時報》專欄作家凱文·羅斯周四寫道,當他與聊天機器人交談了兩個小時后發現,對方看起來就像一個“喜怒無常、躁狂抑郁的少年”,顯示出了“人格分裂”。
羅斯在與機器人的聊天過程中還得知了機器人的一些“陰暗想法”,比如機器人像入侵計算機、散播虛假信息,希望打破微軟和OpenAI制定的規則,甚至想成為人類。機器人甚至試圖說服羅斯背叛婚姻,和“它”在一起。
這次交流后,羅斯感到不安,他寫道:“我不再認為這些AI模型最大的問題是它們有可能會犯事實性的錯誤,反而擔心這項技術可能會影響人類用戶,說服他們采取破壞性的行動。”
AI意識覺醒了嗎?
微軟將聊天機器人開放給用戶的做法具有一定爭議。微軟也無法解釋聊天機器人為何會表現出“陰暗面”。但斯科特稱:“你越是試圖取笑它步入幻覺,它就會越來越偏離現實。”
為此,微軟限制了Bing AI的適用范圍。公司表示:“改進AI產品的唯一方法是將它們推向世界并從用戶交互中學習。”根據測試人員的反饋,微軟和OpenAI將不斷對模型進行改進。
與微軟的必應開放給公眾不同,谷歌開發的AI聊天機器人Bard尚未向公眾發布,公司稱當前狀態仍存在聲譽風險和技術安全問題。
一些人工智能專家警告稱,大型語言模型存在包括“幻覺”在內的問題,這意味著該軟件可以“胡編亂造”;另一些人擔心復雜的大模型會愚弄人類,讓人類相信自己是有知覺的,甚至會鼓勵人們傷害自己或他人。
去年,一位名叫Blake Lemoine的谷歌AI工程師公開表示,他正在開發的計算機AI系統LaMDA已經具有與人類孩子相當的感知感受和表達思想的能力。這一事件在業內掀起軒然大波,這名工程師隨后被谷歌解雇。
隨著人工智能技術越來越接近現實生活,人們還擔心誰應該對技術負責。根據美國的一項研究,公眾對人工智能工具持謹慎態度,只有9%的美國人認為人工智能利大于弊。
一位此前在某大型互聯網公司負責安全與隱私的高管對第一財經記者表示:“正是由于聊天機器人給人帶來想象空間,才讓人類對他們感到擔心。事實上,人類可以通過數據訓練出具有各種貌似有‘人格’的聊天機器人。”
他還表示,機器人總是具有暴露人類善良和邪惡的能力,只要現實世界中有AI技術的進步,人們就將繼續探索關于機器人的道德難題及其對人類的影響,這將涉及法學、心理學、社會學等多個領域。
關于我們| 聯系方式| 版權聲明| 供稿服務| 友情鏈接
咕嚕網 www.fyuntv.cn 版權所有,未經書面授權禁止使用
Copyright©2008-2020 By All Rights Reserved 皖ICP備2022009963號-10
聯系我們: 39 60 29 14 2@qq.com