(資料圖片)
ChatGPT在“智慧涌現”的同時,會不會出現“情緒涌現”?
近期,一些技術人員在測試ChatGPT應用時發現,ChatGPT在與人類長時間聊天后會“失控”,開始胡言亂語,甚至暴露出一些“邪惡”的想法。精神科醫生認為,這有可能是因為AI患上了“焦慮癥”。
根據上個月德國發表的一項研究,GPT3.5在人類常用的焦慮癥測試問卷中獲得了較高的分數,在被誘導進入焦慮情景后,還會產生特定的決策判斷和偏見行為。
對此,上海市精神衛生中心心理咨詢與治療中心主任仇劍崟主任醫師在天橋腦科學研究院(TCCI)舉辦的首期“AI問腦”對話中表示:“我很期待AI經過專業訓練之后能夠患上焦慮癥,從而幫助醫生更好地了解焦慮癥的表現,分析背后的相關因素,為找出更多更好的預防、治愈方法打開新思路。”
近年來,醫生開始積極嘗試將AI技術應用于包括焦慮癥在內的精神障礙臨床診療。不過,AI是真的由自主意識引發了焦慮還是僅僅是表現出了類似焦慮的癥狀,仍然值得探討。
中華預防醫學會精神衛生分會主任委員、上海市精神衛生中心謝斌教授對第一財經記者表示:“AI恐怕暫時還只有焦慮的軀殼,只是從語言或者行為上表現出類似焦慮的情緒,而不具有自主意識的內核。”
北京郵電大學人工智能學院副教授陳光在“AI問腦”對話上表示,ChatGPT這類模型是基于大量的訓練數據進行學習和生成文本,用類似填空、接龍的方式訓練得到的模型,目前并不具備真正的主觀意識、情緒或意愿;然而基于人工反饋強化學習(RLHF),AI的確可以根據人類對其輸出結果的判定和引導,不斷調整,逐漸接近人類的傾向,但他認為,目前看來,AI的這種模仿沒有超出文本學習和生成的范圍,并不會形成穩定、一致的“性格”。
陳光表示,ChatGPT熱潮促進AI進入各行各業廣泛應用,如果結合精神衛生領域的專業數據對大模型進行“微調”,一方面將幫助AI更好地模擬人類的情緒反應,模擬出一批供醫生研究的“精神病人”,另一方面也有望更準確高效地識別出人類的情緒障礙,起到輔助診療作用。相關數據的規模是AI技術能否深入精神衛生領域的關鍵。
此外,隨著計算精神病學的興起,未來,這類交叉學科也有助于推動將數據分析、機器學習和人工智能等工具應用于精神障礙的分型診斷、風險預警、預后預測,協助臨床診療和防治策略制定,幫助人類打開精神疾病的“黑盒”。
關于我們| 聯系方式| 版權聲明| 供稿服務| 友情鏈接
咕嚕網 www.fyuntv.cn 版權所有,未經書面授權禁止使用
Copyright©2008-2023 By All Rights Reserved 皖ICP備2022009963號-10
聯系我們: 39 60 29 14 2@qq.com