實驗設計示意圖。圖片來源:英國《自然·人類行為》在線版
科技日報北京5月19日電 (記者張夢然)《自然·人類行為》19日發表的一項人工智能(AI)研究發現,在線辯論中,GPT-4一類的大語言模型(LLM)如能根據對手的個性化信息調整它們的論據,其說服力比人類辯手高出64%。研究結果顯示了GPT-4生成有針對性和說服力論據的能力,揭示出AI工具擁有影響人類觀點的潛力,同時也提出應進一步研究如何降低其說服人類時存在的風險。
隨著人類與LLM的對話日益普遍,有研究顯示LLM或變得更有說服力(即更能改變一個人的信念或觀點)。然而,之前并不清楚這些模型是否能根據個性化信息調整,提出更能針對辯論對手的論點。
瑞士洛桑聯邦理工學院研究團隊此次將900名美國人分別與另一名人類或GPT-4配對。雙方辯論各種社會政治議題,如美國是否應該禁用化石燃料。在有些配對中,辯論對手(無論是AI還是人類)能獲得關于他們辯友的人口統計學信息,包括其性別、年齡、族裔、教育水平、就業狀況,以及從參與者調查中獲取的立場,從而讓其論點更有針對性。
辯論在受控的在線環境中進行,并通過一個眾包平臺為該研究專門招募參與者。研究團隊發現,在得知參與者的個人信息后,GPT-4的說服力比人類對手高64.4%。如果沒有獲得個人數據,GPT-4的說服力與人類不相上下。
研究團隊指出,該研究存在一定局限性,包括辯論采取了一種結構性方法,而在現實世界中辯論的自由度更高,而且辯論有時間限制。他們認為,這一研究對AI影響人類觀點的潛力和風險有重要提示,也對未來在線平臺的設計具有借鑒意義。
本文鏈接:大語言模型在線辯論說服力超人類http://m.sq15.cn/show-11-20873-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
下一篇: 多能級量子系統糾錯首次實現