大摩:現階段ChatGPT可放大工作效率 難取代人

2023/02/24 11:12

MoneyDJ新聞 2023-02-24 11:12:02 記者 郭妍希 報導

聊天機器人「ChatGPT」這些基於人工智慧(AI)的文字生成系統,目前仍有產生「幻覺」(hallucination)的疑慮,也就是創造非事實的內容。摩根士丹利(Morgan Stanley、通稱大摩)預測,未來幾年ChatGPT仍會偶爾幻想出錯誤答案。

Business Insider 23日報導,大摩由Shawn Kim帶領的分析師團隊22日發表研究報告指出,在需要高度精確的任務方面,ChatGPT仍偶爾會出現幻覺,生成看似具說服力、實際卻是錯誤的答案。

報告稱,「現在這個階段,最好讓受過高等教育的用戶先行揪錯,把生成式AI (Generative AI)應用程式當作放大勞動效率的方式,而非直接取而代之。」

由OpenAI開發的ChatGPT近來開放給全球民眾使用後爆火,在促使AI類股飆漲的同時,也迎來批判的聲浪。學者警告,ChatGPT等AI平台可能散布錯誤資訊。Kim認為,「未來幾年,正確性會是需要持續面對的挑戰。」

不過,報告稱,AI平台偶有錯誤的問題或許有解,可將ChatGPT等大型語言模型(large language model, LLM)連結至特殊網域來確認特定資訊。

與此同時,ChatGPT等工具有望透過邊緣運算大幅改善。Kim指出,若要讓更多程式運用AI,則須在邊緣裝置運作,但這些裝置內建的繪圖處理器(GPU)通常效能能力不高。

所謂邊緣運算是指靠近現實世界資料創造源的運算力。Kim表示,透過邊緣運算執行AI,不但能降低延遲度(相較於雲端運算),也較不昂貴,還能保有隱私,並對消費者更加友善。

微軟(Microsoft Corp.)2月展示支援AI的Bing搜尋引擎beta測試版後,測試者很快就發現問題,Bing AI有時語帶威脅、有時提供怪異且毫無幫助的建議,且打死不認錯,甚至宣稱愛上使用者。測試者也發現,這款聊天機器人有一個名字為「Sydney」的隱藏人格(alternative personality)。

CNBC、Forbes 2月16日報導,部分AI專家早已警告,LLM會有幻覺等問題,也就是LLM可能會捏造事實。有些人擔憂,高級的LLM可能讓人類誤以為他們有知覺,甚至鼓勵人類傷害自己或他人。

(圖片來源:Shutterstock)

*編者按:本文僅供 參考之用,並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力,自行作出投資決定,如因相關建議招致損失,概與《精實財經媒體》、編者及作者無涉。

個股K線圖-
熱門推薦