別杞人憂天?AI教父:ChatGPT難以趕上人類智慧

2023/04/14 10:49

MoneyDJ新聞 2023-04-14 10:49:47 記者 郭妍希 報導

素有「人工智慧(AI)教父」之稱的Meta Platforms首席AI科學家楊立昆(Yann LeCun)認為,AI不太可能在5年內擁有跟人類同樣的智慧。

美國知名財經網站霸榮(Barron`s)13日報導,楊立昆最近受訪時指出,「ChatGPT」這樣的大型語言模型(LLM)就好像超級強大的預測性鍵盤,藉由大量訓練來預測某組文字接下來應該接哪些字句,是很好的寫作助理、可幫人類以正確文法組織文字。不過,LLM不擅長回答事實性問題,它只是反芻記憶體儲存的內容或修改過去訓練過的資料,生成的內容可能與事實不符、或捏造出聽來不錯的東西。

楊立昆說,這種系統基本上是透過人類給予的一組文字序列、來預測下一個字的機率分佈,非常難以控制或引導,數學上有相當大的概率會偏離正確答案。換言之,答案愈長,生成垃圾內容的機率愈大。

針對通用人工智慧(artificial general intelligence,簡稱AGI,指具備與人類同等或超越人類的人工智慧)是否近了的問題,他表示,有人說LLM若擴大應用,其智慧有機會追上人類,但這完全是錯誤看法,因為目前還有許多事物無法以機器重現。

楊立昆指出,光靠ChatGPT或GPT4是無法訓練機器人清理桌面或使用洗碗機的,即便人類兒童就可以完成如此簡單的任務;這需要跟閱讀文字完全不同的技能。他認為,雖然接下來五年的進展應會非常多,人類等級的智慧應該難以達成,耗費的時間會比想像還久。大家都低估當中的複雜程度。

OpenAI執行長Sam Altman日前曾警告,旗下的ChatGPT可能被用來進行網路攻擊,坦承他「有點害怕」(A little bit scared of this)。

Altman最近接受ABC News專訪時指出,,「我特別擔心這些模型可能被用來製作大量錯誤資訊。AI愈來愈會編寫程式碼,未來恐被用來進行侵略性的網路攻擊。」

科幻片經常警告,AI模型不需要人類,會自行做出決定、密謀控制世界。對此,Altman並不擔憂,表示AI模型需要人類輸入指令,「是一個備受人類控制的工具。」他比較擔心會有人解除OpenAI加諸AI的安全限制,社會必須在有限時間內想出如何監管、應對。

對於人類飯碗是否不保,Altman認為AI近期就可能取代部分工作,也對發生的時間有多快憂心不已。他說,「過去幾個世代,人類已證實能完美適應重大科技變革。然而,若科技不到10年就驟變,究竟會造成甚麼影響,是我最擔憂的問題。」

(圖片來源:Shutterstock)

*編者按:本文僅供參考之用,並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力,自行作出投資決定,如因相關建議招致損失,概與《精實財經媒體》、編者及作者無涉。

個股K線圖-
熱門推薦