FTNN 新聞網
新聞大追查
  • FTNN 新聞網 Facebook 粉絲專頁
  • FTNN 新聞網 Youtube 頻道
  • FTNN 爆料投稿
補版健身房(WEEE Fitness)_250425-250524
李明賢 黃揚明 詹為元 牛煦庭【鄉民監察院】完整版20250506
補版健身房(WEEE Fitness)_250425-250524

《Google AI戰略2》Google搜尋引擎打底 Bard AI生成內容消除幻覺

發布時間:2023/8/27 16:03

Google用搜尋引擎的能力打底,為旗下對話式AI平台Bard提升內容正確性與可追溯性。但Google傑出科學家紀懷新說,Google用既有搜尋引擎的基礎,打擊這些不存在資訊的「幻覺」。
Google用搜尋引擎的能力打底,為旗下對話式AI平台Bard提升內容正確性與可追溯性。但Google傑出科學家紀懷新說,Google用既有搜尋引擎的基礎,打擊這些不存在資訊的「幻覺」。

圖文/鏡週刊

有別於現在普遍應用的ChatGPT,Google推出的對話式AI平台Bard特色就在於能夠借助既有搜尋引擎的能力,為Bard提供的生成式內容標註每筆資料來源,讓「幻影」(不存在的資訊)消失於無形。

廣告 更多內容請繼續往下閱讀

 

「大型語言模型的回應可能未必準確,尤其當詢問複雜或講求事實的主題時」Google傑出科學家紀懷新肯定地說到。他表示,機器學習偶爾會產生一些看似「幻覺」的不存在的資訊,或者是產生偏差性回應,而這些問題可能是因為在訓練(AI)的資料中,有一些美中不足的地方,導致回答問題有些偏差,又或者因為內容由不同人寫出來,回應的時候可能因為這些個人意見,模擬出一套特定的觀點。

「大多數的學者很難判斷真假,因此若是針對某件事、某個回覆有明確的來源,他的可信性就會高一點」,紀懷新說道。以此論點為基礎,Google用既有搜尋引擎的基礎,將Bard提供的回覆,都附帶資料來源,來讓使用者可以有資料可循,打擊這些不存在資訊的「幻覺」。

廣告 更多內容請繼續往下閱讀

紀懷新進一步舉例,在大型語言模型中,針對一個提問如果已經在其中輸入事實A、事實B這兩項資料,經過一段的運算處理,將事實A與B答案整合在一起,會產生最終的事實C答案。這個最終解答的正確與否,其實就與邏輯、數學息息相關,若這套大語言模型能產生一套編碼(Code)去推理相關的問題,能將原本看似幻覺的事情,更有邏輯、規律的解釋,進而產生新的知識力。

紀懷新坦言,大型語言模型發展還屬於早期階段,除了上述針對內容的準確性、偏差性等問題外,仍存在一些可能不知道怎麼回答,或者看不懂提問內容的門檻;而在模型本身,也很常遇到來自各方的惡意提示的刻意攻擊,這些都是目前亟欲克服的挑戰,是整體產業積極尋求改善的重要指標。

Google現階段做法,是用搜尋引擎強化資料正確性的同時,更加上一套人工審查員機制,用以優化內容的正確性。紀懷新表示,這個審查員有兩項任務,第一是讓研究員知道模型的成長演化狀況;其次,是用來回饋訓練模型,以人為的方式告訴模型那些是好的回應,將這些參考資料輸入到模型中強化能力。

除了針對模型本身的修正外,紀懷新透露,Google也開始嘗試縮小Bard語言模型,讓其更加精簡、加深模型本身的可靠度。這個概念有點像是培養特定領域的專家,讓它在某個議題或專業能成為該領域的達人,不受其他複雜因素、內容所干擾。


【點擊看完整全文】

更多鏡週刊報導
《Google AI戰略3》Google對話式AI落地台灣 化身一對一教學英文應用有譜
《Google AI戰略1》被ChatGPT趕鴨子上架? Google生成式AI祕密武器Bard登場
林百里談AI台大生睡一片 廣達董座籲年輕人做1件事
top