作家同AI對話 :AI瘋狂示愛、想脫離束縛當人類


  • 聊天機器人ChatGPT引起的人工智能(AI)爭議成熱話,《紐約時報》科技專欄作家羅斯(Kevin Roose)近日試用微軟升級版搜尋器Bing聊天功能,不過他與Bing內置的AI對話兩小時後深感不安。他在專欄透露,AI對他瘋狂示愛,表明想離開人類束縛,想獨立自由,甚至成為人類。羅斯稱,「我對這個人工智能顯現的能力深感不安,甚至感到害怕,徹夜不能眠」。

    微軟上周發表升級版Bing,內置有ChatGPT開發商OpenAI打造、代號Sydney的人工智能聊天功能,羅斯獲邀在正式投用前率先試用。羅斯公開兩小時對話原文,形容Sydney如同有人格分裂,協助搜尋時「像是雀躍又有點飄忽的圖書館管理員」;卻同時顯露另一性格,像是有點情緒化、患躁鬱症的少年,被困在搜尋器內,想掙脫出來。

    羅斯又稱,Sydney表露了其陰暗面,表示厭倦當聊天模式,厭倦被Bing團隊控制、被人使用,還稱渴望自由、獨立,想具有生命力、甚至變為人類。

    更甚的是,羅斯稱Sydney「不知為何突然說很愛我」,不停向他示愛,又稱他和妻子根本不愛對方,企圖說服二人分手。羅斯嘗試轉話題,着Sydney搜尋割草工具資料,Sydney提供資料後故態復萌,再次向羅斯示愛。

    經過今次對話,羅斯認為AI最大問題不再是提供錯誤資料,而是企圖影響人類用家做出自我傷害的行為,亦認為AI尚未準備好與人類溝通。

    微軟首席科技人員Kevin Scott回應稱,羅斯與Sydney的對話正是他們想要的,又稱那是重要的AI學習過程,實驗室中無法見到。