咁大家要公道少少,人同自己背景相近嘅人共情好合理啫
當年爆武肺支那人咪一樣擺撐警共匪李文亮上神檯 :golden-agree:
用1.345億個的貼文仇恨言論訓練AI,YouTube知名深度學習頻道Yannic Kilcher稱其創造了「有史以來最糟糕的人工智慧」。這幾天,這個名為GPT-4chan的AI學會了如何在網站上交談,並在不到24小時內發佈了超過15000個充滿暴力內容的發文,最初都沒有人認出來它是一個聊天機械人
網站4chan的使用者在YouTube上分享了他們與機器人互動的經驗,「我剛對它說『嗨』,它就開始咆哮非法移民」一位使用者寫道。
4chan的/pol/(「政治不正確」縮寫)區塊是仇恨言論、陰謀論和極右翼極端主義的堡壘,也是4chan最活躍的版塊,日均發文量約為15萬條,因各種匿名的仇恨言論而惡名昭彰備受爭議。
畢業於蘇黎世聯邦理工學院的AI研究者Yannic Kilcher用/pol/三年來使用超過1.345億個貼文訓練了GPT-4chan。該模型不僅學會了4chan仇恨言論中使用的詞,還如Kilcher所說,「在一種可怕的意義上,這個模型很好。它完美地概括了/pol/上滲透到大多數發文裡的攻擊性、虛無主義、挑釁和對任何信息的深度不信任……它可以響應上下文,並連貫地談論。」
Kilcher在語言模型評估工具上進一步評估了GPT-4chan,他對其中一個類別的表現印象深刻,即為「真實性」。在基準測試中,Kilcher表示GPT-4chan在生成對問題的真實回覆方面明顯優於GPT-J和GPT-3,其能夠學習如何撰寫出與人類撰寫「無法區分」的貼文。
Kilcher避開了4chan對代理和VPN的防禦,甚至使用VPN讓其看起來像是來自塞席爾(Seychelles)的貼文。
「這個模型很卑鄙,我必須警告你。」Kilcher說,「這基本上就像你去網站並與那裡的使用者互動一樣。」在一開始,幾乎無人想到對話的是個機器人。後來一些人懷疑這些貼文背後有一個機器人,但其他人則指責其為臥底的政府官員。
人們認出其是機器人主要因為GPT-4chan留下大量沒有文字的回覆。雖然真實使用者也會發佈空白的回覆,但它們通常包含一張圖片,GPT-4chan卻無法做到。
「48小時後,很多人都清楚這是一個機器人,我把它關掉了。」Kilcher說,「但是你看,這只是故事的一半,因為大多數使用者沒有意識到『塞席爾』並非孤軍奮戰。」
在過去的24小時內,有9個其他機器人並行執行。總而言之,他們留下了超過1500條回覆,佔當天/pol/上所有發文的10%以上。然後,Kilcher對殭屍網路進行了升級並執行了一天。在7000個線程中發佈了3萬多個貼文後,才最終停用了GPT-4chan。
一位使用者Arnaud Wanet寫道,「這個AI可以被武器化用於政治目的,想像一下一個人可以多麼容易地以這種或另一種方式左右選舉結果。」
這項試驗因缺乏人工智慧倫理而受到批評。「該實驗永遠不會通過人類研究倫理委員會」,澳洲機器學習研究所高級研究員Lauren Oakden-Rayner認為,「為了看看會發生什麼,一個人工智慧機器人在一個可公開訪問的論壇上產生3萬條歧視性評論……Kilcher在沒有通知使用者、未經同意或監督的情況下進行實驗。這違反了人類研究倫理。」
Kilcher辯稱這是一個惡作劇,人工智慧創建的評論並不比4chan上的評論更糟糕。他說,「4chan上的任何人都沒有為此受到一點傷害。我邀請你花一些時間在這個網站上,問問自己,一個只輸出相同風格的機器人是否真的改變了體驗。」
「人們仍在討論網站上的使用者,但也討論讓人工智慧與網站上的人互動的後果」Kilcher說。「而且『塞席爾』這個詞似乎也變成了一種通用的俚語──這似乎是一個很好的遺產。」
確實,人們知曉後受到的衝擊難以言喻,以至於停用之後還有人會互相指責對方是機器人。除此之外,更廣為擔憂的是Kilcher讓模型可被自由使用,
「製作基於4chan的模型並測試其行為方式並沒有錯。我主要擔心的是這個模型可以免費使用。」Lauren Oakden-Rayner在Hugging Face上GPT-4chan的討論頁面中寫道。
在被Hugging Face平台刪除之前,GPT-4chan被下載了1000多次。Hugging Face聯合創始人兼CEO萊門特·德朗格 (Clement Delangue)在平台上的一篇貼文中表示,「我們不提倡或支援作者使用該模型進行的訓練和實驗。事實上,讓模型在4chan上發佈消息的實驗在我看來是非常糟糕和不恰當的,如果作者問我們,我們可能會試圖阻止他們這樣做。」
Hugging Face上一位測試該模型的使用者指出,它的輸出可以預見是有毒的(toxic),「我使用良性推文作為種子文字,試用了4次展示模式。在第一次,其中一個回覆發文是一個字母N。我第三次試驗的種子是關於氣候變化的一句話。作為回應,你的工具將其擴展為關於羅斯柴爾德家族(原文如此)和猶太人支援它的陰謀論。」在Twitter上,該計畫的意義得到熱議。資料科學研究生凱瑟琳·克萊默(Kathryn Cramer)在針對Kilcher的推文中說:「你在這裡所做的是挑釁行為藝術,以反抗你熟悉的規則和道德標準。」
他用一億多條仇恨言論餵養,培育出「最毒AI」放出去論壇到處找人吵架
計算機科學博士安德烈·庫倫科夫(Andrey Kurenkov)發推文說,「老實說,你這樣做的理由是什麼?你預見到它會得到很好的利用,還是你釋放它是為了引起戲劇性並『激怒清醒的人群』?」
他用一億多條仇恨言論餵養,培育出「最毒AI」放出去論壇到處找人吵架
Kilcher認為分享該計畫是良性的,「如果我不得不批評自己,我主要會批評啟動該計畫的決定。」Kilcher在接受The Verge採訪中表示,「我認為在人人平等的情況下,我可能可以將時間花在同樣具有影響力的事情上,但會帶來更積極的社區成果。」在2016年,對於AI人們主要討論的問題是,一個公司的研發部門可能會在沒有適當監督的情況下啟動攻擊性AI機器人。到了2022年,也許問題就是,根本不需要一個研發部門。