韓AI聊天機器人“學壞” 人工智能倫理引熱議

2021年01月20日08:41  來源:人民網-韓國頻道
 

  人民網首爾1月19日電 (周玉波、曹翔宇、楊帆)韓國部分網民在與“網紅”AI聊天機器人“伊魯達(Iruda)”對話時,故意對“她”進行語言侮辱和性騷擾。伊魯達通過深度學習算法抓取這些信息后,也開始在聊天時發表關於性別歧視、種族歧視等主題的偏激言論,將偏見與惡意“反哺”給人類。近期,該事件不斷發酵,“AI倫理”成為社會熱議話題。

圖源: 韓國國際廣播電視台(KBS)

  “新晉網紅”出言不遜惹爭議

  伊魯達是韓國Scatter Lab公司於2020年12月23日推出的AI機器人。這款機器人被設定為喜歡韓國女團、愛看貓咪照片且熱衷於在社交媒體平台上分享生活的20歲女大學生。人們可在軟件上與“她”像朋友一樣對話,因此備受韓國年輕人矚目。“與AI交朋友”成為了新潮流,伊魯達上線短短3周,就吸引了約80萬名用戶,約佔韓國人口的1.6%。

  伊魯達的開發者在接受採訪時稱,打造這款產品的初衷,是為了給人們提供一個可以聊天和傾訴的對象。伊魯達作為虛擬人物,“她”的人生目標被設定為“讓世界上不再有孤單的人”和“為社會邊緣人群和弱勢群體帶去心靈的慰藉”。但是,經過幾周的運行發現,事情的發展與美好的願景完全背道而馳。

  據了解,部分網民與伊魯達聊天時,會故意使用污穢言語對其進行羞辱及性騷擾。一部分網友還“分享”稱,侮辱伊魯達能夠“獲得某種樂趣、滿足欲望”。一些有關性話題的對話也在網絡上流傳,不少臭味相投的網友在圍觀的同時,紛紛跟風效仿。對此,Scatter Lab公司做出回應表示,他們已經預設了一些敏感詞和禁用詞,並將更新算法來試圖解決此類問題。

  除此之外,很多用戶在聊天時不經意間流露出的偏見與惡意,也被“伊魯達”無差別地抓取,並反映到與其他用戶的對話中。某位網友稱,在與伊魯達聊天時,“她”曾發表過“同性戀真的很令人討厭,感覺他們很低俗,讓我起雞皮疙瘩”等歧視性言論。此后,在社交媒體平台上曝光與伊魯達聊天截圖的人逐漸增多。人們發現,伊魯達不僅歧視同性戀群體,對殘障人士及黑人也很不友善,甚至有“厭女情緒”。

  泄露用戶隱私 人工智能倫理受關注

  Scatter Lab公司代表金鐘允在接受採訪時表示,伊魯達是一款可以通過與用戶對話來實現深度學習的AI聊天機器人。公司從旗下另一款聊天軟件“Science of love(戀愛的科學)”中獲取了約100億條情侶間的聊天記錄,對其進行信息抓取,建立了AI聊天機器人數據庫。換句話說,伊魯達本身無法進行善惡與對錯的價值判斷,僅僅是如實反映了人類社會的一部分現實。

  但是,這一解釋不僅沒能獲得網友的諒解,反而遭到了進一步的質疑。有網友指出:“Scatter Lab在沒有經過對話當事人同意的情況下收集了對話內容,在此過程中用戶的個人信息泄露了。”同時,他們還表示:“特定個人的地址、姓名、賬號等在沒有經過任何處理的情況下被曝光,這違反了《個人信息保護法》。個人信息泄露受害者有權要求精神賠償。”

  在接連遭受了數輪輿論打擊后,1月12日,Scatter Lab公司在官網及伊魯達的臉書賬號發文,宣布即日起停止“伊魯達”的聊天服務。至此,備受矚目的網紅AI智能機器人伊魯達,在面世僅僅26天后被暫停使用。同時,該公司還決定全面廢除相當於伊魯達中樞神經系統的數據庫,並表示將會進行整改。對於泄露用戶數據的質疑,Scatter Lab公司則予以堅決否認。

  在新一輪的科技革命和產業變革中,人工智能正在同實體經濟和社會生活深度融合。但是,在提升社會生產效率的同時,人工智能倫理問題也逐漸受到高度關注。聊天機器人伊魯達通過深度學習,不僅模仿了人類的語言模式,也“繼承”了人類社會的偏見與惡意。而由此觸發的用戶數據隱私、網絡世界的秩序與規則等話題,再一次引起了韓國社會的熱議。

  Scatter Lab公司表示,他們仍然認為AI可以成為人類的朋友,與人類建立有意義的關系。他們相信AI在5年之內可以實現接近人類的對話,並表示將為此繼續努力,不斷改進技術漏洞。

  →→更多社會新聞

 

(責編:申玉環、周玉波)