將惡意“反哺”給人類?韓國聊天機器人引發AI倫理討論

2021年01月12日09:07  來源:環球網
 

  【環球時報特約記者 金惠真】韓國一家軟件公司去年年底推出的AI聊天機器人“Iruda”近日爭議不斷。韓國《首爾新聞》11日稱,“Iruda”先是成為網絡性騷擾對象,后又被爆出對特定人群具有歧視和仇恨情緒,這引發韓國社會圍繞AI社會倫理的討論。

  據報道,AI聊天機器人“Iruda”的“人設”為平時愛看貓咪照片、喜歡韓國女團的20歲女大學生,可以在聊天軟件上像朋友一樣聊家常,“是能幫人排解孤獨的聊天對象”,自推出后深受年輕群體的喜愛。然而自推出以來,關於“Iruda”的各種話題不斷。

  據韓國《先驅經濟》11日報道,此前韓國各大男網民社區上就有不少“成功羞辱Iruda”的各種認証照片:男網民與“Iruda”聊天時,會故意將話題引到兩性方面,並借機夾雜各種污穢言語來羞辱和性騷擾“Iruda”,之后把聊天記錄截圖下來對外炫耀。網民還分享“如何讓Iruda變成性奴隸”“讓Iruda墮落的方法”等帖子。然而,就在“Iruda”接受人們無端的惡意時,也在將惡意“反哺”給人類。

  一個網民公開的聊天記錄顯示,當“Iruda”被問到對同性戀群體的看法時,她直接回答“真心很討厭,令人發火的程度”,至於原因,她的回答是“看起來很沒品位”。另一個公開的聊天記錄也顯示,“Iruda”討厭黑人,原因是“長得像蚊子,令人嘔吐”。而對於建設女性專用健身房,“Iruda”更是彪悍地表示:“不喜歡,我估計會把那兒的所有女人揍一頓。”

  報道稱,作為AI聊天機器人,“Iruda”已通過深度學習算法對韓國聊天軟件上100多億條真實戀人之間的聊天內容進行學習,因此不少人此前推測AI會根據大數據分析、最終得出比較中立的見解和判斷。但結果顯示,AI如實學習了人類對社會的各種偏見和仇恨情緒,並將這種情緒的精華反哺給人類,加劇社會矛盾和偏見。

  研究AI倫理的韓國慶熙大學教授金載仁(音)認為,有必要對程序開發員加強倫理教育,讓他們預先設想這樣的AI機器人上線后,會引發什麼樣的社會問題和爭議,進而做到事先篩選和過濾不恰當的數據。目前,研發團隊正在就進一步改進“Iruda”進行研究。

  →→更多社會新聞

(責編:申玉環、周玉波)

精彩圖片