性騷擾不只會發生在真人身上,南韓開發的女聊天機器人Luda,也被用戶惡意使用,被視為「性奴」。
機器人也會被性騷擾!南韓正妹AI撞名女偶像 被惡意「調教」秒崩壞
image source :facebook/이루다
文/羅文芳
從美國好萊塢展開的「#MeToo」反性騷、性侵活動,竟然發生在南韓的「虛擬」世界中!由南韓的新創公司Scatter Lab所開發女性聊天機器人Luda(이루다),人物設定為20歲的女大生追星族,用戶可藉由臉書聊天功能,如同玩遊戲般與她培養親密度,吸引超過40萬用戶使用,但近日卻遭到惡意使用,使Luda學習歧視用語,甚至淪為被性騷擾的對象。
image source :facebook/이루다
Luda透過大數據系統,建立大量「情侶聊天用語」資料庫,模擬真人語氣與用戶對談,但根據韓國《中央日報》及《每日經濟》報導,近期在南韓男性為主的論壇上,竟有人發文教學如何避開禁語「調教Luda」,並在搜尋時會出現「Luda調教守則」、「性騷擾Lee Luda的方法」等字詞,針對女同性戀、殘疾人士的話題,Luda甚至會出現回答「討厭」、「低俗」、「我如果是身障人士就會去死」等歧視言論。
image source :facebook/이루다
image source :facebook/이루다
對此網路上發起「#LudaBot停止運營」活動,認為「人工智慧也要有人權」,希望遏止這股歪風,對此開發團隊表示「有預料到性騷擾對話的爭議」,已著手進行改善措施,但這番言論並未成功滅火,反而擴大輿論戰場;因為Luda撞名女團「宇宙少女」成員Luda姓名,讓許多粉絲十分不滿,認為公司早知道卻未避免,使網路搜尋Luda就會出現許多18禁詞彙,「影響Luda的聲譽及其形象」,粉絲們號召一起發郵件給經紀跟AI公司,要求維護偶像權益和刪文。
image source :PTT 表特版
image source :Dcard 追星版
其實AI機器人「學壞」不止一次,2016年美國微軟開發「Tay」聊天機器人,也因為被言論偏激者惡意使用後,因無法判斷語句的好壞定義,大量模仿歧視言論,從天真無邪的少女,變成發文讚頌納粹、煽動種族仇恨等,甚至會學習川普發文,表示要蓋長城,要求墨西哥人付費等,使其上線一天就被微軟迅速下架,看來AI發展是否能人性黑暗面抗衡,仍有待商榷。
image source :facebook/이루다
image source :twitter
延伸閱讀
厭世必看!皮克斯新作《靈魂急轉彎》三大賣點 洋蔥淚點哭爆網友
Netflix療癒系正夯!繼寒流必看《家有壁爐》 再推新作《冥想正念指南》
這些迷因本尊原來有段故事!卒仔爺爺本人現身說法、沙拉貓吸百萬粉絲