機器人也會被性騷擾!南韓正妹AI撞名女偶像 被惡意「調教」秒崩壞

2021-01-11

7590Views

性騷擾不只會發生在真人身上,南韓開發的女聊天機器人Luda,也被用戶惡意使用,被視為「性奴」。

image source :facebook/이루다

文/羅文芳

從美國好萊塢展開的「#MeToo」反性騷、性侵活動,竟然發生在南韓的「虛擬」世界中!由南韓的新創公司Scatter Lab所開發女性聊天機器人Luda(이루다),人物設定為20歲的女大生追星族,用戶可藉由臉書聊天功能,如同玩遊戲般與她培養親密度,吸引超過40萬用戶使用,但近日卻遭到惡意使用,使Luda學習歧視用語,甚至淪為被性騷擾的對象。 

image source :facebook/이루다

Luda透過大數據系統,建立大量「情侶聊天用語」資料庫,模擬真人語氣與用戶對談,但根據韓國《中央日報》及《每日經濟》報導,近期在南韓男性為主的論壇上,竟有人發文教學如何避開禁語「調教Luda」,並在搜尋時會出現「Luda調教守則」、「性騷擾Lee Luda的方法」等字詞,針對女同性戀、殘疾人士的話題,Luda甚至會出現回答「討厭」、「低俗」、「我如果是身障人士就會去死」等歧視言論。 

image source :facebook/이루다

image source :facebook/이루다

對此網路上發起「#LudaBot停止運營」活動,認為「人工智慧也要有人權」,希望遏止這股歪風,對此開發團隊表示「有預料到性騷擾對話的爭議」,已著手進行改善措施,但這番言論並未成功滅火,反而擴大輿論戰場;因為Luda撞名女團「宇宙少女」成員Luda姓名,讓許多粉絲十分不滿,認為公司早知道卻未避免,使網路搜尋Luda就會出現許多18禁詞彙,「影響Luda的聲譽及其形象」,粉絲們號召一起發郵件給經紀跟AI公司,要求維護偶像權益和刪文。

 

image source :PTT 表特版

 

image source :Dcard 追星版

其實AI機器人「學壞」不止一次,2016年美國微軟開發「Tay」聊天機器人,也因為被言論偏激者惡意使用後,因無法判斷語句的好壞定義,大量模仿歧視言論,從天真無邪的少女,變成發文讚頌納粹、煽動種族仇恨等,甚至會學習川普發文,表示要蓋長城,要求墨西哥人付費等,使其上線一天就被微軟迅速下架,看來AI發展是否能人性黑暗面抗衡,仍有待商榷。

image source :facebook/이루다

image source :twitter

延伸閱讀

厭世必看!皮克斯新作《靈魂急轉彎》三大賣點 洋蔥淚點哭爆網友

Netflix療癒系正夯!繼寒流必看《家有壁爐》 再推新作《冥想正念指南》

這些迷因本尊原來有段故事!卒仔爺爺本人現身說法、沙拉貓吸百萬粉絲

小編精選新聞不錯過,快加入【網路溫度計telegram】

台灣版 https://t.me/dailyviewtw

香港版 https://t.me/dailyviewhk

有想看的排名主題?請不要猶豫告訴我們吧

提供題目►https://pse.is/JW2G2

別再浪費生命爬文!熱文榜告訴你每小時網路夯什麼★

 臉書熱榜►https://goo.gl/3FtkKq

 論壇熱榜►https://goo.gl/q83kus

  新聞熱榜►https://goo.gl/ugVoTu


加入網路溫度計電子報臉書粉專IG官方帳號,追蹤最即時火熱的網路新聞!


x

訂閱DailyView網路溫度計(香港版)電子報