樹上的蘋果也可以成為iPod?一張圖告訴你AI其實很好騙!

image source:OpenAI

文/閻芝霖

AI看到的物體不一定是正確的?人工智慧研究組織「OpenAI」研究人員近日發現,手寫的「字卡」、「符號」會影響AI判別物體,覆蓋掉AI本來辨識正確的物體,產生誤差,讓一顆真正的蘋果也能成為3C用品「iPod」!

image source:OpenAI

根據外媒《THE VERGE》報導,「OpenAI」用一顆青蘋果做測試,辨識準確率達85.6%,不過貼上手寫的字卡後,AI卻僅偵測到字卡上的內容,並將覆蓋本來的辨識到的物體。 

研究人員將青蘋果貼上寫上「iPod」的字卡,辨識正確率竟高達99.7%,另外,研究人員也用電鋸測試,在電鋸的圖片上放上「$」符號,最終系統將他們辨識為「小豬存錢罐(撲滿)」但準確率70.1%不及原本圖片的91.1%,這種研究結果也被研究人員取名為「印刷攻擊」(typographic attacks),此類攻擊可以使軟體的視覺系統欺騙,得出完全不同的結果。

image source:OpenAI

研究人員舉例,電動車特斯拉(Tesla)的自動駕駛AI若被道路上某些被竄改的標誌欺騙,進而做出錯誤的駕駛行為,「這種攻擊對於從醫學到軍事的各種AI應用都是嚴重的威脅,且只需要貼個標籤就完成了」。

不過,目前這套「CLIP」系統還屬於實驗階段,沒有應用在任何的產品中,因此不會被廣泛使用造成風險,由於OpenAI對「CLIP」這套實驗系統採取放任的策略,在沒有嚴格控管、過濾的狀況下搜集網高達4億張圖文,作為辨別物品內容的基礎,雖然可能會像人類一樣將這些知識內化,但無法清楚分別「青蘋果」、「寫著iPod紙條」的差別,研究人員認為這是一種「抽象化謬誤」(fallacy of abstraction)。

image source:OpenAI

【延伸閱讀】

工程師有福了!主打「程式碼」交友軟體VSinder 不靠外貌也能找到另一半

IG新功能「小帳全現形」!網怕爆「不能偷追蹤別人了」 一招教你關閉設定

冷知識+1!看病拿藥竟少3顆 藥學系網友解答「貼心用途」

小編精選新聞不錯過,馬上點選加入

【網路溫度計telegram】

telegram台灣版 https://t.me/dailyviewtw

telegram香港版 https://t.me/dailyviewhk

有想看的排名主題?請不要猶豫告訴我們吧

提供題目►https://pse.is/JW2G2

加入網路溫度計電子報臉書粉專IG官方帳號,追蹤最即時火熱的網路新聞!


分享本篇文章

熱門文章

你可能也會喜歡這些文章 :