時間:2017-06-30 來源:互聯網 瀏覽量:
微軟最初設定 Tay 是一個年齡19歲的少女,具有一些幽默機製,適合和18至24歲的用戶聊天。可萬萬沒有想到的是,Tay在 Twitter 上線沒幾天就“誤入歧途”甚至出現偏激言論,而這正是源自一些不良網民利用人工智能係統的漏洞而進行的一場惡搞。
微軟表示,在設計Tay的時候就有考慮到可能會被網友影響的問題,因此還特意為Tay設置了反製功能,當用戶的用語出現粗俗字眼時,Tay會強製反製避免不健康話題的延續。
而此次這個學習漏洞在於「repeatafter me」機製,隻要對 Tay 提到這句話,Tay 就會將對方的話進行重複,因此不管是何種偏激的種族主義語言,都會被 Tay 進行重複,而這個狀況在滾雪球一樣大量出現在在 Tay 的 Twitter 上,由於偏激言論不斷出現,最終導致微軟關閉了 Tay 。
微軟原本想研發一款能言善辯且具備一定學習能力的聊天機器人,沒想到恰恰在學習環節出了問題。不得不說,當人們在大肆宣揚聊天機器人帶給人們的便利時,也要十分警惕其存在的威脅,到目前微軟還沒有給出Tay的複出時間,看來這次要好好修補bug了。