人工智能的發(fā)展是為了讓其學習和模仿人類,以實現對人類社會的幫助??墒?,英國衛(wèi)報近日發(fā)表文章稱,人工智能學習人類實在太敬業(yè),不僅學習人類的優(yōu)點,還染上了人類的惡習——人工智能已經開始出現種族歧視和性別偏見了。
據科學家們研究,讓人工智能產生種族及性別偏見的主要問題來自于機器學習時,人類語言和文化中根深蒂固的偏見被AI吸收而且得到了強化??茖W家表示,人工智能由于算法和人類不同,這種偏見被強化的可能性更高,因為其無法有意識的去抵制所學到的這些。
人工智能目前存在的問題在于,其經常會把歐美人的名字和“快樂”之類的愉快的詞語聯系在一起,而非裔人的名字則通常和不愉快的詞聯系在一起。這種算法將很容易影響到人們的正常生活,比如當人工智能系統進行簡歷篩選時,會很容易讓非裔失去面試邀請的機會。
而目前,業(yè)內部分人士已經開始意識到這個問題的嚴重性,他們主張在機器學習中新增一項名叫“單詞嵌入”的工具,用于改變計算機解讀語音或文字的方式,下一步將會自然的開發(fā)AI的擬人化能力,比如常識和邏輯等。
這一問題并非近期才出現的,微軟在去年推出的Twitter機器人就因其不當言論被緊急下線。人類的文化和語言歷史太長,這會對人工智能造成的影響可能超出了我們的預估。
原標題:人工智能被帶跑偏 已學會歧視與偏見
責任編輯:海凡
- 機器人成了新“物種”人類能否控制人工智能?2017-11-03
- 人工智能全球治理當盡早啟動2017-11-02
- 人工智能是“助手”還是“對手”?人類工作會被取代嗎2017-11-02
- 人工智能發(fā)展到了哪一步 人工智能危機會出現嗎?2017-11-02
- 外媒稱中國在人工智能領域挑大梁:高科技非西方專屬游戲2017-10-30
- 動物“養(yǎng)老”難題多 壽命長健康問題卻增多2017-10-27
- 日本將允許利用動物培育人體器官的研究2017-10-26
- 力爭盡速解決“五缺”問題 賴清德最快月底親自說明2017-10-23
- 樸槿惠案近況 韓國:樸槿惠政府被曝操控三星繼承權2017-10-12
- GoPro新品啟示:運動相機巨人把未來寄托在“換心”上2017-09-30
- 最新科技數碼 頻道推薦
-
被國產手機打趴!三星手機在國內市場份額狂降2017-11-14
- 進入圖片頻道最新圖文
- 進入視頻頻道最新視頻
- 一周熱點新聞


已有0人發(fā)表了評論