<ruby id="66w77"><video id="66w77"></video></ruby>
<ruby id="66w77"><option id="66w77"><thead id="66w77"></thead></option></ruby>
  • <ruby id="66w77"><table id="66w77"></table></ruby>

  • <ruby id="66w77"><table id="66w77"></table></ruby>
    <strong id="66w77"></strong>

    為什么說(shuō)人工智能易造成偏見(jiàn)?微軟研究院這樣說(shuō)

    2017-03-16 14:25:22分類(lèi):行業(yè)資訊5012

    【 3月16日消息】當前,行內每家公司都期待著(zhù)在人工智能上有大發(fā)展。從谷歌到微軟,再到蘋(píng)果,再到三星,人工智能幾乎是智能手機領(lǐng)域的熱門(mén)詞匯。

    但隨著(zhù)這些系統變得更強大,功能更多,有必要確保它們不會(huì )被利用來(lái)針對特定人群。在美國德克薩斯州的西南偏南音樂(lè )節(SXSW)上,微軟研究院的凱特克勞福德(Kate Crawford )向我們展示了她在人工智能領(lǐng)域的觀(guān)點(diǎn),認為這些龐大的數據系統在沒(méi)有任何責任的情況會(huì )出現片面的執行。

    衛報報道了這位研究人員對人工智能的看法,暗示了人工智能系統的廣泛使用會(huì )引發(fā)極端主義。然而,并不是這些系統的使用本身,而是說(shuō)人類(lèi)的偏見(jiàn)會(huì )被以編碼的方式融入其中,從而導致這些功能被錯誤之人所濫用。

    該研究的發(fā)起人是一個(gè)專(zhuān)注于人工智能社會(huì )影響的研究社區。該研究人員列舉了一個(gè)簡(jiǎn)單的例子,此前有相關(guān)的人工智能研究稱(chēng)可以根據某人的面部特征來(lái)預測犯罪行為。他們是怎么做到的?該系統通過(guò)照片來(lái)分析罪犯和非罪犯的面部特征,以預測是否會(huì )有犯罪行為。相關(guān)研究人員聲稱(chēng)該系統沒(méi)有任何偏見(jiàn)。

    Crawford說(shuō):“一貫而言,當機器學(xué)習系統通過(guò)人為數據進(jìn)行訓練時(shí),我們通常認為機器學(xué)習系統沒(méi)有偏見(jiàn)。”“但我們的偏見(jiàn)是建立在樣本數據的基礎之上的。”

    在西南偏南音樂(lè )節上,她解釋了這一觀(guān)點(diǎn)??藙诟5逻€暗示,社交媒體網(wǎng)站是如何變成開(kāi)放注冊的。她指出,來(lái)自劍橋大學(xué)的研究可以根據用戶(hù)在Facebook上的喜好來(lái)預測其宗教信仰。研究人員在識別基督徒和穆斯林等用戶(hù)信仰中,正確率達到了82%,同時(shí)在篩選民主黨人和共和黨人時(shí)也能達到同樣效果。

    這項研究并不是新研究,而是在2013年進(jìn)行的。自此以后,人工智能就取得了巨大的進(jìn)步。

    上一篇:下一篇:
    92视频在线精品国自产拍_乱色熟女综合一区二区_国产精品毛片久久久久久久_久天啪天天久久99久孕妇
    <ruby id="66w77"><video id="66w77"></video></ruby>
    <ruby id="66w77"><option id="66w77"><thead id="66w77"></thead></option></ruby>
  • <ruby id="66w77"><table id="66w77"></table></ruby>

  • <ruby id="66w77"><table id="66w77"></table></ruby>
    <strong id="66w77"></strong>