<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發私信給石松
      發送

      0

      人工智能應該如何監管?華盛頓大學教授 Oren Etzioni 給出了他的“人工智能三定律”

      本文作者: 石松 2017-09-06 18:34
      導語:AI已經來臨,人類是否做好準備?

      人工智能應該如何監管?華盛頓大學教授 Oren Etzioni 給出了他的“人工智能三定律”

      雷鋒網 AI 科技評論按:8月中旬的時候,斯克等 26 國 AI 技術領袖公車上書要求聯合國禁止“殺人機器人”的研發與使用這件事喚起了人們對人工智能使用和監管的新一輪擔憂。現在 AI 已經開始取代部分人的工作,以后 AI 難道還要用來殺死人類嗎?雖然全球各大 AI 研究機構都在盡量開放自己的成果,促進發展的同時避免技術壟斷來減少人們的擔心,但僅僅“開放”并不能解決一切問題。

      近日,AI 研究機構艾倫人工智能研究院(Allen Institute for Artificial Intelligence)院長、華盛頓大學教授 Oren Etzioni 也在紐約時報發表了一篇文章,講述了他對人工智能監管的看法。Oren Etzioni 在 Tom M. Mitchell 指導下于1991年拿到CMU的博士學位,而后在來到華盛頓大學,擔任計算機工程學院教授;2005年時他牽頭成立了華盛頓大學圖靈中心并任主任,中心的研究領域包括數據挖掘、NLP、網絡搜索。Oren Etzioni 在文中提出了他心中的“人工智能三定律”,雷鋒網 AI 科技評論將文章編譯如下。

      被許多人看作“現實版鋼鐵俠”的美國頂尖科技公司創始人埃隆馬斯克,最近敦促國家有關領導人提早采取措施監管人工智能技術。馬斯克堅持認為,人工智能是對人類生存的“潛在威脅”,如同科幻作品中的人工智能,是一個令人擔憂的觀點。不過,即使是像我這樣的研究人員也認識到,人工智能會對武器設計,工作機會和隱私安全產生極大的影響。人們對于是否應該開發人工智能技術很自然地會產生疑問。

      我相信答案是肯定的。但是,為了謹慎,難道我們不應該一步一步地至少減緩人工智能A.I.的開發進度嗎?問題是如果我們這樣做,那么例如中國這樣的國家就會超過我們。 A.I.之馬已經脫韁,我們最好的打算是試圖引導它。 A.I.不應該被武器化,而且任何A.I.必須有一個堅守的“禁地”。除此之外,我們應該規范A.I.系統對實際應用場景方面的影響,(例如,自動駕駛車輛的安全性),而不是在還未定形且快速發展的A.I.領域試圖定義和控制某些概念。

      我提出了三個有關人工智能系統的規則,這些想法是受到科幻作家艾薩夫·阿西莫夫1942年提出的“機器人學三律”啟發的。我在此基礎上做了進一步發展。阿西莫夫的三定律是:第一、機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;第二、在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;第三、在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。

      這三大定律看上去雖優雅簡練但卻模糊不清:當涉及到A.I.時,究竟什么才是傷害?基于我提出的三條規則,我找到了更為具體的方法來避免A.I.造成傷害。

      首先,A.I. 系統必須遵守其操作人員的所有規則。這套規則將涵蓋私人,公司和政府機構。 我們不想要A.I. 從事網絡欺凌,股票操縱或恐怖主義威脅; 我們不想要F.B.I. 利用A.I.系統釣魚執法。 我們不想要自動駕駛車輛闖紅燈,或者更糟的是制造違反國際條約的A.I. 武器。

      我們的一般法規應該修改,人們不能借口稱是A.I.系統做了一些我們無法理解或預期的事情。簡單地說,“不管我事,是A.I干的”;這不應該成為違法行為的借口。

      我的第二條規則是A.I.系統必須清楚地表明它不是人類。正如我們在一則機器人案例中所見 - 計算機程序可以與真人進行日益復雜的對話 - 人類社會需要確保A.I.系統被清楚地標示出來。在2016年,一個被稱為吉爾·沃森(Jill Watson)的機器人在佐治亞理工大學(Georgia Tech)擔任在線課程的教學助理,愚弄學生,并讓大家以為它是人類。根據牛津大學的研究人員稱,更為嚴重的例子是在2016年選舉之前的日子里,在社交媒體上廣泛使用的支持特朗普的政治機器人。

      我的規則將確保人們知道機器人何時冒充某人。例如,我們知道@DeepDrumpf - 一個在Twitter上幽默地模仿唐納德·特朗普的機器人。A.I.系統不僅發出假的推文;它們也發布假新聞視頻。華盛頓大學的研究人員最近發布了前總統巴拉克·奧巴馬的假視頻,非常令人信服地似乎在說一些被嫁接到他視頻中的話,真實情況是與他說的完全不同。

      我的第三條規則是若未經該信息來源方的明確許可,A.I.系統不能保留或披露機密信息。由于其能自動引用,記錄和分析信息的特殊能力,A.I.系統處于獲取機密信息的主要位置。例如開始被越來越多的家庭接受的“智能音箱”亞馬遜Echo,就可能會記錄下家庭中所有的談話內容, 包括那些私密的,或您的孩子可能無意泄露給A.I.的信息。即使看似無害的室內清潔機器人也會繪制你家的地圖。這些就是你要確保管控的信息。

      我相信這些規則聽起來還不夠完整。我在這里介紹它們,只為拋磚引玉。無論你是否同意Musk先生關于A.I.的進步速度及其對人類的最終影響的觀點,很明顯的一點是A.I. 已經來臨。社會大眾需要做好準備。

      Via nytimes,雷鋒網 AI 科技評論編譯

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

      人工智能應該如何監管?華盛頓大學教授 Oren Etzioni 給出了他的“人工智能三定律”

      分享:
      相關文章

      編輯

      關注,解讀最新科技資訊
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: av无码国产精品色午夜| 377人体粉嫩噜噜噜| 国产精品一区二区香蕉| 亚洲日韩电影久久| 国产午夜亚洲精品久久| 91乱子伦国产乱子伦!| 999久久久| 亚洲精品97福利在线| 亚洲综合激情另类小说区| 日本一区二区视频在线播放| 成人影院免费观看在线播放视频| 在线精品视频一区二区| 一本色道久久综合亚洲精品| 乱女伦露脸对白在线播放| 2018国产精华国产精品| 亚洲成av人片天堂网无码| www.亚洲精品长腿丝袜| 阿拉善右旗| 亚洲国产精品久久久久久网站| 国模大胆一区二区三区| 欧美日韩精品一区二区三区在线 | 国产国模一区二区三区四区| 男女做aj视频免费的网站| 欧美情侣性视频| 亚洲av免费在线观看| 欧美成人黄在线观看| 科尔| 国产成年码av片在线观看| 亚洲精选无码| 中国女人大白屁股ass| 免费激情网址| 蜜桃av在线| 亚洲视频在线观看| 免费a级毛片无码a∨蜜芽试看| 免费人妻无码不卡中文字幕18禁| 天堂网国产| 超碰?另类?国产| 无套内谢孕妇毛片免费看看| 国产成人精品18| www.91自拍| 夜夜躁日日躁狠狠久久AV|