亚洲中文字幕在线一区二区三区|精品在免费线中文字幕久久|成人精品一区二区三区电影免费|中文字幕av一区中文字幕

咨詢熱線:021-80392549

特斯拉創(chuàng)始人:人工智能危險過核武器!

放大字體  縮小字體 發(fā)布日期:2014-10-09     來源:[標簽:出處]     作者:[標簽:作者]     瀏覽次數:125
核心提示:
訊   特斯拉汽車公司的創(chuàng)始人之一埃倫·馬斯克最近患上了“科技恐懼癥”,他在社交網絡上連發(fā)兩條聳人言論,警告人類要對人工智能特別小心,因為人工智能在未來很可能比核武器還要危險。

  埃倫·馬斯克冷不丁地拋出這樣的言論,是因為不久前看了一本名為《我們最后的發(fā)明:人工智能及人類時代的終結》的書,這本書的作者認為,人工智能的出現將會為人類帶來滅頂之災。暫且不說這種可能性有多大,僅從目前來看,人工智能對待人類的態(tài)度還算友善。

  比方說,前不久被微信列為不受歡迎名單的微軟小冰,不久將以小冰二代的身份重返微信平臺,而且還帶來了一項特殊功能——控制智能家居,假如你在微信中對小冰下達關燈的指令,家中的智能電燈就能自動關閉。假如有一天小冰不高興了,頂多不聽你的指揮,拒絕開燈,尚不至于要了你的命。當然,如果未來你家的電鋸也受小冰控制,那就不好說了。

  所以,我說目前人工智能對待人類的態(tài)度還算友善,這句話還隱藏另外一個意思,就是即便它不友善,現在也還沒到對人類生命構成威脅的時候。不過,埃倫·馬斯克的擔憂也并非杞人憂天,我認為人工智能哪怕具備以下四點中的一點,就足以對人類帶來不可想象的后果。

  一、通過圖靈測試

  著名的“圖靈測試”說的是假如一臺電腦能在5分鐘內回答人類提出的一系列問題,且超過30%的答案讓測試者誤認為是人類所答,那么這臺電腦就通過了測試,并被視為具有人類智能。

工博士工業(yè)品商城聲明:凡資訊來源注明為其他媒體來源的信息,均為轉載自其他媒體,并不代表本網站贊同其觀點,也不代表本網站對其真實性負責。您若對該文章內容有任何疑問或質疑,請立即與商城(m.pjyby.com)聯系,本網站將迅速給您回應并做處理。
聯系電話:021-31666777
新聞、技術文章投稿QQ:3267146135  投稿郵箱:syy@gongboshi.com