創(chuàng)業(yè)詞典網(wǎng) 創(chuàng)業(yè)知識學(xué)習(xí)分享
Ti7結(jié)束,dota粉絲們散場。
其中,歐洲的Liquid戰(zhàn)隊沖出重圍,奪取一千萬美元冠軍獎金,而對其合力圍殺的三支中國戰(zhàn)隊最終抱憾惜敗,是一大新聞。
但是另一個大新聞,背后的寒意更甚。
埃隆·馬斯克麾下的OpenAI完勝前世界冠軍Dendi,就是這屆Ti7的最大冷門!兩場中單Solo,第一局OpenAI僅用10分鐘就輕取Dendi,雙方實力的懸殊令人咋舌。
更讓吃瓜群眾背后冒冷汗的是,馬斯克賽后發(fā)推文表示,從OpenAI接觸Dota2到戰(zhàn)勝Dendi,只僅花費了2周多的時間。
OpenAI如此恐怖的學(xué)習(xí)能力,不禁讓人想到此前在與AlphaGo對戰(zhàn)中落淚的柯潔,同時又不得不感嘆人工智能的強大。
別在意核武器 AI才是人類最大威脅對于OpenAI的學(xué)習(xí)能力,馬斯克終究是很得意的,但是他對AI的恐慌,卻令人糾結(jié)。
按照常規(guī)的發(fā)言表態(tài)來看,他屬于長期的堅持認(rèn)為AI將會毀滅人類的一方。
上周五,馬斯克在Twitter上發(fā)文,再次就人工智能發(fā)出新的警告,稱這種技術(shù)對人類的威脅比朝鮮核武器還要大,人們應(yīng)該提高對人工智能崛起的警惕,“如果你不擔(dān)心人工智能的安全性,那么現(xiàn)在你應(yīng)該擔(dān)心。
它比朝鮮核武器危險得多。
”這已經(jīng)不是馬斯克第一次就人工智能可能帶來的威脅做出表態(tài)。
作為一名堅定的AI威脅論者,馬斯克堅信AI是人類文明迄今為止面臨的最大風(fēng)險。
他此前就曾表示,“如果不能快速與AI進行溝通,那么惡意的人工智能程序?qū)⒑芸赡艹^人類智慧并創(chuàng)造出反烏托邦社會。
”對于AI的發(fā)展,馬斯克的態(tài)度不是禁止,而是要主動進行監(jiān)管。
而他投資OpenAI,目的也是“隨時監(jiān)視”AI的危害性。
對此,另一方AI支持者陣營的小扎同學(xué)表示非常不屑。
Facebook CEO扎克伯格過去幾周頻頻對馬斯克的言論進行抨擊,指出后者的說法“消極而且不負(fù)責(zé)任”。
扎克伯格7月底在Facebook Live直播過程中更是直接嗆聲馬斯克,“我強烈反對散播AI威脅論的言論,我持樂觀態(tài)度。
”“我認(rèn)為你可以創(chuàng)造事物,讓世界變得更美好。
尤其在AI前景上,我真的感到樂觀。
對于那些否定AI,試圖營造世界末日論的人,我真的不理解。
他們的言論真的很消極,某些時候甚至讓我感覺太不負(fù)責(zé)任。
未來5年至10年內(nèi),AI將會在許多方面改進我們的生活質(zhì)量。
”要知道,小扎同學(xué)在說出這番話時情緒還是非常激動的。
不過,盡管扎克伯格力挺AI,但是他的實驗室中卻有兩臺機器出了問題,它們似乎表現(xiàn)的有點太活躍了,以致于Facebook的工程師不得不拔掉了電源插頭。
事情的經(jīng)過大致是這樣的,兩周前《太陽報》刊文稱,F(xiàn)acebook人工智能實驗室中的兩位聊天機器人Alice和Bob,有一天在試驗中將英語轉(zhuǎn)化成了一種更易于它們溝通的語言,而這種語言只有它們自己能理解。
為此,F(xiàn)acebook不得不拔掉系統(tǒng)的電源插頭,因為事情失控了。
可能會有人認(rèn)為,為什么要限制它們,AI自己衍生出語言進行交流,這不是一件很酷的事嗎?但作為親歷者的工程師,卻感覺這樣很恐怖,這種進化并不在工程師們的預(yù)想中......國外對于AI持悲觀論者已經(jīng)就上述事件開始了潮水般的評論和指責(zé)。
而Facebook內(nèi)部的反對意見更是暗潮涌動,公司一位高管甚至直接開始了隱匿和捍衛(wèi)人類的準(zhǔn)備:8月8日,F(xiàn)acebook產(chǎn)品經(jīng)理馬丁內(nèi)斯向英國廣播公司宣布,因為對AI主導(dǎo)的未來深度悲哀,他選擇辭職并帶著獵槍隱居在西雅圖北部的森林里。
“我們都沒有意識到,在技術(shù)和政治之間,我們的技術(shù)是正在獲勝的那一個。
在未來30年內(nèi),會有一半人類的工作被機器人代替。
社會會因為大量失業(yè)人口變的混亂,充滿暴力與沖突……”這位離職高管對媒體說出的話,引發(fā)了很多硅谷科技人員的深思。
AI究竟是人類歷史上最好還是最壞的事除了馬斯克外,一向語出驚人的科學(xué)家霍金,在對待AI方面同樣持保守態(tài)度。
在今年4月底的GMIC北京2017上,霍金就通過視頻演講,表示AI的崛起可能是人類文明的終結(jié)。
實際上,從三年前霍金就反復(fù)強調(diào):人工智能或許不但是人類歷史上最大的事件,而且還有可能是最后的事件。
或許,洞見性遠(yuǎn)超多數(shù)人類的霍金,對于AI的落地應(yīng)用很早就做出了判斷,我們看一下三年前他為《獨立》雜志撰寫的內(nèi)容:“截至目前,基礎(chǔ)性的人工智能技術(shù)已經(jīng)取得一定成果,很有實用價值。
“霍金在肯定了AI的成果后表示了對未來的擔(dān)憂,”人工智能也許會在將來的某一天趕上甚至超過人類。
它自己就會行動起來,還能以前所未有的超快速度重新設(shè)計自己。
人類呢,就要受到緩慢的生物進化的限制,根本沒有競爭力,會被超越的。
”霍金對于人們熱衷于科幻小說和電影情節(jié)提出了忠告,表示所謂科幻的魅力會蒙蔽人們的雙眼,它有時會掩蓋住一個重要的問題,即最終的結(jié)果有可能引發(fā)一場浩劫。
“人工智能技術(shù)發(fā)展到極致程度時,我們將面臨著人類歷史上的最好或者最壞的事情。
”一直到今天,霍金對于AI的擔(dān)憂和警惕依舊沒有絲毫變化。
這一切顧慮,似乎和《機械公敵》、《西部世界》等影視劇中描繪的場景如出一轍,一旦AI有了屬于自己的智慧,能夠獨立思考之后,將開始威脅人類的生活……AI本中立 好與壞的結(jié)果取決于人如果將馬斯克與霍金對于AI的擔(dān)憂進行總結(jié),幾乎都是聚焦在AI發(fā)展到極致之后是否能夠擁有自主意識,甚至超越人類。
對此,原騰訊副總裁、著名風(fēng)險投資人吳軍,在前不久發(fā)布的《硅谷來信》中提出了自己的看法,他的結(jié)論是:這件事情不會發(fā)生。
吳軍認(rèn)為,人類之所以能夠跟黑猩猩不同,成為今天這樣的高等動物,是因為在進化的過程中不斷地出錯的結(jié)果。
其中一個決定性因素就是,人類擁有很好的語言能力,而語言能力的出現(xiàn)就是一次基因在進化過程中出錯的結(jié)果。
而今天的人工智能看似能解決一些問題,但從本質(zhì)上來講它的操作還是可以確定的,是可預(yù)知的。
實際上,無論是正方還是反方,預(yù)測的都是一個未知的世界,這種情形,也許會在多年后,如同我們現(xiàn)在談?wù)撈鹫羝麢C車的出現(xiàn)對一些人產(chǎn)生的驚擾。
人類對于未知,永遠(yuǎn)是好奇和心懷畏懼的,因為未知是否將威脅人類,還是幫助人類,誰都無法確定。
就如同F(xiàn)acebook實驗室中那兩個聊天機器人所衍生出的新的語言一樣,那是只屬于它們自己的東西。
它會有害還是有益?工程師的第一個反應(yīng),只能是拔掉插頭、關(guān)閉電源。
無論是谷歌還是Facebook甚至是百度,這些科技巨頭們都正在不斷地完善人工智能,開拓其應(yīng)用落地的新時代。
毫無疑問,隨著人工智能的發(fā)展,機器將越來越多的取代人類的工作。
人工智能的成長確實迅速,或許未來在不斷地深度學(xué)習(xí)中,機器會進化出自我意識,這或許需要上百年,也可能僅需數(shù)年時間。
如何在其成長學(xué)習(xí)的過程中做好監(jiān)管,正確的引導(dǎo)人工智能的發(fā)展方向,正是目前馬斯克一直在努力的。
“AI既是個好的工具也可以被用來作惡。
我對人工智能不會有具體的立場,因為它本身是中立的,它最后到底是好是壞,取決于人類對它的應(yīng)用。
”8月15日,世界頂級黑客米特尼克現(xiàn)身北京時,留下了這一段話語。
或許,一個新事物在發(fā)展的過程中總會伴隨著各種質(zhì)疑,不過這并不是壞事,這些“善意的提醒”總是在告誡我們:創(chuàng)造和毀滅世界,往往就在一念之間。
下一篇:共享豪車現(xiàn)身杭州 49.9元可開勞斯萊斯等豪車 下一篇 【方向鍵 ( → )下一篇】
上一篇:2018年科技趨勢預(yù)測:移動市場接近飽和,AI與直播持續(xù)火熱 上一篇 【方向鍵 ( ← )上一篇】
快搜