作者 | 莫以菲
來源 | 互聯(lián)網(wǎng)今日爆點(ID:ceoquanzi)
近日,英國著名物理學(xué)家斯蒂芬·霍金發(fā)出警告:
人類地球生活僅剩100年!
01
在地球生活,我們只剩100年!
昨天,久負(fù)盛名的物理學(xué)家霍金警告稱,人類必須在100年內(nèi)殖民另一個星球,否則將會面臨滅頂之災(zāi)。
人類若想避開滅頂之災(zāi),就必須在100年內(nèi)殖民另一個星球,才現(xiàn)在開始做好在外太空生活的準(zhǔn)備。
去年11月,霍金曾有過關(guān)于人類地球生活年限的演講。當(dāng)時他預(yù)言比這次保守的多——人類還能在地球上幸存1000年。在當(dāng)時的大會上,霍金表示:
也許將來有一天,我們將能夠利用引力波來回顧宇宙大爆炸的中心。在我們堅持不懈地觀察和研究中,宇宙學(xué)說也在不斷取得新的進展,但為了人類的未來,我們必須進入太空。如果不逃離這個脆弱的星球,我認(rèn)為人類的生存時間還剩下不到1000年。
但是,在今年6月播出的新片《探索新地球》中,霍金重申闡述了觀點,他表示:
人類在地球上生活的年限僅剩下100年。在未來的100年內(nèi),人類必須離開地球,到外太空尋找可能居住的星球,否則會全部滅亡。
02
外星人是存在的,千萬別跟他們接觸
霍金說,人類面臨的主要危險包括小行星墜落、流行病、氣候變化和地球人口過剩。
早些時候,霍金稱可能的威脅還有核戰(zhàn)爭、全球變暖、基因改變的病毒和人工智能。這些都有可能成為毀滅人類的元兇。
另外,外星人也是一個可怕的因素。他十分確信在地球之外的存在著智慧生命,但他警告人類應(yīng)當(dāng)想盡一切辦法避免與這些外星生命接觸。
霍金表示:“我們只需要看看自己,就能知道 這些外星生命會如何變得讓我們寧愿沒碰見過他們。如果外星人來拜訪人類,我想其結(jié)果會變得與哥倫布到達(dá)新大陸時非常相似,那對美洲土著可并不有利。”
如果真是這樣,人類將面臨很可怕的局面。霍金的話看似荒唐,其實深思還是很有道理的,如此廣闊的宇宙,存在多種智慧生命的可能性,實在是太高了,現(xiàn)在沒有找到,可能是我們的探索技術(shù)還不夠成熟。
但是,如果真的有比人類更聰明的生命存在,我們是否就一定要躲躲藏藏,不跟他們接觸呢?如果他們真的更有智慧,想必想避免也避免不了。
03
人工智能:要么是最好的,要么是最壞的
對于人工智能,霍金一直憂心忡忡:
在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智能的崛起。簡單來說,我認(rèn)為強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。
可是,是好是壞,沒人知道。對此,我們應(yīng)該竭盡所能,確保其未來發(fā)展對我們和我們的環(huán)境有利。
霍金認(rèn)為,人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。
例如,我們擔(dān)心聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。
因為,人工智能發(fā)展到一定階段,跟人類沒有本質(zhì)區(qū)別。它遵循了“計算機在理論上可以模仿人類智能,然后超越”這一原則。
最令人擔(dān)心的就是,人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設(shè)計自身,人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代,這將給我們的經(jīng)濟帶來極大的破壞。
“未來,人工智能可以發(fā)展出自我意志,一個與我們沖突的意志。盡管我對人類一貫持有樂觀的態(tài)度,但其他人認(rèn)為,人類可以在相當(dāng)長的時間里控制技術(shù)的發(fā)展,這樣我們就能看到人工智能可以解決世界上大部分問題的潛力。”
04
無論如何,一定要確保機器人為人類服務(wù)!
無獨有偶,特斯拉CEO馬斯克也表示,人類必須以某種方式與機器融合,否則將會在AI時代被異化。
早在2014年,馬斯克曾警告:“我們需要萬分警惕人工智能,它們比核武器更加危險!”
為了避免走向終結(jié),2017年2月,馬斯克和全球2000多人,包括844名人工智能和機器人領(lǐng)域的專家聯(lián)合簽署了23條AI發(fā)展原則,呼吁全世界的人工智能領(lǐng)域在發(fā)展AI的同時嚴(yán)格遵守這些原則,共同保障人類未來的利益和安全。
機器正逐年變得更加智能,研究人員相信他們在未來幾十年內(nèi)可以擁有人類智能水平。 一旦他們達(dá)到這個程度,他們就可以開始改善自己,并創(chuàng)造其他智能,甚至更強大的AI,牛津哲學(xué)家尼克·博斯特羅姆和其他幾個該領(lǐng)域的專家認(rèn)為,應(yīng)當(dāng)稱其為超級智能。
馬斯克和霍金的擔(dān)心,其實這一百年一直都存在。人類對人工智能這項技術(shù)的擔(dān)憂是歷史性的,每當(dāng)有新技術(shù)產(chǎn)生,這些擔(dān)憂都會隨之而來。
新技術(shù)的發(fā)展,往往是利弊參半的,人工智能確實有可能終結(jié)人類,除非我們學(xué)會避免危險。
對于人類失業(yè)的危險,真正的挑戰(zhàn)在于,人類如何更快更好地去適應(yīng)這種技術(shù)帶來的變化,被替代的人如何有效地通過再培訓(xùn),重新定位到新的工作領(lǐng)域。
而且,關(guān)于預(yù)測,如果我們回到1934年,看看喬治·奧威爾所著的《一九八四》,會發(fā)現(xiàn)書中預(yù)測的時間是錯誤的,技術(shù)也是錯誤的,
接下來的十年,機器可能會慢慢融入日常生活。像汽無人駕駛、疾病的診斷和治療、安全保障方面,都會讓我們?nèi)〉煤艽蟮陌l(fā)展,甚至是我們還無法想象的發(fā)展。
所以,作為一個負(fù)責(zé)人的科學(xué)家,霍金的擔(dān)憂是正常的,但是人工智能可以為我們帶來的便利太多了,我們需要的,是確保機器人無論現(xiàn)在還是將來,都為人類而服務(wù),讓人類過得更好。