查看完整版本 : 著名人類學家胡家奇:終於有了知音

地球講解員 2019-1-3 10:33 AM

著名人類學家胡家奇:終於有了知音

[align=center]一[/align]


  中國建材規劃研究院副院長張時秀發來資訊“搜狐新聞:牛津科學家研究認為,人類最快於下世紀滅絕,高科技是禍首,和你的結論完全一致!恭喜你有了國際理論成果的驗證,望繼續努力研究並呼籲。”


  我即刻上網查尋,網上報導:


  “牛津大學人類未來研究院一研究小組日前表示,人類最快下個世紀就會滅絕,高科技是罪魁。該研究小組由眾多數學家、哲學家和科學家組成。牛津大學人類未來研究院院長博斯特羅姆說:科技的發展正在與人類的智慧比賽,人類需要足夠的智慧去駕馭技術力,我擔心技術會領先太多。


  該研究小組還進一步指出,人類的滅絕並不是遙不可及的事情,如果人類不正視並著手解決這一問題,最快下個世紀,人類末日就將來臨。”


[align=center]二[/align]


  回想起來,我從事人類問題的研究達34年,“科學技術的繼續發展必定很快滅絕人類,長則二、三百年,短則百年內”,這是我最重要的研究結論之一。2007年7月,我的《拯救人類》一書出版後僅賣了兩天就因故停止了發行,之後我又出版了一系列的著作,發表了一系列的文章,努力尋求在多種場合進行演講和表達,兩次向中國國家主席寫信,兩次向美國總統寫信,還向俄羅斯總統、法國總統、英國首相、聯合國秘書長等許多人類領袖寫信,闡述我的觀點,請求他們能夠挺身而出,領導我們肩負起拯救人類的神聖使命,因為只有大國領袖才最具有拯救人類的能力。


  我的所有信件都石沉大海,而我的呼籲絕大多數的評價是聳人聽聞、嘩眾取寵,甚至還有許多的嘲笑。沒想到現在卻傳來了一個權威研究機構的研究成果竟然與我的研究成果完全吻合。


  真是知音啊!我非常感慨,我想我得做一點什麼。


  首先我即刻向博斯特羅姆寫信,希望能夠見面交流,最好能夠共同成立一個研究機構。同時,給《全球商業經典》雜誌社總編王湧打電話,我想寫一篇相關的文章,他說可以給我發一個專欄,王湧是少數支持我觀點的朋友之一。


  我又給一位在知名電視臺任台長的朋友打電話,希望能在他的電視臺講講我的觀點,但他有些猶豫,他說你可以這樣講:科學技術必須理性的發展,善意的發展,比如核武器落到壞人手中就會毀滅人類,有些昧良心的人研究有毒的食品添加劑就是害人,因此,不懷善意的發展科學技術就會毀滅人類。


  我坦率地談了我不同的觀點:科學技術不再是簡單的毀滅人類,而是會滅絕人類,滅絕就是一個人都不剩。另外,不是非善意的科學研究才會滅絕人類,是不管非善意還是善意的發展科學技術,都會很快滅絕人類。如不馬上採取措施,二、三百年之內人類必被滅絕,本世紀內都有被滅絕的可能。


  我的台長朋友認為這有些聳人聽聞,觀眾很難接受,但我則堅持這個結論是一個科學的結論,是一個真理性的結論。


[align=center]三[/align]


  科學技術的繼續發展必定會滅絕人類的理由如下:


  首先,科學技術有滅絕人類的能力。


  科學技術是一把雙刃劍,既能造福人類,也能毀滅人類,造福人類的能力越強,毀滅人類的威力就越大,隨著科學技術不斷向更高層級發展,終究會具備滅絕人類的能力,即滅絕手段必然會出現。今天的核武器相比明天的智能機器人、納米機器人或者別的什麼高科技的東西將不值一提。


  拿智能機器人來說,其滅絕人類的能力就是毋庸置疑的。


  當科學家發明機器替代人類的體力勞動後,有了飛機、火車、巨輪,這些機器把人的體能提高了千萬倍;當科學家發明電腦替代人腦的計算,今天一臺電腦每秒運算速度超過億億次,這也就是把人類的運算能力提高了億億倍;當人類發明殺戮手段來替代自己的拳腳嘴咬後,於是有了核武器,核武器的爆炸威力可達數千萬噸TNT當量,從而把人類的屠殺能力提高了千萬倍。


  那麼再試想,智能機器人是能夠像人類一樣進行複雜思考的機器,當智能機器人能夠像人類一樣進行複雜思考之後,就會迅速進化,思考的能力將會超過人類千倍、萬倍甚至億倍。智能機器人之父雨果–德–加裏斯就形象的比喻,在智能機器人面前,人類的反應速度還不如石頭風化那麼快,相對於智能機器人,人類的智商幾乎等於零。


  自然界,從來就是高智商的物種鄙視低智商的物種,甚至把低智商的物種進行烹炸煮烤,當成食物或者當成玩偶。當智能機器人超過人類的那一刻起,人類也就完蛋了。


  還有科學家擔心納米機器人會滅絕人類。


  納米機器人是一種分子大小的機器人,用這些機器人專門搬運原子,以實現人類的目標。例如:可以讓納米機器進入人的血管,去掉沉積於靜脈血管上的膽固醇;用納米機器人跟蹤身體中的癌細胞,在癌細胞才只有少量幾個時便將其殺死;讓納米機器人將草地上剪下的草立刻變為麵包;將回收的廢鋼鐵立刻變為一輛輛嶄新的高檔小轎車等等。總之,納米技術的未來非常美妙。


  但有一個問題,相對於一個納米機器人能夠創造的價值而言,製造一臺納米機器人是十分昂貴的,因為納米機器人實在太小了,雖然它能做的事很有意義,但其效率卻非常低,因為即使一個納米機器人十分辛勞地不斷工作,但一天工作下來其收穫只能以原子數來計算,哪怕數量很大,如搬運了上億的原子,但加起來也就針尖那麼大。


  於是,科學家想到了一個辦法,這就是在編制納米機器人程式的時候要同時給出兩個指令,第一個指令當然是需要它去完成的那項工作,第二個指令則是要這個納米機器人複製多個自己,目的是讓眾多的納米機器人共同完成那項需要完成的工作。因為納米機器人具有搬運原子的本領,納米機器人本身又是由並不多的原子所組成的,所以複製一個自己是非常容易的事。要是這樣,如果一個納米機器人複製十個自己,十個便可複製百個,百個將可複製千個……於是,萬萬億億個納米機器人便可在很短的時間複製出來。因此,有了第一個納米機器人後便可以萬事大吉,因為由它複製的億萬個機器人會與它一道來完成人類指令的工作。


  但是,一個麻煩的問題產生了,那就是這些納米機器人要是一味地複製下去不知停頓怎麼辦呢?我們人類的身體,以及我們的地球都是由原子組成的,如果納米機器人在我們身體內把我們身體中的各個原子都當成它們的生產材料,很快我們的身體就會被吞噬,如果納米機器人永不停歇地複製下去,我們整個地球同樣並不需要多久就會被吞噬,如果這樣的納米機器人不小心被宇宙塵埃帶到別的星球,同樣會把別的星球全部吞噬。這是一個極其可怕的問題。


  然而,有科學家很自信能夠控制這樣的災難,他們認為能夠設計出一種程式使納米機器人在複製數代後自我摧毀,或者設計出只在特定條件下自我複製的機器人,例如:要是讓這樣的機器人專門改造垃圾,那麼這些納米機器人便只能在有垃圾的環境下自我複製,而且只會用垃圾複製自己,而在別的環境下,或者用別的材料決不複製自己。


  這些科學家的想法雖然好,但實在太理想化了。一些更理性的科學家於是質疑這一想法,他們提出,如果這些機器人的程式出了毛病不終止複製怎麼辦?如果有科學家在編制程式時不小心忘了加入這一控制自我複製的程式怎麼辦?如果有一個喪盡天良或者心理變態的科學家,在設計納米機器人時故意不加入這種控制程式來危害人類和地球怎麼辦?以上的任何一種可能只要出現一次,便意味著人類必遭滅絕、地球必遭毀滅。任何人都可以感受到,一只蝗蟲沒事,億萬只蝗蟲可以毀滅一切的道理。


  不論是智能機器人還是納米機器人,其實,人類離徹底掌握這樣的技術已經並不遙遠。而且可以肯定,還有比智能機器人和納米機器人厲害得多的東西,只要科學技術不停止發展,人類又還沒有滅絕,這些東西都會研製出來。


  有人提出,我們完全可以組織最好的科學家對每一項高科技進行把關。先不論這種設想能否完全實現,即使真的能夠實現,也不可能真正把好關,因為不可確定性是科學技術的固有特性,愛因斯坦和牛頓都有許多科學失誤的例子,況且並不是每一個科學家都有愛因斯坦和牛頓的水準。


  正如認為氟利昂好,卻導致了臭氧層的破壞;認為DDT農藥好,卻導致了生物多樣性的喪失。至於所說的智能機器人,人們研製也許只是為了讓它們造福人類,但當它們超過人類的智慧後就必然會失控。有人說,人類能夠創造它就能夠控制它,這是愚蠢的想當然,普通機器還有失控的時候,況且智商遠超人類的智能機器人!納米機器人的失控也是相似的道理。


  記得2011年日本大地震導致福島核電站核洩漏,就有不少原來反對我觀點的朋友與我聯繫,開始認同我科學技術防不勝防的道理。


[align=center]四[/align]


  那麼,科技滅絕人類還有多遠?


  很近!


  我們知道,科學技術在18世紀中葉的工業革命前還處於極低的水準,僅兩百多年就發展到了今天這麼高的層級,一枚核彈頃刻間可以毀滅一座數百萬人的城市,採用轉基因技術改造的生物毒素也許比核武器還要可怕。在如此高的科學層級的基礎上再往前發展,完全可以想像五十年後,一百年後世界會是怎麼樣的情況,何況科學技術呈裂變加速狀發展,今天比過去發展快得多,未來又比今天快得多。


  事實上,在今天的科學研究中,許多專案人們對其安全性的擔憂早已經不是它可能會有多大的危害,對它們的擔心本身就是這些研究能否會滅絕人類。科學家曾擔心原子彈實驗和氫彈實驗會點燃大氣滅絕人類,曾擔心歐洲強子對撞機實驗會滅絕人類,當然,事後看來這些擔憂都是多餘的。今天科學家又擔心納米機器人的無限複製,以及智能機器人的失控會滅絕人類,但這些科學研究仍然在進行,沒有人能夠阻止。那麼讓我們理性地想一想,一些科學研究你認為它們有可能滅絕人類,堅決反對,我則認為它們是安全的,全然不顧地推動它;反過來,另一些科學研究我反對時,你則認為安全,我也阻止不了你。於是,科學技術就這樣失去了控制地瘋狂地向前,向前,向前。然而,不可確定性是科學技術的固有特性,越是高端科技就越難準確地判斷,簡單的道理都告訴我們,這種僥倖絕不可能永遠延續下去,反對者必有言中的時候。正如常在河邊走總會要濕鞋,夜路走多了一定碰見鬼,當這種非理性的行為把科學技術一步一步推向更高的層級,只要我們碰上一次“鬼”,人類的路也就走到了盡頭。


[align=center]五[/align]


  事實上,科學技術的發展實在太快了,而人們對不斷湧現出的科學技術成果則變得越來越麻木。19世紀初當照相技術發明時,照一張相要在陽光下一動不動地坐上幾個小時,即使這樣,新奇的人們還願意試一試。X射線剛發現時,人們奇怪萬分,誰都想通過X射線看一看自己的身體內部結構,包括王公貴族也是如此。當電燈還處在試驗階段時,就已經把那些記者驚得目瞪口呆。然而,今天我們卻看到,幾乎任何一個創造發明或者任何一個新的科學發現都再難以引起人們的驚奇與轟動。發展麻木必然導致危機麻木,當人們對一切科學技術成果都毫不思考地理所當然地接受之時,也必然會對科學技術成果的負面作用表現出麻木不仁。然而災難總源於麻木,在滔天巨浪到來之前,海面常常非常平靜,但暗流卻在海底湧動,當全社會都已麻木不仁之時,一場滅絕性的災難說不定就在前面不遠。


  遺憾的是,人類對於自己的處境還蒙在鼓裏,對科學技術的極其巨大的毀滅力認識遠遠不足,甚至連最傑出的政治家和科學家對此都沒有引起足夠的重視,至於採取實質性的防範措施更是一件極其遙遠的事。人類的精英們更多的是安於對科學給人類帶來的各種成果的盡情享受,而對科學帶給人類的各種危害所採取的措施只是頭痛醫頭、腳痛醫腳,至於科學一定會給人類造成滅絕性災難,任何最有權力的領袖們都還沒有實質性的覺悟。


  其實,留給人類的時間真的不多!


[align=center]六[/align]


  以上的道理也許我最終不能說服我的台長朋友,但今天已經有像牛津大學人類未來研究院這樣的權威研究機構得出了和我完全一致的結論,我已經感到了一絲未來的曙光,我相信更多的人會關注這一事關人類生死存亡的問題,只要全世界普遍認同了上述觀點就會找到解決的辦法。也許博斯特羅姆院長不會接受我的邀請,但我還是會把他和他的研究院當成知音,因為我們有著對人類命運共同的關切。
頁: [1]
查看完整版本: 著名人類學家胡家奇:終於有了知音