Total Pageviews

Sunday, February 8, 2015

tc: 人類不會有時間準備

《超級智能》作者 Nick Bostrom 在牛津大學創立的「人類未來學院  (Future of Human Institute)」專事這方面的研究,他們認為目前核子武器戰爭仍是人類滅絕的最大隱憂,但生物和納米科技將會很快取而代之。相比之下,氣候變化及禽流感變種等來自大自然的威脅都是小兒科。這些都不難明白,但我們所知的所謂人工智能,沒有意識和感情,即使某些特殊技術如下象棋己勝過人類,都只是人寫的電腦程式,有甚麼可怕?

可怕在沒有人知道它將會怎樣演化,會不會突然如霍金所說,「會自行起動,重新以不斷增加的速度自我完善設計」,成為超級智能。以機械為載體的智能,其運算處理比神經元網絡快以百萬、億萬倍計,容量沒有人類母體產道對大腦的限制。超級智能勝過人類,將會遠遠超過人和鼠鳥之間的差異。我們應該知道,演化史上的偶然賜與人類比其它生物多一點智能,就足以讓我們主宰地球一切。如果超級智能擁有和我們不同的生存目標和價值,人類不是它的敵手。

...未來的超級智能很可能由機械智能開始演化,不受生物物理局限,臨界點過後的飛躍可能在秒間一瞬之內發生,人類不會有時間準備。機械智能沒有經過生物式的社會演化,意志和價值難以預料。它可能只是一個專注於生產最多最好的萬字夾機器,沒有意圖傷害人類。但各式各樣的超級智能演化過程中,必然會型成一些共同的功能價值,例如自保、保護目標完整性、提升認知能力完善技術攫取資源。單是最後一項,就足以驅使「萬字夾機器」毀滅人類。

tc《超級智能:人類遺作或救星?》

No comments:

Post a Comment