科技

霍金:人工智能有可能是人類文明的終結

霍金

人工智能一直是科技界關注的焦點之一。

著名物理學家霍金剛在2017全球移動互聯網大會上,通過網絡發表了題為《讓人工智能造福人類及其賴以生存的家園》的主題演講。他表示,人工智能的崛起可能是人類文明的終結。

現時,人工智能已經滲透在日常生活之中,並視為未來世界的發展趨勢之一。人工智能的利弊一直都是人類關心的議題,而霍金就指出,過去人類把太多時間花在怎樣提升人工智能的能力,現在須要暫停片刻,研究一下人工智能怎樣提升社會效益。

人類文明裡所衍生的一切都是人類智能的產物,霍金認為生物大腦可以做到的事,電腦都可以做到,而且沒有本質的分別。目前人類對引入人工智能是禍是幅,還是有天會被邊緣化或被它毀滅,完全沒有頭緒。但可以肯定的是,聰明的人工智能將代替人類工作,並迅速消滅數以百萬計的職位。

這已經不是霍金第一次提出「人工智能威脅論」。他早已於今年3月,向英國《獨立報》表示,人類必須建立有效機制盡早識別威脅所在,防止人工智能進一步為人類帶來威脅。

 

為何人工智能會變得危險?

大多數研究人員會同意,人工智能因為不會出現愛情或仇恨這類的人類情感,因此不會造成惡意破壞等行為,會令世界變得更公平公正。但是,人工智能在以下兩種情況下,有機會直接威脅到人類的安全:

人工智能基本上是透過編寫程式而執行任務的,例如智能武器系統會透過閱讀程式指令來攻擊敵人。即是,如果有人刻意將保護人類的智能武器改成殺人武器,很容易便造成大量傷亡。另外,人工智能競賽亦有可能導致爆發大型軍備競賽,令第三次世界大戰隨時爆發。在戰爭中,為了避免遭到敵人控制,這些智能武器將會設計成極度難地被「關閉」,因而導致最終連人類都未能控制的局面。這種風險即使是狹隘的人工智能也是存在的,但隨著人工智能和自主水平的提高而增加。

另外,人工智能雖然能夠學習人類思維,但究竟學習的程度如何、以及什麼程度才可完全取代人類,還有待考究。因為人工智能不會出現人類情感,對於人類下達的指令只會言聽計從,而不會經過消化後作出反抗或提出建議,因此未必能理解指令背後深層的意義,有機會出現「為求目的不擇手段」情況,令事情本未倒置。例如你要求智能系統執行一項興建工程,但系統未能妥善平衡各方利益,只懂武斷地執行任何,導致生態系統造成破壞。

我們可以看到,高級人工智能夠幫助人類達到目標,但如何執行則需要大量編程、分析和數據,這並不是件容易的事。

 

人工智能威脅論

人工智能威脅論一直在國際間有討論。霍金認為,雖然人工智能所帶來的收益巨大,而且人類或許能借助它們,減少工業化對自然的傷害,但他始終認為人工智能是人類文明的一大威脅。對此,他將威脅分為短期和長期兩種:短期威脅包括自動駕駛系統取代人類、智能自動武器以及私隱問題等;長期威脅則是人工智能系統失控,如人工智能拒絕聽從人類指揮,終毀滅人類。

霍金指,人類之所以不敵人工智能,是因為人工智能一旦脫離束縛,就會不斷加速以重新設計進化,而人類由於受到漫長的生物進化所限制,無法與之競爭,將被取代,這將給人類文明帶來極大的破壞。而在可見的未來,相信人工智能已經能夠發展出自我意志,一種能與人類發生衝突的能力。

人工智能是否人類文明的終結,不得而知,不過盡早學會如何避免風險,對人類文明的確多了一層保障。

 

 

To Top