最近,比爾蓋茨公開表態稱,自己對人工智能感到擔憂,而且不明白為什么有那么多人并不擔心這種技術對未來的影響。
兩周前,馬斯克和著名物理學家史蒂芬·霍金也都簽署了一封公開信,呼吁在人工智能創新方面采取安全措施。但有趣的是,蓋茨與馬斯克都曾資助過人工智能的研究,微軟旗下更是有專門的實驗室從事人工智能相關產品的開發。與蓋茨、馬斯克的擔憂相反的是,真正從事人工智能研究的科學家反而斥責這類“人工智能威脅論”,這種論調阻礙了科學的進步。Facebook人工智能實驗室的負責人Yann LeCun就曾指出類似的言論在歷史上。
人工智能從字面上看起來非常容易理解,就是由人類制造的擁有類人智能的機器。這也是大眾最為容易接受的一種定義,絕大多數的小說與電影中的人工智能都是圍繞這個定義進行描寫與刻畫的(比如美劇《疑犯追蹤》中的兩位人工智能“上帝”,它們在最新的劇情里甚至有了人間的化身)。但實際上,學界對于人工智能并沒有統一的定義,許多研究者都只是從自己研究的方向出發對人工智能進行模糊的描述。
美國斯坦福大學人工智能研究中心的尼爾遜教授對人工智能下了這樣一個定義:“人工智能是關于知識的科學――怎樣表示知識以及怎樣獲得知識并使用知識的科學。”而另一位美國麻省理工學院的溫斯頓教授則認為:“人工智能就是研究如何使計算機去做過去只有人才能做的智能工作。”
對于研究者而言,目前的人工智能研究主要是為了解決具體的問題,而非創造一位“上帝”。我的一位老師曾經做過關于圖像智能識別的研究,她的主要工作就是設計算法讓計算機從海量的照片中自動識別出含有交通指示牌的照片。對她而言,所謂的“智能”不過是精巧的算法,她當然不會害怕這些自己親手敲出的代碼。
但馬斯克與蓋茨的擔憂也并非全然沒有道理。隨著技術的進步,人類有可能進一步的破解思維產生的奧秘,從而設計出擁有類人智能的機器。我不贊同那些認為人類大腦是不可破解的“神域”想法。人類的思想意識來源于大腦,而大腦是由物質組成的,和人體的其他器官并無二致。
理論上,只要是物質,沒有什么是不可復制的,只是技術是否能夠達到的問題。曾經,我們也認為心臟是不可替換的,但現在,人工心臟已經挽救了許多患者的生命。超強的計算能力、海量的數據存儲、無限的感知能力與人類的智能相加,在最瘋狂的宗教中對最強大的神祇的想象也不過如此,這樣的怪物當然值得人類畏懼。
除此以外,人工智能的思考是否能為人類所控制也是馬斯克與霍金擔憂的主要原因。人工智能擁有近乎無限的可能性,它是否服從人類的管理是一方面,管理它的人類是否會將其用于正道又是另一方面。相較于前者,后者的威脅明顯更加巨大。人工智能的“惡”,我們還未曾領教過;但人性的“惡”,每天都在發生。人工智能被用于正途,可能會成為為人類服務的“核電站”,用于歧途,則可能成為撼動世界的“核武器”。沒人想讓一個壞孩子掌握毀滅世界的核按鈕。
然而,即便如此,對于人工智能研究也不應被放下。從上個世紀四十年代開始,人類就已經掌握了可能導致滅世的核武器。美國在日本的廣島和長崎投下的兩顆原子彈,造成了超過十萬人的死亡。絕大多數的科學家反對核武器的使用,但沒有一個科學家敢說從未發明核武器的社會就一定會比現在的社會美好。
隨著科學的進步,人類對于物質的認知進一步加深,核武器、核能是一定會被發明出來的,這是歷史的必然。同樣,人工智能的出現也是一種必然,或早或晚,但終究會到來。我們有理由提防它可能造成的破壞,但沒有理由去阻止它的降生。
很多時候,人類對人工智能的畏懼實際上來源于對自身人性的失望。自認萬物靈長的我們,時至今日也還沒有消滅戰爭、饑餓與仇恨等“不道德”的現象。人工智能就像一面鏡子,人人都能從自己的恐懼中照到自己內心深處的陰影。與其擔憂尚未誕生的人工智能,倒不如好好反省一下人類自身。
2025-03-29 08:40
2025-03-23 08:32
2025-03-18 13:57
2025-03-13 09:20
2025-03-12 15:57
2025-03-11 11:17
2025-03-11 09:18
2025-03-08 11:38
2025-03-08 08:52
2025-03-07 10:19