摘要:
隨著大數據和信息的爆發式增長,人工智能進入一個快速發展的時期,同時也帶來了人工智能威脅論的爭議,對于人工智能能否超越人類智慧,以及神秘的圖靈測試的先天不足,在本文中進行了詳細闡述。文章高能燒腦邏輯性強,心煩意亂者慎讀。
本世紀以來,隨著互聯網大數據的興起,信息的爆炸式增長,深度學習等機器學習算法在互聯網領域的廣泛應用,人工智能再次進入快速發展的時期。與此同時,不同領域的科學家,企業家如物理學家霍金,微軟創始人比爾蓋茨等人,紛紛對人工智能的未來表達了擔心,提出人工智能的快速發展可能對人類本身產生威脅。
人工智能威脅論的支持者們說
霍金在去年12月接受BBS采訪時說:
“人工智能的全面發展可能導致人類的滅絕。它自己就動起來了,還能以前所未有的超快速度重新設計自己。人類呢,就要受到緩慢的生物進化的限制,根本沒有競爭力,會被超越的。”
特斯拉CEO馬斯克對待人工智能的態度更為極端:
“我們需要超級關注人工智能。它的潛在危險性超過核武器”。
比爾·蓋茨2015年1月29日在Reddit的“Ask MeAnything”論壇上表示:
“我正在關注超級智能。首先,在開始的時候機器會為我們做很多工作,這些機器并不是超級智能。如果我們處理得很好的話,這應該是具有積極意義的。那之后的幾十年,人工智能會強大到足以引起人們的關注。我同意伊隆·馬斯克和其他一些人的說法,不明白為什么有些人并不關心。”
由于這些科學家,企業家具有很強的影響力,人工智能威脅論因此得到廣泛傳播。而同時,在人工智能威脅論熱度日益高漲的情況下,人工智能領域科學家對人工智能威脅論也提出了反駁意見。這其中就包括Facebook人工智能實驗室主任,NYU計算機科學教授Yann LeCun,百度首席科學家,斯坦福大學計算機科學系和電子工程系副教授吳恩達,中國科學院自動化所教授,人工智能領域專家王飛躍等。
2025-05-12 08:39
2025-05-12 08:33
2025-05-12 08:30
2025-05-12 08:23
2025-05-07 13:20
2025-05-06 10:42
2025-05-06 10:41
2025-05-06 09:28
2025-05-06 09:27
2025-04-28 14:41