“我問自己,為什么會愛上你?”
在電影《她》中,“薩曼莎”給男主人公西奧多留下了這樣一則愛情疑問。輾轉反側,寤寐思服,與現實中令人心碎的戀人分手之后,作家西奧多卻對虛擬世界中的人工智能系統產生了“愛情”。實際上,隨著用電腦的人群越來越多,“西奧多”們能否分辨出電腦那一端是人類還是人工智能系統AI,人們也很好奇。只是,為了限制AI參與人類情感的深度,澳大利亞的科學家開發出“反AI的AI”設備,讓你瞬間知道正在交流的對象是不是“薩曼莎”!
捕獲用戶附近所發出的聲音上傳到云端的神經網絡
據英國《每日郵報》官方網站報道,澳大利亞創新科技機構DT的研究人員開發出一款特殊的可穿戴設備,名為“反AI的AI”。它能識別出合成語音,并告知用戶,發出語音的并非人類而是AI。
雖然,大多數語音識別設備都專注于生物智能和語言翻譯,但“反AI的AI”卻是一款能夠即時告知用戶真偽的可穿戴設備。它的外表呈黑色,外形與市場上的藍牙設備相似,能夠掛在耳后。工作時,它能捕獲用戶附近所發出的聲音,并上傳到云端的神經網絡,進行智能分析。
如果被一群人類包圍,那么一切都好,用戶不會得到任何反饋,AI提醒設備也不會發出任何提示。但是,如果其中有一個機器人,在人群中行走交談,那么它會立刻接受并分析合成語音,提醒用戶。
巧妙的是,這種提醒并非通過簡單的觸覺震動或發出噪音來完成,相反,該設備內置熱電致冷元件,能夠向頸部發出輕微寒意。這使得提醒帶有寒意,用戶在被提醒時,脊柱會感覺一陣冷戰,從而保持頭腦清醒。
創意靈感來自于人體溫熱與機器冰冷之間的對比
這是一個“阿爾法狗”迎戰世界頂級棋手并使得后者甘拜下風的時代。在這個時代,只要使用先進的人工智能,機器就能發出真人一樣的聲音,器械和合成材料就能制作人面,并創建符合情景的面部表情。也正是因為科技的發達,網絡上才開始流傳出一些使用知名面孔發表不當言論的視頻,比如,貝拉克·奧巴馬的仿真機器人時常會帶來一些混亂,制造錯誤的傳播信息。
為了打破混沌,幫助人們更好地辨別真偽,澳大利亞創意技術公司DT的研發部門才創造出“反AI的AI”設備。雖然不久前,能識別AI的AI還只是一個概念產品,但DT公司卻完成了概念驗證。用于分析語音的神經網絡云端由來自谷歌,名為“張量流”的機器學習軟件驅動。如果你正與一個模仿人聲的AI交流,那么云端會采用與之相同的算法來檢測。
在DT公布的官方演示視頻中,“反AI的AI”設備成功區分了美國總統唐納德·特朗普的真人錄音和AI創建的假版本。研究者表示,新設備警告佩戴者的創意靈感,來自于人體溫熱與機器冰冷之間的對比。“冷銳,沒有生命”,DT公司在官方博客中寫道,“我們希望這種裝置能給佩戴者帶來一種獨特的感覺,這種感覺應該與他們檢測出自己遭遇AI迷惑時所體驗到的感覺相一致”。
智能器械常用的反饋機制是利用燈光、聲音或振動來提醒用戶,但“反AI的AI”卻采用4×4毫米的熱電致冷元件,將皮膚感覺變為通知信號。研發者還在官方博客中說明,“智能神經的云端測試及設備研發總共花費了五天時間,但這款設備在使用過程中,還能基于接受到的各種外部新語音進行不斷改進。‘反AI的AI’設備還只是一個雛形,但不可否認的是,未來的人們需要此類工具,以保證自己安全地穿行于越來越不可信任的世界中。”
好AI和壞AI之間的戰爭開始了
目前,DT公司正致力于改進“反AI的AI”設備,提高其破譯不同語音和語言模式的能力。人們也許會認為,在合成語音領域,無論是蘋果公司的“西麗”還是亞馬遜集團的“阿利克夏”,聲音盡管非常接近自然人,但還是能聽出來是電腦聲。然而,今年初,加拿大蒙特利爾大學的博士生們組建了一家初創技術公司,并推出一套人工智能系統,名為“琴鳥”。它合成語音的效率極高,只需一段長約1分鐘的錄音,就能用算法仿制出來,聲情并茂地朗讀各類文本。
這種新設備揭示了未來語音設備的發展新趨勢,即大數據正幫助它們捕獲各種聲音“DNA”,實時制作出一個令人信服的聲音只是時間問題。而對于未經訓練的耳朵和毫無經驗的頭腦來說,人工智能生產出的音頻視頻剪輯看起來會無比真實。
科學家們對此產生的擔憂主要有兩方面,一是這種技術可能會混淆和破壞基于語音的驗證系統,二是它將導致人們無法使用聲音和錄像作為法庭斷案的證據。新技術無好壞之分,但所涉及的倫理問題很可能被利用,甚至被濫用。
現在,“后真相時代已經來臨”,到2017年底,人們將不斷消費那些模仿真人真事的AI合成信息。無論是媒體、大型科技公司、還是普通公民都已經很難將真實與虛構區分開來。在這樣的背景下,好AI和壞AI之間的戰爭開始了,“反AI的AI”技術將得到被普及的機會。
2025-03-08 11:38
2025-03-08 08:52
2025-03-07 10:19
2025-03-07 09:29
2025-03-06 14:03
2025-03-03 08:32
2025-03-02 08:21
2025-02-25 10:58
2025-02-25 10:58
2025-02-25 10:37