亚洲AV无码国产一区二区三区,久久久国产精品免费a片分环卫,少妇xxxxx性开放,国产精品videossex久久发布

當前位置:首頁 > 最新資訊 > 行業資訊

AI最糟糕的真實應用場景

AI(人工智能)的最糟糕應用場景在好萊塢電影大片中屢見不鮮:機器學會了類似人類的智慧,具備了感知能力,免不了變成邪惡的霸主,并企圖摧毀人類。這種敘事技巧利用了我們對未知領域的先天恐懼,反映出伴隨新事物出現的深刻變化。

不過,就像ML工程師,同時也是小說《量子價格》作者的馬爾科姆•默多克所說的那樣:“AI要想殺死我們,不一定要有感情。在有感情的AI成為問題之前,就有很多可能消滅我們的場景。”

通過對AI專家的采訪,本刊揭示了真實世界中的6個最糟糕的AI場景,這些場景遠比電影中描繪的平淡,但它們依然是反烏托邦的。大多數這些場景都不需要惡毒的獨裁者來實現。相反,如果不采取措施進行阻止,這些可能會輕易成為默許場景并自然地呈現出來。為了防止這些最糟糕的場景發生,我們必須摒棄對AI的流行文化看法,謹慎對待其意外后果。

1.當虛構來定義我們的現實

如果讓虛構來定義我們的現實,那么就可能發生不必要的悲劇。然而,在數字世界中我們無法分辨真假,如何進行選擇呢?

在可怕的場景中,不斷增多的深度偽造(高級ML工具產生的偽造圖像、視頻、音頻和文本等)有一天可能會導致國家安全決策者根據錯誤信息在真實世界中采取行動,從而造成重大危機,甚至更嚴重地引發戰爭。

喬治敦大學安全和新興技術中心(CSET)的高級研究員安德魯•洛恩(Andrew Lohn)說:“現在,采用AI的系統能夠(大規模)生成虛假信息。”通過產生大量、多變的虛假信息,這些系統能夠混淆其本質,進行優化并獲取成功,隨著時間的推移,提高其預期影響。

在緊要關頭,如果無法及時地確認信息的真實性,深度偽造的概念就足以導致領導者行動時猶豫不決。

德國漢堡研究和安全政策研究所的研究員瑪麗娜•法瓦羅(Marina Favaro)指出:“深度偽造損害了我們對信息流的信任。”深度偽造導致的作為和不作為都可能會給世界帶來災難性的后果。

2.逼近底線的危險競爭

涉及AI和國家安全時,速度是重點也是難點。采用AI的系統能夠給用戶帶來更大的速度效益,發展軍事應用領先的國家將具備戰略優勢。不過,在這個過程中,可能會犧牲哪些設計原則呢?

系統的微小缺陷和被黑客利用會造成形勢崩潰。喬治敦大學安全和新興技術中心的戰略總監海倫•托納(Helen Toner)表示,危機可能會“從一次無惡意的單點故障開始,故障導致所有通信中斷,引發人們的恐慌并造成經濟活動停滯。信息持續缺失,伴隨其他誤判,可能會造成事態急劇失控。”

瑞典斯德哥爾摩國際和平研究所(SIPRI)的高級研究員文森特•博拉寧(Vincent Boulanin)警告說,重大災難可能會導致“大國為了搶占先機而搶先走上捷徑。如果一個國家將速度優先于安全、檢測或人類監督,那就會形成逼近底線的危險競爭。”

例如,為了獲得速度優勢,國家安全負責人可能會被誘惑下放指揮和控制權,去除對我們并未充分了解的ML模型的人工監督。在這種場景中,無需人類授權便可啟動的導彈防御系統,可能會導致事件意外升級并引發核戰爭。

3.隱私和自由意志的終結

每一次數字行為都會產生新的數據,如電子郵件、文本、下載、采購、信息發布、自拍和GPS定位等。在允許企業和政府不受限制地訪問這些數據的過程中,我們拱手交出了監督和控制的工具。

再加上面部識別、生物特征提取、基因組數據,以及采用AI的預測分析,喬治敦大學安全和新興技術中心的洛恩很擔心:“隨著通過數據進行監管和跟蹤的增多,我們進入了一個未知的危險領域,我們對潛在影響幾乎一無所知。”

賓夕法尼亞大學全球事務研究中心“佩里世界大廈”(Perry World House)的負責人邁克爾•C. 霍洛維茨(Michael C. Horowitz)提出了警告:“要注意有關AI的邏輯及其對國內的壓制意味著什么。過去,獨裁者鎮壓群眾依靠的是大量軍隊,但有的軍人可能支持社會群體并可能發動政變,而AI則會減少這種約束。”

經過收集和分析的數據力量遠遠不止檢查和監督等預測性控制功能。如今,采用AI的系統能夠預測我們購買什么商品、觀看什么娛樂節目,以及會點擊哪些鏈接。如果這些平臺比我們更了解我們自己,我們可能無法注意到自己的自由意志逐漸被剝奪,并受到外部力量的控制。

4.人類行為實驗

孩子延遲即時滿足的能力,等待第二塊棉花糖,曾被認為是預測人生成功的重要指標。很快,即便是獲得第二塊棉花糖的孩子也會屈服于撩人的參與算法。

社交媒體用戶已經成為了實驗室里的小白鼠,生活在人類的斯金納箱中,緊盯著智能手機屏幕,被迫犧牲珍貴的時間和精力,貢獻給從中贏利的平臺。

喬治敦大學安全和新興技術中心的海倫•托納說:“算法被優化,盡可能讓用戶長時間停留在平臺。”馬爾科姆•默多克解釋道,通過點贊、評論和關注等形式提供獎勵,“算法讓我們大腦的工作短路,讓我們無法抗拒地繼續參與。”

為了最大限度地追求廣告利潤,企業在我們的工作、家庭和朋友、責任,甚至業余愛好中,偷走我們的精力。更可怕的是,平臺的內容讓我們感覺比以前更痛苦、更糟糕。托納警告道:“在這些平臺上花的時間越多,我們在追求積極、豐富、有意義的生活上花的時間就越少。”

5.AI設計的專制

每天,我們把更多的日常生活交給采用AI的機器。這很成問題,正如霍洛維茨所說:“我們還沒有充分認識到AI的偏見問題。即便是出于善意,采用AI的系統設計(包括訓練數據和數學模型)也反映了設計者有偏見的狹隘經驗和利益。我們每個人都有偏見。”

因此,美國佛羅里達州克利爾沃特IT安全公司KnowBe4的新興技術分析高級副總裁莉迪亞•科斯托普洛斯(Lydia Kostopoulos)表示:“許多采用AI的系統未能考慮不同人的不同經驗和特征。”由于AI解決問題的根據是有偏見的觀點和數據,而不是每一個個體的獨特需求,因此這種系統產生的某種程度的一致性,在人類社會是不存在的。

甚至在AI興起之前,我們日常生活中常見物品的設計也往往是迎合特定類型的人群而設計的。例如,研究表明,汽車、手機等手持型工具,甚至是辦公環境中的溫度設定都是針對中等身材的男性而設計的,這給身材和體型不同的人群(包括女性)帶來了諸多不便,有時甚至會給他們的生活帶來很大風險。

當處于偏見常態之外的個體被忽略、被邊緣化、被排斥時,AI就成為了卡夫卡式的“看門人”,導致這些人無法享受客戶服務、獲得工作、享受醫療衛生服務,等等。AI設計的決策會限制人們,而不是將其從日常問題中解放出來。此外,這些選擇會將有些不好的人類偏見轉化成為種族和性別的歧視和風險實踐,以及有嚴重缺陷和偏見的判決結果。

6.對AI的恐懼使人類不再受益

隨著計算能力和運行硬件復雜性的提高,AI的功能一定會增強,社會對AI的恐懼似乎只會隨著時間而增強。“人工神經網絡可以做出非常瘋狂的事。”默多克說,“我們需要謹慎對待相關風險。”不過,如果人們過于害怕AI,以至于政府對AI進行嚴格管控,使得人類不再受益,那又會怎樣呢?例如,DeepMind的AlphaFold程序實現重大突破,能夠預測氨基酸是如何折疊形成蛋白質的,科學家因此有可能確定人類98.5%的蛋白質結構。這一里程碑將為生命科學的快速發展建立富有成效的基礎。再比如,AI通過各種人類語言組合的流暢翻譯,使推進跨文化交流和理解成為可能;采用AI的系統可以識別新的疾病治療和護理方法等。為了防止發生AI的最壞結果,政府的本能性監管行為也可能帶來事與愿違的效果,產生意外的負面影響,導致我們害怕這種強大技術的威力,抵制利用它真正為世界造福。

猜你喜歡