首頁 -> 頭條

進步還是毀滅?AI給人類出的謎題

分享到:
2023-06-15 11:59 | 稿件來源:香港新聞網

【字號:

香港新聞網6月15日電 AI操縱人類行為、逃避人類監管等危險能力,正在上昇為理論可能,越來越多的人對AI的風險表現出擔憂。歐洲議會今天表決通過了一份重要文本,這項文件形成未來監管人工智慧(AI)系統法律規範基礎,這套法案最快也得等到2026年才能生效,這將迫使歐盟推動和科技公司達成自願性暫時協議。這樣做是否會限制了AI技術的發展?法案出台會影響到各國之間的合作嗎?

AI風險堪比核能?

你敢相信嗎?一個普通的視頻聊天,竟然讓一位企業主損失了430萬元!這就是最近發生的一起利用AI技術實施電信詐騙的驚人案例。

今年的4月20日,福州市某科技公司法人代表郭先生突然接到好友微信視頻聯繫,需要430萬元保證金,借用郭先生公司的賬戶走賬。基於視頻聊天的信任,郭先生把430萬元轉賬給指定賬戶。但讓他沒想到的是,當他再打視頻與好友確認時,好友驚呼沒有這回事,他這才意識到竟然遇上了“高端”騙局,騙子通過智能AI“換臉”、“擬聲”等技術偽裝成好友對他實施了詐騙。

這隻是眾多詐騙案中的一起,自2022年以來,利用AI技術實施的新型詐騙模式已經呈現了高發態勢,AI詐騙話題接連登上熱搜,也引發了用戶對於新型技術應用的討論。

而這隻是AI智能風險的冰山一角。風險既來自社會層面,AI技術使越來越多人的工作被取代,也將導致富人和窮人之間的差距越來越大;也來自人類社會倫理層面風險,AI操縱人類行為、逃避人類監管等危險能力,正在上昇為理論可能前沿的科學家們意識到,這些風險堪比核彈。

這是迄今為止人工智能最驚悚的回答  圖源:網絡

5月30日,超過350名人工智能行業的高管、研究人員和工程師聯合在非營利組織“人工智能安全中心”(Center for AI Safety)發佈的一份公開信上署名,包括OpenAI CEO Sam Altman、圖靈獎得主Geoffrey Hinton在內的人工智能頂尖人士,聯名簽署了一封關於AI對人類滅絕存在威脅的簡短聲明。這聲明只有一句話——“減輕人工智能的滅絕風險應該與流行病和核戰爭等其他社會規模風險一起成為全球優先事項。”

劍橋大學人工智能研究助理教授David Krueger曾對AI的失控提出了三大誘因:第一,將來它們比人類更聰明,它們在細節上失控的時候,很難準確預測這種情況會如何發生;第二,開發和部署強大的AI系統下,除了經濟競爭,也可能是地緣政治競爭,甚至可能是軍事競爭;第三,目前我們看到的系統只是語言模型,它們只是生成文本。但也有很多人在研究將它們與其他系統結合,例如使用它們編寫代碼,使用它們控制不同的事物,無論是在線上還是利用它們來控制現實世界中的事物。給予這些系統更多的控制權和自主權會增加風險。

David Krueg在接受媒體采訪時,甚至認為數十年後,人類可能會面臨滅絕。

AI監管:人類保衛戰?

人工智能技術具有跨國性質,并且圍繞它的擔憂程度很高。前沿科學家們認為,人工智能將達到“奇點”(singularity),這意味著它已經超越了人類的智慧,擁有了獨立的思維。這時的人工智能將不再需要或聽取人類的意見。

想象一下,如果有一天,AI技術發展到了超越人類智慧的水平,它會怎麼對待我們?如果有一天,它掌握著龐大的智能系統,它會保護我們的主體地位嗎?如果有一天,它們控制了戰爭機器,會捍衛我們人類的自由嗎?小說中人類與機器人大戰場面是否會成為現實?

這是我們需要認真思考的一個非常重要的問題, 因為在AI技術的發展和應用中,倫理和道德風險已經悄然出現 。

在AI監管方面,自2017年以來,69個國家共通過了800多項人工智能法規。但在人工智能監管或數據使用方面仍然沒有統一的政策方法。

歐洲議會今天表決通過了一份重要文本,這項文件形成未來監管人工智慧(AI)系統法律規範基礎,該法案將對被視為該技術最危險的用途施加新的限制——投票禁止實時遠程生物識別技術,歐盟禁令意味著不能在公共場合實時掃描人臉;同時要求OpenAI和谷歌等公司必須進行風險評估,并披露更多用於創建程序的數據。這將迫使歐盟推動和科技公司達成自願性暫時協議。倘若歐盟於年底前達成協議,這套規範將成為全球首套AI監管法律。

歐盟這套AI監管計畫可回溯到2021年,但去年ChatGPT大爆發,展現了AI令人眼花撩亂的發展,在凸顯可能存在的風險後,監管草案更加迫切。歐美呼籲規範AI的聲浪愈來愈大,要求西方政府迅速采取行動的壓力也日增,有人甚至形容這是一場人類保衛戰。

支持派人士讚揚AI科技將改變社會的面貌,包括工作、醫療保健和創造力;反對派則憂心AI對民主的潛在破壞力。

據瞭解,這套法案即使生成,也要等到2026年才能生效。

世界各地的政府機構也正在努力制定人工智能監管和數據使用方面的政策。例如,英國宣布將舉辦世界首個人工智能峰會,呼籲加強AI管制。美國國家標準與技術研究院也已經制定了負責任地使用人工智能的方法框架,并試圖在政府的AI監管工作方面扮演突出角色。

中國政府也在積極推進人工智能監管和數據使用方面的政策,中國國家互聯網信息辦公室發佈了《人工智能安全評估規範》等文件,以加強對人工智能安全性的監管。

進步還是毀滅,這是一個問題

面對人工智能,世界仿佛又陷入了科林格里奇困境:創新技術的發展,到底是真正的進步還是為人類播下了自我毀滅的種子?

科林格里奇困境更像是一個呼籲,要求我們應該在這樣一個創新不斷且意義重大的時代更加謹慎地思考未來。因為,在許多人的觀念裡,任何只要能為時代帶來便捷、高效的創新就應該被大力支持。似乎他們并不覺得這一想法有什麼斟酌的必要。基於這個原因,新的技術有了一種被不加猶豫地采用的趨勢。

但現實是,人工智能的發展對人類社會是一把雙刃劍,想要突破AI的科林格里奇困境,需要國際組織、國家機關、企業團體與個人聯合努力,攜手并進 。

對AI的監管與發展,除了歐洲議會發佈的監管法案,此前七國集團(G7)數字與科技部長們於4月30日在日本本州島高崎發佈聯合聲明,同意對人工智能采取“基於風險”的監管,不過聲明同時強調,監管還應為人工智能技術的發展“保持開放和有利的環境”。

聯合聲明列舉了政策制定者管理人工智能和其他新興技術使用的五項原則——法治、正當程序、民主、尊重人權和利用創新機會。

所謂“基於風險”的監管或意味著監管部門將針對人工智能的具體應用場景和潛在風險,制定不同的監管措施和標準。這樣可以避免一刀切的監管方式,既能保障公共安全,又不會過度限制人工智能技術的發展。

在這場AI與人類未來命運的發展中,中國也不可能缺席。在美國試圖通過制裁來遏制中國在AI人工智能領域的發展之際,OpenAI執行長阿爾特曼(Sam Altman)則選擇與中國接觸。12日,阿爾特曼從海外連線參加了一場在北京召開的AI會議,此次會議包括人稱“AI教父”的傑弗里·辛頓(Geoff Hinton)、來自包括芯片製造商英偉達(Nvidia)和生成式AI領軍者Midjourney和Anthropic在內的公司等十幾位美國和英國AI高管和資深研究人員。

阿爾特曼在講話中強調了美國和中國研究人員通過合作降低AI系統風險的重要性,說:“中國擁有一些世界上最優秀的AI人才,所以我真心希望中國的AI研究人員能在這方面做出巨大貢獻。”

進步與毀滅,也許在數十年以後會給人類社會一個答案。但正如耶魯大學做科技研究的學者愛德華·伍德豪斯(Edward Woodhouse)《技術文明的未來》(The Future of Technological Civilization)中所闡述:要快速找到新技術的負面影響,并加以控制,就應該讓技術能更快的小規模試錯,在用戶的反饋中找到它的短板與不足,只有這樣,當技術真正面向大多數用戶的時候,才不會突然暴露出巨大的短板,引發難以估量的風險。

或許,這是解決“技術威脅論”的正確答案。(完)

【編輯:錢林霞】

視頻

更 多
專訪香港廉政專員胡英明:打擊貪污對於國家安全非常重要
讓沙特企業來港上市 只需做一件事!港交所前行政總裁李小加提出建議
美國要搞“中國特色的美國資本主義”?李小加:大浪來時美國這艘船會先顛覆
50年廉署咖啡的新內涵 香港廉政專員親身上陣煮咖啡
國際問題專家:特朗普上台後對華制裁恐持續 但中美關係的未來不完全由美國決定
葉劉淑儀:外界要求“釋放黎智英”是對香港司法制度的粗暴干預
中國大門越大越開 推動經濟發展 國際投資者們是否買帳?