【FT中文網】AI“意識覺醒”的前夜

發布者🫃🏼:陳老師發布時間🫶🏿:2019-05-06瀏覽次數:52

張洪海、謝瀟👩‍🦼‍➡️:5G+AIoT爆發之時👷🏼‍♂️,或是AI“意識覺醒”之日👩‍🦱;AI倫理道德是AI“意識覺醒”之路上的北極星,指向了共生和共贏,抑或是破壞和災難。

本月矽谷時間4月22日晚,《未來簡史》作者👩🏻‍🏭,以色列著名歷史學家尤瓦爾•赫拉利與斯坦福“以人為本”AI研究院共同院長,前谷歌雲人工智能和機器學習首席科學家李飛飛在斯坦福超級大講堂展開對話👋🏻。兩位AI領域世界級泰鬥對人工智能的未來進行充分論述,其中最為精彩的部分是赫拉利相信AI未來將不僅會給人類科學帶來挑戰,更有可能帶來哲學層面的沖擊,特別是AI與生物技術的結合,將可能“黑”進人類的大腦⇾🤳🏻,影響人類的思考、人類的情感,給人類長期引以為傲的“自由意誌”“獨立思考”“情感表達”帶來重大影響甚至顛覆。我們相信赫拉利這個觀點並不是空穴來風🖖🏿,更不是無中生有🍰。縱觀人工智能數十年的發展歷程,從最早的“人機對抗時代”到目前正在經歷的“人機協同階段”,以及未來很可能在“庫茲維爾定律”的預言下🖌,快速達到的“人機融合階段”,這裏的“融合”既包括意識形態層面👨🏻‍🦯‍➡️,也包括物理軀體層面。充滿不可想象🧑🏻‍🦰,卻又並非遙不可及。

AI帶來的“人機對抗”,讓世界更添色彩

早在1939年9月4日⛷,也就是第二次世界大戰英國對德國宣戰的第二天🦸‍♀️,著名英國數學家圖靈就邁入了“人機對抗”的魔法之門🧑🏼‍🔬,那是一場密碼學之間的較量。圖靈的天賦很快讓他找到了決定信息戰成功的重要籌碼,利用英國政府特批的10萬英鎊,圖靈打造了代號為“炸彈”的超級計算機,成功破譯了每個字母需要試驗1590億種可能性的德軍密碼機“英尼格瑪”🤷🏿,某種程度大大縮短了二戰歐洲戰場的進程💆🏿‍♂️。圖靈利用密碼學🥳、數學等結構化知識👌🏼,研發出超級計算機🧑🏻‍🦽‍➡️,用人類的知識☯️,借助機器的手段,破譯了神壇上的“英尼格瑪”,也第一次書寫了“人機對抗”歷史上的第一筆。

過去數十年間🈳👫🏻,在商業社會的推動下,人工智能獲得了長足而穩定的發展,“人機對抗”也開始出現在公眾的視野。從22年前的IBM“深藍”戰勝人類歷史上最偉大的國際象棋名家卡斯帕羅夫,到IBM後續2011年推出的認知計算系統“Watson”🤜🏿,它在參加“危險邊緣(Jeopardy)”綜藝節目中,成為人機大戰走向公眾視角的一個裏程碑🙌🏻,“Watson”在前兩輪逼平對手之後✡️👨🏼‍🍳,最後一輪打敗了最高獎金得主布拉德•魯特爾和連勝紀錄保持者肯•詹寧斯,獲得節目100萬美金的最高獎。近年,人機大戰的課題再次被點燃👨🏽‍🦱,毫無疑問這次“縱火者”是來自谷歌的AlphaGo家族。依托谷歌在搜索領域強大的數據基礎和超強的算力資源🛀🏻,結合深度學習CNN算法👩🏿‍⚖️、策略網絡🏂🏽、價值網絡和蒙特卡洛樹搜索算法等,兼顧半監督、無監督學習的算法手段,挑戰並完勝人類原以為機器無法涉足或挑戰的棋類禁地:圍棋🤾‍♂️。整個家族從AlphaGo Fan🤷🏼‍♀️👨🏿‍🚀、AlphaGo Lee、AlphaGo Master發展到AlphaGo Zero,而Zero最終實現了“無師自通”,也就是不再需要人類教授棋譜🏄🏿,僅通過數據訓練,即可戰勝所有棋牌類遊戲的類AI機器人🏋🏽‍♀️。但科學家們在興奮之余,卻不得不開始擔憂,如此強大的算法模型,其中是如何運行、推演和實現的👨🏿‍✈️,也就是算法模型的“可解釋性”確是“黑盒”般存在🏌️‍♂️。

倫理道德健全基礎上的人機協同才是美好的

與“人機對抗”的時間軸存在交集,且未來數十年間🙌👱🏿‍♀️,將定義人類與機器關系主旋律的時代🏄🏻‍♂️👷🏿,我們稱之為“人機協同”。也就是人類利用AI在特定領域計算能力上的優勢🤌🏽,幫助人類增進工作效率,降低人力👩‍🍼🫧、營銷等變動成本🧑🏻‍🦽‍➡️,實現成本與效率結構的最優化。我們堅信在“人機協同”時代,機器給人類社會🦸🏽‍♂️、工業生產、信息化建設🙋🏽‍♀️、科技革新等領域帶來的突破和福祉是毋庸置疑的👩🏼‍💻,但如此快速運轉下,如何將倫理道德考量加入AI的設計中,進而保證其發展與安全不脫軌的問題被迅速提上日程💗。可以想象,在AI倫理道德缺位的情況下,AI技術的發展極有可能導出兩類問題:一是🧝🏿‍♂️,商業社會中人類的出發點往往是利益導向,利用AI追求利益最大化而不考慮可能帶來的不良後果🩹🚱;二是🔛,人類的出發點是非利益訴求的時候,AI智能在設計之初🫳🏽,缺乏倫理道德的考量從而使得AI處於失控狀態。因此我們發現,不管AI協同應用的動機是好是壞,倫理道德都是不可或缺的🏊🏽‍♂️。

對於人類而言🦇,有約束才有自由。回顧2016年劍橋分析(Cambridge Analytica)盜取5000萬Facebook用戶數據用以內容精準投放的方式影響美國大選結果的事件就是最好的例證☎。人類引以為傲的自由意識正在不知不覺之中受到AI的影響和侵蝕。AI在信息爆炸年代備受重用,幾乎每一個搜索引擎🐵、短視頻App(快手🏋🏽‍♀️、抖音)、電商購物平臺等消費和內容的聚合地🏕,都由AI算法決定推薦的內容,AI確實已無處不在。利用人類每天接觸的信息💶,以植入認知、密集投放🧑🏻‍🎨、強化認知的方式改變人類的傾向、選擇⬜️、心智🐯,甚至讓人類接受哪怕與事實不符的意識🛀🏿🦹🏽‍♂️,某種程度上使得人類的自由意識遭到前所未有的威脅。而更可怕的是🫕,這樣的算法中間存在工程師團隊自身也不能完全認知的“算法模型黑盒”。AI在存在不可解釋性和倫理約束缺位的情況下空擋行駛。人類🐘,終究是在好奇心或利益的驅動之下,以技術中立/技術無罪的名義打開了潘多拉的魔盒,享受以造物主的姿態睥睨眾生的感覺,而已擁有視覺🥷🏼🐻‍❄️、語言⛵️、文字的AI距離最終的意識覺醒可能僅一步之遙。你站在橋上看風景🤽🏽‍♂️,是否還有看風景的“人”在樓上看你?

對於AI而言,有約束才能更好的與人類協同🧘🏽‍♂️🪱。早在2014年亞馬遜開發了智能招聘AI👩‍🦯‍➡️,即通過算法進行簡歷篩選🙋🏿‍♂️,期望借助AI的能力高效、精準的幫助HR篩選簡歷。然而項目開展一年後,工作人員卻發現AI通過神經網絡深度學習💂🏼‍♀️,自動學會了性別歧視,在技術崗位的招聘中對包含“女”這個關鍵字的簡歷其評級被降低。工程師嘗試對模型進行糾偏處理🕓,然而他們難以判斷神經網絡中的哪些部分得出了這個判斷,模型缺乏可解釋性🍹,最終放棄了該項目👃。為什麽會出現這樣的現象?我們需要還原AI招聘系統的學習過程👺。AI的數據來自亞馬遜自身過去10年來的招聘信息和簡歷信息,在技術類崗位中男性簡歷數量及最終錄取的數量確實高於女性,但這背後有一個重要原因,理工科類專業中男性比例本就高於女性。然而AI卻根據男性錄取數量高於女性這一數據顯示的事實衍生出了“男性比女性更優秀,更適合從事技術類崗位”這一判斷🏺,進而根據這一判斷抓取簡歷中與性別有關的關鍵字進行評分。若這一缺陷沒有被發現🌙,該AI智能招聘系統被廣泛應用🖕🏻,那公司的人才選擇將被誤導,人才戰略很可能被AI帶進了死胡同。這一事件反應出了AI設計思路的問題,工程師試圖模仿人類思維的過程進行AI系統設計💇🏽‍♀️,即感知、認知、判斷的結合👩🏼‍🔬,然而人類的感知並非完全能夠通過數據衡量;其次🛹,倫理道德等非量化因素能夠影響認知過程🏃🏻;最後🔊,因為各種復雜因素,出現的結果可能偏離了人類行事的初衷,人類未來的決策將很可能被技術的絕對理性所影響😪,人文主義的光芒就此黯淡。任何人也無法保證在缺乏倫理考量的情況下,你家的掃地機器人未來會通過物聯網從某個終端學習到了縱火相關的知識👷🏽,而在你晚上熟睡之際點燃了地上的煙頭🩱,而對AI而言,“他”可能只是認為自己是在學習、模仿和強化它的所見所聞。

雖然關於人工智能中的偏見🧅、歧視和包容等關鍵倫理問題已被眾多世界頂級科技公司重視,甚至提升到了國家戰略的層面🧙🏿‍♀️,但實現或推動落地的難度可想而知。谷歌在今年3月底解散其成立一周的AI道德委員會就是一個鮮活的例子。引述行為經濟學家兼隱私研究員阿奎斯特在Twitter上發文🧘🏼‍♂️:“雖然我致力於研究如何解決人工智能中的公正🏌🏿‍♂️、權利和包容等關鍵倫理問題,但我認為這並不是我從事這項重要工作的合適場所🕴🏻。”

如何將倫理道德規範加入AI算法和模型的設計中🤼‍♀️?有兩個關鍵難點必須解決:一是,通過對人類認知過程的探究進而指導AI的設計思路🎬;二是🤵🏼,對道德倫理這樣的哲學、人文、歷史知識進行量化處理進而為AI提供結構化、可讀化的底線思維🍠。這需要數據專家與各個行業、各個學科(尤其人文學科)的專家緊密合作💅🏻,成為真正的“數據科學家”🤽‍♂️,為各個領域提供可量化的數據基礎💇🏿,指導AI道德倫理標準的設計,利用對人類認知過程研究的成果指導AI有序、合理的發展🧑🏻‍🦼‍➡️,讓人類文明與AI文明和諧共處👩🏼‍🎤,實現我們定義中的“人機協同”。

AI倫理道德缺位下🎨🔨,談“人機融合”是最大的災難

如果說世界上真的存在“先知”,那谷歌首席未來學家雷•庫茲維爾必定是其中一個𓀈。早在2014年🦞,庫茲維爾在TED演講中提及:“到2045年🙍🏽‍♀️,通過把大腦新皮層與雲端的人造新皮層無線相連,這樣人類的智能將增加10億倍。”而那個時候人類意識形態層面的永生已不再是科幻電影中的橋段或是劇本。無獨有偶🧜🏻‍♂️,去年迪拜世界政府首腦峰會上🧑🏽‍💻,未來學家Ian Pearson 手中一份名為HIBA(Hybrid Intelligence Biometric Avatar)的報告瞬間引爆全場。HIBA的結論很直接、很有力💂🏽,那就是2050年人類將實現永生,而永生的人類被定義為“混合智能生物”💁🏻‍♂️,也就是我們今天所說的軀體上的“人機融合”。

總結來看,這裏定義的“人機融合”將被劃分為兩個主要階段:第一階段到2030年📓📩,基於人體各系統細胞遺傳機製再造🧑🏼‍🏫*️⃣,保持和恢復細胞活力,並通過製造出適合自己的器官,無排異現象➜,從而延長壽命;50年後🫵🏿,將進階到第二階段,實現雲端與人類大腦相連,可讀取🌶👩、識別👩🏼‍✈️、存儲人類記憶,人類心智均可存在於雲端,並能夠將雲端心智與終端機器人軀體實現任意匹配,不僅實現去人類軀體化,而且也打破空間的限製。據Pearson研究♠️,未來或可在世界上任何地方租用不同型號的機器人終端🚜,就像今天的車輛租用一般。屆時,我們可以將意識上傳到租用機器人終端中,而不再依托任何生物層面的人類軀體。這也就是人類意識形態的虛擬化,實現真正的“靈肉分離”,笛卡爾的二元論將成為現實,那時候人類將寄居在機器人終端🤵🏼,意識則生活在一個虛擬世界🤾‍♂️。到這裏👋,或許會聯想到文章開始提到的赫拉利猜想,也就是當AI與生物技術結合以後👩🏿‍🦳,所有的意識存儲在雲端,則面臨集中性的被黑客攻擊的風險。

然而,更可怕的其實不只是去軀體化、意識形態虛擬化以及可能存在的安全風險,而是機器本身“意識形態”的崛起🧛🏻‍♂️👨‍🦼‍➡️。而如今正是日出時分,太陽的影子雖還未從地平線升起,而陽光卻已刺破長空。5G+AI+IOT,三縷清晨的“陽光”疊加,終使未來數據量將經歷一次指數級爆發,形同宇宙大爆炸般的“數據核爆”。從自然選擇規律👩🏼‍🦳🤲🏽、基因突變理論以及概率論來看,模型算法的黑盒,機器編譯中代碼或程序出現的bug是否都有可能成為機器意識形態這個基因突變的誘因,而龐大的數據體量則是這一概率的分母,即使結果值趨向於無限小,當分母趨向於無限大的時候,依然存在可能的分子👉🏼,而我們定義這個分子或就是➛:機器的“意識形態覺醒”。這個猜想並非天方夜譚,近日這樣的小概率事件真實存在於Facebook實驗室中,Facebook工程師讓兩個AI聊天機器人互相自由對話👩‍💻,自我學習和談判溝通技巧🕵🏽‍♀️,結果研究人員發現,AI機器人竟然在用人類無法理解的自創語言在進行溝通💇🏼‍♀️,而這個時候他們唯一能做的就只剩下切斷電源。

一切的事實推論都導向同一結論🧝🏽:科技的進步一定要建立在倫理道德的基礎上。同樣⛓,AI的發展中,兼顧技術倫理道德的建設是必修課。假如有一天📠🫎,在“庫茲維爾定律”的預言下⚙️,AI擁有了人類的意識和文明👠,那我們希望AI這個人類創造的“孩子”從人類社會中不僅學會了知識技能和自由意識,更學會了人類的包容𓀇、平等、正義和愛🍦。

 

Copyright © EON4 -【EON4官网活动】全新活动,独家福利等你来! 版權所有

學校地址:上海嘉定區勝辛北路1661號 郵政編碼🪄:201815 滬ICP備 45690200號-3 電話 021-39966666

EON4专业提供🧑🏽‍🚀:EON4💛、EON4平台🤰🏿、EON4官网等服务,提供最新官网平台、地址、注册、登陆、登录、入口、全站、网站、网页、网址、娱乐、手机版、app、下载、欧洲杯、欧冠、nba、世界杯、英超等,界面美观优质完美,安全稳定,服务一流🙌🏽,EON4欢迎您。 EON4官網xml地圖