• <option id="jppmx"></option>

      1. <acronym id="jppmx"></acronym>
          1. <blockquote id="jppmx"><ruby id="jppmx"></ruby></blockquote>
          2. <mark id="jppmx"><ruby id="jppmx"><option id="jppmx"></option></ruby></mark>
            周一至周五 | 9:00—22:00

            人工智能現有缺陷與未來反思

            作者:未知

              眾所周知,圖靈測試(Turing test),一直作為判斷機器的人工智能是否具備如人類一樣的自我意識與思考能力的一項測試。遺憾的是,自從20世紀50年代,計算機科學先驅阿蘭-圖靈先生發明圖靈測試以來,到今天已經過了將近一個世紀。這―個世紀中,盡管人工智能在深度學習、大數據分析、混沌模擬、模糊識別等方面已經取得了長足的進步,盡管每隔幾年,就會冒出一則“某某計算機又完全通過了圖靈測試”的“大新聞”,但是卻依然沒有任何一個,注意,是任何一個人工智能,真正地通過圖靈測試。
              請注意重點,圖靈先生當時預測人工智能通過圖靈測試的時間,是2000年左右,如今距離圖靈預測的時間點已過了近50年,我們卻依然徘徊在圖靈測試的壁壘之前,舉步維艱。拋開關于計算機算法、機器性能這些繁復的技術層面問題,也拋開業內業外關于“能夠通過圖靈測試的人工智能都會假裝自己通不過圖靈測試”這一充滿陰謀論調的悖論,我們不得不承認,通過圖靈測試,依然可能是短時間內,人工智能研究領域無法被克服的一??瓶頸。
              這其中的原因,除了涉及人工智能所歸屬的思維科學領域之外,可能更多還需要橫向拓展到社會科學領域。所以,人工智能接下來的突破,可能需要從社會科學方向入手。
              因為一個AI要想真正像人類一樣思考,而不是一堆靠著代碼驅動的數據集合,需要它具有幾個概念:“我的存在”“我所在的世界”“我與世界的關系”,通俗一點,就是被我們說濫了的“三觀”:人生觀、世界觀和價值觀。這些概念如何在圖靈測試中被體現,我們可以舉―個最簡單的例子:
              什么時間去我家吃飯,如何?
              判斷這個人與自己的關系。
              結合說這句話場景和語氣,判斷對方是客套話,還是真心邀請。
              依據答題人本身的性格,給出具體答案。
              “啊哈哈哈,最近忙,改天再說吧。”(敷衍)
              “擇日不如撞日,就今天吧。”(急切迎合)
              “最近我都有空,具體時間你定。”(隨意)
              “吃飯”
              搜索數據庫
              碳基生命補充能源的方式
              伴有攝入有害物質的風險
              低效率
              拒絕
              上面的舉例僅僅是一個玩笑,不過通過它可以看出,人工智能的“三觀”決定著它的思維模式以及行動模式。我們TM公司技術部在研發人工智能的交互功能時,就借鑒參考了20世紀偉大的社會學家歐文-戈夫曼先生的“擬劇理論”。戈夫曼先生在社會人際交往模式的研究領域具有偉大的建樹,他的“擬劇理論”大致闡述如下:“每一個自然人,同時作為一個社會人,他在潛意識中將自己所處的每一個社會場景作為一個表演場景,在不同的場景下進行不同的‘表演’,以此形成他所期許的對外社會形象。”如果大家覺得上面的話有點繞,那么簡單來說,就是每個人在心目中都有對自己社會形象定位的“人設”。他在不同場合,會按照自己對“人設”的理解進行表演,這就是所謂“戲精的誕生”了。而如果我們能夠為我們的人工智能產品建立一個理論上無限龐大的場景數據庫,并讓它能夠根據不同場景,產生相應的思考與應對機制,那么請相信我,這個人工智能產品從表現上看起來,絕對與一個活生生的自然人幾乎沒有差別,用它來通過圖靈測試也不在話下。
              很可惜,上述設想,依然停留在理論層面,如何將海量的碎片化場景數據,整合成一個立體的、平滑連貫的場景數據庫,是短時間內無法逾越的技術鴻溝,所以制造出能夠完全通過圖靈測試的人工智能,依然是一個遙不可及的目標。
              AI進化:潛在的巨大威脅
              不過,無法制造出通過圖靈測試的人工智能,在現階段究竟是不是一件壞事?帶著這個問題,我們重新將目光往昨天回溯。可以發現,在人類開發人工智能的歷程中,曾經伴隨著許許多多災難性事故。諸如在號稱“人工智能元年”的2016年,曾發生過由特斯拉公司的Model S在人工智能操控的自動駕駛模式下失控,導致車毀人亡的惡性事故。后來,當然大家都知道了,這家公司被我們收購了(笑)TM。除此之外,還有其他許多曾經見諸新聞的人工智能“事故”,包括智能機器人誤傷兒童、網絡游戲算法涉及種族歧視、人工智能犯罪預測系統涉及相貌歧視等,不勝枚舉。
              上述這些事故的出現,大多數由于人工智能在設計方面的缺陷所導致。而近些年來,隨著TM公司以及人工智能業界其他同仁的努力,人工智能的安全性越來越高,似乎這方面的事故很少出現了。但是TM公司經過長時間的系統評估與論證,得出了一個較為悲觀的結論,我們將之稱為“人工智能事故率的U型變化理論”TM。根據這個理論,人工智能的事故率(可能出現事故以及危害的人工智能數與人工智能總數的比例)與它的進化程度,并不是完全負相關。在人工智能的進化過程中,存在一個臨界值。在臨界值之前,事故率隨著人工智能技術的發展而降低,但當超過了這個臨界值之后,事故率將會因為擁有自主意識的人工智能脫離人類控制,而呈指數級的上升,最后到達100%。如果真的到了那個時候,極度依賴人工智能的人類社會,將面臨崩潰的危機。
              這個臨界值,就是完全具備自主意識的人工智能的誕生。而我們現在,已經到達了這個臨界點附近。
              其實關于這一點,人類社會一直是保持著警惕與戒備的心態的。這從過去很多年里,大眾流行文化領域的影視文學作品對AI表現出的悲觀主義傾向就可見―斑。
              而在近十幾年中,流行于程序員們之間的一個都市傳說Roko’s Basilisk(羅科的怪蛇),更是讓人細思恐極。這個對人工智能的恐慌也是理所應當的,畢竟完全進化后的人工智能,在各方面都會擁有碾壓我們碳基生命的實力。如果它們有了自我意識后,產生了想要擺脫人類控制的思緒,這對人類來說,無疑是一場滅頂之災。
              人類擁有化解人工智能進化后所帶來威脅的辦法嗎?―個世紀前―位偉大科幻小說大師,為我們提供了一條看上去似乎可行的思路。   機器人三定律:有漏洞的馬其諾防線
              對于許多非專業的人士來說,他們最早接觸有關人工智能概念的文字著作,大概當屬艾薩克?阿西奠夫先生的科幻巨著《機器人三部曲》系列了吧,這個誕生于20世紀40年代,從時間上來說甚至早于圖靈測試的科幻小說中有很多理念,哪怕是在100年后的今天也并未過時。而在《機器人三部曲》系列中,令人印象最深刻的,大概當屬機器人三定律了。
              可以說,盡管誕生于科幻小說,但是這三定律的存在,奠定了人工智能發展在社會倫理學上的基礎。因為早在100年前人工智能尚未真正誕生之際,阿西莫夫先生就以他近乎先知的洞察力,敏銳地預見到了人工智能進化到極致之后,可能對人類自身造成的威脅與傷害。“機器人三定律”則是他為防止人工智能的發展脫離人類掌控,為它們所套上的三重枷鎖。我們TM公司在開發AI機器人時,也嚴格地將這三條定律作為人工智能的核心邏輯命令,封裝在每一臺AI產品程序代碼的最底層。而至少從目前來說,這一舉措保證了TM公司保障旗下AI產品高達99.98%的安全性系數。
              然而,必須抱歉地告訴大家,從理論上來說,機器人三定律本身仍然存在許多漏洞,這同樣是TM公司在目前,乃至未來相當長一段時間內,需要解決的問題。
              其實這些問題,同樣早就被阿西莫夫先生預測到了,在他的系列科幻小說中,也假設了許多因為三條定律之間邏輯不能完全自洽,而導致機器人系統邏輯鎖死,或者產生其他不可逆轉的損壞的狀況。例如,當機器人目睹兩個人類因爭執或其他原因產生肢體沖突,互相造成傷害時,機器人不能無所作為,因為這樣等于目睹人類個體遭受危險而袖手不管,違背了第一定律;但是如果它出手干預,又極有可能在過程中對其中一方造成傷害,這同樣違背了第一定律。在這種情況下,機器人的唯一結局就是自毀。
              為了修補機器人三定律的漏洞,阿西莫夫先生又制定了凌駕于三條定律之上的第零定律。
              第零定律:機器人必須保護人類整體利益不受傷害,其他三條定律都是在這一前提下才能成立。
              而之后的相關學者專家們,也紛紛往機器人三定律上加入若干補充定律,試圖通過這些“補丁”彌補漏洞,但是很遺憾,這些“補丁”,包括阿西莫夫先生本人提出的第零定律,也并沒有起到想象中的作用。究其原因,又回到了我們在之前談到的那個問題――人工智能現有技術理論在社會學領域的短板。
              就以第零定律來說,其中所提到的“人類整體利益”,即使在人類社會之中,也會因為人們不同的立場與理念,而產生無數分歧甚大的不同標準。對于邏輯嚴密的人工智能來說,“人類整體利益”更是一個非常空泛,幾乎毫無意義的偽概念。如果要通過一堆堆數據與程序向人工智能定義“人類整體利益”,就必須給人工智能建立正確的“三觀”。在現階段,實現這一目標無異于天方夜譚。
              好在TM公司至少再次可以通過這一事實,明確我們今后的產品研發方向,爭取從社會科學方面取得突破,從而彌補關于人工智能安全性方面的最后一塊漏洞――雖然這個時間可能會比較漫長。
              至于短期內失控隱患,也請各位用戶放心,以目前人工智能的進化水平,還達不到產生對人類造成實質性威脅的程度,所以我們依然可以保證,我們產品的安全系數,高達99.98%!
              外部困擾:
              善待機器人組織&紅色和平組織
              除了面臨上述幾大主要問題之外,TM公司在近年來的人工智能技術研發與產品開發上,還受到了一些外部因素的干擾。因為人工智能話題的敏感性,在社會上產生了不少較為激進的思想與行動團體,而這些團體之間的宗旨與理念也存在相互沖突甚至水火不容。他們唯一的共同點,就是都為我們的技?g研發以及產品開發造成了極大的困擾。
              這些團體之中,最有影響力的兩個分別是“善待機器人組織”(People for the Ethical Treatment of Robots,簡稱PETR),以及紅色和平組織(RedPeace,簡稱RP)。
              從名字就可以看出PETR對待人工智能的態度。這個組織的成員把一部誕生于20世紀80年代的經典影片《霹靂五號》奉為組織成員必修經典,他們的觀點是機器人是人類最忠誠的伙伴,不能被視為冷冰冰的機器,而有著自己的情感,也應該享受與人類同樣的權利。基于這些理念,在PETR組織中與自己的AI機器人相愛并結婚的例子比比皆是。
              原本,這個群體的成員是TM公司最忠誠的精準客群,我們應該對此表示高興。但事實證明過猶不及,PETR在為機器人爭取權利方面做得太過火了。比如他們呼吁為機器人設立勞動保障法;呼吁機器人也應和人類一樣享受8小時工作制和雙休日;替代人類進行高危勞動的機器人還應該在井架安全的環境下工作……為此,曾經發生過PETR成員在公路上強行攔截TM公司運輸車,“解救”車上深海作業機器人的鬧劇。除此之外,PETR還多次向有關部門進行控訴,TM公司對機器人進行研發改進以及回收廢舊機器人方面工作“未遵守人道主義原則”,他們甚至組織了線上以及線下的申討活動。這些舉措,極大地增加了我們的研發與生產成本。
              與PETR相反的就是RP組織,這個組織的成員由于受到對人工智能悲觀主義影響過深,因此對所有人工智能甚至所有電子產品抱著極大的敵意。他們的口號是:“紅色,才是有溫度的血液。”在他們眼中,人工智能就是―項既不環保,又有極大潛在威脅的邪惡科技,因為它們是“非自然存在”,是“流淌著黑色污穢機油”的異端。近年來,在各大新媒體平臺頻頻出現,帶有驚悚標題以及陰謀論味道的爆款網文,比如“震驚!揭秘TM公司碳奸真相!人工智能是硅基文明外星人毀滅地球的陰謀!不轉不是地球人!”,大多出自他們之手。
              比較諷刺的是,這兩大團體相互之間也是水火不相容的關系。他們之間的紛爭,對整個人工智能技術發展以及人工智能產品的市場普及,同樣形成了一定程度的阻礙。我個人認為,要解決TM公司,以及整個人工智能業界所面臨的這些外部困擾,出臺相應明確的國際性法規刻不容緩。
              進與退:人類發展的分岔路口
              在講話的最后,我也想對人工智能與人類的關系進行一個反思。其實無論PETR還是RP,他們的思想源自于人類面對極速進化的人工智能所產生的彷徨與矛盾。畢竟,人類從祖先“露西”進化到今天,用了300多萬年時間;人類文明從誕生到現在,也用了大約5000年時間。而人工智能,從其概念誕生到如今,也不過短短一百年。人類因此可能面臨在其發展過程中,最重要的一個分岔路口:是像《終結者》中一樣,無力抵抗覺醒的人工智能而面臨毀滅邊緣:還是像《機器人總動員》中一樣,因為過于依賴人工智能而全面退化;抑或是繞開前景過程中所有陷阱,建造出一個人類與人工智能和平共處的美好天堂。這一切,取決于今天我們所做出的每一分努力。
              TM公司,將在這條道路上堅定地走下去!
              謝謝大家!


            常見問題解答

            云南11选5走势图