人工智能的未來:人工智能將如何改變世界?
在靠近芝加哥市中心的一棟不起眼的建筑里,Marc Gyongyosi和IFM/Onetrack的成員們正在成長及不斷壯大。
人工智能有一個基本原則:簡單思考。這些詞用簡單的字體寫在一張紙上,貼在他們兩層工業(yè)廠房樓上的后墻上。然而,他們在這里用人工智能做的事情一點也不簡單。
人工智能的未來人工智能正在塑造幾乎所有行業(yè)的人類未來。其已經(jīng)是大數(shù)據(jù)、機器人和物聯(lián)網(wǎng)等新興技術的主要驅(qū)動力,并將在可預見的未來繼續(xù)扮演技術創(chuàng)新者的角色。
使用機器學習和計算機視覺來檢測和分類各種“安全事件”,這個鞋盒大小的設備并沒有看到全部,但也看到了許多。比如司機在操作車輛時的樣子、駕駛速度、何處駕駛、周圍的人的位置以及其他叉車操作員如何操縱其車輛。IFM的軟件會自動檢測違反安全規(guī)定的行為——例如使用手機——并通知倉庫經(jīng)理,使之立即采取行動。這主要目的是預防事故和提高效率。Gyongyosi聲稱,僅僅是知道IFM的一個設備正在觀看,就已經(jīng)產(chǎn)生了“巨大的影響”。
Gyongyosi表示:“想想相機,它確實是我們目前可用的最豐富的傳感器,且價格非常有趣。如今智能手機、攝像頭和圖像傳感器變得非常便宜,但我們捕捉了很多信息。從一張圖像中,可能可以推斷出25個信號;但六個月后,我們可以從同一張圖像中推斷出100或150個信號。唯一的區(qū)別是查看圖像的軟件……每個客戶都能從我們引入的每個其他客戶中受益,因為我們的系統(tǒng)開始看到和學習更多的流程,并檢測出更多重要和相關的東西?!?
人工智能的演變
IFM只是這個不斷發(fā)展的領域中無數(shù)人工智能創(chuàng)新者之一。例如,IBM發(fā)明者在2021年獲得的9130項專利中,有2300項與人工智能有關。Tesla創(chuàng)始人兼科技巨頭ElonMusk向非營利研究公司OpenAI捐贈了1000萬美元,以資助正在進行的研究。
在始于“知識工程”的進化時期,又以零星休眠為標志的幾十年后,技術發(fā)展到基于模型和算法的機器學習,并越來越關注感知、推理和歸納?,F(xiàn)在,人工智能以前所未有的方式重新占據(jù)了舞臺的中心,而且短時間內(nèi)它不會讓出“聚光燈”。
為什么人工智能很重要?人工智能很重要,因為其是計算機學習的基礎。通過人工智能,計算機能夠利用大量數(shù)據(jù),并利用其學習到的“智能”在人類所需時間的一小部分內(nèi)做出最佳決策和發(fā)現(xiàn)。
人工智能將改變哪些行業(yè)?
現(xiàn)代人工智能——更具體地說,是“狹義人工智能”。其使用數(shù)據(jù)訓練過的模型執(zhí)行目標函數(shù),通常屬于深度學習或機器學習的類別——幾乎沒有一個主要行業(yè)還沒有受到影響。在過去的幾年里尤是如此,由于物聯(lián)網(wǎng)的強大連接、聯(lián)網(wǎng)設備的激增以及更快的計算機處理速度,使得數(shù)據(jù)收集和分析大大增加。
一些行業(yè)正處于人工智能之旅的起點,其他行業(yè)則是經(jīng)驗豐富的旅行者。兩者都有很長的路要走。無論如何,人工智能于當今生活的影響是不容忽視的。
- 交通: 雖然完善它們可能需要一些時間,但總有一天自動駕駛汽車會載著我們從一個地方到另一個地方。
- 制造業(yè): 人工智能驅(qū)動的機器人與人類一起工作,執(zhí)行有限范圍的任務,如組裝和堆放,預測分析傳感器,以保持設備的平穩(wěn)運行。
- 醫(yī)療保健: 在人工智能相對新興的醫(yī)療保健領域,疾病診斷更加迅速和準確,藥物發(fā)現(xiàn)加速和簡化,虛擬護理助理監(jiān)控患者,大數(shù)據(jù)分析有助于創(chuàng)造更個性化的患者體驗。
- 教育: 在人工智能的幫助下,教科書被數(shù)字化,早期的虛擬導師幫助人類導師,面部分析測量學生的情緒,以幫助確定誰在掙扎或無聊,并更好地根據(jù)個人需求定制體驗。
- 媒體: 新聞業(yè)也在利用人工智能,并將繼續(xù)從中受益。Bloomberg使用Cyborg技術幫助快速理解復雜的財務報告。AssociatedPress利用AutomatedInsights的自然語言能力,每年制作3700篇盈利報道,幾乎是過去的4倍。
- 客服服務: 最后但并非最不重要的一點是,Google正在研發(fā)一種人工智能助手,其可以像人一樣打電話預約,如預約附近的美發(fā)沙龍等等。除了單詞,系統(tǒng)還能理解情景語境和細微差別。
但這些進步——以及許多其他進步——只是開始。未來還會有更多。
客戶關系管理公司4Degrees的首席技術官兼聯(lián)合創(chuàng)始人DavidVandegrift表示:“我認為,任何對智能軟件的能力在某些時刻達到極限的假設都是錯誤的?!?
隨著公司每年在人工智能產(chǎn)品和服務上花費數(shù)十億美元,像Google,Apple,Microsoft和Amazon等科技巨頭花費數(shù)十億美元來創(chuàng)造這些產(chǎn)品和服務,大學將人工智能作為其課程中更重要的一部分,以及U.S.Department升級其人工智能游戲,必然會有大事發(fā)生。其中一些發(fā)展正朝著完全實現(xiàn)的方向發(fā)展;有些僅僅是理論上的,且可能會一直如此。所有這些都是破壞性的,或好或壞,目前還看不到衰退的跡象。
Google前負責人、百度首席科學家AndrewNg在接受ZDNet采訪時表示:“很多行業(yè)都會經(jīng)歷這樣一種模式:冬天、冬天,然后是永恒的春天。我們可能正處于人工智能的永恒春天。”
人工智能對社會的影響
人工智能將如何改變工作
在西北大學的一次演講中,人工智能專家 Kai-Fu Lee 倡導了人工智能技術及其即將到來的影響,同時也指出了人工智能的副作用和局限性。對于前者,其警告道:
“90%的底層人口,尤其是收入或教育水平處于世界底層的50%人口,將因失業(yè)而受到嚴重傷害……一個簡單的問題,‘程序是如何工作的呢?’這就是人工智能取代工作的可能性,因為人工智能可以在日常任務中學會自我優(yōu)化。且數(shù)量越多,工作就越客觀,如把東西分到垃圾桶、洗碗、摘水果和接聽客服電話——這些都是重復性和例行性的腳本任務。在5年、10年或15年內(nèi),它們將被人工智能取代?!?
在擁有超過100,000臺機器人的在線巨頭和人工智能巨頭Amazon的倉庫中,揀貨和包裝的功能仍然由人類來完成,但這種情況將會改變。
Lee的觀點最近得到了Infosys總裁MohitJoshi的回應,其告訴《紐約時報》:“人們都希望取得巨大的成就。早些時候,他們在減少勞動力方面有5%到10%的增量目標?,F(xiàn)在他們覺得,‘為什么我們不能用我們僅有的1%的人來做這件事呢?’”
更為樂觀的是,Lee強調(diào),當今的人工智能在兩個方面都是無用的:它沒有創(chuàng)造力,也沒有同理心或愛的能力。相反,它是“放大人類創(chuàng)造力的工具”。那解決方案呢?那些從事重復性或例行工作的人必須學習新的技能,以免被淘汰。Amazon甚至向其員工提供資金來培訓其他公司的工作。
UniversityofIllinoisatUrbana-Champaign計算機科學教授兼主任KlaraNahrstedt表示:“人工智能要在許多領域取得成功的絕對先決條件之一是,我們要在教育方面投入大量資金,對人們進行新工作的再培訓?!?
Klara擔心這種情況不會廣泛或經(jīng)常發(fā)生。IFM的Gyongyosi甚至更具體。
“人們需要像學習一門新語言一樣學習編程,”Gyongyosi表示:“他們需要盡早這樣做,因為這真的是未來的趨勢。在未來,如果不懂編碼,就不懂編程,這只會變得更加困難?!?
”雖然許多因科技而被迫失業(yè)的人會找到新的工作,但這不會在一夜之間發(fā)生。就像美國在工業(yè)革命期間從農(nóng)業(yè)經(jīng)濟過渡到工業(yè)經(jīng)濟一樣,這在很大程度上導致了大蕭條,人們最終重新站起來。然而,短期影響是巨大的?!盫andegrift表示:“在工作消失和新工作出現(xiàn)之間的過渡,并不一定像人們想象的那樣輕松?!?
MikeMendelson,是NVIDIA的一名學習者體驗設計師,是與Nahrstedt不同的教育者。他與那些希望更多地了解人工智能,并將其應用于業(yè)務的開發(fā)人員一起工作。
其表示:“如果他們了解這項技術的能力,并且非常了解該領域,他們就會開始建立聯(lián)系,并認為,‘也許這是一個AI問題?!@種情況比‘我有一個想解決的具體問題’更常見。
不久的將來的人工智能
在Mendelson看來,一些最有趣的人工智能研究和實驗將在不久的將來產(chǎn)生影響,這將發(fā)生在兩個領域:“強化”學習,其處理獎勵和懲罰,而不是標記數(shù)據(jù);以及生成對抗網(wǎng)絡(簡稱GAN),其允許計算機算法創(chuàng)建而不是僅僅通過使兩個網(wǎng)絡相互對抗來進行評估。前者的典型代表是GoogleDeepMind的AlphaGoZero的圍棋能力為例,后者則以原始圖像或音頻生成為例,該生成基于對名人或特定類型音樂等特定主題的學習。
在更大的范圍內(nèi),人工智能有望對可持續(xù)性、氣候變化和環(huán)境問題產(chǎn)生重大影響。理想情況下,通過使用精密傳感器,城市將變得不那么擁擠、污染更少,總體上更宜居。
Nahrstedt表示:“一旦預測了某件事,就可制定某些政策和規(guī)則?!崩纾惭b在汽車上的傳感器可以發(fā)送有關交通狀況的數(shù)據(jù),可以預測潛在的問題,并優(yōu)化汽車的流量。其認為,這還沒有以任何方式完善。還處于起步階段。但多年以后,它將發(fā)揮非常重要的作用。
人工智能會統(tǒng)治世界嗎?人工智能預計將對幾乎所有可以想象到的行業(yè)產(chǎn)生持久的影響——因為預計60%的企業(yè)將受到人工智能的影響。我們已經(jīng)在智能設備、汽車、醫(yī)療保健系統(tǒng)和最受歡迎的應用程序中看到了人工智能。在可預見的未來,我們將繼續(xù)看到其影響更深入地滲透到許多其他行業(yè)。
人工智能和隱私風險
當然,人工智能對大數(shù)據(jù)的依賴已經(jīng)在很大程度上影響了隱私。看看CambridgeAnalytica對Facebook的惡作劇或Amazon對Alexa的竊聽,這是眾多科技失控的例子中的兩個。批評人士認為,如果沒有適當?shù)姆ㄒ?guī)和自我施加的限制,情況會變得更糟。2015年,Apple首席執(zhí)行官TimCook嘲笑競爭對手Google和Facebook貪婪的數(shù)據(jù)挖掘。
Cook在2015年的一次演講中表示:“他們在盡可能地了解關于你的一切,并試圖將其變現(xiàn)。我們認為這是錯誤的。”
隨后,在比利時布魯塞爾的一次談話中,Cook闡述了其的擔憂。
“通過收集大量個人資料來推進人工智能是懶惰,而不是效率,”Cook表示“人工智能要想真正聰明,就必須尊重人類的價值觀,包括隱私。如果我們在這方面做錯了,危險將是深遠的?!?
很多人都同意了這一觀點。2018年,總部位于英國的人權(quán)和隱私組織Article19和PrivacyInternational發(fā)表了一篇論文,對人工智能的焦慮僅限于其日常功能,而不是像機器人霸主出現(xiàn)那樣的災難性變化。
“如果負責任地實施,人工智能可以造福社會,”作者寫道:“然而,與大多數(shù)新興技術一樣,商業(yè)和國家使用確實有可能對人權(quán)造成不利影響?!?
作者承認,收集的大量數(shù)據(jù)可用于嘗試以良性方式預測未來行為,比如垃圾郵件過濾器和推薦引擎。但也存在真正的威脅,即其會對個人隱私和免受歧視的權(quán)利產(chǎn)生負面影響。
為人工智能的未來做準備
人工智能的可能性
2018年底,國際知名人工智能專家StuartRussell在WestminsterAbbey發(fā)表講話時,開玩笑(或不開玩笑)地表示,其與記者達成了正式協(xié)議,除非他們同意不把‘Terminator’機器人放在文章中,否則不會與之交談。其的俏皮話揭示了對好萊塢描繪遙遠未來人工智能的明顯蔑視,后者傾向于過度緊張和世界末日。Russell所說的“人類級別的AI”,也被稱為通用人工智能,長期以來一直是幻想的素材。但其在短時間內(nèi)實現(xiàn)或根本實現(xiàn)的可能性非常小。
Russell解釋道:“在我們達到類似人類水平的人工智能之前,還有許多重大突破需要實現(xiàn)。”
Russell還指出,人工智能目前還不能完全理解語言。這表明了目前人類和人工智能之間的明顯區(qū)別:人類可以翻譯機器語言并理解它,而人工智能無法翻譯人類語言。然而,如果人工智能能夠理解我們的語言,那么人工智能系統(tǒng)就能夠閱讀和理解所有的文字。
“一旦我們擁有了這種能力,便可查詢?nèi)祟愃械闹R,其將能夠綜合、整合和回答人類從未回答過的問題,”Russell補充道:“因為其沒有閱讀,也沒有能力把歷史上一直分離的事物之間的點放在一起,并連接起來?!?
這給我們提供了很多值得思考的東西。在這個問題上,模擬人腦是極其困難的,這也是AGI的未來仍然處于假設狀態(tài)的另一個原因。長期任職于密歇根大學工程和計算機科學教授的JohnLaird在該領域進行了幾十年的研究。
“我們的目標一直是試圖構(gòu)建我們所謂的認知架構(gòu),我們認為這是智能系統(tǒng)與生俱來的,”Laird談到主要受人類心理學啟發(fā)的工作時,“例如,我們知道的一件事是,人類大腦并不僅僅是一組同質(zhì)的神經(jīng)元。這是一個由不同組件組成的真實結(jié)構(gòu),其中一些與如何在這個世界上做事的知識有關?!?
這就是所謂的程序記憶。還有一種是基于一般事實的知識,即語義記憶;以及,另一種是關于先前經(jīng)歷(或個人事實)的知識,稱為情景記憶。Laird實驗室的一個項目涉及使用自然語言指令教機器人一些簡單的游戲,比如下棋和智力游戲。這些指令通常包括對目標的描述、法律措施的綱要和失敗的情況。機器人將這些指令內(nèi)化,并使用它們來計劃自己的行動。然而,和以往一樣,突破總是需要時間——比Laird和其同事們預想的慢。
“每次我們?nèi)〉眠M步,”Laird表示:“我們也會對其的難度有新的認識?!?
AGI是人類的威脅嗎?
許多人工智能領域的領軍人物都認同,甚至有些人更夸張,一種噩夢般的場景,其中包括所謂的“奇點”,即超級智能機器接管人類,通過奴役或消滅人類接管并永久改變?nèi)祟惖拇嬖凇?
已故的理論物理學家StephenHawking有一個著名的假設:如果人工智能本身開始設計比人類程序員更好的人工智能,結(jié)果可能是“機器的智能超過我們,超過蝸牛。”ElonMusk相信并警告稱,AGI是人類生存的最大威脅。其表示,實現(xiàn)這一目標的努力就像“召喚惡魔”。甚至擔心,他的朋友、Google的聯(lián)合創(chuàng)始人LarryPage可能會無意中引導一些“邪惡”的東西出現(xiàn),盡管他的初衷是好的。比如,“一支能夠毀滅人類的人工智能增強型機器人艦隊”。即使是IFM的Gyongyosi,在人工智能預測方面也不是危言聳聽,其也沒有排除任何可能性。其表示,在某一時刻,人類將不再需要訓練系統(tǒng);他們會自己學習和發(fā)展。
“我不認為我們目前在這些領域使用的方法會導致機器決定殺死我們,”Gyongyosi表示:“我認為,也許5年或10年后,我將不得不重新評估這一說法,因為我們將有不同的方法和方式來處理這些事情。
雖然殺人機器很可能仍然是小說的素材,但許多人相信它們將以各種方式取代人類。
牛津大學人類未來研究所公布了一項人工智能調(diào)查的結(jié)果。標題為“人工智能何時能超越人類表現(xiàn)?來自人工智能專家的證據(jù)”,其中包含了352名機器學習研究人員對未來幾年人工智能發(fā)展的估計。
這個群體中有很多樂觀主義者。受訪者的中位數(shù)表示,到2026年,機器將能夠撰寫學校論文;到2027年,自動駕駛卡車將不再需要司機;到2031年,人工智能在零售領域的表現(xiàn)將超過人類;到2049年,人工智能可能會成為下一個StephenKing;到2053年,可能會成為下一個CharlieTeo。最令人震驚的是:到2137年,所有人類工作都將實現(xiàn)自動化。但是人類自身呢?毫無疑問,喝著機器人端來的雨傘飲料。
NorthwesternUniversity教授、MasterofScienceinAnalytics項目的創(chuàng)始主任DiegoKlabjan認為自己是AGI的懷疑論者。
其解釋道:“目前,計算機只能處理1萬多個單詞。所以,有幾百萬個神經(jīng)元。但是人類的大腦有數(shù)十億個神經(jīng)元,它們以一種非常有趣和復雜的方式連接在一起,而目前最先進的技術只是按照非常簡單的模式進行簡單的連接。因此,在現(xiàn)有的硬件和軟件技術下,從幾百萬個神經(jīng)元到數(shù)十億個神經(jīng)元,我不認為會發(fā)生這種情況?!?
我們將如何使用AGI?
Klabjan也不太相信極端的場景——比如,兇殘機器人把地球變成了一個陰燃的地獄。其更關心的是機器——比如戰(zhàn)爭機器人——被邪惡的人類灌輸錯誤的“動機”。麻省理工學院物理學教授、人工智能首席研究員MaxTegmark在2018年的TED演講中表示過:“人工智能真正的威脅不是惡意,就像愚蠢的好萊塢電影里那樣,而是能力——人工智能實現(xiàn)的目標與我們的目標并不一致?!边@也是Laird的看法。
Laird表示:“我絕對看不到某些東西醒來并決定要接管世界的情況。我認為這是科幻小說里的情節(jié),而不是未來的結(jié)局?!?
Laird最擔心的并不是邪惡的人工智能本身,而是“邪惡的人類將人工智能作為一種虛假的力量倍增器”,用于銀行搶劫和信用卡詐騙等許多犯罪行為。因此,雖然其經(jīng)常對進步的速度感到沮喪,但人工智能的緩慢燃燒實際上可能是一種祝福。
Laird表示:“了解我們正在創(chuàng)造什么,以及我們將如何將其融入社會,可能正是我們所需要的?!?
但沒有人知道確切的答案。
Russell在威斯敏斯特的演講中表示過:“有幾項重大突破必須實現(xiàn),而且可能很快就會實現(xiàn)。”其引用了1917年英國物理學家ErnestRutherford提出的核裂變(原子分裂)的快速轉(zhuǎn)變效應,并補充道,“很難預測這些概念上的突破何時會發(fā)生?!?
但無論何時,如果他們做了,他都會強調(diào)準備的重要性。這意味著開始或繼續(xù)討論AGI的道德使用,以及是否應該對其進行監(jiān)管。這意味著要努力消除數(shù)據(jù)偏差,這對算法有破壞作用,目前是人工智能的一大缺陷。這意味著要努力發(fā)明和增強能夠控制技術的安全措施。也意味著我們要謙卑地意識到,我們能做到并不意味著我們應該做到。
“大多數(shù)AGI的研究人員預計將在幾十年內(nèi)實現(xiàn)AGI,如果我們毫無準備地撞上它,這可能是人類歷史上最大的錯誤。它可能導致殘酷的全球獨裁,帶來前所未有的不平等、監(jiān)視、痛苦,甚至可能導致人類滅絕,”Tegmark在TED演講中這樣表示:“但如果我們謹慎行事,最終可能會進入一個美好的未來,每個人都過得更好——窮人變富有,富人更富有,每個人都健康,都可以自由地實現(xiàn)自己的夢想?!?