機器學習並不“萬能”
“如果一個人可以在1秒以內完成一項思維任務,那麼可能在現在或者不久的將來,我們可以使用人工智能(AI)來自動化處理這項任務。”
——吳恩達
本文讀者大多數比較熟悉機器學習,也會使用相關算法來根據數據對結果進行分類和預測。然而,很重要的一點,就是機器學習並不是解決一切問題的萬能鑰匙。機器學習如此有用,所以大家很難接受一個事實——有時候機器學習並不是一個問題的最佳解決方法。
這篇文章就是想告訴大家,機器學習有時候是好的解決方案,有時候則不是。
眾所周知,機器學習作為人工智能的一部分,在過去十年對世界產生了革命性的影響。信息爆炸引起了大數據的採集,尤其是像臉書、谷歌這樣的大公司。數據量加上處理器功耗和計算機並行處理的快速發展,使得大數據的獲取和學習變得相對容易。
今天,對機器學習和人工智能的吹捧無處不再。這可能是對的,因為這個領域的潛力是巨大的。人工智能公司數量在過去幾年裏爆發式增加,根據 Indeed 的一份報告,2015-2018 年,與人工智能相關的崗位數量增加了 100%。
截至2018年12月,福布斯發現 47% 的企業在其業務流程中包含至少一個人工智能功能。根據 Deloitte 的報告,內置 AI 和基於雲的 AI 開發服務在企業軟件的滲透率估計分別達到 87% 和 83%。這些數據是非常驚人的——如果近期你想做些職業變動,人工智能看上去是個不錯的選擇。
一切看上去都挺美好的?公司滿意,想來消費者也是滿意的——否則企業是不會使用人工智能的。
這很好,因為我是機器學習和人工智能的超級粉絲。然而,有時候使用機器學習就沒什麼必要,也説不通,甚至在操作的時候會給人帶來困難。
侷限1——倫理
眾所周知,機器學習作為人工智能的一部分,在過去十年對世界產生了革命性的影響。信息爆炸引起了大數據的採集,尤其是像臉書、谷歌這樣的大公司。數據量加上處理器功耗和計算機並行處理的快速發展,使得大數據的獲取和學習變得相對容易。
不難理解為什麼機器學習會對世界產生如此大的影響,不用再明確它的能力是什麼,可能更重要的,是知道它的侷限是什麼。尤瓦爾·赫拉利創造了有名的“數據主義”一詞,指的是我們正在進入的一個假定的文明新階段,在這個階段裏,我們對算法和數據的信任超過了對我們自身判斷和邏輯的信任。
雖然會覺得這個想法可笑,但你想想上次去旅行的時候,是不是跟着 GPS 的導航而不是自己看着地圖走——你質疑過 GPS 的判斷嗎?人們盲目地跟隨 GPS 的指引,結果掉進了湖裏…
信任數據和算法超過自身的判斷,有利有弊。顯然地,我們從算法中獲益,不然一開始也不會使用。算法通過可用數據作出預期判斷來實現自動化處理。雖然有時候,這意味着某個人的工作會被一種算法取代,產生一些倫理問題。加之,如果事情變得糟糕,我們應歸責於誰?
最近討論最廣泛的例子就是自動駕駛——我們應該如何選擇汽車在撞死人後應該作出的反應?未來我們在購買汽車的時候,也不得不選擇自己購買自動駕駛車輛的倫理框架嗎?
如果我的自動駕駛車在路上撞死了人,那麼是誰的責任?
這些都是引人深思的問題,但並不是本文的主要目的。顯然,機器學習不能告訴我們應該接受什麼規範價值,即在世界上特定的處境裏,應該如何採取行動。就像大衞·休謨著名諺語所説,一個人永遠不能從“本來如此”得出“應該如此”。
限制2——確定性問題
這是我個人必須面對的一個問題,因為我的專業領域是環境科學,它嚴重依賴於計算建模和使用傳感器/物聯網設備。
機器學習對於傳感器來説是非常強大的,當連接到其他測量環境變量(如温度、壓力和濕度)的傳感器時,機器學習可以幫助校準和校正傳感器。這些傳感器信號之間的相關性可以用來發展自校準程序,這在我研究的大氣化學研究領域中是一個熱點研究課題。
然而,當涉及到計算建模時,事情會變得更有趣。
運行模擬全球天氣、地球的排放和這些排放的傳輸的計算模型在計算上是非常昂貴的。事實上,計算成本太高,即使在超級計算機上運行,研究級的模擬也可能需要數週的時間。
MM5和WRF是這方面的很好的例子,它們是用於氣候研究和在早間新聞上給你天氣預報的數值天氣預報模型。知道天氣預報員一整天都做些什麼嗎?答案:運行並研究這些模型。
運行天氣模型是很好,但是現在我們有了機器學習,我們是否可以用它來獲取我們的天氣預報呢?我們能利用衞星、氣象站的數據,並使用基本的預測算法來判斷明天是否會下雨嗎?
令人驚訝,答案是肯定的。如果我們瞭解某一區域周圍的空氣壓力、空氣中的濕度水平、風速、與相鄰點及其自身變量有關的信息,就有可能訓練,例如,神經網絡。但代價是什麼?
用一個有上千個輸入的神經網絡來確定明天波士頓是否會下雨是可能的。然而,利用神經網絡忽略了整個天氣系統的物理過程。
機器學習是隨機的,而不是確定性的。
神經網絡不理解牛頓第二定律,或者説密度不可能是負的-沒有物理約束。
然而,這可能不會是一個長期的限制。有多個研究人員正在研究在神經網絡和其他算法中加入物理約束,以便它們能夠被用於類似這樣的目的。
侷限3——數據
這是最明顯的限制。模型喂得不好,輸出結果就不好,主要表現為兩種方式:缺乏數據和缺乏優質數據。
缺乏數據
許多機器學習算法在給出有用結果之前需要大量的數據,一個好的例子就是神經網絡。神經網絡是需要大量訓練數據的數據餵養機器。網絡的架構越大,產生可用結果需要的數據就越多。重複使用數據是不好的想法,一定程度上數據增強是有用的,但是有更多的數據往往是更好的解決方法。
如果可以獲得數據,那就用上。
缺乏優質數據
雖然看上去相似,這種情況和上述情況也是不同的。我們來想象一下,你認為你可以通過給神經網絡放入1萬個生成的假數據來矇混過關,當你把它們放進入的時候,會發生什麼?
網絡會自己訓練自己,當你用一組沒見過的數據測試網絡的時候,效果就不會好:你有了數據,但是數據的質量沒有達到標準。
同樣地,缺乏優質的特徵會導致算法表現不佳,缺乏優質的正確標註數據也會限制模型的能力。沒有一家公司願意使用比人工水平誤差還大的機器學習模型。
類似地,將在一種情況下一組數據訓練出地模型應用於另一種情況,效果並不相當。目前為止我發現最好的例子,就是乳腺癌預測。
胸部X光數據庫包含了大量照片,但是近幾年這些數據庫面臨一個共同的引發熱議的問題——幾乎所有的X光片都來源於白人女性。這聽起來不像什麼大事,但實際上,因為檢測和獲取醫療的差異等各種因素,黑人女性死於乳腺癌的概率已達到了42%。因此,主要基於白人女性訓練出的算法,對黑人女性並不友好。
在這個例子裏,需要的就是在訓練集中增加更多黑人病人的 X 光片數量。更多與導致這42%增加的相關特徵,以及通過相關性進行數據分層的更客觀的算法。
如果你還有疑問或想要了解更多,建議閲讀這篇文章。
侷限4——誤用
和前面第二個討論的侷限性相關,不管是自然界中的確定性問題還是統計性問題,人們盲目地使用機器學習來嘗試分析系統,於是形成了所謂的“學術研究中機器學習的危害”。
在侷限 2 中討論原因的時候提到,將機器學習應用於統計性系統是可行的,但算法不會學習兩個變量間的關係,也不知道何時違背了物理定律。我們只是給網絡一些輸入和輸出,告訴它們去學習聯繫——就像一個人將字典又用文字翻譯一遍,算法只是掌握簡單的基礎物理。
對於統計性(隨機)系統,情況就不太明顯。機器學習用於統計性系統的危害主要有兩種表現形式:
P 值篡改
分析範圍
P 值篡改
當一個人可以獲得大量數據,可能上百、上千,甚至上百萬的變量,就不難發現顯著性統計結果(假設大多數研究設定的顯著性水平 p分析範圍
統計模型和機器學習的分析範圍存在本質區別——統計模型本質是確定性的,機器學習本質是探索性的。
我們可以把確定性分析和模型看成某人的博士課題或研究領域。想象一下,你和一個顧問合作,試着建立一個理論框架來學習一些真實世界的系統。這個系統有一組受其影響的預定義特徵,並且,在仔細設計實驗和開發假設後,可以運行測試以確定假設的有效性。
另一方面,探索性缺乏和確定性分析的相關的一些特點。事實上,在真正大量數據和信息的情況下,由於數據的巨大體量,確認性方法完全無法使用。換言之,在存在上百個、上千個,乃至上百萬個特徵的情況下,根本不可能仔細地佈置一組有限的可測試假設。
因此從廣義上講,在有大量數據和可計算負責特徵的情況下,機器學習算法和方法是探索預測模型和分類的最佳選擇。一些人認為它們可以用於“小”數據,但為什麼在經典的多變量統計方法這樣做時,信息更多呢?
機器學習是一個領域,很大程度上解決了來自信息技術、計算機科學等領域的重要問題,這些問題既有理論性的也有應用問題。正如此,機器學習和像物理、數學、概率論、統計學等領域也相關,但它也確實是一個獨立的領域。機器學習領域不會受其他學科提出問題的影響。大多是機器學習專家和從業者提出的解決方法都犯了嚴重錯誤…但他們還是完成了工作。
侷限5——可解釋性
可解釋性是機器學習的主要問題之一。一家人工智能公司試圖向一家只使用傳統統計方法的企業講解,但如果他們認為模型不可解釋,就可以停止了。如果你不能向客户確保你明白算法是如何得到結果的,那如何讓他們信任你和你的專業度?
正如《商業數據挖掘——機器學習視角》中所言:
“在商務項目中,如果機器學習的結果是可解釋的,那麼商業經理人會更傾向於機器學習的推薦。”
除非可以解釋這些模型,不然它們顯得無能為力,而且人類解釋過程遵守的規則,遠遠超出技術能力。因此,可解釋性成為機器學習應用於實踐需要實現的一個重要指標。
特別地,興起的組學科學(基因組學,蛋白質組學,代謝組學等)已經成為機器學習研究者的主要目標,因為這些科學對大型和有意義數據庫具有依賴性。然而,儘管取得了明顯的成功,但他們的方法缺乏可解釋性。
總結及Peter Voss" 列表
不可否認,在人工智能開闢了大量有前景機會的同時,也導致了一種被稱為“人工智能解決主義”的心態的出現。這種心態是一種哲學,假定數據足夠多,機器學習算法就可以解決所有的人類問題。
希望我在文中清楚表示了在目前情況下機器學習存在的一些限制,從而防止一些情況的發生。神經網絡永遠不會告訴我們如何做一個好人,至少現在不會,也不會理解牛頓運動定律和愛因斯坦相對論。
機器學習基礎理論——計算學習理論裏也存在基本限制,主要是統計限制。我們已經討論了分析範圍和 p 值篡改危害的相關問題,這些會帶來虛假結論。還有結果可解釋性的問題,如果不能讓客户和投資者確信他們的方法是準確可信的,就對商業會產生消極影響。
我己經在文章內大量介紹了人工智能的最重要的侷限,最後,我會把Peter Voss’在 2016 年 10 月發佈的文章列一張表,整理更全面的關於人工智能的侷限。雖然目前在細小領域內主流技術是非常強大的,但它們通常會列出部分或所有約束列表,我在這裏進行完整引用:
每個特定的應用都需要經過專門訓練
需要大量手工標記的結構化的數據
學習通常必須要受監督:訓練數據必須被標記
需要冗長的離線/批量訓練
不要實時地以增量或交互的方式學習
遷移學習、模型重複使用和集成的能力差
系統不透明,很難進行調試
“長尾”效應難以審核和保證
它們編碼相關性,而不是因果關係或本體論關係
實體之間不進行實體或空間的編碼
只能處理自然語言裏非常侷限的部分
不適合高層次,象徵推理或計劃
話雖如此,機器學習和人工智能將繼續為工業帶來革命,而且在未來幾年只會變得更加普及。雖然我建議大家最大限度地利用機器學習和人工智能,但我也建議你記住手裏工具的侷限性——畢竟,沒有什麼是完美的。(雷鋒網)