menu-icon
anue logo
鉅樂部鉅亨號鉅亨買幣
search icon
科技

從谷歌流感趨勢談大數據分析的光榮與陷阱

鉅亨網新聞中心 2015-10-29 12:39

【摘要】本文從谷歌流感趨勢2009年前后表現差異談起,討論了大數據分析容易面臨的大數據自大、演算法演化、看不見的動機導致數據產生機制變化等陷阱,以及對我國大數據產業發展的借鑒。本文認為,為健康發展大數據產業,我國需要防范大數據自大風險、推動大數據產業和小數據產業齊頭並進,並強化提高大數據透明度、審慎評估大數據質量等方面的努力。 

一、谷歌流感趨勢:未卜先知?

“谷歌流感趨勢”(google flu trends,gft)未卜先知的故事,常被看做大數據分析優勢的明證。2008年11月谷歌公司啟動的gft項目,目標是預測美國疾控中心(cdc)報告的流感發病率。甫一登場,gft就亮出十分驚艷的成績單。2009年,gft團隊在《自然》發文報告,只需分析數十億搜尋中45個與流感相關的關鍵詞,gft就能比cdc提前兩周預報2007-2008季流感的發病率。

也就是說,人們不需要等cdc公布根據就診人數計算出的發病率,就可以提前兩周知道未來醫院因流感就診的人數了。有了這兩周,人們就可以有充足的時間提前預備,避免中招。多少人可以因為大數據避免不必要的痛苦、麻煩和經濟損失啊。

此一時,彼一時。2014年, lazer等學者在《科學》發文報告了gft近年的表現。2009年,gft沒有能預測到非季節性流感a-h1n1;從2011年8月到2013年8月的108周里,gft有100周高估了cdc報告的流感發病率。高估有多高呢?在2011-2012季,gft預測的發病率是cdc報告值的1.5倍多;而到了2012-2013季,gft流感發病率已經是cdc報告值的雙倍多了。這樣看來,gft不就成了那個喊“狼來了”的熊孩子了么。那么不用大數據會如何?作者報告,只用兩周前cdc的歷史數據來預測發病率,其表現也要比gft好很多。

2013年,谷歌調整了gft的演算法,並回應稱出現偏差的罪魁禍首是媒體對gft的大幅報導導致人們的搜尋行為發生了變化。lazer等學者窮追不舍。他們的估算表明,gft預測的2013-2014季的流感發病率,仍然高達cdc報告值的1.3倍。並且,前面發現的系統性誤差仍然存在,也就是過去犯的錯誤如今仍然在犯。因為遺漏了某些重要因素,gft還是病得不輕。

為什么傳說中充滿榮光的大數據分析會出現如此大的系統性誤差呢?從大數據的收集特征和估計方法的核心,我們可以探究一二。

二、新瓶裝舊酒:過度擬合

大數據時代的來臨,為數據收集帶來了深刻變革。海量數據、實時數據、豐富多樣的非結構數據,以前所未有的廣度進入了人們的生活。但是不變的是,在統計分析方法上,數據挖掘(data mining)仍然是統計分析的主要技術。而數據挖掘中最引人注目的過度擬合(overfitting)問題,由於下文提到的各類陷阱的存在,遠遠沒有解決。

我們先用一個故事來解釋何為過度擬合。假設有一所叫做象牙塔的警官學校致力於培養抓小偷的警察。該校宣稱,在他們學校可以見到所有類型的普通人、也能見到所有類型的小偷;到他們學校來學習就能成為世界上最厲害的警察。但是這所學校有個古怪,就是從不教授犯罪心理學。

象牙塔的教學方式是這樣的:將人群隨機分為十組,每組都是既有普通人又有小偷。學員可以觀察到前九組所有人,也知道誰是普通人誰是小偷。學員要做的是,根據自己從前九組中了解到的小偷特征,從第十組中找出小偷。比如學員從前九組觀察到小偷更喜歡在給孩子買尿布的時候也買啤酒,那么在第十組觀察到有人在買尿布時也買啤酒,就作為一個嫌疑條件。完成這個過程之后,學校再將人群打散重新分成十組,如此循環往復,之后學校進行測試。測試方式就是再次將人群隨機分為十組,看誰能最快最準根據前九組的資訊找出第十組的小偷。冠軍即象牙塔最棒警察,可以派到社會上抓小偷了。

一段時間后,問題來了:象牙塔最棒警察在象牙塔校內總能迅速找到小偷,可一旦出了象牙塔, 該警察就老犯錯抓、該抓不抓的錯誤。他抓小偷的表現,甚至比從來沒有來象牙塔學習的人還要差。

在這個故事里,象牙塔最棒警察就相當於根據大數據的數據挖掘方法、機器學習之后挑選出來的最優模型。小偷相當於特定問題需要甄選出的對象,比如得流感的人、不干預就會自殺的人、賴賬的人。前九組的人就相當於用於訓練模型的訓練數據;第十組人則相當於檢驗訓練結果的檢驗數據。不教授犯罪心理學就意味著抓小偷並不需要理解小偷為什么會成為小偷,類似於在數據分析中只關心相關關係而不關注因果關係。訓練最佳警察的過程,就類似於運用機器學習技術, 采用訓練數據來訓練模型,然后采用檢驗數據來選擇模型,並將預測最好的模型作為最佳模型,用於未來的各類應用中 。

最後,警察在象牙塔內能快速抓小偷而校外不能,就是過度擬合問題。由於在學校通過多次重復練習,學員小偷的特征已經爛熟於心,因此無論怎么隨機分,都能快速找到小偷並且不出錯;這就相當於訓練模型時,由於已經知道要甄選人群的特征,模型能夠對樣本內觀測值作出很好的擬合。由於象牙塔學校判斷小偷的標準主要看外部特征而不去理解內在原因,比如小偷常戴鴨舌帽,那么當社會人群里的小偷特征與象牙塔人群有很大差別時,比如社會上的小偷更常戴禮帽,在象牙塔內一抓一個準的鴨舌帽標準,到社會就變成一抓一個錯了。也就是說,在樣本內預測很好的模型,到樣本外預測很差。 這,就是過度擬合的問題。

從過度擬合角度,可以幫助我們理解為什么gft在2009年表現好而之后表現差。在2009年,gft已經可以觀察到2007-2008年間的全部cdc數據,也就是說gft可以清楚知道cdc報告的哪里發病率高而哪里發病率低。這樣,采用上述訓練數據和檢驗數據尋找最佳模型的方法時標準就很清晰,就是不惜代價高度擬合已經觀察到的發病率。 lazer 等人發現,gft在預測2007-2008年流感流行率時,存在丟掉一些看似古怪的搜尋詞,而用另外的5000萬搜尋詞去擬合1152個數據點的情況。

2009年之后,該模型面對的數據就真正是未知的,這時如果后來的數據特征與2007-2008年的數據高度相似,那么gft也該可以高度擬合cdc估計值。但現實是無情的,系統性誤差的存在,表明gft在一些環節出了較大偏差而不得不面對過度擬合問題。

從上面的故事可以看到,產生過度擬合有三個關鍵環節。第一,象牙塔學校認定本校知道所有普通人與所有小偷的特征,也就等於知道了社會人群特征。第二,象牙塔學校訓練警察,不關心小偷的形成原因,而關注細致掌握已知小偷的特征。第三,象牙塔學校認為,不論時間如何變化,本校永遠能保證掌握的普通人和小偷的行為特征不會發生大規模變動、特別是不會因為本校的訓練而發生改變。

在大數據這個新瓶里,如果不避開下面的三個陷阱,就仍然可能裝著數據挖掘帶來的過度擬合舊酒:大數據自大、演算法演化、看不見的動機導致的數據產生機制變化。

三、大數據分析的挑戰

(一)陷阱一:“大數據自大”

lazer等學者提醒大家關注 “大數據自大(big data hubris)”的傾向,即認為自己擁有的數據是總體,因此在分析定位上,大數據將代替科學抽樣基礎上形成的傳統數據(后文稱為“小數據”)、而不是作為小數據的補充。

如今,大數據確實使企業或者機構獲取每一個客戶的資訊、構成客戶群的總體數據成為可能,那么說企業有這樣的數據就不需要關心抽樣會有問題嗎?

這里的關鍵是,企業或者機構擁有的這個稱為總體的數據,和研究問題關心的總體是否相同。《數據之巔》一書記載了下面這個例子:上世紀三十年代,美國的《文學文摘》有約240萬讀者。如果《文學文摘》要了解這個讀者群的性別結構與年齡結構,那么只要財力人力允許,不抽樣、直接分析所有這240萬左右的數據是可行的。但是,如果要預測何人當選1936年總統,那么認定“自己的讀者群”這個總體和“美國選民”這個總體根本特征完全相同,就會差之毫厘謬以千里了。事實上,《文學雜志》的訂戶數量雖多,卻集中在中上層,並不能代表全體選民。與此相應,蓋洛普根據選民的人口特點來確定各類人群在樣本中的份額,建立一個5000人的樣本。在預測下屆總統這個問題上,采用這個小數據比采用《文學文摘》的大數據,更準確地把握了民意。

在gft案例中,“gft采集的搜尋資訊”這個總體,和“某流感疫情涉及的人群”這個總體,恐怕不是一個總體。除非這兩個總體的產生機制相同,否則用此總體去估計彼總體難免出現偏差。

進一步說,由於某個大數據是否是總體跟研究問題密不可分,在實證分析中,往往需要人們對科學抽樣下能夠代表總體的小數據有充分認識,才能判斷認定單獨使用大數據進行研究會不會犯“大數據自大”的錯誤。

(二)陷阱二:演算法演化

相比於“大數據自大”問題,演算法演化問題(algorithm dynamics)就更為復雜、對大數據在實證運用中產生的影響也更為深遠。我們還是借一個假想的故事來理解這一點。假定一個研究團隊希望通過和尚在朋友圈發布的資訊來判斷他們對風險的態度,其中和尚遇到老虎的次數是甄別他們是否喜歡冒險的重要指標。觀察一段時間后該團隊發現,小和尚智空原來遇到老虎的頻率大概是一個月一次,但是從半年前開始,智空在朋友圈提及自己遇到老虎的次數大幅增加、甚至每天都會遇到很多只。由於大數據分析不關心因果,研究團隊也就不花心思去追究智空為什么忽然遇到那么多老虎,而根據歷史數據認定小智空比過去更愿意冒險了。但是研究團隊不知道的情況是:過去智空與老和尚同住,半年前智空奉命下山化齋;臨行前老和尚交代智空,山下的女人是老虎、遇到了快躲開。在這個故事里,由於老和尚的叮囑,智空眼里老虎的標準變了。換句話說,同樣是老虎數據,半年前老虎觀測數量的產生機制,和半年后該數據的產生機制是不同的。要命的是,研究團隊對此並不知情。

現實中大數據的采集也會遇到類似問題,因為大數據往往是公司或者企業進行主要經營活動之后被動出現的產物。以谷歌公司為例,其商業模式的主要目標是更快速地為使用者提供準確資訊。為了實現這一目標,數據科學家與工程師不斷更新谷歌搜尋的演算法、讓使用者可以通過后續谷歌推薦的相關詞快捷地獲得有用資訊。這一模式在商業上非常必要,但是在數據產生機制方面,卻會出現使用者搜尋的關鍵詞並非出於使用者本意的現象。

這就產生了兩個問題:第一,由於演算法規則在不斷變化而研究人員對此不知情,今天的數據和明天的數據容易不具備可比性,就像上例中半年前的老虎數據和半年后的老虎數據不可比一樣。第二,數據收集過程的性質發生了變化。大數據不再只是被動記錄使用者的決策,而是通過演算法演化,積極參與到使用者的行為決策中。

在gft案例中,2009年以后,演算法演化導致搜尋數據前后不可比,特別是“搜尋者鍵入的關鍵詞完全都是自發決定”這一假定在后期不再成立。這樣,用2009年建立的模型去預測未來,就無法避免因過度擬合問題而表現較差了。

(三)、陷阱三:看不見的動機

演算法演化問題中,數據產生者的行為變化是無意識的,他們只是被頁面引導,點出一個個鏈接。如果在數據分析中不關心因果關係,那么也就無法處理人們有意識的行為變化影響數據根本特征的問題。這一點,對於數據使用者和對數據收集機構,都一樣不可忽略。

除掉人們的行為自發產生系統不知道的變化之外,大數據的評估標準對人們行為的影響尤為值得關注。再以智空為例。假定上文中的小和尚智空發現自己的西瓜信用分遠遠低於自己好友智慧的西瓜信用分。智空很不服氣,經過仔細觀察,他認為朋友圈言論可能是形成差異的主因。於是他細細研究了智慧的朋友圈。他發現,智慧從不在朋友圈提及遇到老虎的事,而是常常宣傳不殺生、保護環境、貼心靈雞湯,並定期分享自己化齋時遇到慷慨施主的事。雖然在現實中,他知道智慧喜好酒肉穿腸過、也從未見老和尚稱贊智慧的化齋成果。智空茅塞頓開,從此朋友圈言論風格大變,而不久后他也滿意地看到自己的西瓜信用分大幅提高了。

如今,大數據常常倚重的一個優勢,是社交媒體的數據大大豐富了各界對於個體的認知。這一看法常常建立在一個隱含假定之上,就是人們在社交媒體分享的資訊都是真實的、自發的、不受評級機構和各類評估機構標準影響的。但是,在互聯網時代,人們通過互聯網學習的能力大大提高。如果人們通過學習評級機構的標準而相應改變社交媒體的資訊,就意味著大數據分析的評估標準已經內生於人們生產的數據中,這時,不通過仔細為人們的行為塑模,是難以準確抓住的數據產生機制這類的質變的。

從數據產生機構來看,他們對待數據的態度也可能發生微妙的變化。例如,過去社交媒體企業記錄保存客戶資訊的動機僅僅是本公司發展業務需要,演算法演化也是單純為了更好地服務消費者。但隨著大數據時代的推進,“數據為王”的特征越來越明顯,公司逐漸意識到,自己擁有的數據逐漸成為重要的資產。除了可以在一定程度上給使用者植入廣告增加收入之外,還可以在社會上產生更為重要的影響力。這時就不能排除數據產生機構存在為了自身的利益,在一定程度上操縱數據的產生與報告的可能性。比如,在facebook等社交媒體上的民意調查,就有可能對一個國家的政治走向產生影響。而民意調查語言的表述、調查的方式可以影響調查結果,企業在一定程度上就可以根據自身利益來操縱民意了。

簡而言之,天真地認為數據使用者和數據產生機構都是無意識生產大數據、忽略了人們行為背后趨利避害的動機的大數據統計分析,可能對於數據特征的快速變化迷惑不解,即便看到模型預測表現差,也難以找到行之有效的克服方法。

四、前車之鑒

目前,我國高度重視大數據發展。2015年8月31日,國務院印發《促進大數據發展行動綱要》,系統部署大數據發展工作。《綱要》認為,大數據成為推動經濟轉型發展的新動力(310328,基金吧)、重塑國家競爭優勢的新機遇,和提升政府治理能力的新途徑。《綱要》指出,2018年底前,要建成國家政府數據統一開放平臺,率先在信用、交通、醫療等重要領域實現公共數據資源合理適度向社會開放。與此相應,近年來多地成立了大數據管理局、業界學界對於大數據的分析利用也予以熱烈回應。因此,了解大數據分析的優勢與陷阱,對我國的經濟發展和實證研究具有極其重要的意義;而gft項目折射出的大數據使用中可能存在的機會與問題,都值得關注。

(一) 防范“大數據自大”帶來的風險

gft案例表明,如果認為大數據可以代替小數據,那么過度擬合問題可以帶來巨大的估計誤差。這一點在“大眾創業、萬眾創新”的今天尤其需要關注。這是因為大數據作為目前“創新”最閃亮的新元素被高度推崇的,而我國經濟處於轉型時期的特征,使企業或者機構面對的微觀數據不斷發生動態變化。如果在數據挖掘中忽略這些變化,往往要面臨過度擬合帶來的損失。

例如,我國p2p網貸行業采用的數據體量雖然大多達不到大數據要求的海量數據,但是不少企業熱衷采用爬蟲等技術從社交媒體挖掘資訊用於甄別客戶。這些平臺健康狀況,就可能與過度擬合的嚴重程度密不可分。 根據中國p2p網貸行業2014年度運營簡報和2015年上半年的運營簡報,在圖一我們可以推算2006年到2004年間和2015年1-5月間月均新增問題平臺數,並與2015年6月新增問題平臺數作比較。[1]

新增問題平臺的大幅增加原因雖然有多方面,但是從數據分析的角度看,由於還沒有合法的數據共用機制,p2p平臺在甄別客戶質量時,往往只依靠自身渠道和從社交媒體等挖掘的數據,並采用數據挖掘方法建立相應建立模型。在數據分析中,不少p2p平臺往往疏於查考自身樣本的代表性、也忽略宏觀經濟數據和其他微觀數據所包含的資訊。由於互聯網金融公司出現時間短、又主要成長於經濟繁榮期,如果單單依賴有限的數據渠道,數據挖掘與機器學習過程對新常態下個體行為沒有足夠的認識,在經濟下行時仍然根據歷史數據而低估逾期率,導致高估平臺健康狀況,最終不得不面對問題平臺不斷增加的局面。

(二) 大數據和小數據齊頭並進大勢所趨

大數據和小數據各有優劣。簡而言之,小數據通常不會假定該數據就是總體,因此收集數據前往往需要確定收集數據的目標、根據該目標設計的問卷或者收集方法、確定抽樣框。在數據采集后,不同學者往往可以通過將新收集數據與不同數據的交叉驗證,來評估數據的可信度。小數據在收集上有變量定義清晰、數據產生機制基本可控、檢驗評估成本相對較低等優點,但是缺點是數據收整合本高,時間間隔長、顆粒度較粗。

大數據的優勢就包括數據體量大、收集時間短、數據類型豐富,顆粒度很細。但是,由於大數據往往是一些企業和機構經營活動的附帶產品,因此並不是通過精心論證的測度工具產生。另外,由於大數據的體量很大,交叉驗證數據的可信度、不同學者采用相同數據獨立研究以檢驗數據的前后一致性等工作難度較大。這些特點意味著大數據本身未必有科學研究要求的那樣準確、可靠,在數據分析中就需要對大數據適合研究的問題有較清晰的認識。

在與小數據互為補充推動研究與認知方面,大數據大有可為。將大數據與小數據相結合,可以大大提高數據的顆粒度和預測精度。比如對cdc流感發病率的預測研究發現,將gft采用的大數據和cdc的歷史數據相結合的模型,其預測能力比單獨運用大數據或者小數據要好很多。

大數據往往可以實時產生,對於觀察特定社區的動態具有小數據無可替代的優勢。比如,美國在“九一一”之后,出於快速準確估計在某個特定小社區活動的人口的需要而啟動了“工作單位和家庭住址縱向動態(lehd)”項目,該項目將人口普查數據、全國公司數據、個人申請失業保險、補貼、納稅等記錄聯通,可以對社區在短時間內的“新陳代謝”作出較為全面的刻畫。

這類的數據結合研究,對於了解我國社會經濟狀況的動態變化會十分重要。一個可能的應用是,將城市人口、工作狀態、性別、年齡、收入等小數據采集的資訊,和實時產生的交通狀況相結合,來預測人們的出行特征,來解決城市交通擁堵、治理霧霾等問題。另一個可能的應用是,推動人民銀行征信中心個人征信系統數據和民間征信系統大數據的結合,建立高質量的中國個人征信體系。

另外,我國經濟處於轉型時期,有不少政策亟需快速評估政策果效。以小數據為基礎,利用大數據數據量豐富的優勢,可以通過互聯網做一些隨機實驗,來評估一些政策的效果,也是可能的發展方向。

在過去的十多年中,我國在通過非官方渠道采集小數據、特別是微觀實證數據方面取得了長足進展。在多方努力下,更多經過嚴格科學論證而產生的數據可被公眾免費獲得並用於研究。例如,北京大學的“中國健康與養老追蹤調查”、“中國家庭追蹤調查”,都由經濟、教育、健康、社會學等多領域的專家協同參與問卷的設計和數據采集的質控。在這些努力下,小數據的產生機制更為透明,交叉驗證調查數據的可信度等實證研究的必要步驟也更為可行。

但是,目前在小數據的收集和使用、政府和有關機構的小數據開放運用方面,我國還有很大推進空間。只有在對涉及我國基本國情的小數據進行充分學習研究之后,我國學界和業界才能對經濟政治社會文化等領域的基本狀況有較清晰的把握。而這類的把握,是評估大數據質量、大數據可研究問題的關鍵,對推進大數據產業健康發展有舉足輕重的作用。

因此在政策導向上,為要實現大數據、小數據相得益彰推動經濟發展的目標,在促進發展大數據的同時也要大力發展小數據相關產業,推動小數據相關研究與合作,使大數據與小數據齊頭並進、互為補充。

(三)提高大數據使用的透明度,加強對大數據質量的評估

大數據面臨的透明度問題遠比小數據嚴重。在gft案例中,lazer等人指出,谷歌公司從未明確用於搜尋的45個關鍵詞是哪些;雖然谷歌工程師在2013年調整了數據演算法,但是谷歌並沒有公開相應數據、也沒有解釋這類數據是如何搜集的。我國大數據相關企業的數據,也鮮有學者可以獲得並用於做研究的例子。

與透明度相關的就是大數據分析結果的可復制性問題。由於谷歌以外的研究人員難以獲得gft使用的數據,因此就難以復制、評估采用該數據分析結果的可靠性。因此利用大數據的研究難以形成合力,只能處於案例、個例的狀態。

另外還要注意到,如果數據產生機制不清晰,研究結論難以復制,而演算法演化也表明,最終數據往往成為使用者和設計者共同作用的結果。這種數據產生的“黑箱”特征,容易成為企業或者機構操縱數據產生過程和研究報告結果的溫床。唯有通過推動大數據的透明化、公開化,我們才能在大數據產業發展之初,建立健康的數據文化。

因此,在大數據時代,為了更好利用大數據,需要采取相關措施,增加在大數據產生過程的透明度方面的努力。例如,采取措施推進數據產生企業在妥善處理隱私資訊后,定期公布大數據隨機抽樣數據、要求數據產生企業及時公布數據演算法的變更,鼓勵采用大數據的研究實現可復制性、便於交叉驗證等。

五、結語

目前有些流行觀點認為,在大數據時代,技術容許人們擁有了總體因此抽樣不再重要、另外由於數據挖掘術的進展,只需關心相關關係而不必再關心因果關係。而gft的實例表明,即便谷歌公司用於gft計算的是數十億的觀測值,也不能認為谷歌公司擁有了流感人群的總體。誤認為數據體量大就擁有了總體,就無法謙卑結合其他渠道的小數據,得到更為穩健的分析結論。而gft估計的偏誤原因,從來都離不開人們的主動的行為-- 無論是谷歌公司自己認為的gft的流行導致更多人使用該搜尋、還是lazer等人認為的演算法變化、丟棄異常值。因此,不明白數據產生機理變化的原因而只看相關關係的后果,於谷歌是gft的計算偏誤丟了臉,而對熱情地投身於采用大數據到創新、創業中的中國民眾和相關機構來說,則可能是不得不面對事先沒有預備的重大經濟損失。

[1] 《2015年上半年p2p網貸簡報:新上線平臺數接近900家》http://p2p.hexun.com/2015-07-01/177192976.html

作者:沈艷,北京大學國家發展研究院教授。

 






Empty