【網易智能訊4月4日消息】我決定重新發布這篇文章,尤其是在關于劍橋分析公司(Cambridge Analytica)和Facebook鋪天蓋地的報道中,劍橋分析公司不正當獲取了數百萬Facebook用戶的數據以影響其在美國總統大選中的投票傾向。如果大公司、科技巨頭和立法者不加快監管的進程以保證用戶數據的安全,這種情況將變得更加普遍。
作為一個曾在大數據領域工作過一段時間的人,我覺得這種關聯的概念已經讓人愈發恐懼(還記得那個有名的案例研究:塔吉特百貨公司是如何比一個父親更早發現他的女兒懷孕的?)。我敏銳地意識到大數據對大企業的吸引力,同時,它也讓消費者產生了恐懼。
市場緊追消費者的數字足跡
隨著數據變得越來越豐富,消費者的數字足跡變得越來越普遍,對消費者生活的理解也越來越多地被分析和情境化。普通消費者對他們所分享的內容和商業使用方式有了更多了解,但很多時候對消費者數據的使用方式都沒有得到用戶的認可或同意。
人工智能正在加速它的步伐,龐大的數據集被允許進行信息分析和情境化,這些信息具有內在的好處,但同時也給個人和社會帶來了脆弱性。這是真實存在的,不過還有待說明。
2012年,我在公司博客Genx Think Tank上寫了這篇文章——《一切都與隱私有關》。當時,每一個登錄社交網站的人都默許用戶數據被收集。
梅西百貨公司的首席營銷官朱莉·伯納德說:“有一件和消費者有關的事很有趣,他們擔心我們如何使用數據,但如果我不提供相關的數據,他們又會很生氣。如果我不查看數據,我該如何傳遞相關性,并神奇地傳遞給他們想要了解的信息?”
廣告攔截器保護隱私是否奏效?
一些更精明的用戶不愿意給任何一家公司提供過多的信息,他們會選擇使用不同的瀏覽器服務。Ghostery和其他廣告攔截器允許用戶查看誰在跟蹤他們的信息,這使得廣告網絡很難有效地盈利。更重要的是,它減少了公司可以追蹤用戶的信息量。
快進到今天?,F在已經是2018年了,使用Ghostery 和其他追蹤系統變得越來越重要。
廣告攔截軟件的使用量在2016年激增了30%(根據PageFair的數據)。到2016年年底,全球共有6.15億臺屏蔽廣告的設備,其中有62%(3.08億)是手機。桌面廣告攔截軟件的使用量同比增長17%,達到了2.36億。
PageFair的生態系統主管強尼·瑞恩博士總結道:“2014年,我們與廣告攔截軟件的早期用戶打交道,這些人的確是在關心和理解廣告技術中隱私和數據泄露的真正問題。我認為,這是因為行業內缺乏隱私保護的方法或興趣,由此才有了廣告屏蔽軟件的的出現?!?
用戶和市場的“數據公平交換”?
我在Facebook上發表了一篇關于Google Home的文章,作為對上一篇文章的回應:《Google Home Mini智能音箱秘密地記錄了人們的對話,并讓人們對智能音箱產生了極大的恐懼》。
從這些聊天記錄中可以清楚地看到,雖然人們清楚哪些個人信息將被Facebook收集,但他們并沒有完全意識到這些信息的分享程度。
Facebook:關于Google Home的討論
我想說的是一個選擇的問題。這并不是說“我們可能只說一些無聊的事情”。這也不是說人們應該對他們公開分享的東西疑神疑鬼。我的觀點是,“我們分享的東西”不一定是我們主動選擇要去分享的。
這個選擇是由平臺決定的,他們收集的數據——無論是公開的還是私人的,這些數據本身就提供了足夠多的素材,可以為每個人創建更明確的社會圖景。
最近,《哈佛商業評論》發表了一篇文章,討論了消費者對數據被公開分享的認知。第一個問題是“普通消費者對什么樣的數據會被收集有多少了解”?第二個問題是,“如果他們知道這個問題的答案,他們會擔心嗎?”
然而,現在有這樣一種想法,即用戶與收集或分析數據的公司之間的公平交換。消費者希望公司提供更好的服務和更相關的信息,以交換他們所共享的信息。
《哈佛商業評論》的文章描述了公平交換的概念。公司收集的數據越多,消費者的期望值就越高。對于像Facebook這樣的公司來說,他們的主要業務包括基于用戶數據收集的高度定向廣告,概述和預測用戶偏好的分析,這些業務將為公司帶來更多的收入。
隨著這一需求的增長,從個人層面上增加情境化的代價也會增加。一個公司越是了解用戶的動機和用戶意圖,他們就越能在消費者反應上作出更準確的預測,從而給公司進行更好的宣傳。
人工智能:情境就是一切
在人工智能領域的工作經歷讓我看到各種可能性的存在,我和常年分析大量信息的數據科學家們交談,我們都知道將各種數據建立聯系的好處和陷阱。我曾與一位大數據架構工程師Neeraj Sabharwa交談,他認為,每個消費者都應該對其設備上分享的內容負責?!拔覀児_或私下透露的信息,以及我們如何分享這些信息的數據可能被不同程度地提取利用?!彼f。Neeraj指出,Venmo的用戶在默認情況下會公開分享所有的活動,除非他們選擇不公開或僅給朋友分享轉賬信息。
意識到問題所在很關鍵,一旦我們知道數據的各方面信息(什么數據、如何訪問、在哪里訪問和誰訪問我們的數據),我們就能更清楚地意識到我們的決定。
我們討論了埃隆·馬斯克和Open AI在人工智能和治理方面所做的工作。OpenAI專注于“發現并制定通往安全的通用智能道路”。依據馬斯克的說法:“我認為人工智能可能是短期內影響人類的一件大事。所以,人工智能以一種好的方式應用,這是很重要的。如果你能通過水晶球看到未來,你會喜歡它到來之后所產生的結果。但人工智能也可能會出錯,所以我們需要確保人工智能在正確的道路上發展。“
考慮到這些數據不僅僅是我們在不同的社交網絡、電子郵件、交易、客戶服務聊天中所分享的信息,而是來自所有這些不同數據源的信息的聚合……通過人工智能獲得的具有關聯性的信息能夠找到具有空前能力的模式。
數據、計算能力、互聯互通和模式分析的進步,這幾者之間的結合使得情境化完全有可能提高準確性和精確性(在這個起步階段還可商榷),這是史無前例的。
今天的隱私規定可能沒有考慮用戶在不同場景下是否允許他人使用這些信息的權利超越了客戶服務或溝通的含義,這可能具體包括:
第一,在個人層面上——提供健康建議和通知,或提供日常任務提醒;
第二,在集體層面上——幫助醫學研究更好地診斷病癥或預防潛在的安全威脅。
未來的信息將超越我們在社交網絡和公司中共享的信息。我們將用傳感器和AR設備來裝備我們的家庭、工作和身體。我們通過自動化提高便利性的追求也會有意或無意地面對偏見的風險。
正在起作用的情境化:中國的社會信用等級
我最近一直在關注中國的芝麻信用。最近,芝麻信用宣稱,中國計劃在2020年推出社會信用體系?!哆B線》雜志刊登了一篇題為《當大數據遇上政府:中國開始對公民進行信用評級》的文章,文章說中國正在建立一個平臺,從其13億公民中調查社會行為,以判斷他們的信用度。
評分系統是一個動態值,數值會因個人行為而增長或下降??尚刨嚩仁怯芍袊x的,它可以約束公民遵守法律。這是一個懲罰和獎勵系統,人們的數據現在正被用來約束自己。
毫無疑問,西方文明的語境和我們的公民都無法避免大規模的數據收集、集合和分析。但我們確實有的選擇,自由給予我們一定的權利。
安·科沃基安博士——前安大略省隱私專員,現在是隱私和大數據研究所的執行董事,也是全球倡導個人隱私的主要倡導者。她有效地傳達了這樣一種信念:“隱私和自由是不可分割的整體?!彼g斥了“零和”心態,即人們必須在隱私或安全之間做出選擇,但兩者不能兼得。
她認為,為了保護我們的社會,我們不需要放棄個人隱私。如果我們不得不接受大規模的數據監控,我們就放棄了個人自由。隨著大數據的出現,情況并非如此。
這一主張在加拿大得到了廣大民眾的支持,現在隨著2018年5月開始實施的《歐洲通用數據保護條例(GDPR)》,一個更廣泛的數據隱私系統正在建立。系統和政策將被要求確保這一條例的施行。
無論如何,我們都有責任,正如Neeraj所說,要對我們所分享的東西和分享的方式負責,當我們的孩子在這個越來越透明的世界里長大,他們需要了解這個新世界的局限性并最終掌控他們的個人信息。