前有谷歌禁用第三方cookie,后有蘋果推出ATT隱私新政,個性化廣告首當其沖,隱私安全終成互聯(lián)網(wǎng)公司繞不開的命題。
前有谷歌禁用第三方cookie,后有蘋果推出ATT隱私新政,個性化廣告首當其沖,隱私安全終成互聯(lián)網(wǎng)公司繞不開的命題。上周三,Graham Mudd在Facebook官網(wǎng)主頁上發(fā)布了一篇名為“Privacy-Enhancing Technologies and Building for the Future”(隱私增強技術(shù)和面對未來的建設(shè))的文章。其在文中提到:“必須承認的是,數(shù)字廣告勢必要減少對個人第三方數(shù)據(jù)的依賴,這也是我們多年來一直投資建設(shè)一系列隱私增強技術(shù),并與行業(yè)一同制定標準以支持下一時代的原因?!?/section>毫無疑問,F(xiàn)acebook的龐大廣告帝國正是建立在跨平臺用戶追蹤的個性化能力基礎(chǔ)之上,而隱私監(jiān)管的收緊則對其帶來了諸多限制。今年年初,TOP君曾在文章里分析過,蘋果的隱私條款將對Facebook廣告的轉(zhuǎn)化追蹤能力、定向能力以及Facebook Audience Network的個性化能力產(chǎn)生一定影響。這也是當時Facebook從中小企業(yè)利益切入,利用各種公關(guān)手段高調(diào)控訴蘋果的主要原因,不過最終依然難以撼動大局。正如歷史不會倒退,隱私保護的趨勢不會逆轉(zhuǎn),已經(jīng)融入人們?nèi)粘I畹膫€性化營銷活動也不會突然消失,F(xiàn)acebook勢必要在個性化廣告與個人隱私之間找到和解之道。“我們相信營銷個性化對用戶和企業(yè)而言仍是最佳體驗。沒有個性化廣告,企業(yè)將更難啟動和發(fā)展,新的產(chǎn)品與服務(wù)也會更難被人們發(fā)現(xiàn),并且成本也會更高。同樣,人們將會看到很多不相關(guān)、不及時且不感興趣的廣告?;ヂ?lián)網(wǎng)不再是免費且自由的場所,讀新聞、聊天、娛樂也許都需要付費,對無法承擔訂閱費的人來說將變得難以訪問,”Graham Mudd寫道。從這篇文章里,我們深刻感受到,邁向個性化廣告下一時代的鑰匙正是利用技術(shù)解決隱私安全問題,形成大規(guī)模應(yīng)用,并得到社會認可。建設(shè)未來的重要一環(huán)就是研發(fā)一系列隱私增強技術(shù)(Privacy-enhancing technologies,簡稱PETs) ,使得Facebook在保障個人隱私的同時還能夠做廣告效果度量和優(yōu)化,這其中廣告主和平臺任何一方都不能得到用戶的個人信息。隱私增強技術(shù)是數(shù)字廣告下一代的核心“我們相信PETs將會支撐起下一代數(shù)字廣告,”Graham表示。PETs主要涉及到密碼學(xué)和統(tǒng)計學(xué)技術(shù)。總體來說,這些技術(shù)能夠通過最小化數(shù)據(jù)處理量來保護個人信息安全,與此同時保留廣告度量、個性化等核心功能。這其中,F(xiàn)acebook主要介紹了三種常用技術(shù):secure multi-party computation(安全多方計算技術(shù),簡稱MPC)、on-device learning和differential privacy(差分隱私)。TOP君用比較通俗的話術(shù)分別介紹下各自邏輯。安全多方計算(MPC)是一種密碼學(xué)技術(shù),即多方將各自數(shù)據(jù)分別加密,再進行交換與學(xué)習(xí),從而實現(xiàn)對廣告效果的度量與優(yōu)化。在數(shù)據(jù)傳輸、存儲、應(yīng)用等過程中,數(shù)據(jù)全程處于加密狀態(tài),任何一方都不會看到其他方數(shù)據(jù)。在廣告效果度量場景中,以往,廣告主會對數(shù)據(jù)加密,然后傳輸給平臺方或第三方,而平臺或第三方在接收到數(shù)據(jù)之后可以解密,從而獲得洞察,這意味著至少其中一方會看到用戶從點擊到購買的全路徑數(shù)據(jù)。如果MPC技術(shù)得到應(yīng)用,則意味著一方只能看到其所擁有的用戶點擊數(shù)據(jù),另一方只能看到用戶購買數(shù)據(jù),在加密條件下,雙方交換各自已經(jīng)加密的數(shù)據(jù)包并對另一方數(shù)據(jù)再次加密,這樣兩個數(shù)據(jù)包都各自上了兩道鎖,保證雙方最終除了匹配結(jié)果之外不會獲得其他信息,也無需再將數(shù)據(jù)授權(quán)給其他方,從而降低數(shù)據(jù)隱私泄露風險。而在廣告優(yōu)化場景中,例如廣告主想知道點擊用戶在該品牌的平均消費金額,MPC技術(shù)也能實現(xiàn)在不泄露任何個人數(shù)據(jù)的情況下給到廣告主最終計算結(jié)果。大致原理是,對每位轉(zhuǎn)化用戶的消費數(shù)據(jù)進行拆分,然后重新洗牌、聚合、加和,最終除以總?cè)藬?shù)得到平均消費金額。這樣廣告主既得到了想要的廣告效果數(shù)據(jù)以優(yōu)化后續(xù)投放策略,又保證了個人消費數(shù)據(jù)的安全。Facebook透露,目前MPC技術(shù)已經(jīng)開始投入使用。去年,其已經(jīng)開始測試一個叫Private Lift Measurement的解決方案,其中包括利用MPC技術(shù)幫助廣告主進行效果度量,預(yù)計明年就會面向全部廣告主開放使用。此外,F(xiàn)acebook也已經(jīng)推出了隱私計算開源框架,任何開發(fā)人員都可以使用 MPC 創(chuàng)建以隱私為中心的測量產(chǎn)品。On-device learning,即系統(tǒng)可直接在用戶設(shè)備上基于歷史數(shù)據(jù)來找到一些有用的模式,并通過不斷學(xué)習(xí)優(yōu)化算法模型,此過程無需再將個人數(shù)據(jù)發(fā)送到遠程服務(wù)器或云,即可實現(xiàn)預(yù)測。例如如果愛健身的人群可能也是蛋白奶昔的潛在購買用戶,那么On-device learning就能通過學(xué)習(xí)找出二者之間的關(guān)聯(lián)模型,這一過程中,用戶個人信息不會上傳到Facebook的服務(wù)器,只會保留在設(shè)備上,避免了隱私泄露風險。那么On-device learning又是通過什么原理來實現(xiàn)對隱私的保護的呢?通俗來講,在每個設(shè)備上,都有一個獨立、安全的“小房子”,用來收集用戶在各個APP內(nèi)的數(shù)據(jù),通常稱之為Sandbox(沙箱)。像APP下載、購買記錄等數(shù)據(jù)都會保存在這里,不會與其他方共享。在沙箱里,系統(tǒng)就可以根據(jù)用戶在設(shè)備上的一系列行為來學(xué)習(xí)得到一些模式,如一個人喜歡聽搖滾樂,經(jīng)常在晚上網(wǎng)購等,然后對這些模式進行匯總,保證其不會被識別。當有更新時,系統(tǒng)可直接更新模式,無需再去通過匯總個人數(shù)據(jù)來重新學(xué)習(xí),這樣雖然每一個設(shè)備只是完成了一次微小的模式更新,但成千上萬個設(shè)備匯總起來就會生成一個安全、不可識別的報告,完成一次模型的優(yōu)化,F(xiàn)acebook只需學(xué)習(xí)最終匯總成的模型,就能更好地為每個用戶推薦匹配的廣告。事實上,這項技術(shù)已經(jīng)在很多蘋果設(shè)備上廣泛應(yīng)用了。不過根據(jù)Graham,目前On-device learning應(yīng)用的最大挑戰(zhàn)其實還是運營系統(tǒng),平臺能否利用所需的計算資源來執(zhí)行,掌控權(quán)還在蘋果手中?!叭绻磥砜梢試@這些資源的訪問和使用(以公平競爭的方式)建立一系列標準,那么就會很有意義?!?/section>3. Differential privacy(差分隱私)
差分隱私是保護個人數(shù)據(jù)被破解的一種技術(shù)手段,可以單獨使用也可以與其他技術(shù)聯(lián)合應(yīng)用。基本原理就是在數(shù)據(jù)集中混入一定比例的“噪聲”,這樣就很難會利用第三方數(shù)據(jù)反向推導(dǎo)出個人信息。例如,F(xiàn)acebook上一則廣告有118人在點擊后進行了購買,那么差分隱私技術(shù)就會從中添加或抽取隨機數(shù)量,最后使用該系統(tǒng)的人可能看到的數(shù)字會是120或是114。現(xiàn)實生活中,經(jīng)過匿名、去標識化后的數(shù)據(jù),依然有個人身份被識別的可能。這樣的事情并不少見。TOP君給大家講兩個非常出名的故事。1997年,馬薩諸塞州州長William Weld曾同意將政府雇員就診信息公開用于學(xué)者研究,而為了保護個人隱私,這些數(shù)據(jù)其實已經(jīng)將姓名、住址等信息刪掉,去標識化了。不過一名研究生卻通過交叉比對一份選舉記錄輕松人肉出了州長,并找到了他的全部醫(yī)療記錄。同樣,在2006年,奈飛舉辦了一個算法大賽,要求利用一份匿名后的數(shù)據(jù)庫來預(yù)測用戶電影評分。而后兩位研究人員將這份數(shù)據(jù)庫通過關(guān)聯(lián)IMDb網(wǎng)站上的公開記錄,識別出了一些匿名用戶的真實身份。最終,奈飛因隱私問題停賽,不得不面對巨額罰款。由此看來,即便去標識化,依舊無法保證隱私安全,這就需要差分隱私技術(shù)在數(shù)據(jù)庫中混入“噪聲”,在保證不改變數(shù)據(jù)原有模式的基礎(chǔ)上,防止外人破解。當然,這其中也包含不同方式,涉及到不同算法。 用差分隱私技術(shù),在數(shù)據(jù)庫中混入一定比例“噪聲”一個酒店做調(diào)查,需要顧客回答是否會帶走酒店浴袍當作紀念品。不過這種問題,很多人都不會直接承認,畢竟被別人知道會非常尷尬,于是酒店就可以用差分隱私的方法,讓系統(tǒng)只能有一部分概率得到顧客的真實回答。如果更具象化一點,可以將這里差分隱私的應(yīng)用當做一次拋硬幣,得到正面,系統(tǒng)將真實記錄顧客的回答;得到背面則會再拋一次,如果還是正面,就記為“是”,背面則為“否”。這樣酒店就不知道誰拿了浴袍,只知道有多少比例的人拿了浴袍當紀念品。
立即登錄,閱讀全文
版權(quán)說明:
本文內(nèi)容來自于TopMarketing,本站不擁有所有權(quán),不承擔相關(guān)法律責任。文章內(nèi)容系作者個人觀點,不代表快出海對觀點贊同或支持。如有侵權(quán),請聯(lián)系管理員(zzx@kchuhai.com)刪除!