如果新浪微博并未在去年公布熱搜管理的算法規則,那么它可能將一直處在 “花錢買熱搜”、“花錢撤熱搜”的質疑與揣測狀態中。
(資料圖片)
如果美團并未在去年公開外賣訂單分配算法,那么社會輿論將一直停留在“算法系統,是剝削騎手的機器”上。
放眼全球,近年來多個國家和地區的監管部門都在落實“算法透明化”,“算法向善”、“莫讓算法變算計”等口號被強調;多個互聯網平臺都在嘗試公布自身具備巨大社會影響力業務的算法邏輯,交予監管部門和公眾監督。
盡管公眾或許并不能看懂平臺在公布算法的公告中提到的一些算法術語、計算公式,但也能清晰地預料到這是一件好事:公布后,既可以作為討論的話題,也可以作為日后的憑據。一項基于技術創新的業務,如果無法具備評估標準,那么也很難有優化的具體路徑。
在各國關于算法監管的立法路徑中,也有重要趨勢開始凸顯:綜合化治理和精細化治理在齊頭并進,法律在不斷向深、向細,“算法透明”正從一個暢想走向現實。
《關于加強互聯網信息服務算法綜合治理的指導意見》中提出利用三年左右時間,逐步建立治理機制健全、監管體系完善、算法生態規范的算法安全綜合治理格局。時至今日,我國《互聯網信息服務算法推薦管理規定》已經施行四個月,業界依然存在著某些平臺“響應了相關規定但沒完全響應”,或相關響應流于形式的情況,還有賴于后續相關法規的完善。
“個性化廣告”開關是否流于形式
此前在網上曾經看到一個評論:要追求算法透明,要求相關平臺開放源代碼不就可以了?
這樣的舉動既不安全也不透明。首先,公布源代碼后,便意味著有被攻擊的風險,相關企業的商業機密也有被竊取的可能。其次,源代碼的認知度因人而異、因團隊而異,往往一個工程師的代碼不加注釋,同團隊都未必看懂,更遑論公眾。
那鼓勵算法透明,應該鼓勵平臺做到何種程度?
英國是世界上首個推出政府算法標準的國家。2021年11月,英國內閣辦公廳中央數字和數據辦公室(Central Digital and Data Office,CDDO)發布算法透明度標準(Algorithmic Transparency Standard)。該標準由兩個層次構成。第一層次主要是對算法工具的簡要介紹,包括如何使用、為何使用等;第二層次涉及算法工具具體如何工作的信息、訓練模型的數據集以及對人力監測的要求等。
雖然只區分了兩個層級,但基本涵蓋了數據的采集方式與分析方法、模型的設計邏輯與變量優化、各項參數權重、生成決策的判斷依據、算法運行的正常與報錯、人力干預的公開與公正等環節,貫穿算法的業務流程。
一個多月后,中國國家網信辦會同工信部、公安部、市場監管總局出臺《互聯網信息服務算法推薦管理規定》(已于2022年3月1日正式施行),對算法推薦服務做出全面規范。該規定覆蓋多領域、多場景:不僅適用于社交媒體、電商場景、搜索平臺的個性化推送算法、排序精選算法、檢索過濾算法,也適用于包括網約車、外賣場景下的調度決策類算法,還包括用于游戲和虛擬環境中生成內容的生成合成類算法。
在用戶權益保護上,《互聯網信息服務算法推薦管理規定》第十六條規定,算法推薦服務提供者應當以顯著方式告知用戶其提供算法推薦服務的情況,并以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等。
一個顯著、一個適當,彰顯了《互聯網信息服務算法推薦管理規定》的監管思路靈活性。
顯著方式主要體現在哪?各平臺采取的主要方式是,體現在自身的隱私政策中。
比如 “抖音”在隱私政策中進行了說明:為了預測用戶的偏好,可能會收集、使用用戶的設備信息、位置信息以及在使用抖音時的行為信息,并根據用戶使用抖音過程中內容瀏覽相關行為對推薦模型進行實時反饋,不斷調整優化推薦結果。用戶可關閉個性化內容的推送,關閉后,抖音將不會基于個性化推送處理用戶個人信息,僅會推送與用戶偏好無關的具有普遍性的內容或廣告。
“微信”中的描述是,平臺可能將通過某些功能所收集的信息用于平臺的其它服務。例如,平臺可能將用戶使用平臺某一功能或服務時收集到的信息,在另一功能或服務中用于提供特定內容,包括但不限于展示廣告(可以關閉“個性化廣告”)、對用戶閱讀過的內容進行信息安全類提示、基于特定標簽進行間接人群畫像并提供更加精準和個性化的服務內容,以及保護用戶權益或保護微信生態安全等。
邏輯很好理解,當用戶打開個性化廣告的開關,平臺展示的廣告更精準,更“投其所好”。而當個性化廣告關閉后,平臺所展示的僅為程序化廣告,類似于電視時代的廣告展示給所有人,不會迎合用戶的個人特征。
但一些問題往往出在很簡單的邏輯中。舉個例子,在日常使用“微信”過程中,總會涉及到平臺對用戶地理位置的獲取。但當用戶關閉了“個性化廣告”后,平臺對于用戶理應一視同仁,用戶地理位置在北京亦或在福建,對于廣告投放而言應當沒有區別。明確關閉了“個性化廣告”的用戶,卻能看到非常精準的本地車展廣告,這與平臺隱私政策中的個性化廣告邏輯相悖。
不同于互聯網廣告,本地衛視有較為集中的收視群體,廣告主方便進行本地化推廣。但就“微信”產品而言,當用戶明確關閉了“個性化廣告”,除了必要的位置服務外,在廣告展示方面,用戶理應不具備地域屬性。基于這樣的邏輯,身在福建的用戶看到廣東的線下活動屬于正常情況,而當該用戶屢次看到福建本地的活動推廣,不免有“我關閉了個性化廣告,我的地理位置信息仍舊被用于廣告”的擔憂。
“個性化廣告”的開關按鈕是形式化授權還是“令行禁止”,在平臺實際運營中有沒有過界行為,其實很難界定。假如用戶抱有對個性化廣告的疑問,想要了解平臺在廣告展示上的主要運行機制,平臺則應采取“適當方式”告知,便于用戶實現知情權和選擇權。至于平臺的“適當方式”能否讓用戶完全知情,還須專事專論。《互聯網信息服務算法推薦管理規定》第十七條要求,用戶選擇關閉算法推薦服務的,算法推薦服務提供者應當立即停止提供相關服務。
就《我們離“可解釋AI”還有多遠?》中提到的案例而言,用戶在不明晰緣由的情況下被滴滴以安全隱患暫停叫車功能,后續的申訴環節平臺也并未展示“安全隱患”從何而來,用戶并沒有完全實現知情權,握在手中的只有“用與不用”的選擇權。
“隱性標簽”何時能選擇?
除個性化廣告外,第二個問題是用戶關于平臺所貼標簽的選擇。《互聯網信息服務算法推薦管理規定》提到 “算法推薦服務提供者應當向用戶提供選擇或者刪除用于算法推薦服務的針對其個人特征的用戶標簽的功能”。用戶需要知道“平臺給我打了什么樣的標簽”,而“我能夠對這個標簽進行選擇和刪除”,這一條文尚未得到明確的市場反饋。除了某些論壇、博客、微博客、網絡直播等類別平臺存在用戶自主選擇的興趣領域外(即顯性標簽),平臺依據大數據對用戶進行畫像的“隱性標簽”的選擇與刪除事項上,還需要逐步深入。
就短視頻領域舉例,一個視頻推薦在用戶首頁,如果多次展示,用戶均未點擊,平臺算法是否應覺察用戶的喜好,無需用戶親自手動點擊“不喜歡”,方可不再展示。用戶往往只有在首次注冊短視頻平臺時,才能手動選擇興趣領域,之后的喜好,只能任由算法推薦。而根據《互聯網信息服務算法推薦管理規定》關于標簽的要求,在長期使用中,用戶也應當具有修改個人“隱性標簽”的權利。
這個標簽往往來源于用戶行為產生的數據,是平臺通過收集用戶社會屬性、消費習慣、偏好特征等各個維度數據,進而對用戶或者產品特征屬性的刻畫。
算法與數據從來不分家。如果將算法視為發動機,那數據則相當于支撐其運行的能源。若用戶無法對數據層擁有充足的知情與選擇,算法治理很難出現大跨步發展,透明也就無從談起。
被動披露→主動備案
在過去,平臺的算法披露原則是被動披露,“非必要不披露”,當社會、個體用戶需要平臺就某個算法運行機制產生疑問后,平臺才會根據具體的需要,進行“適當”地解釋。
但在《互聯網信息服務算法推薦管理規定》提出了“算法備案”的要求后,這種被動披露需要更換為事前備案。《互聯網信息服務算法推薦管理規定》第二十四條規定,具有輿論屬性或者社會動員能力的算法提供者應當在提供服務之日起十個工作日內通過互聯網信息服務算法備案系統填報服務提供者的名稱、服務形式、應用領域、算法類型、算法自評估報告、擬公示類型等信息,履行備案手續,且在備案后,每次備案信息發生變更都應在變更之日起十個工作日內辦理變更手續。這意味著監管需要平臺就算法提供更多的解釋空間,以及對算法的解釋與說明需要跟隨著算法的變動而不斷深化。
算法治理的監管方式分為事前規范與事后彌補,任何一種治理方式都可能因為算法本身的性質、應用場景、監管權力分配等因素存在一定的局限性或滯后性。事前對算法進行影響評估的監管方式正逐漸成為各國探索的方向之一,但規定算法備案相關制度的國家仍然較少,主要經濟體采取事前備案方式的只有歐盟和我國。在算法治理上,《互聯網信息服務算法推薦管理規定》是一個階段性成果,我國從《電子商務法》到《網絡信息內容生態治理規定》再到《個人信息保護法》、《反壟斷法(修正草案)》等相關立法對算法問題已作出相關規定,對于算法治理的規則與評估還在不斷完善中。
總而言之,盡管算法治理目前仍存在各種各樣的問題,但長期來看,當下時間節點在三年算法治理周期內只是起始,隨著監管機制逐步完善、監管體系逐步健全,一些小問題終究會消散在歷史長河中。
多方努力、社會監督下,算法應用終將更公平、更透明、更正義。