近日,中央網信辦等四部門聯合印發通知,開展專項行動,治理網絡平臺算法典型問題。
網絡平臺算法亟待問題治理(AI制圖)
問題能成為“典型”,本身就能證明用戶苦算法久矣!難怪很多人對這則消息的第一反應是聽到自己內心的熱烈掌聲。
一
11月20日,農夫山泉董事長鐘睒睒在一次演講中談論了他曾遭受的“網暴”,并呼吁“請各位媒體的公正力量,共同捍衛網絡輿論的文明價值”“算法應該明白無誤地公布于眾”。
如果說鐘睒睒的遭遇讓他刻骨銘心,那么北京市民王蘭遇到的事只能說讓她啼笑皆非。她10歲兒子的手機近日頻繁收到各種相親信息,追根究底才搞清楚,原來是兒子前幾天誤點了一個相親廣告。
有算法工程師指出,目前多數網絡平臺采用的都是“流量至上”的邏輯,通過抓取用戶數據、分析用戶的習慣和喜好,然后過濾掉用戶不感興趣的內容、推薦用戶感興趣的信息。
乍看這個邏輯似乎是在逢迎用戶“為你好”,稍微細想就知道這個邏輯完全是從平臺利益出發,只為了讓用戶多貢獻流量,至于所推送信息的真假和優劣、大量推送同質信息會否形成“信息繭房”、會否帶來網絡沉迷等問題,基本不在算法的考量之中。
“科技以人為本”,用戶是人,平臺的背后也是人,到底應該以“哪個人”為本?是以服務人為本還是以算計人為本?這道選擇題既屬于商業倫理,從長遠來看,也將決定商業的成敗。
可以肯定的是,一旦用戶有選擇,那些把用戶當作工具人的平臺就會被逐漸拋棄。
二
這次專項行動通知中列出的由算法導致的典型問題包括:制造信息繭房誘導沉迷,熱搜榜單不透明容易被操縱,侵犯新就業形態勞動者權益,大數據“殺熟”等。
熱搜榜單容易被操縱(AI制圖)
算法如此可惡,是否應該一禁了之?答案是不必要也不可能。
不必要:因為算法是人設計出來提升效率的工具,就像從石器進化到青銅器,它本身是中性的,可以作惡也可以行善,關鍵看怎么用。這次專項行動就提出了要“增強算法向上向善服務保護網民合法權益”。
不可能:因為人工智能本身雖充滿未知風險,但其應用已成浩浩湯湯之勢不可阻擋,作為人工智能三大基石之一的算法,其發展也就不可避免。
唯一可行的路徑是,為算法立法,規定怎樣使用算法才合法、怎樣就違法。
目前,中國直接針對算法的政策法規主要是《關于加強互聯網信息服務算法綜合治理的指導意見》和《互聯網信息服務算法推薦管理規定》,還有一些零散規定嵌入在其他政策法規中,如《中華人民共和國電子商務法》規定了平臺運行過程中的算法規范與責任,《中華人民共和國個人信息保護法》規定了算法自動化決策治理的基本框架等。
但這些政策法規都是從外部治理,如果能從行業內部開始治理,從算法源頭開始治理呢?
科幻作家阿西莫夫曾提出機器人三定律。第一定律?:機器人不得傷害人類,或因不作為而讓人類受到傷害;?第二定律?:機器人在不違反第一定律的前提下,必須服從人類的命令;?第三定律?:機器人在不違反第一第二定律的前提下,必須保護自己的存在。這三條定律已經成為人工智能學界普遍認可的最底層定律。
如果算法行業也能制定出自己的“N定律”,用最底層算法來限定具體算法的設計,或許可以事半功倍?
三
這次算法治理專項行動提出五個目標:算法導向正確、算法公平公正、算法公開透明、算法自主可控、算法責任落實。
其中,算法公開透明,是要求平臺公示算法推薦服務的基本原理、目的意圖、主要運行機制等,確保簡單、清晰、可理解。
算法自主可控,是指給用戶提供的關閉算法推薦服務的選項應該操作便捷、功能有效。
這兩個目標是跟用戶直接相關的。
公開透明就是要打破以前用戶在明處、平臺“暗算”的局面,讓用戶清楚地知道算法的推薦原理。當雙方都在明處時,用戶就可以根據自己的需要去“規訓”算法,讓算法為自己服務,給出自己想要的推薦,而不是被算法牽著鼻子走。
自主可控是讓用戶能隨時便捷地關閉算法推薦。
這兩個目標中,算法自主可控是應有之義。算法是為用戶服務的,用戶當然有主動放棄服務的權利。
算法公開透明最重要。因為只有公開透明,才能利用群眾“雪亮的眼睛”去倒逼算法導向正確、公平公正,壓實算法責任落實。所以鐘睒睒在要求平臺公布算法時強調,沒有一種標準是不可以公布的,應該公布出來讓所有使用者來評價其意義。
當過農夫,喝過山泉,我沒有鐘睒睒富裕,但愿意附議。
因為我相信,君子坦蕩蕩,向上向善的算法一定是從用戶利益出發的算法、公開的算法,正所謂“親用戶,‘明算’賬”。
據安徽時評 撰稿:陳衛華
請輸入驗證碼