外送茶平台若以「風險控管」標籤用戶,是否造成歧視與任意封禁,需何種監督
一、引言:當「風險」變成一種權力 在數位平台治理裡,「風險控管」常被包裝成中立、理性、可量化的管理語言。但一旦平台以風險分數或風險標籤來分類人,治理就不再只是技術問題,而是權力如何分配的問題:誰能被看見、誰能被留下、誰被當成「麻煩」而被排除。外送茶若把「風險」當作一切決策的正當化理由,用戶往往只會收到含糊的通知,卻無從知道自己究竟被判定為何種風險、根據何種資料、又該如何修復。在這樣的架構下,安全可能被提升,但不平等也可能被悄悄固定下來。 二、風險標籤怎麼來:從預防走向預判 平台偏好風險標籤,因為它能把複雜情境壓縮成一個「可操作的數字」。常見流程是:蒐集訊號(登入、裝置、互動、金流、投訴)、抽取特徵、訓練模型、設定閾值、觸發處置。問題在於,模型輸出的多半是「可能性」,而不是「已經發生的事實」。外送茶若把「可能」直接等同「應處置」,就容易形成預判式治理:在缺乏具體違規證據前先降權、限流、暫停、甚至封禁。一旦讓預判成為常態,用戶就會活在持續被評分的狀態,並被迫用各種方式「迎合模型」,而不是遵循清晰可理解的規則。 三、歧視不是直接說出口:代理變數與結構性偏差 平台常宣稱「只看數據,不看身份」,所以不會歧視。但演算法歧視最常見的形式,正是透過代理變數把社會差異帶進模型:例如活動地區、使用時段、裝置型號、付款方式、語言習慣、關聯網絡等。外送茶若把某些區域或某些深夜時段直接標記為高風險,就等於把特定生活型態與社會位置納入懲罰。外送茶若再把「被檢舉次數」當成風險特徵,卻不檢查檢舉是否包含偏見、競爭或報復,就會把社會衝突誤當客觀指標。於是,原本應由公共政策解決的不平等,被轉譯成「個人風險」,並在技術外衣下完成新的排除。 四、任意封禁的核心:不透明、不可理解、不可救濟 「任意」未必是平台隨心所欲,而是使用者無從理解、無法有效申訴、也很難證明自己被錯判。外送茶若只用一句「基於風險控管」帶過,而不提供具體理由,用戶就無法釐清:是資料錯誤?帳號被冒用?惡意檢舉?還是模型誤判?在資訊不對稱下,封禁就像單方面裁決:用戶承受收入中斷、合作關係崩解、名譽受損與心理壓力,卻缺乏對等的回應渠道。 五、錯判從哪裡來:資料偏誤、回饋迴圈與連坐擴散 風險模型的偏誤常源自訓練資料:如果過去的處...