外送茶平台若以AI審核對話內容,誤判率與偏誤如何影響生計,透明度應達何門檻
對於以平台接案維生的人而言,一次封鎖、降權或延遲派單,就可能立刻反映在收入與生活壓力上。若外送茶平台以 AI 審核對話內容,誤判率與系統性偏誤會把不確定性轉嫁到個體,讓原本就脆弱的生計變得更難預期。本文從風險治理角度出發,分析外送茶情境中 AI 審核的誤判機制、偏誤來源與生計衝擊,並提出透明度的「最低門檻」與可操作的問責框架,讓外送茶平台的規則不再是黑箱,而是可被檢驗、可被救濟、可被持續改進的制度。 一、問題意識:當「對話」變成可計算的風險 平台治理常以「安全」「合規」「降低詐欺」為名,逐步擴大資料蒐集與自動審核的範圍;對話內容因為最貼近交易與互動脈絡,便成為最容易被納入監控的對象。但對話具有高度語境性:同一句話,在不同情境可能意味完全不同。若外送茶平台將聊天、語音或客服對話交由模型評分,模型無法理解脈絡時就會用「可見訊號」替代理解:關鍵字、語氣、頻率、時間、地理位置、裝置指紋等。這些替代指標一旦與懲罰機制綁在一起,便容易形成「以可量化替代真相」的治理偏差。更棘手的是,很多平台並不會把判定依據完整告知當事人,導致被處分者難以反駁與自證。於是,外送茶工作者面對的不是單一規則,而是一套會變動、會學習、卻不必解釋的自動化秩序;而對外送茶平台來說,越少說明就越能降低申訴成本,形成權力不對等的結構。 二、 AI 審核是怎麼做的:從「偵測」到「處分」的流水線 多數平台的 AI 審核並非單一模型,而是一條由多個模組串接的流程:資料擷取(聊天、語音轉文字、圖片文字辨識)→ 特徵抽取(關鍵字、語意向量、關係圖譜)→ 風險評分(分類器或排序模型)→ 規則引擎(達到門檻就觸發處置)→ 人工覆核(通常只處理少數高風險或高價值用戶)→ 最終處分。當外送茶平台宣稱「我們用 AI 保障安全」,實際上往往是「用 AI 節省人工」。節省的代價,就是把不確定性推給被評分的人。 此外,平台常把「偵測」與「處分」綁得很緊:只要評分超過某個閾值,就自動降權、延遲派單、限制曝光或要求重新驗證。這些處分不一定被稱為「封鎖」,卻同樣會讓收入驟降。對外送茶平台而言,這是可調參數;對個體而言,卻是當天房租與生活費。若在外送茶情境中, AI 審核把多義詞、玩笑話、反諷語氣誤判為「高風險」,就可能觸...