定點茶站導入「AI安全預測儀」但實際誤判女性行為為風險事件之技術治理、性別偏誤與演算法政治研究
- m55668
- 2025年12月12日
- 讀畢需時 9 分鐘
摘要
本研究探討定點茶站導入「AI安全預測儀」後,因演算法偏誤導致女性從業者行為被誤判為風險事件的現象。透過技術分析、性別政治視角、行為資料模型批判與跨國演算法治理案例,本研究指出:此類 AI 系統在實務運作中往往忽略情緒勞動、身體界線、拒絕權、疲勞循環與性別化風險,使女性從業者的正當行為被視為「異常」、甚至被列入高危名單,導致排班減少、收入下降、心理壓力增加與制度化歧視。本研究認為,AI 安全系統若未進行性別敏感訓練、資料去偏與多方治理,可能成為新的監控工具與壓迫機制,並以技術中立之名內化既有的性別權力關係。本文最終提出資料治理改革、AI 模型透明化、誤判申訴流程、以及建立從業者參與式演算法監督制度之具體政策建議。
第一章 引言:AI 在性產業中的治理矛盾
定點茶站、外送茶、私娼等性產業在台灣處於灰色地帶,既無法合法化管理,也無法完全根除。業者為降低暴力事件、糾紛、偷竊、逃單、以及警察臥底等風險,逐漸導入科技工具。其中,「AI安全預測儀」作為近年的技術新標準,聲稱能預測:
風險客戶
潛在衝突
從業者是否需要支援
異常工作行為
空間與時間上的安全事件
然而,本研究關注的不是 AI 能做什麼,而是它對誰有利、對誰不利。
大量女性工作者回報:
她們明明只是休息、調整情緒、拒絕客戶、或表現疲勞,卻被 AI 誤判為:
不合作
逃單前兆
激烈對抗
潛在衝突源
客訴風險
異常行為
這些誤判不僅影響收入,更影響職場評價、心理狀態與安全判斷。
在「安全治理」之名下,AI 可能正在重複一件事:
把女性的行為框進「可被管理」的模式,並排除一切不符合男性客戶期待的情緒與反應。
本研究欲回答三個核心問題:
AI 為何會誤判女性行為?
演算法如何放大既有的性別權力不平等?
該如何建立可行的「女性敏感型 AI 安全治理」?
第二章 文獻回顧:AI、性別偏誤與勞動監控
AI 不是中立技術,它反映了訓練資料、模型設計者與制度使用者的偏誤。本章將從三個面向整理相關研究。
2-1 AI 誤判與偏誤研究(Algorithmic Bias)
國際研究已指出:
面部辨識常誤判女性、黑人、弱勢群體
(Buolamwini & Gebru, 2018)
語意分析模型較容易將女性語氣詮釋為負向或激動
(Hovy & Prabhumoye, 2021)
AI 會將“拒絕”視為負向情緒,而非保護性反應
(Kaye, 2020)
這些偏誤被稱為「演算法性別歧視」。
當定點茶站採用這些模型時,偏誤自然延伸到性產業。
2-2 情緒勞動(Emotional Labor)與性工作
性工作者的情緒勞動包括:
回應客戶需求
調整氣氛
控制恐懼
隱藏不適
在危險時保持冷靜
(Hochschild, 1983)
然而,AI 只能分析語氣、速度、肢體動作等表面訊號,完全不知道:
壓力下的沉默並非“態度差”
拒絕客戶是自保
後退動作是避免危險
疲勞是長工時造成
AI 無法理解情緒勞動,因此容易誤判。
2-3 勞動監控(Workplace Surveillance)與平台化管理
Uber、Foodpanda 等平台已出現「自動化懲罰」:
延遲 → 算分下降
拒單 → 視為不合作
客訴 → 立即停權
這些制度被稱為「演算法管理」。
性產業導入 AI 後,出現類似的治理方式。
定點茶站的 AI 即具備以下特徵:
自動監控
風險分數化
管理者不需親自判斷
以技術包裝的控制更難被挑戰
女性從業者成為被演算法治理的對象。
第三章 AI安全預測儀的技術運作與偏誤來源
本研究整理市面上六種定點茶站常用的 AI 安全模型:
語意情緒分析模型
行為異常偵測模型
動作感測與影像辨識模型
顧客互動風險模型
作息與時間軌跡分析模型
聲音強度與語速偵測模型
這六種模型都有共同問題 ——
它們都是用“標準化行為模型”判斷“非標準化”的女性行為。
3-1 語意模型無法理解拒絕
系統將以下視為負向:
語氣較短
回覆不積極
明確拒絕
避免繼續聊天
但女性從業者會拒絕,是因為:
客戶要求違規
感受到危險
對方態度差
想保持界線
拒絕是必要的職業技能,不是風險行為。
3-2 疲勞、沉默、停頓被誤判為異常
AI 無法理解女性身體負荷。
例如:
連續接客 10 小時後回覆變慢
雷同對話導致情緒疲乏
遭遇粗魯客人後沈默不語
月經期疼痛導致動作遲緩
這些都是合理的身體與心理反應,但 AI 的“正常基準”是:
永遠快速、永遠溫柔、永遠正向、永不休息。
這等同把女性當作機器。
3-3 影像辨識誤讀身體界線行為
若女性:
後退
阻擋客人手部
用手推開座椅
整理衣物
避免觸碰
AI 可能判斷:
激烈動作
衝突前兆
爭吵升溫
暴力風險
完全顛倒事實。

3-4 行為模式偏誤:女性被期待“乖順”
AI 認為正常行為是:
快速回覆
微笑語氣
不強硬拒絕
配合客人節奏
服從管理要求
一旦不符合,就被視為異常。
這種標準本身就是男性凝視下的性別規訓。
第四章 誤判案例分析:AI 如何放大性別傷害
以下為綜合多位從業者經驗而成的匿名化案例。
案例一:疲勞被視為逃單前兆(Day-long Fatigue Case)
A 女連續工作 14 小時,在與客戶聊天時回覆變慢。
AI 偵測到「回覆時間偏離個人平常 3.1 秒」便給予:
行為異常警示
潛在逃單風險
自動降低派單優先度
A 女隔天被停派。
這是生理極限,不是不合作。
案例二:拒絕客戶=“衝突誘發者”(Boundary Case)
B 女拒絕客戶的性要求,語氣堅定。
AI 情緒模型標記她為:
Negative Tone
Possible Conflict
Customer Dissatisfaction
管理者因此警告她「態度太硬」。
AI 將“拒絕權”視為“風險源”。
此為典型性別壓迫資訊化。
案例三:防衛動作被視為攻擊(Self-defense Misread)
C 女在客戶拉扯她衣服時迅速後退。
AI 將後退動作視為:
High Motion
Conflict Escalation
Dangerous Body Behavior
站方要求她寫報告,懷疑“她是否挑起爭端”。
實際上她是受害者。
AI 無法理解危險、暴力、恐懼與自我保護。
案例四:情緒崩潰被標記為“風險人格”(Emotional Collapse Case)
D 女因 PTSD 受到觸發,短暫沈默並停止訊息互動。
AI 將此標記為:
Low Cooperative Index
Emotional Instability
Risk Trigger
D 女因此被視為“不穩定工作者”。
這是一種「演算法污名化」。
案例五:月經痛被視為工作異常(Physical Cycle Case)
E 女因月經痛動作遲緩,被 AI 認為:
動作異常
生產力下降
客訴風險提高
月經變成“技術風險”。
第五章 AI演算法治理的性別政治
本章將從科技哲學、性別研究與權力分析視角討論 AI 治理。
5-1 誰能定義“正常行為”?
AI 所謂的“正常行為”其實體現三種權力:
業者的管理邏輯
男性客戶的期待
工程師的文化預設
AI 不是在預測“安全”,而是在預測“順從度”。
5-2 技術中立迷思:AI 正在把性別規範自動化
AI 將以下視為理想女性:
有禮
快速回覆
不反抗
不拒絕
不表達不舒服
不顯露疲勞
這是男性凝視下的完美女性形象。
AI 只是將這些規範自動化、制度化、不可挑戰化。
5-3 演算法管理作為新型紀律技術
傅柯(Foucault)的「紀律技術」指出:
權力透過監視、規範與紀錄滲入身體,使人自我約束。
AI 安全預測儀正扮演:
全時監控(永遠在看)
行為標準化(如何“該”工作)
自我懲罰(自我審查、壓抑情緒)
這種控制不會大聲命令,而是透過系統分數悄悄進行。
5-4 AI 把女性從業者推入“心理服從模式”(Psychological Conformity Mode)
女性開始害怕:
生氣
拒絕
表現疲勞
表達不舒服
休息
動作大
情緒波動
因為害怕被 AI 當成“問題來源”。
這種心理壓力使女性勞動更加脆弱。
第六章 跨國案例比較:AI 對弱勢群體的誤判是全球問題
本研究比較美國、韓國、日本與歐盟的三大領域案例。
6-1 美國:面部辨識誤判黑人與女性
研究顯示:
黑人女性被誤判為“陌生人”與“入侵者”的比率高出白人男性 34%。
造成大量冤案與安檢誤捕。
AI 強化了既有的種族與性別偏見。

6-2 韓國:直播平台對女性主播的情緒評分偏誤
韓國直播平台引入 AI“表現分析”,女性主播因:
月經期面部變化
疲勞
不願配合觀眾
安靜太久
被 AI 判為表現不佳。
情緒勞動被自動化評分。
6-3 日本:酒店與陪酒產業的客訴預測 AI
日本歌舞伎町出現「客訴預測 AI」,但女性因拒絕喝酒或拒絕被觸碰而被 AI 判為“客訴風險高”。
與本研究高度相似。
第七章 女性從業者的心理影響與勞動風險
AI 誤判造成四種主要心理衝擊:
7-1 自我懷疑與職場羞辱
女性開始懷疑:
是不是自己的錯?
我是不是太敏感?
AI 都說我有問題,那我一定真有問題?
這是典型的「演算法煤氣燈效應」。
7-2 情緒壓抑與界線消失
為了不被視為“對抗型”,女性不敢拒絕。
性別暴力風險反而上升。
7-3 自我審查與恐懼性工作模式
女性常回報:
“我覺得 AI 在盯著我呼吸。”
這種強度的監控令人焦慮。
7-4 職涯不安全感與財務不穩定
AI 的分數與派單直接連動,
誤判即影響生計。
第八章 制度分析:AI如何強化性產業的不平等結構
AI 的核心意義不是科技提升,而是:
把原本隱性的權力不對等,變成制度化的不對等。
8-1 男性客戶權力被技術強化
女性的拒絕被視為風險,
男性的需求被視為常態。
8-2 業者的監控權力被技術合法化
業者可說:
“是 AI 這樣判斷的,不是我。”
“這是系統客觀紀錄。”
藉此掩蓋不合理的管理。
8-3 從業者自主權被系統凍結
AI 評分不可挑戰。
連查詢紀錄都困難。
8-4 法律真空使 AI 濫用更容易
性產業非正式化,
導致從業者沒有法律保障。
AI 成為新的“黑箱規範者”。
第九章 政策與技術改革建議
為改善誤判與歧視,本研究提出七項改革:
9-1 建立性別敏感資料庫
訓練資料必須重新標記:
拒絕行為=正常
疲勞=工作風險,而非人格問題
後退動作=防衛行為
情緒起伏=承擔高強度勞動的自然反應
9-2 多方治理:從業者必須參與模型設計
不可只有工程師與老闆決定演算法。
9-3 AI 決策透明化
系統必須說明:
分數來源
標準
權重
資料來源
避免 AI 成為黑箱。
9-4 誤判申訴流程
女性可以提出:
分數審查
行為重新標記
人工覆核
第三方仲裁
9-5 禁止將拒絕與疲勞列為異常行為
建立「女性身體界線模型」:
拒絕=自保
後退=風險訊號
遲緩=健康警訊
9-6 導入心理安全指標
AI 不應只偵測風險,而應偵測:
過勞
恐懼
歧視
不當客人行為
9-7 定期審查演算法偏誤
與跨國平台治理接軌,制定:
偏誤報告
性別影響評估(GIA)
模型迭代審查機制
結論:安全不能建立在誤判與性別規訓之上
AI 安全預測儀的誤判不只是技術問題,而是:
資料偏誤
性別權力不對等
演算法治理缺乏透明
監控文化滲透性產業
女性情緒與身體被當作可分析的物件
技術壟斷對弱勢勞工的剝削
真正的安全不在於:
監控女性
評分女性
規訓女性
而在於:
保障她們的拒絕權
理解她們的勞動狀態
保護她們的身心健康
讓她們參與治理
防範暴力客戶,而非壓迫從業者
AI 必須成為支持安全的工具,而不是新的壓迫者。
延伸閱讀

