藏在演算法下的人才偏見:效率、多元與偏見的交錯
在數位化浪潮下,人工智慧(Artificial Intelligence, AI)已成為企業招募的重要工具。從履歷篩選、面試安排到人才預測,AI 讓 HR 部門在龐大資料中快速找到潛在候選人。然而,這份效率的背後,卻潛藏著難以忽視的挑戰──「演算法偏見」(Algorithmic Bias)。
一、當效率遇上多元:AI 招募的現況
BCG 在〈How AI Is Changing Recruitment〉(2025)報告中指出,AI 在招募中的應用,已讓企業能在幾分鐘內完成過去需要數天的篩選流程。然而,同時提醒了我,若缺乏透明度與監督,AI 可能在無形中「遺忘人才」。我也曾在 104 平台搜尋人才時發現,104招募平台畫面中不斷出現相同履歷,直到更換搜尋關鍵字,才發現有更多潛在候選人。台灣現況同樣印證了這個問題,勞動部《人工智慧應用下之勞動權益保障-就業歧視及 勞工隱私權相關權益之影響與政策建議 》報告中指出,中高齡勞工與女性在履歷回覆率與錄取率上,明顯低於其他群體。在 2023 年的研究更強調,過度依賴既有數據可能加劇性別、年齡與身心障礙者的就業歧視。這樣的現象提醒我:AI 招募並不單純是「科技帶來的效率」,而更像是一面鏡子,照映出我們社會中原本存在的不平等。當我們期待它成為加速器時,也必須正視它在無形中造成的「遺忘」與「偏見」。
二、演算法偏見的成因
- 歷史偏誤(Historical Bias):來自過去的數據本身就有偏見,例如公司長期偏好男性工程師,導致 AI 學到「男性更適合此職缺」。
- 資料偏誤(Data Bias):訓練數據不足或不平衡,例如女性在 STEM 領域的樣本較少,使模型難以正確學習其價值。
- 設計偏誤(Design Bias):開發者在設定演算法時,未充分考慮多元因素,導致模型偏向特定條件。
演算法偏見並不是單一事件,而是持續擴大的結構性問題。當 AI 模型依循既有數據運作時,往往會強化社會中原本就存在的歧視。最著名的案例是Amazon在 2018 年全面停用自家 AI 招募系統。據 Reuters 報導,該系統因學習了十年間男性居多的履歷,最終自動降低了「女性」字眼(如 women chess club)的權重造成性別歧視。這並非 AI 的「惡意」,而是它將歷史的不平等視為理所當然的「規則」並且反映了人類的輸入與歷史偏好。這種潛藏的偏見,讓女性、中高齡勞工與身心障礙者更容易被排除在職場之外。其影響不僅限於個人。當多元性下降,企業團隊的創新能力也會逐漸削弱。根據《 CSR天下》文章的觀察,多元團隊在面對市場變化時的敏感度更高,能夠提出更具創造力的解方。一旦企業忽略這些人才,所付出的代價將不只是「少了一位員工」,而是整體競爭力的下滑。同時,求職者若在招募過程中感受到不公平,企業雇主品牌也會蒙受長遠的傷害。
三、AI 招募審計:為演算法「查帳」
為了避免偏見不斷被放大,國際上提出了 AI Hiring bias audit 的概念。就像財務報表需要查帳一樣,AI 系統也需要定期檢測,確認它是否對某些族群存在歧視。學者 Barocas & Selbst(2016)曾指出,演算法的偏見多半來自訓練數據與設計邏輯,若沒有透明的審計制度,這些偏見只會被強化。數位時代下勞工權益保障更不能忽視資訊透明與可解釋性,倘若 HR 無法說明為什麼某些人被排除,那就是對公平性的傷害。
身為一名學生,我常常想:如果有一天是我在投遞履歷,我的名字、年齡、學校,會不會在還沒被 HR 看見之前,就已經被演算法篩掉?這種焦慮是真實的,也讓我理解到為什麼很多人開始強調「關鍵字寫作」的重要。當履歷的命運取決於是否符合系統設定的語彙,我們不只是要學會寫「給人看」的履歷,更要懂得寫「給演算法看」的履歷。多數台灣企業導入 AI 工具是為了降低成本、加快流程;而關於公平性、多元與友善的討論,仍在追趕的路上。這其實也是一個機會:我們正站在一個可以選擇「只看效率」或「兼顧公平」的分岔口。
結語:科技與人之間的守門人角色
最後,我認為AI 招募的未來,取決於人們如何設計與監督它。就像 Amazon 在 2018 年因性別歧視而停用內部 AI 系統的案例所揭示的,科技並不能替人類承擔倫理判斷。當我們將招募流程交給機器時,實際上也是在將「公平的責任」交付給開發者與使用者。性別歧視與勞工隱私權正是最需要被警覺的科技隱患。當 AI 透過履歷、社群媒體或其他參考數據進行預測時,也極可能侵犯勞工的隱私,甚至在未經同意下蒐集與工作無關的個人資訊。如果沒有配套措施,這種科技濫用不僅會加劇勞工的弱勢處境,更會衝擊社會對「公正就業」的基本信任。
演算法就像一盞燈,它能照亮道路,也可能加深陰影。對 HR 來說,重點是如何在使用的過程中,維持我們「看見人」的初心。我們必須確保每一次輸入、每一次篩選,背後都有對公平的思考與檢視。真正的永續企業,不是最快找到人才的公司,而是願意看見多元價值、尊重個人隱私、並將公平視為核心承諾的組織,我們也期待未來能夠與科技共好,找到具備效率、公平與效能的平衡。
「科技不該只是速度的比拚,而是人性價值的延伸。若 HR 能在效率中看見多元,在偏見中創造公平,那麼 AI 才真正是我們的助力。」
撰文者:彭淑萍
指導老師:李宗樺老師
參考文獻
- 小心金融歧視/演算法偏見須矯正《經濟日報》林安妮(2025年)
- 人才招募新趨勢:AI面試官不問出身只看能力,避免用人歧視/CSR@天下
- AI 人工智慧 招募 開除 公平嗎?談 演算法 偏誤 歧視 與 演算法稽核
- Amazon scraps secret AI recruiting tool that showed bias against women./ Reuters.
- How AI Is Changing Recruitment/BCG
- AI Bias Audit: 7 Steps to Detect Algorithmic Bias/optiblack
- 什麼是AI 偏見?原因、影響和減緩策略 /SAP
- 人工智慧應用下之勞動權益保障-就業歧視及 勞工隱私權相關權益之影響與政策建議 勞動部全球資訊網
- 人工智慧與聘僱歧視問題簡析──以性別歧視為核心《台灣勞工季刊》第77期