這一集聊「AI偏見」的時候,其實根本是在聊我們人類自己的盲點。
從瀏覽器、演算法、AI瀏覽器到信用評分、履歷篩選,聽著聽著會發現
可怕的不是機器,是我們把決定權全交出去卻完全不自覺。
AI只是把人類世界原本就存在的性別、職場、族群刻板印象放大、量化、變得更有效率而已。
如果我們連「資料怎麼來、規則怎麼設」都不想知道,那所謂的「中立」和「客觀」就只是幻覺。
我特別喜歡你們用 FAIR 來拆解:去識別化讓模型更公平、要求AI說明理由、用人類最後把關,
以及讓資料來源更多元。那不是在教大家怕AI,而是練習一種新的素養:
在享受演算法帶來的便利之前,先問一句
「這個結論,真的只有一種可能嗎?」
當我們願意承認自己也會偏心,AI才有機會變得比我們更公正一點點。
--
Hosting provided by
SoundOn