作者ryanw ( )
看板NTHU_Talk
標題Re: [新聞] AI藏種族歧視因子 清大跨國團隊揭醫
時間Wed Jun 15 13:41:48 2022
嗨大家好,我是郭老師的學生也是這個研究團隊的成員之一,這幾天看到不管臉書ptt上都看
到很多人對我們的這個研究有些誤解,所以想藉此來澄清一下,很多人說這只是data的問題
,大家有在做ml的應該都知道data很重要,但在現實生活中很難有真正完美balance的datas
et,大部分的dataset都是有些缺陷的,正是因為有這些缺陷所以ml領域的很多人才會一直不
斷改良去加強ml model的能力,我們使用的dataset是由MIT所收集的MIMIC-CXR dataset,其
中種族是有病人self-report的,疾病是由醫生去看過X光片後做診斷後得來的,這些過程中
都包含了人的因素在其中,有了人的因素就免不了這些data可能存在bias,而目前公開的X光
片資料集的收集大部分都是這個流程,所以我們要做的是找方法讓model在學習時能忽視這些
bias,而不是就說dataset有問題然後就啥都不做。
還有一點我們在paper中使用的字都是bias,我們主要想表達的是”偏差”,並非強調歧視這
個意思。
再來就是想簡短的跟大家說明一下這個研究的內容,首先ai 可以分種族完全是個意外發現,
有了這個發現後就聯想到前些日子一篇paper是講述關於shortcut learning( reference放下
面),因為ai在分種族的能力非常的強,我們擔心種族會被ai當成shortcuts來使用,簡單來
說就是ai把種族當成判斷疾病的重要依據而不是拿病理特徵來判斷疾病,而有這樣的想法就
是因為另一組團隊發現種族間no finding 的false positive rate (aka 有病說成沒病)有b
ias,所以我們想要讓ai沒辦法從影像中抓到種族的特徵,迫使ai去學習病理的特徵來去縮小
bias。
主要是我的帳號還沒達到八卦版天數要求,所以只能在這裡回,有興趣的可以幫我轉到八卦
版讓大家看。
Reference:
發現ai 可以分種族的paper:
https://bit.ly/3mKYsLc
MIMIC-CXR:
https://arxiv.org/abs/1901.07042
Shortcut learning:
https://go.nature.com/3tCXdBo
種族間診斷結果有差異的paper:
https://go.nature.com/3HwPnPK
----
Sent from
BePTT on my iPhone 13
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.186.21 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/NTHU_Talk/M.1655271713.A.3C3.html
1F:→ ryanw: 哭啊排版好爛,請大家見諒 06/15 13:43
2F:推 greeddeer: 推 06/15 14:24
3F:推 LaAc: 幫高調 06/15 14:42
4F:推 fksnkwg: 推 06/15 17:29
5F:推 kevin1212: 推上學期助教 用電腦打比較好排版啦 用手機能打這麼多 06/15 20:05
6F:推 kevin1212: 字也是很厲害 06/15 20:05
7F:推 brunomarsfan: 好厲害 幫推 06/15 22:42
8F:推 RhinoXiNiu: 我已經轉囉 06/16 01:07
9F:推 nevikw39: 慢惹一步 06/16 01:09
10F:推 stanley12646: 假裝看得懂推 06/16 01:15
11F:推 shiwa: 推 06/17 18:48
12F:推 S0323109: 推 06/17 22:19
13F:推 qazStarStar: 推 06/19 18:32
14F:→ ctw01: 對啊 覺得歧視這個詞只是給記者炒話題的 07/29 11:48