作者ryanw ( )
看板NTHU_Talk
标题Re: [新闻] AI藏种族歧视因子 清大跨国团队揭医
时间Wed Jun 15 13:41:48 2022
嗨大家好,我是郭老师的学生也是这个研究团队的成员之一,这几天看到不管脸书ptt上都看
到很多人对我们的这个研究有些误解,所以想藉此来澄清一下,很多人说这只是data的问题
,大家有在做ml的应该都知道data很重要,但在现实生活中很难有真正完美balance的datas
et,大部分的dataset都是有些缺陷的,正是因为有这些缺陷所以ml领域的很多人才会一直不
断改良去加强ml model的能力,我们使用的dataset是由MIT所收集的MIMIC-CXR dataset,其
中种族是有病人self-report的,疾病是由医生去看过X光片後做诊断後得来的,这些过程中
都包含了人的因素在其中,有了人的因素就免不了这些data可能存在bias,而目前公开的X光
片资料集的收集大部分都是这个流程,所以我们要做的是找方法让model在学习时能忽视这些
bias,而不是就说dataset有问题然後就啥都不做。
还有一点我们在paper中使用的字都是bias,我们主要想表达的是”偏差”,并非强调歧视这
个意思。
再来就是想简短的跟大家说明一下这个研究的内容,首先ai 可以分种族完全是个意外发现,
有了这个发现後就联想到前些日子一篇paper是讲述关於shortcut learning( reference放下
面),因为ai在分种族的能力非常的强,我们担心种族会被ai当成shortcuts来使用,简单来
说就是ai把种族当成判断疾病的重要依据而不是拿病理特徵来判断疾病,而有这样的想法就
是因为另一组团队发现种族间no finding 的false positive rate (aka 有病说成没病)有b
ias,所以我们想要让ai没办法从影像中抓到种族的特徵,迫使ai去学习病理的特徵来去缩小
bias。
主要是我的帐号还没达到八卦版天数要求,所以只能在这里回,有兴趣的可以帮我转到八卦
版让大家看。
Reference:
发现ai 可以分种族的paper:
https://bit.ly/3mKYsLc
MIMIC-CXR:
https://arxiv.org/abs/1901.07042
Shortcut learning:
https://go.nature.com/3tCXdBo
种族间诊断结果有差异的paper:
https://go.nature.com/3HwPnPK
----
Sent from
BePTT on my iPhone 13
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 36.227.186.21 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/NTHU_Talk/M.1655271713.A.3C3.html
1F:→ ryanw: 哭啊排版好烂,请大家见谅 06/15 13:43
2F:推 greeddeer: 推 06/15 14:24
3F:推 LaAc: 帮高调 06/15 14:42
4F:推 fksnkwg: 推 06/15 17:29
5F:推 kevin1212: 推上学期助教 用电脑打比较好排版啦 用手机能打这麽多 06/15 20:05
6F:推 kevin1212: 字也是很厉害 06/15 20:05
7F:推 brunomarsfan: 好厉害 帮推 06/15 22:42
8F:推 RhinoXiNiu: 我已经转罗 06/16 01:07
9F:推 nevikw39: 慢惹一步 06/16 01:09
10F:推 stanley12646: 假装看得懂推 06/16 01:15
11F:推 shiwa: 推 06/17 18:48
12F:推 S0323109: 推 06/17 22:19
13F:推 qazStarStar: 推 06/19 18:32
14F:→ ctw01: 对啊 觉得歧视这个词只是给记者炒话题的 07/29 11:48