丰色 发自 凹非寺

量子位 报道 | 公众号 QbitAI
不用扎针、不用让本就贫血的人“雪上加霜”——
用手机拍照就可以检测一个人是否贫血,不知道你听说过没?
今天要介绍的这个研究就是,通过拍摄人的下眼睑照片,AI就可以有72.6%的准确率预测你是否贫血!
哇,晕针晕血的朋友有救了?

等等,AI验贫血居然是看眼睛?

是的,没错。
正式开始介绍之前,先来两个问题。
Q:首先你知道为什么可以通过拍照识别贫血吗?
A:因为贫血患者的肤色和正常人是不太一样的。
Q:那为什么非要拍下眼睛呢?
A:说来还长……
长话短说!
其实早在2018年,就有人有过类似的成功研究。
而当时的方法都是根据人的手掌、指甲或其他身体部位来检测。
问题就来了
这些区域很容易受到温度变化的影响,诊断结果经常飘忽不定(且不太能推广应用到紫绀型、低血压或轻度低温患者身上)
而恰好人的眼睛,准确地说是下眼睑,是一个血流量低、黑色素或其他可能影响结果的因素很少的身体部位。
所有,大家的研究方向就转向它了。

如何实现?

首先,研究人员在一家医院拍摄了142名拥有不同血红蛋白范围值的患者的下眼睑。
每名患者拍摄32张图像,其中8张有标准颜色参考,用RAW和JPEG格式记录有无闪光灯拍摄下的图像。
剩下的24张图像是在没有颜色参考的情况下拍的,拍摄时需尽可能靠近结膜以便清晰聚焦,并尽量减少光源的眩光和移动。
然后就是使用MATLAB来处理这些图像,先用图像处理算法最大限度地提高它们的颜色分辨率。
接着生成一个数据库,将每个处理后的图像信息与患者的临床数据合并
再通过算法选出最能代表眼睑颜色的最佳区域(下图左)以及整个有效区域(下图右)进行分析。
最后,将这个区域的26种衡量参数(包括平均亮度、红色分量的平均值等,见下表)组成行,其值为列,再填充患者在实验室测出的血红蛋白值组成矩阵,进行逐步回归分析,得出最终的预测模型
效果如何呢?

目前可做筛查工具,有异常还得再抽血

研究人员随后在202名新志愿者以及最开始的142名患者身上测试了该模型。
这批人员平均年龄为53岁,19-96岁不等,其中52%的测试人员为男性。
他们的血红蛋白浓度范围为4.7g/dL至19.6g/dL(平均 12.5g/dL)
ps.女性<12.5 g/dL、男性<13.5 g/dL为贫血
首先,对第一期原来的142名患者的测试发现,预测模型通过结膜估计的血红蛋白值(HBc)与实验室抽血值(HBl)的相关性图显示:斜率=1.07 (斜率1=完全一致)
不过,研究人员也发现一些问题:
使用闪光灯拍摄的图片会导致HBc的误差明显更大;
右眼和左眼图像之间的没有明显误差;
以及误差主要表现在HB值低的时候模型会高估结果,HB值高的时候又会低估(以11g/dL为界)
因此他们对模型进行了多次改进迭代,包括取两眼的平均值进行预测、不采用闪光灯拍摄等。
最终,使用调整后的预测模型针对新的202名志愿者的第二期测试结果显示:
预测准确度(accuracy)分别为[男71.4, 女73.8],均值为72.6%
预测灵敏度(sensitivity)分别为[71.0, 74.6],均值72.8%。
预测特异度(specificity)分别为[70.8, 74.1],均值72.5%。
(灵敏度高=漏诊率低,特异度高=误诊率低)
另外,图像质量也是影响预测准确性的因素。
但肤色不会影响。
研究人员表示:
基于目前的实验数据,该模型可以先用作贫血的筛查工具,一旦检测出任何异常结果再进行确认检测
再进行确认检测,意思还得抽血吗……
最后,总而言之,全球有25%的人都受到贫血的影响,还是希望这项技术可以早日落地真正走进大众。
先造福医疗设施匮乏的地区、以及为全球疫情下的远程医疗添砖加瓦也是不错的。
另,研究团队来自美国八大常春藤盟校之一布朗大学,相关研究已发表:
论文地址:
https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0253495
参考链接:
https://whatsnew2day.com/smartphone-photos-can-detect-anemia-scientists-claim/
本文系网易新闻•网易号特色内容激励计划签约账号【量子位】原创内容,未经账号授权,禁止随意转载。
「智能汽车」交流群招募中!
欢迎关注智能汽车、自动驾驶的小伙伴们加入社群,与行业大咖交流、切磋,不错过智能汽车行业发展&技术进展:
点这里👇关注我,记得标星哦~
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见~
继续阅读
阅读原文