硅谷Live / 实地探访 / 热点探秘 /深度探讨
医疗产业科技的飞速发展与迭代在今天已经不是什么新闻了。但是很多人开始产生疑问,“这些技术的发展真的能惠及每个人吗?
业内人士提醒,很多患者群体被科技发展甩在了身后——这些群体包括非白人群体、少数团体、LGBTQ群体以及女性群体。
问题与机遇
健康平权研究所(Institute for eHealth Equility)的首席执行官Silas Buchanan告诉健康新闻报(MobiHealthNews):“我认为有色人种群体以及其他所有少数群体(不论种族),都正在被产业的变化以及科技的更新迭代抛在身后。
但希望还是有的。”Buchanan说,健康产业内新涌现的越来越重要的环境与社会因素已经使得满足每一个群体的需求成为新的关注点。
“人们越来越关注健康领域中的社会因素,因此这些群体也会相应得到更多的关注。提出新想法的人和创新者也许会更多地考虑到这些群体”,Buchanan这样说道。
为这些之前一度被忽略的患者发展技术同样也有它的商业价值。比如,受医疗援助制度(Medicaid)扶持的人们其实数量众多。
“医疗援助制度覆盖面很广,受其援助的美国人多达1700万,根据衡量的标准不同,这个数据会有不同。但很明显,这部分人都属于低收入状态,而且他们中的很多人还是孩子”
未来研究所(Institute for the Future)的研究主任Vanessa Mason这样告诉健康新闻报:
“想想看目前健康需求的广泛性,以及目前受医疗援助制度扶持的患者们所面临的各种社会性、行为性以及环境方面的挑战
我认为我们在这些方面仍然缺少足够的研究,这些问题的重要性在医疗科技领域也缺少关注。
既然这样,为什么鲜有企业关注到这些人群呢?Mason说自己听过一箩筐人们为什么不愿意在医疗援助制度这个领域投资创新的借口。
“关于‘受医疗援助的患者不愿意用新科技’的说法我听了太多了”,Mason说,“从市场的角度来说,我也看到了‘没人愿意在这块地方花钱’的现实”。
然而Mason表示,医疗科技在受医疗援助患者方面的投入其实是存在很多成功范例的。
她举出Wildflower这个帮助患者权衡利弊并寻找医疗资源的医疗科技信息分享平台,作为在医疗援助制度领域的成功例子。
除了怀孕之外还有什么?
Wildflower公司意在解决女性健康领域的问题,但技术发展在这个领域当中仍然存在缺口。
总体来看针对女性健康的医疗技术产业确实有所发展,但目前市场上60%的技术针对的都是女性生育能力、月经以及孕期健康。
Mason说,看到越来越多的公司进入女性健康领域她很受鼓舞,但同时也希望看到更多公司能全方位地关注女性人生各个阶段的健康需求
“目前国内关于怀孕的定义和理解模式还非常局限,根据这个定义,很难把女同性恋以及跨性别女性考虑在内”,Mason说
“因此我想让你们思考的问题是,为全体女性的身心健康考虑而作的开发设计应该是什么样的?说得具体一点,除了孕期健康之外,女性健康还包括哪些方面?
她说,目前有越来越多针对更年期的产品进入市场。比如说,12月份的时候VRHealth推出了它们针对女性潮热而研发的名为Luna的最新产品。
Mason还提到了一项帮助查明慢性疲劳综合症(一种对女性影响尤其明显的病症)的生物标记的技术,她认为这是在正确的轨道上又向前迈进了一步。
“我认为这确实是女性面临的诸多病症中很具有代表性的一个,诊断这些隐性存在的病症障碍要花费的时间简直久到离谱,而它们造成的困扰和生活质量的降低又尤为明显”,Mason说道
“我认为诊断费时如此之久的其中一部分原因在于,医生会对女性患者瞎扯,说你的病你自己比谁都清楚之类的话,或者干脆就没有严肃对待患者的病情。
女性在自己的健康领域得不到严肃对待已是常事,因此我非常期待看到能够改变这一点的契机出现。
科技能改变医疗领域的偏向吗?
偏向性不止存在于研发与投入阶段,纵观整个医疗职业领域,临床医师的偏向性已然是一个令人担忧的问题。
事实上,《急救医学》(Academic Emergency Medicine Journal)2017年 发表了一篇关于医生的种族偏向对于医疗决定的影响的系统性研究。
研究发现在医疗服务提供者心中,普遍存在对于白人患者的隐性种族偏向,并且所有科室的医生都是如此(但要注意的是,这项研究同时也发现医生的隐性种族偏向和他们做出的医疗决定关系不大)。
“在药学学科,基本上你学到的就是各种刻板印象。而这就是问题所在”,Damon Tweedy医生在波士顿的大西洋会议上这样说道。
他的自传《医生白袍下的黑人》(Black Man in a White Coat)讲述了他作为一名非洲裔美国人的男性医生的故事。
他说,“你会拿到一些片段性的信息,然后根据这些信息找出病症所在。在药学学科里,你一开始要学的就是关于种族、年龄以及性别的问题。
举个例子,给你一个30岁的黑人女性,你要学的就是这些信息背后所有人们默认存在的东西。
药学就是用这种极具偏向性的方法教授的。而这一点真的非常、非常有问题,并且我觉得人们经常会看不到这个问题的存在”。
技术可以消除一些偏向,但同样也可能增强这些偏见。而这些偏向究竟是能够消除还是被增强,最终取决于科技的发展方式。她举了一个医疗决定辅助工具作为例子。
Mason说,“医疗决定辅助工具是基于已知的医疗方案和可能的临床决策设计的。从另一个角度来看,基于具体事实情况的药方使得我们能根据具体情况提供不同的处方或看护,并且能够考虑到一些特殊的情况。
如果这些特殊的情况能被纳入参考范围之内,那么它们背后所代表的人群也会被注意到。这样的话,我们的偏向性就会因为数据技术和医疗工具的加入而减弱”。
但是技术是人设计的、是人开发的,其数据也来源于人,因此它也肯定会有自身的问题。
“所以如果我们使用的是过去的例子来训练AI机器学习,那么就意味着我们将偏向性植入到了这些工具中,而这些工具的使用又会使得偏向更加严重”,她说道。
“问题的关键在于回头去审视我们已有的数据、了解这些数据当时是如何被分析的、数据中包含了哪些人的情况、充分地包含了哪些人的情况,然后再切实地审视基于这些数据产生的结果。
偏向性在AI和机器学习领域是很热门的一个话题。就在本周,谷歌首席执行官Sundar Pichai表示其公司正在寻求这一问题的解决方法。
“早在机器学习产生的很久以前,偏向性就已经是一个令人担忧的问题了”,Pichai在活动中介绍说
 “很明显,对于AI来说这个问题则更加严重。光知道模型能够运作还远远不够,我们得了解它是如何运作的。
要确保我们开发的AI模型不会增强现实生活中的偏向,而要克服这个问题不算容易。这也是为什么我们正在进行很多基础性的电脑科学研究,以提高机器学习系统的透明度。
事实上,在皮肤科的应用程序方面对于AI偏向性的讨论显得尤为普遍。
虽然自动扫描诊断的好处显而易见,但去年八月在JAMA Dermatology 上发表的一篇文章显示,这些算法的训练方式并不能确保对有色人种患者的诊疗准确性。
在Pichai的讲话中,他始终聚焦这一问题以及公司对于未来解决该问题的企望。
“现在想象一个帮助检测皮肤癌的AI系统。这个系统要想有效运作,就必须得能够识别所有人种的不同肤色色调”,他说
“虽然要做的事还很多,但我们坚持致力于打造公平的、适用于每一个人的AI系统。这包括发现并解决存在于我们机器学习系统中的偏向性、分享技术工具以及公开数据以帮助患者。
从何开始?
Buchanan认为,打破技术研发者与患者群体之间的障碍是问题的关键所在。他的团体与宗教性及世俗性组织一道合作,以建立起这种联系。
“我认为之所以会有人被技术的发展抛在身后,就是因为目前还没有针对有色人种的清晰的引导方案。”Buchanan这样说道。
他说,对于医疗从业者和技术研发者来说,了解不同的患者群体的关键方法就是:雇用一支多背景的团队来帮助你。
“通过生活经验中我们能了解到很多”,他说,“比如人们的所思所想以及他们的内心感受,你甚至还可以建立一个自己的重点关注对象组。
但我觉得最有效的方式还是从你正研发的健康技术所关注的文化、种族或民族群体中,挑选一名成员纳入团队之中。没有什么能代替这一点。”  
原文作者:Laura Lovett
原文链接:https://www.mobihealthnews.com/content/health-tech-innovation-moves-forward-who-being-left-out
继续阅读
阅读原文