从自动化行政任务和协助临床决策到减少等待时间和解读扫描,人工智能为我们提供了一条未来的道路,使医生能够花更多时间与病人相处,同时保持高标准的护理。要修复我们破碎的医疗系统,我们不能依赖现状。进步需要走出常规,并建立对人工智能作为克服这些挑战的重要工具的信任。人工智能的承诺
随着对时间的需求不断增加,医疗专业人员已经到了极限。
医生在职业生涯中承担超过130,000次会诊,几乎花费34%的时间在行政任务上。随着人口增长,这一需求只会增加,预计到2030年全球将缺少1000万名医疗工作者。我们需要更多的医护专业人员,或者说需要更多时间服务病人的专业人员。这就是人工智能可以帮助的地方,通过增强而不是取代人类能力,承担一些常规任务,为医疗工作者腾出更多时间用于他们角色中深刻的人性化部分:建立关系并与病人互动。
但这不仅仅是关于自动化行政任务。通过提供大量医学知识的见解并指导医护人员采取最佳行动方案,这些工具可以减少错误,使医疗更聪明。通过促进向更积极、预防型护理模式的转变,人工智能有潜力减少对医疗系统的压力。人工智能在医疗方面的问题
对此问题有不止一个答案。但需要考虑的一个关键因素是一些最受欢迎的人工智能工具,特别是黑匣子大语言模型(LLM)如GPT-4带来的误差界限。它们的引入引发了很多炒作。
开发者很快就利用了大量数据的免费访问,并且技术精通的医生同样迅速地利用了其看似无限的见解。尽管通过人工智能自动化繁琐任务的好处显而易见,但要谨慎。不可避免的是,这些工具中的一些正在回归到平均水平。当你玩够了它们,开始注意到缺陷。它就像在宴会上喝醉酒的叔叔。虽然他可能自信地说话,似乎知道他在谈论什么,但过了一会儿,你会发现他大部分讲的话都是胡言乱语。下次他来访时,你还会相信他说的话吗?当然不会。
大语言模型的优劣取决于它们所训练的数据——问题出在很多使用了大量公开可用的互联网数据。在医疗保健领域,这带来了固有的风险。一个人工智能工具可能会根据可信的研究提供临床建议,但也可能根据不可靠的博客建议提供临床建议。这些不一致让医疗专业人员对人工智能持谨慎态度,担心不准确的信息可能对患者护理产生负面影响,并导致严重后果。
再加上,医疗人工智能的监管环境一直不稳定,尤其是在美国,框架最近才开始赶上欧洲标准。这创造了一个窗口,使一些供应商能够绕过法规,获取第三方的信息,并在数据质量和责任问题出现时推卸责任。没有强有力的监管框架,医疗专业人员很难相信人工智能工具会遵循最高的数据完整性和患者安全标准。我们如何解决这个问题
挑战性的建议,说实话,重建对医疗人工智能的信任是通过变得更“无趣”。
医疗专业人员的训练在于依赖研究、证据和经过验证的方法,而不是魔法。为了赢得他们的信任,人工智能需要透明、经过彻底测试和以科学为基础。这意味着人工智能提供商需要诚实地宣布我们的工具是如何开发、测试和验证的——分享研究、发表论文,并透明地说明我们的过程和我们为创建这些工具而经历的种种考验,而不是将其作为某种银弹来销售。
为此,我们需要有合适的人在位,这些人是能够理解我们正在使用的极其复杂而持续演变的大语言模型的技术专家和研究人员。能够提出正确问题并为模型设定合理保护措施的人,确保我们不会把那种“醉酒叔叔”版的人工智能投入生产。我们还需要强制所有医疗人工智能工具只在坚实的医疗数据上进行训练,而不是未经过滤的网络内容。就像任何领域一样,用行业特定数据来喂养程序只会帮助改进录入、处理和生成推荐的信息的准确性和质量。
这些改进不仅对于患者安全至关重要,还将提供的见解可能提高未来发现病症和个性化治疗计划以改善患者成果的能力。一个坚实的监管框架将有助于支持提高数据质量的努力,市场开始逐渐意识到其重要性。对于希望投资人工智能数据处理工具的医疗机构来说,供应商遵守诸如ISAE 3000、SOC2 Type 2和C5等监管标准应该是不容商量的,反映出对数据完整性的尊重和承诺。我们不能安于现状。
成为最具创新性就意味着成为最负责任的。随着人工智能的不断演变,我们的社区需要积极参与监管,以跟上步伐,防止生成性人工智能技术的潜在过度扩展。如果我们能做好这些,恢复对医疗人工智能的信任的好处是巨大的。最终,通过解决人工智能的信任缺口,我们可以释放其变革医疗的潜力,使其更加高效、有成效和以患者为中心。更多《财富》发布的值得一读的评论:
COVID-19增加了感染后心脏病发作、中风甚至死亡风险,新研究发现
EPA管理员:削减拜登-哈里斯的基础设施和气候投资将导致美国社区的强烈反响
美国、欧盟和印度必须紧急签署关于清洁能源的自由贸易协定,印度最大可再生能源公司之一的首席执行官表示
我们一直在庆祝低失业率——但数据显示工作和经济活动正在转向大企业
《财富》网评论文章中表达的观点仅为作者个人观点,不一定反映《财富》的意见和信念。