近十年前,医生兼数据科学家鲁本·阿马拉辛哈姆(Ruben Amarasingham)在达拉斯创立Pieces Technologies,提出利用人工智能减轻而非增加临床负担的目标。当时,医疗人工智能的应用多集中在预测和自动化上,而Pieces选择聚焦更难量化的环节——在繁忙医院环境中,临床医生如何思考、记录并做出决策。
这一定位使Pieces在医疗体系中获得早期认可。一些医院希望引入能够协助文书记录、护理协调和临床决策、同时尽量不打断既有护理流程的系统。然而,随着医院在诊断、分诊和日常运营中对人工智能依赖程度不断提高,外界对相关工具的要求也在变化:系统不仅要“好看、好用”,更要在真实临床压力下经得起检验。
Pieces在这一过程中意外成为医疗人工智能问责问题的案例之一。2024年,得克萨斯州总检察长办公室就其系统的准确性和安全性发起监管调查,要求公司正视其模型在真实环境中的表现、推理过程的可解释性,以及发现和纠正问题的速度。
面对审查,公司选择对模型、文档实践和安全措施进行系统性梳理和调整。这些工作后来成为其被Smarter Technologies收购的重要基础。Smarter Technologies是一家由私募股权支持的医疗自动化平台,于2025年9月由SmarterDx、Thoughtful.ai和Access Healthcare合并组建,收购Pieces的交易价格未披露。
Pieces的发展轨迹凸显出一个行业共识:医疗人工智能不再仅以技术雄心或演示效果衡量,而是要看其能否在监管和临床双重压力下自我解释、获得医护人员信任,并在错误代价以人类健康计量的环境中安全运行。
从“承诺”走向“验证”
人工智能进入医疗领域之初,被寄予减轻医生工作负担、加快紧急决策、理顺复杂护理流程等多重期望。其中部分应用在早期已取得进展。但随着部署范围扩大,一些在理论和实验环境中表现亮眼的系统,在实际使用中暴露出脆弱性。
2025年初,美国食品药品监督管理局(FDA)更新了关于人工智能和机器学习医疗设备的指导文件,强调加强上市后监测、建立清晰可追溯的审计轨迹,并在高风险场景中防范模型漂移。与此同时,联邦贸易委员会(FTC)通过针对夸大人工智能能力和不当使用敏感健康数据的执法行动,释放出类似信号。
在此背景下,医院开始向供应商提出更具体的问题:系统如何得出结论?临床医生能否理解并在必要时覆盖其建议?当环境和人群发生变化时,模型表现是否稳定?
对许多人工智能企业而言,过去十年的市场热情不再构成“缓冲期”,取而代之的是对可验证证据的要求。
监管压力下的现实考验
Pieces较早遭遇了这一轮期望转变。监管调查推动公司重新审视其模型如何利用患者数据进行推理,以及这些推理过程如何向临床一线和监管机构清晰呈现。
阿马拉辛哈姆表示,公司最初的使命并未改变。他在接受《Fast Company》采访时称,团队始终专注于为承担主要医疗服务压力的医生、护士和病例管理人员减负。
在这一思路下,Pieces开始发表方法类论文,与合作医疗体系共享相关文档,并建立流程,用于识别模型何时表现良好、何时遇到困难、何时出现漂移以及何时需要重新校准。这些机制构成了公司后续发展的基础。
Orchestro.ai创始人兼首席执行官谢卡尔·纳塔拉詹(Shekar Natarajan)长期关注医疗监管。他认为,Pieces的经历折射出更广泛的行业反思。许多人工智能公司此前依赖他所称的“自然安全”——即假定良好意图和企业文化会自然带来合乎伦理的结果。
纳塔拉詹表示,这种假设正在被监管实践所取代。监管机构如今期望安全与问责被嵌入系统本身,通过可复现的推理路径、成体系的控制文档以及在资源紧张情况下仍能维持的安全机制来体现。

信任如何建立
在医疗场景中,信任更多来自反复验证的表现,而非品牌或激励设计。临床医生希望人工智能系统能够理解临床工作节奏,适应患者护理的不可预测性,减轻而不是增加认知负担,并在不同条件下保持相对一致和可预测的行为。
Pieces据称围绕这些现实调整了产品和运营方式,强调构建与临床医生“协同工作”的工具,而非试图替代或超前决策。同时,公司为医护团队提供渠道,以便在认为系统结论存在问题时提出质疑,并通过内部流程记录模型的正确输出、异常表现和需要重新校准的情形。阿马拉辛哈姆认为,这种思路对公司后续发展至关重要。
他强调,对公司而言,技术创新首先要服务于护理团队,目标是降低认知负荷,而不是增加。这一表述与部分医疗人工智能研究中的观点相呼应。
这一取向也与部分独立临床医生的观察相一致。德克萨斯州Catalyst Physician Group内科医生鲁思·卡格维玛(Ruth Kagwima)指出,当新工具打断本已高度紧张的临床工作流程,或未能通过清晰性和验证建立信任时,人工智能在一线的采用往往会停滞。
她表示,较为成功的人工智能系统通常具备易于理解、自然嵌入日常工作,并能展示安全性和准确性证据等特征。同时,这些系统需要保护患者数据,尊重临床判断,并在不增加额外摩擦的前提下改善护理质量。
另一位独立医疗分析师、印第安纳州多家医院的内科医生帕申斯·奥努奥哈(Patience Onuoha)则提到,床旁应用的推进仍受到现实条件制约。她认为,数据质量参差不齐且分散,新工具可能干扰既有繁忙流程,而安全性、偏见、法律风险以及对“黑箱”算法的信任问题,都是临床团队的实际顾虑。
纳塔拉詹认为,未来十年医疗人工智能的关键标准,将是企业能否把内部原则转化为可检查的系统。他指出,一些公司之所以能在监管压力下维持运营,是因为它们建立了清晰的问责链条,构建了可追踪偏见来源的证据路径,并向临床医生展示模型不仅“如何运作”,还包括“为何如此运作”。
监管要求推动设计前移
医疗人工智能正逐步进入一个“监督内嵌于设计”的阶段。监管机构在审查中,越来越多地要求覆盖系统全生命周期的文档,包括按种族、年龄和疾病状况细分的性能数据,防止系统推断患者未披露的敏感特征,以及展示企业发现并纠正模型漂移的具体机制和速度。
部分监管动力来自于实践中暴露的问题。有研究结果(由《金融时报》报道)显示,一些人工智能医疗工具存在低估女性和少数族裔患者症状的倾向,可能在未针对公平性和透明度进行充分训练和评估的情况下,加剧既有护理差异。
在此背景下,能够适应新要求的企业被视为有望参与塑造下一代临床人工智能。Pieces目前正处于这一环境之中。作为Smarter Technologies的一部分,公司正在尝试将其治理实践扩展至更大范围的医院网络,包括在更大规模的数据集、更具多样性的人群以及更复杂的部署环境中整合安全框架。
相关工作被视为复杂且持续的过程,但在行业参与者看来,其重要性在于,失败的后果直接体现在患者健康上。
行业进入新阶段
医疗人工智能正处于一个关键增长阶段,系统安全性和可问责性在行业讨论中的权重,已明显高于单纯的技术突破或演示效果。
随着医院对人工智能的期望愈发明确,阿马拉辛哈姆认为,行业需要在心态上做出调整。他表示,在医疗和人工智能领域,企业并不存在“一次性胜利”,而是需要持续参与、持续学习,并不断改善患者相关结果。
他同时指出,相关工作不会有明确终点,因为监管规则和临床需求都在不断变化。对企业而言,关键在于是否愿意围绕这一现实进行系统设计。从行业整体来看,医疗人工智能的推进速度,正越来越多地取决于其赢得信任的速度。这也意味着,无论是供应商还是采购方,都需要在稳健性、透明度和可验证性方面投入更多资源和关注。
