作为健康中国战略支点的数智化医疗
2026/4/10 11:51:45
作者:李亚明(中国社会科学院哲学研究所研究员)医疗资源供需失衡与分布不均、医疗信息化水平不足、健康管理前置不充分等问题,已使全球医疗系统面临严峻挑战。数智化医疗建设可通过降低成本、提高效率,为医疗服务转型提供广阔前景,成为建设健康中国的重要战略支点。随着数智化技术加速渗透至疾病预防、诊断辅助、个性化治疗以及健康管理全链条,新的研发模式、诊疗范式不断涌现。唯有立足数智化医疗发展特性,实现科技伦理观念革新与规范体系重构,才能有效推动科技创新成果的转化运用,确保数智化医疗健康、有序和可持续发展。数智化医疗助力健康中国建设人工智能在医学影像、病理切片分析等领域的诊断准确率已超越人类专家,诊断的精度正在被重新定义。人工智能驱动的决策支持系统整合生命体征、基因组学等多维度数据,结合最新医学研究成果,将患者数据与全球医学研究、治疗指南和药物作用清单进行匹配,助力临床医生更快、更精准地作出诊疗决策。数智化医疗能够基于患者独特的生物特征、病史等数据制定最优治疗方案和用药建议,使个性化治疗成为可能。机器学习模型能够进行基因型分析,预测不同患者对于特定药物的反应;转录组分析可根据疾病在核糖核酸层面的表现进一步优化治疗方案。人工智能甚至可以被用来构建患者的“数字孪生体”,即基于患者的真实数据打造虚拟复刻模型,模拟患者对于药物、手术和生活方式改变的反应,在不造成身体伤害的情况下探索不同治疗路径,让医学从被动治疗迈向预测性模拟。预测性医疗是医学的未来发展方向,能够提供最经济、有效的健康策略,而人工智能正是这一变革的核心动力。系统通过提取电子健康档案、实验室检测趋势和健康社会决定因素中的数据,全面评估个体健康风险、疾病进展与干预空间;能够预测流行病暴发,并提前调配医疗资源为有需要的患者提供帮助,让医疗服务从事后补救转向事前预判,降低成本和可能的伤害,推动医疗模式从治疗转向预防和健康管理。预判的实现在很大程度上依赖于服务的连续性。医患间数智化健康沟通可依据患者需求实时展开,可穿戴设备、健康APP、智能手表等能够实现稳定的健康监测和远程访问,提升了医疗服务的可及性和患者的自我管理能力,从而助力卫生健康工作从“以治病为中心”向“以人民健康为中心”转变。个性化医疗、预测性医疗和连续性健康服务都可能为不同地区患者平等享有。数智化医疗能够让优质医疗经验和物理资源突破时空限制,真正实现“同质化”下沉。基层医生在人工智能辅助下,能够提供接近专家水平的诊疗服务;人工智能辅助下的介入手术也能够让基层医疗机构开展过去只有顶尖三甲医院才能完成的高精度操作,有效缩小城乡区域医疗差距,使更多患者获得及时有效的治疗。适应数智化建设的伦理观念创新在智能革命背景下,个体间已经形成高密度、强关联的关系网络。个体与群体的关系从弱连接走向了强耦合,个体的物质生活、精神世界、发展机会乃至身份认同都深度嵌入整体网络中。人们生活的便利性、安全性、可预期性均高度依赖技术系统和平台治理。基于当代技术塑造的新的人类存在形态,重构个体对群体的道德义务,才能对个体提供更好的保护。人工智能越发依赖于海量敏感的患者数据。医疗数据的来源是个人,但它的产生离不开公共财政。在流动中,它的价值才能放大,共享数据才能为所有人提供更加高效和精准的医疗服务。在这个意义上,数据是个体与群体相互依存的纽带。以数据推动医疗创新同样需要进一步打破数据壁垒。企业往往将建设系统、积累数据视为自身的商业成果。掌握大量高质量医疗数据的企业还能够率先获得高质量数据训练模型,在研发中形成竞争优势。但是,少数机构垄断数据不仅导致患者跨院重复检查、增加负担、延误诊疗,同样会阻碍医学进步。罕见病、复杂疾病的研究需要大规模、多样化的数据。呼应智能革命时代资源的共享性和消费的交互性,建立相扶共济的协同创新机制,才能促进科技创新,维护所有患者的福祉。风险的外溢性同样是人工智能时代的典型特征,这要求我们反思已有的责任观念。随着人工智能不断被证实在某些治疗上有效,不使用人工智能可能成为医疗过失,而使用人工智能造成的责任不清晰并不是现有伦理框架能够充分解决的。传统伦理框架中描述的是两个静态主体间点对点的二元责任。随着人工智能系统自主性的增强,个体处境不仅取决于点对点的孤立行为,更取决于联结着每个个体的多层次、跨领域、强关联的关系网络。当算法决策影响诊断精度、药物推荐或手术方案时,责任边界便不再局限于个体,而延伸至算法开发者、数据提供者与平台运营方。因此,需要进一步建立多方风险分担机制,构建覆盖研发、部署、应用全链条的责任认定框架,并建立健全跨部门综合监管制度。健全的伦理规范保障数智化医疗有序推进人工智能时代的“数据伦理”要求回应如何实现共享以及在什么规则下共享的问题。数智化能够助力医疗资源的公平分配,但训练数据的偏倚同样可能侵害在训练数据中代表性不足的少数群体,导致大量人口在诊断模型、风险评估和治疗算法中未得到充分考虑。要使所有人获得同等的医疗救助,就需要在人工智能系统的训练中应用更具代表性的数据,严格审查训练数据的来源、构成和多样性,确保模型在不同人群、地区和设备上的公平性和准确性,并保留模型设计、算法和训练过程等信息,供事后审查。共享的实现需要匹配对医疗信息的有效监管。为防范数据滥用和泄露的风险,应保证数据所有者能够监控数据使用。将碎片化、异构化的数据汇聚在一起,以严格标准进行保护,有助于最大程度地避免数据泄露和滥用。在坚持知情同意的同时,还应修正并细化其具体要求。知情同意并非表述为同意数据具体用于什么用途,而是表述为数据是否用于有益于特定群体的目的,如被用于科研等服务于公众利益的事项。当隐私数据需要进一步用于商业用途时,则需要严格地再次征得同意。健全伦理规范不仅需要协调个体与整体的关系,还需要进一步规范人机关系模式。人工智能系统监测患者的康复情况、提醒患者服药,并即时解答患者的健康问题,持续在场的特点、情境敏感的对话能力、象征性记忆和递归互动所维持的连贯性,在其与使用者间构建了稳定的关系。但这类工具也易于使患者产生依赖性。人工智能的准确性和高效性也可能导致医护人员对其产生过度信任。为防止盲目依赖带来的伤害,人工智能在医疗场景中的应用必须与用户培训同步进行,让患者理解人工智能工作的机制,使相关的知情同意反映患者实际的价值观和对自身医疗抉择的判断;医务工作者应进一步知晓人工智能的决策逻辑,理解人工智能的局限性。设计者应致力于实现系统的透明度、可解释性和可理解性,支持有效人类监督的交互界面,确保人能监控并干预人工智能的决策,从交互设计上保障医生拥有最终决定权,塑造一种既拥抱连接又保持自主,既信任系统又坚守边界的人机协同模式。(本文系国家社科基金重大项目“大数据驱动下的生命科学研究范式变革研究”(22&ZD045)阶段性成果)来源: 中国社会科学网-中国社会科学报
243 242 241 240 239 238 237 236 235 234 233 232 231 230 229 228 227 226 225 224 223 222 221 220 219 218 217 216 215 214 213 212 211 210 209 208 207 206 205 204 203 202 201 200 199 198 197 196 195 194 193 192 191 190 189 188 187 186 185 184 183 182 181 180 179 178 177 176 175 174 173 172 171 170 169 168 167 166 165 164 163 162 161 160 159 158 157 156 155 154 153 152 151 150 149 148 147 146 145 144 143