PG新闻
News
中国庞大的数字医疗产业正经历显著转型。截至2024年,该产业的市场规模已达到813亿美元,预计到2033年将增长至3288亿美元,年均增长率为16.8%。在COVID-19疫情期间,以互联网医院和远程诊疗为核心的“平台型服务”构建起了初步的远程医疗体系。而如今,随着ChatGPT、DeepSeek等大型语言模型技术的迅速发展,整个行业正在加速向由AI驱动的智能健康服务生态过渡。
这一变化不仅源于人工智能技术的创新突破,也离不开政策推动以及公众对个性化健康服务日益增长的需求。对企业而言,大语言模型、AI诊断工具与多模态健康软件的融合发展,促使其在提升服务智能化水平的同时,也必须紧跟不断演化的合规要求,主动应对由此带来的数据应用、算法透明与责任归属等法律挑战。
与此同时,AI在医疗健康领域的广泛应用也加速了医疗数据的采集、处理和跨境传输。数据流动的规模不断扩大,直接触及国家安全、患者隐私保护及国际规则协调等多重议题。对数字医疗企业而言,构建稳健、灵活的合规管理体系,不仅有助于规避法律风险,更是赢得患者信任与保持市场竞争力的关键。随着监管框架的日趋成熟,数字医疗企业亟需在创新推进的同时,把握住制度变化的节奏,实现技术与合规的动态平衡。
伴随人工智能技术在医疗健康各领域的持续渗透,数字医疗产业正在迎来一轮商业模式的深度重构。特别是国家层面对“AI+”应用的制度化推进,正在为各类技术应用提供明确的分类、场景指引与政策支持。2024年11月,国家卫健委发布了《卫生健康行业人工智能应用场景参考指引》,首次以模块化形式细化了“AI+医疗服务管理”“AI+基层卫生服务”“AI+健康产业发展”与“AI+医学教学科研”四大类目,明确划定了十三项重点应用场景。
对企业而言,该指引不仅为AI应用提供了合规落地的政策窗口,也在客观上推动了若干典型“AI+”业务形态的快速发展。这些模式在实践中不断验证其市场潜力的同时,也暴露出合规责任界定、数据使用边界与算法安全等多方面挑战。以下的各小节将结合实践中较为成熟或具有代表性的业务路径,分析其主要应用特征及法律合规要点。
AI医学影像是“AI+”医疗应用中技术成熟度较高、落地速度较快的典型场景,广泛用于协助医生进行疾病筛查、风险预测和临床诊断。相关应用涵盖了集成AI诊断功能的影像设备、基于云平台的图像处理系统、远程阅片工具,以及嵌入医院系统的辅助判读软件等。
对企业而言,随着AI影像产品在医疗机构的持续部署,其在研发、注册和商业运营各环节均面临高度专业化的合规挑战。这类产品需要确保其算法输出具有可验证的诊断准确率,并在发生不良事件(AE)、严重不良事件(SAE)或诊断错误时具备明确的责任划分机制,合理界定软件开发者、硬件制造商、运营服务方及终端用户之间的法律责任。
在监管分类方面,企业还需判断该类软件是否构成医疗器械,并据此明确其应作为独立软件(SaMD)还是软件组件(SiMD)进行注册申报。此外,产品在使用过程中所采集的大量个人健康数据,其存储、处理与共享必须符合中国《个人信息保护法》《数据安全法》以及相关医疗数据监管制度的要求,特别是在跨境数据传输、算法训练与商业化合作等环节中,需建立可追溯的合规操作路径。
这类复杂合规议题要求企业在产品定义与设计初期即进行系统性的法律评估,并建立跨PG电子官方平台入口职能的、快速响应的合规管理机制,以支撑产品在市场中持续稳定运行。
智能穿戴设备是AI技术与终端硬件融合最紧密的应用之一,相关产品在健康监测与疾病预警场景中的边界持续拓展。从合规视角来看,AI+智能穿戴设备大致可分为两类:一类为具备医疗功能的穿戴式医疗器械(如配置心电图、血氧、血压监测功能的智能手表);另一类则为用于日常健康管理、但不直接构成疾病诊断用途的智能产品(如监测运动心率或睡眠阶段的电子手环)。
企业在推进此类产品的业务时,不仅需确保满足医疗器械或健康监测软件的监管要求,还应评估产品是否涉及人体试验、是否触发人类遗传资源采集或出境的管理义务。在产品设计阶段即建立符合伦理审查与法规备案的程序性机制,成为控制潜在法律风险的关键环节。
与此同时,智能穿戴产品往往需要接入如Huawei Health、Apple Health等健康数据平台,进而采集并处理大规模的用户敏感信息。这一过程中,企业需要重点防范未经明示授权收集健康数据、未尽告知义务即进行个性化推荐、或因数据出境导致合规风险。此外,如产品涉及基于健康数据的商业行为(如算法驱动的广告分发),还需评估其是否构成医疗类广告并触发对应的审批和限制要求。
在2024年下半年,笔者团队曾为一家领先的终端厂商提供智能穿戴设备全流程的法律支持服务,涵盖产品合规路径设计、数据使用规则制定、第三方平台协作架构梳理与广告投放的合规审查。实践表明,智能穿戴设备因跨越医疗器械监管、数据保护与消费者权益等多个法域,其风险识别与应对需覆盖产品和服务全生命周期,依赖跨部门协同与结构化的合规体系建设。
借助人工智能技术,互联网医院智能问诊正在推动医疗服务效率与覆盖率的双重提升。当前主流应用模式包括:AI驱动的自助问诊系统、AI辅助医生进行远程诊疗、问诊服务与药品配送联动、基于大数据的健康管理与持续跟踪,以及智能客服与患者教育功能集成。这些应用有助于优化资源配置,提升基层诊疗能力,已逐步成为“AI+医疗”场景中的常见形态。
在监管层面,智能问诊服务需首先符合《互联网诊疗管理办法》《互联网医院管理办法》等相关规定;若业务涉及药品或医疗器械的销售,还应结合具体场景满足网售药械资质、第三方平台管理规范以及医疗广告审批等合规要求。在实际运营过程中,平台还需重点防范因业务导流、流量分润等模式引发的广告合规、商业贿赂或虚假宣传等风险。
2024年,笔者团队曾为某全国性互联网健康平台提供药械营销与在线问诊板块的商业合规评估与架构搭建服务,协助其在医生合作协议、费用分配机制与宣传内容审核方面形成合规闭环,有效支持该平台实现跨部门协同下的风险可控扩展。
AI技术正成为新药研发流程中不可忽视的关键力量。相较于传统药物开发周期长、成本高、筛选效率低的特点,AI可通过处理大规模生物医学数据,大幅提升靶点识别、化合物筛选与临床试验设计的效率,有力推动了制药行业的数字化革新。
然而,AI在药物研发环节的深度介入,也对监管与合规体系提出了新的挑战。在临床研究阶段,AI辅助设计的试验方案需与《药物临床试验质量管理规范》(GCP)要求相衔接,确保方案科学性与伦理合规;若因算法推荐失误导致 AE/SAE(不良事件/严重不良事件),则需有明确技术方、申办方及临床机构等主体之间的的责任归属机制。
此外,AI在研发过程中往往需处理大量敏感个人数据,涵盖患者病历、基因组数据及长期健康追踪记录等,相关PG电子官方平台入口数据的采集、使用与传输应严格遵守《个人信息保护法》《数据安全法》及人类遗传资源信息管理的规定。同时,AI生成的新药靶点识别路径、筛选模型及临床策略设计成果可能构成可受保护的知识产权,企业需在研发早期即评估专利布局、成果归属与合作开发中的权利划分策略,以保护核心技术资产。
除了AI在新药研发中的直接应用外,与之密切相关的数据制度建设也正成为数字医疗合规框架的重要组成部分。尤其是在药品注册与监管过程中,原始试验数据的保护机制日益受到关注。当前中国正在推动建立与国际接轨的药品试验数据保护制度,以回应原研企业对知识产权延伸保护的核心诉求。
药品试验数据保护制度是一项独立于专利保护体系的制度安排,旨在为医药企业提供额外的数据独占期。该制度允许原研企业在药品上市后,于一定年限内独享其所提交的原始试验数据,其他企业在此期间不得引用该等未披露数据用于仿制药上市申请,从而有效延长原研药的市场壁垒与回报周期。
尽管中国现行《药品管理法》已确立“对含新型化学成分药品的未披露试验数据予以保护”的基本原则,但长期以来缺乏配套执行机制。2025年3月发布的《药品管理法实施条例(修订草案征求意见稿)》和《药品试验数据保护工作程序(征求意见稿)》标志着制度实施的技术路径、申请条件与执法机制正在逐步明晰。待规则正式落地后,中国药品试验数据保护制度有望实现与国际标准的实质接轨,为创新药企业提供更具确定性的合规预期与制度激励。对跨国药企及其在华子公司而言,制度落地后将直接影响中国试验数据是否可用于向FDA、EMA等海外药监机构的全球注册申请。
随着人工智能在数字医疗场景中的深度嵌入,医疗数据的采集、处理、共享与跨境传输规模持续扩大,数据合规问题日益成为企业运营的关键风险点。医疗数据通常具有高度敏感性,涵盖患者病历、影像资料、基因信息与行为数据等,其不当使用不仅可能侵害个人权益,也可能触发数据安全监管执法及平台责任追究。
对数字医疗企业而言,需严格遵守《数据安全法》《个人信息保护法》及《网络安全法》等法律中关于敏感个人信息、重要数据等的分类分级监管要求,构建覆盖数据全生命周期的合规管理体系。在涉及数据出境、云端模型训练或多中心联合研发的场景中,还应评估是否触发安全评估、标准合同等程序义务。
在个人信息保护层面,企业应围绕患者信任关系的建立,强化透明授权、最小必要收集与风险应对机制的配置。随着法律体系的持续完善与执法节奏的趋严,数据治理能力将成为企业数字化医疗业务可持续发展的核心基础设施。
自《生成式人工智能服务管理暂行办法》于2023年8月正式实施以来,生成式人工智能服务的备案机制已逐步落地。备案流程通常包括材料提交、技术审核和登记公示等环节,需经省级网信办初审与国家网信办复审确认。近年来,已有多个应用于数字医疗场景的大模型顺利完成备案程序,并获得国家网信办的公开公示。
进入2025年,中国在生成式AI领域已陆续出台多项国家标准,为行业提供技术合规指引。其中,GB/T 45654-2025《网络安全技术 生成式人工智能服务安全基本要求》就模型训练数据安全、模型安全管理和服务运行中的技术措施设定了明确要求。考虑到医疗健康行业的专业性与高风险特征,生成式AI在提供面向患者的健康建议、初步诊断结论等服务时,必须确保其训练数据来源合法、标注过程规范、模型输出内容可靠,且符合医学标准与伦理要求。
服务提供者应建立完善的数据标注质量管理机制,确保参与人员具备医学背景或经过合规培训,并采取关键词过滤、分类模型过滤等技术手段对生成内容进行实时监控,以保障输出结果的安全性与准确性。
GB/T 45652-2025《网络安全技术 生成式人工智能预训练和优化训练数据安全规范》则进一步细化了模型训练环节的数据要求。该规范要求服务提供者在数据收集阶段全面评估数据来源的合法性,严禁使用包含患者隐私或敏感信息的非法数据源。在数据预处理环节,需进行抽样核验,确保数据质量与内容合规性。对于涉及个人健康信息的数据,必须执行严格的去标识化处理,以防止个人身份泄露,符合《个人信息保护法》和人类遗传资源信息管理的相关要求。
此外,2025年3月14日发布的《人工智能生成合成内容标识办法》及其配套强制性国家标准GB45438-2025《网络安全技术 人工智能生成合成内容标识方法》,对生成内容的可识别性提出强制要求。服务提供者需在AI生成内容中同步添加显式与隐式标识,使用户及平台方能够准确识别生成内容及其来源。在数字医疗场景中,医疗建议、初步诊断、健康评估等生成内容应明确标示“AI生成”,避免患者误将其视为专业医生建议。同时,应在文件元数据中添加隐式信息,包括内容编号、服务提供者识别信息、生成时间等,以确保内容的可追溯性与后续审查能力。
通过落实上述要求,医疗类生成式AI应用将有助于提升服务透明度,增强患者信任,降低因信息误导所引发的风险,为AI驱动的数字医疗模式构建更加合规、可持续的技术基础。
中国对医疗数据跨境传输的监管格局已初具雏形。2024年3月,中国网信办发布了《促进和规范数据跨境流动规定》(“《规定》”),这一具有里程碑意义的框架简化了数据跨境传输的合规路径。《规定》不仅优化了数据出境安全评估、个人信息出境标准合同、个人信息保护认证等数据出境制度,还为自由贸易试验区提供了制度创新空间,明确授权其自行制定区内数据出境负面清单,提升了数据跨境监管的灵活性。在此基础上,包括北京、天津、上海等在内的多个自贸区根据本地区的实际情况,发布了数据出境清单,进一步细化了数字医疗企业数据跨境流动的合规指引。例如,北京自贸区的负面清单涵盖了医药行业等多个领域,详细列出了需要通过数据出境安全评估的数据类型,包括一定规模以上的群体诊疗、健康生理状况、医疗救援保障数据、特定药品实验数据等。天津自贸区则特别关注生物医药领域的数据出境,包括药品实验数据、患者诊疗数据等。上海自贸区临港新片区采用场景化分类的方法,将临床试验、药物警戒、医学咨询等常见生物医学场景纳入“一般数据清单”,在满足基础合规条件下允许自由流动。
跨境数据合规要求在不同的数字医疗业务模式中差异显著,例如远程医疗场景(如AI互联网诊疗)可能涉及诊断数据的出境传输,而国际研发合作则通常需要跨境共享临床试验结果、药品数据及患者的健康记录。在数字医疗领域的相关企业需要全面而系统的梳理跨境数据流动场景,通过内部评估精准识别监管红线,明确适用安全评估或标准合同备案路径。同时,应建立完整合规体系,包括与境外接收方签署数据传输协议,实施加密和访问控制协议,并确保在数据生命周期内的可审计性。
重要的是,监管机构开始采用针对特定行业的合规方法。对于涉及敏感患者信息、生物安全问题或公共健康影响的数据,预计将实施更严格的控制。相反,涉及低风险医疗数据的传输可能会受益于简化的程序,前提是保持安全性和透明度。随着更多自由贸易区引入或完善其数据出口负面清单,数字健康公司应关注当地政策动态并主动将其合规策略与特定司法管辖区的要求对齐。
自2025年1月1日起实施的《网络数据安全管理条例》(“《网数安全条例》”),为数字医疗行业在数据安全与个人信息保护方面提供了更具操作性的法律依据,进一步明确了数据处理者的责任边界与合规义务。
鉴于医疗数据具备高度敏感性与广泛公共影响力,其所涉及内容往往包括患者基因序列、罕见病诊疗信息、传染病防控关键数据等,一旦泄露或被恶意篡改,可能引发国家安全风险或大规模公众权益侵害。因此,实行数据分类分级管理是医疗数据治理的关键基础。《网数安全条例》明确要求数字医疗企业根据行业主管部门制定的重要数据识别指南或正式目录,识别自身业务中涉及的重要数据,并依法填报重要数据目录,报送至主管部门备案。若行业目录尚未出台,企业可参考自2024年10月1日起实施的国家标准GB/T43697-2024《数据安全技术 数据分类分级规则》作为初步判断和分级实施的依据。
在个人信息保护方面,该条例的规定进一步细化了数字医疗企业的义务要求,尤其是在“互联网医院智能问诊”等高频数据交互场景中,平台应通过用户协议与隐私政策,明示患者个人信息的收集、用途、存储地点、共享范围及退出机制,并确保用户在充分知情基础上提供真实、自愿、明确的同意。
在“AI+智能穿戴设备”应用场景中,企业通常会处理大量由终端设备采集的健康监测数据(如血氧、心电、血压等)。此类数据需在采集、传输、处理和存储全过程中采取加密传输、分级存储等技术手段,防范信息泄露与非法调用风险。与此同时,企业还应保障用户对个人健康信息的知情权、访问权、删除权和可携权,提供清晰可操作的用户界面,使用户可以自主查看、管理甚至删除自身诊疗记录与监测数据,并依据合法请求实现数据可移转。
未来,随着国家监管体系的不断完善,中国将在数据跨境流动、人工智能驱动的个性化服务、敏感健康数据共享等新兴领域出台更具针对性的法律规范。这一趋势将推动数字医疗行业在业务创新与