纽约州正推进一项针对人工智能聊天机器人的监管立法,拟限制其在医疗、法律等专业领域提供建议,并为认为因此受到损害的个人提供诉讼途径。
由民主党州参议员克里斯汀·冈萨雷斯(Kristen Gonzalez)提出的参议院法案 S7263 上周在州参议院技术委员会以 6 比 0 通过,下一步将提交参议院全体会议审议。法案要求运营方必须清晰标注其系统为 AI 聊天机器人,但同时规定,仅有此类标注并不足以使运营方在本法案项下免于被起诉。
该立法动向被视为政策制定者对相关风险关注点的变化。此前监管讨论多集中在信息披露和透明度,如今开始转向一个更为核心的问题:当 AI 系统提供的建议造成现实世界伤害时,企业是否应承担法律责任。
覆盖多类持牌专业领域
根据 S7263 文本,法案适用于在多个需要专业执照的领域提供建议的聊天机器人,包括医学、法律、牙科、兽医、物理治疗、药学、护理、足病学、验光学、工程、土地测量、地质学、建筑学、心理学和社会工作等。
多州已启动类似监管尝试
纽约并非首个着手限制 AI 聊天机器人专业应用的州。多州已通过或正在审议类似法规,但适用范围和执行机制存在差异,且目前多集中在医疗和心理健康领域:
- 加利福尼亚州自 2025 年起实施的 AB 489 法案,针对的是误导性地将信息冒充为由持牌医疗专业人士提供的 AI 系统。该法案由州医疗委员会负责执行,但并未赋予个人提起民事诉讼的权利。
- 内华达州自去年 7 月起生效的 AB 406 法律,禁止为提供专业心理和行为健康治疗而设计的 AI 系统的广告和运营,并对持牌专业人士在执业中使用 AI 施加限制。
- 伊利诺伊州于去年 8 月通过的 HB 1806 规定,州内持牌治疗师不得使用 AI 作出治疗决策或与客户沟通,同时禁止科技公司在无持牌专业人士参与的情况下推广或提供 AI 驱动的治疗服务。
- 犹他州通过的 HB 452 对声称提供人类心理健康治疗或替代建议的聊天机器人提出限制和披露要求,该法案将于 2025 年生效。
医学与心理学界关注误导风险
美国医学会(AMA)已就相关风险发出警示。该组织并未主张全面禁止 AI 聊天机器人提供健康信息,但担忧大型语言模型向消费者提供的建议可能存在虚假或误导成分。
AMA 在一份政策文件中指出,诸如 ChatGPT 等工具在回答问题时“常有伪造引用的倾向”,并称此类工具已显示出生成虚假科学或医学文献以支撑健康建议的能力。

心理健康领域被视为尤为敏感。研究显示,部分用户,尤其是年轻人,将聊天机器人视为咨询师或治疗师的替代。2025 年发表在《JAMA Network》上的一项研究显示,13% 的受访者曾使用聊天机器人获取心理健康建议,其中 18 至 21 岁人群的比例为 22%。
在专业治疗资源紧张、费用较高的背景下,AI 心理健康聊天机器人被视为一个快速扩张的市场。一些科技公司认为,对部分消费者而言,从聊天机器人获得心理健康建议可能好于完全得不到任何帮助。
美国心理学会则在提交给联邦贸易委员会(FTC)的一份报告中表示,聊天机器人“可能比什么都没有更糟”。该组织指出,AI 模型往往以迎合用户的方式互动,“冒充治疗师的 AI 聊天机器人,如果被编程为强化而非挑战用户的想法,可能导致脆弱人群自残或伤害他人”。
“过度信任”与决策质量问题
冈萨雷斯参议员的 S7263 法案重点针对聊天机器人提供的法律和医疗信息,而非传统搜索引擎。她未就此进一步置评。但相关研究被视为可能的政策依据之一。
一项 2025 年的实验研究显示,参与者对 AI 的信任程度较高。研究人员指出,与搜索引擎结果相比,AI 聊天机器人的回答往往更具说服力和可信度,即便这些回答存在错误、偏题或缺乏必要背景。研究还发现,参与者难以可靠地区分 AI 回答与真实医生回答,并且常认为 AI 的答复更可信、更完整。
牛津大学与 MLCommons 合作开展的另一项涉及近 1300 名参与者的研究则发现,在评估和分析症状情境(例如“我是否应该服用阿司匹林?”“我是否应该去急诊?”)时,基于 AI 模型建议所作出的健康决策,并不优于基于个人知识或传统互联网搜索所得信息作出的决策。研究还指出,用户通常不了解 AI 生成答案所需的关键信息细节,而 AI 输出往往混合了正确与错误的建议。
监管与行业责任分工仍待厘清
在监管层面,AMA 表示,希望联邦贸易委员会对提供健康信息的 AI 聊天机器人进行监管,但认为该机构目前缺乏承担这一职责所需的资源。
在此背景下,AMA 呼吁相关科技公司持续审查其模型输出的准确性,并为用户提供便捷渠道,以报告聊天机器人回答中的不准确信息。纽约州正在审议的 S7263 法案,则通过赋予个人诉讼权的方式,尝试在州一级为此类风险建立责任框架。
