作者 | 王渝伟 张烜 徐倩怡 张可妮
伴随人工智能(AI)飞速发展、以及中国企业出海浪潮的大背景,全球范围内关于人工智能的法律法规和政策指引正逐步成型。因此,我们汇总和梳理了全面的、涉及境外主要经济体的人工智能法律与政策分析,并将作为完整的系列逐步发布,以期为企业出海、以及后续在人工智能领域的进一步法律研究,提供基础支持和指引。
本篇为该系列的第一篇,对美国在人工智能领域的法律法规、政策进行归纳和解读。
引言
如今,人工智能在娱乐、医疗、教育等诸多领域都有着广泛的应用。例如,其在新媒体领域的应用可以为用户提供更加丰富的使用体验,在医疗领域的应用可以辅助进行医疗诊询,在教育领域的应用可以帮助师生实现个性化教学辅导。然而基于算法脆弱性、透明度低等弊端,人工智能的安全风险日益凸显。
在国际舞台上,美国人工智能技术的发展始终处于领先地位,而关于深度伪造、隐私侵犯以及其他可能对公民权利造成的妨碍风险,也一直是美国民众关注的热点问题。对此,政府积极回应,多次举行听证会,提出《安全创新框架》《AI立法框架》《2023年人工智能研究、创新和问责法案》等多项安全监管方案以做出应对。然而,联邦政府在立法环节却偏向保守,导致最终以法案形式颁布的强制性规范并不多。这部分立法阻力可能源于美国政府对于技术停滞的恐慌超过了对潜在风险的担忧,但从客观角度来看,这也为市场和技术的发展保留了相对广阔的空间。现将主要的监管及指引文件梳理如下:
联邦政府层面【10】 |
|||
名称 |
主要内容 |
发布时间 |
效力层级 |
《关于安全、可靠、可信地开发和使用人工智能的行政命令》 Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence |
该行政令旨在制定人工智能治理的国家方针,促进人工智能行业的竞争和创新,防止人工智能对公民自由和国家安全造成威胁,并确保美国在人工智能领域的全球竞争力。 |
2023年10月 |
行政命令 |
《人工智能权利法案蓝图》 |
该《蓝图》旨在指导自动化系统的设计、使用和部署,提出了人工智能技术应用的五项原则,包括建立安全有效的人工智能系统、建立算法歧视保护措施、保护数据隐私、强调通知和透明度的重要性和鼓励开发选择退出机制及相关实践技术指南,奠定了人工智能应用基本伦理原则基础。 |
2022年10月 |
联邦文件 |
《2020年国家人工智能倡议法案》 National AI Initiative Act of 2020 |
该法案旨在构建国家人工智能战略框架,推动美国在可信赖的AI开发、研究、教育等领域的全球领导地位。 |
2021年1月 |
联邦立法 |
《人工智能应用监管指南》 Guidance for Regulation of Artificial Intelligence Applications |
该指南建议在法规效益不足以弥补成本时使用非监管方式。促进人工智能的发展,鼓励行政机构与私营部门合作,同时鼓励行政机构公布更多联邦数据供公众使用。此外,美国白宫科技政策办公室(Office of Science andTechnology Policy, OSTP) 还提出了10项指引原则,包括公众信任AI、公众参与、科学诚信和信息质量、风险评估和管理、收益与成本、灵活性、公平与非歧视、披露和透明、安全以及跨机构合作。 |
2020年11月 |
非强制性指引 |
《人工智能风险管理框架:生成式人工智能概况》 Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile |
该文件旨在配合“人工智能行政命令”的履行,作为人工智能风险管理框架的配套资源,它可以帮助组织识别生成人工智能带来的独特风险,并提出最符合其目标和优先事项的生成人工智能风险管理行动。 |
2024年7月 |
非强制性指引 |
《生成式人工智能及两用基础模型的安全软件开发实践》 Secure Software Development Practices for Generative AI and Dual-Use Foundation Models |
该文件旨在帮助软件开发人员减轻生成式人工智能和双重用途基础模型带来的风险,降低用于AI系统训练的数据。 |
2024年7月 |
非强制性指引 |
《美国国家标准与技术研究院(NIST)报告:降低合成内容带来的风险》 |
该文件分析了人工智能合成内容的潜在风险并提出了相应措施。 |
2024年5月 |
其他文件 |
《全球人工智能标准合作计划》 |
该文件旨在推动全球范围内的人工智能标准化合作。 |
2024年5月(已被撤回) |
其他文件 |
《人工智能风险管理框架》 Artificial Intelligence Risk Management Framework |
该框架供自愿使用,旨在指导组织机构在开发和部署人工智能系统时降低安全风险,避免偏见和其他负面后果,并提高将可信度考虑因素纳入AI产品、服务和系统的设计、开发、使用和评估的能力,保护公民的公平自由权利。 |
2023年1月 |
非强制性指引 |
《推进政府负责任地采购人工智能》备忘录 Memorandum for the heads of executive departments and agencies |
该备忘录旨在确保联邦机构在采购人工智能时,适当管理风险和绩效,促进竞争性市场,并实施结构来治理和管理与采购人工智能相关的业务流程。 |
2024年10月 |
非强制性指引 |
州政府层面【42】 |
|||
《科罗拉多州人工智能法案,参议院法案24-205号》 |
该法案规定“高风险人工智能系统”的开发者和部署者均有义务减轻金融服务、保险和医疗等领域“算法歧视”和侵犯消费者权益的风险。设立州级AI监管体系,对于人工智能开发、应用中的透明度、问责和公平性均有规定,并要求公共部门的AI应用需符合法规。 |
2024年6月签署 2026年2月生效 |
州立法 |
《科罗拉多州隐私法》 Colorado Privacy Act,CPA |
该项法律除了赋予消费者近用权、更正权、删除权、数据可携权之外还规定数据控制者在特定情形下享有退出权。 科罗拉多州是美国第三个通过隐私保护专法的州。 |
2021年7月签署 2023年7月生效 |
州立法 |
《犹他州人工智能政策法案》 Utah Artificial Intelligence Policy Act |
该法案旨在规范AI的使用,特别是在州政府与企业间的合作中,确保AI的安全、透明及对隐私的保护,主要规定了使用生成式人工智能时的披露义务。针对律师、医生等“受监管职业”,这些群体如果使用生成式人工智能与消费者进行互动,他们就必须以“显著的”方式向消费者进行披露;而不属于“受监管职业”但受《犹他州消费者隐私法案》(Utah Consumer Privacy Act,UCPA)约束的主体则必须“清晰和醒目地”披露其使用人工智能的情况。 |
2024年3月签署 2024年5月生效 |
州立法 |
《犹他州消费者隐私法案》 Utah Consumer Privacy Act,UCPA |
UCPA赋予犹他州居民对其个人数据的权利,包括访问、删除和获取个人信息副本的能力。该法适用于控制或处理至少100,000 名消费者数据,或 50%以上的总收入来自个人数据销售的企业。该法还规定了数据销售和定向广告的退出机制。值得注意的是,该法不适用于已受《健康保险便利和责任法案》(Health Insurance Portability and Accountability Act,HIPAA)管辖的实体或受《金融服务法现代化法案》(Gramm-Leach-Bliley Act,GLBA)管辖的金融机构。 |
2023年12月生效 |
州立法 |
《康涅狄格州关于人工智能、自动化决策和个人数据隐私的法案》 An Act Concerning Artificial Intelligence, Automated Decision-making and Personal Data Privacy |
该法案旨在提高州政府使用人工智能和自动决策工具的透明度并确保问责制。 |
2023年6月 该法第1-3条于2023年7月1日生效,第四条于2023年10月1日生效,第5条于该法通过时生效。 |
州立法 |
《康涅狄格州数据隐私法》 The Connecticut Data Privacy Act |
该法案旨在赋予康涅狄格州居民以更多的个人数据控制权,严格规定了数据主体要求删除数据和撤回其同意的权利,赋予了数据主体明确的权利,即可要求删除收集到的关于他们而非来自他们的数据。 |
2022年5月通过 2023年7月生效 |
州立法 |
《加州消费者隐私保护法》 California Consumer Privacy Act,CCPA |
该法案旨在保障加州公众的隐私权,规定企业承担重要的数据保护义务。并赋予加州总检察长办公室相应的执法权。 该法案系全美第一部州级隐私保护专项法律。 |
2018年6月签署 2020年1月生效 |
州立法 |
《加州隐私权法案》 California Privacy Rights Act,CPRA |
CPRA是对CCPA的修订,为消费者提供了额外的隐私保护,并成立了加州隐私保护局来实施和执行该法,同时保留司法部长的民事执法权。 |
2020年11月签署 2023年1月生效 |
州立法 |
《加州前沿人工智能模型安全法案,参议院法案第1047号》 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, Senate Bill1047 |
该法案包含对人工智能系统的全面监管措施,内容涉及风险评估、透明度、安全标准、道德使用、问责和监督、数据隐私等多个方面。 |
该法案最终被州长否决 |
州立法 |
《加州议会法案第 2885号》 |
该法案正式将加利福尼亚州法律中的“人工智能”一词定义为一种工程化或基于机器的系统,其自主程度各不相同,并且可以针对明确或隐含的目标,从收到的输入中推断出如何生成可以影响物理或虚拟环境的输出。 |
2025年1月1日生效 |
州立法 |
《加州议会法案第1008号》 |
该法案修订了《加州消费者隐私法案》(CCPA),明确个人信息可以以各种形式存在,包括“抽象数字格式”(Abstract Digital Formats)。这意味着,如果人工智能系统暴露了某人的个人信息,企业将在如何使用这些数据并从中获利方面受到限制,并满足用户行使个人数据权利。 |
2025年1月1日生效 |
州立法 |
《加州生成人工智能问责法案,参议院法案第896号》California Generative AI Accountability Act,Senate Bill 896 |
该法案要求加州应急服务办公室对生成式人工智能带来的潜在威胁进行年度风险分析,特别是与关键基础设施相关的风险分析和报告。如果政府使用生成人工智能与个人就政府服务或福利进行沟通,政府部门应披露其使用生成式人工智能的情况,并提供如何与人工联系的指引。 |
2025年1月1日生效 |
州立法 |
《加州生成式人工智能:训练数据透明度法案,议会法案第2013号》 Generative AI: Training Data Transparency Act, Assembly Bill 2013 |
该法案旨在对人工智能公司在开发和训练模型过程中所使用的数据集进行更加严格的透明度要求。该法案主要针对生成式人工智能技术,如文本生成、图像合成等,要求这些企业明确披露其训练数据的来源、类别和处理方式,以保障数据隐私及防止数据滥用。 |
2026年1月1日生效 |
州立法 |
《加州人工智能透明度法案,参议院法案第942号》California AI Transparency Act, Senate Bill 942 |
该法案旨在提高人工智能生成内容的透明度和问责制。该法案要求大型AI提供商提供检测工具、显性披露和隐性披露选项,并允许第三方许可。 法案已于2024年9月19日签署成为法律。 |
2026年1月1日生效 |
州立法 |
加州《电信:自动拨号广播设备:人工语音,议会法案第2905号》Telecommunications: automatic dialing-announcing devices: artificial voices, Aseembly Bill 2905 |
该法案要求所有自动拨号设备在使用人工智能生成或显著改变的预录制声音时要告知被呼叫者。 |
2025年1月1日生效 |
州立法 |
加州《医疗保健服务:人工智能,议会法案第3030号》Health care services: artificial intelligence, Assembly Bill 3030 |
该法案要求医疗服务提供商在使用生成式人工智能与患者沟通时,尤其是在这些信息包含患者临床信息的情况下,必须披露相关信息。 |
2025年1月1日生效 |
州立法 |
加州《医疗保健保险:利用审查,参议院法案第1120号》Health care coverage: utilization review, Senate Bill 1120 |
该法案对医疗服务提供商和医疗保险公司如何实现服务自动化做出了限制。该法案确保有执照的医师监督人工智能工具在这些环境中的使用。 |
2025年1月1日生效 |
州立法 |
加州《学生教学:媒体素养:人工智能素养:课程框架:教学材料,议会法案第2876号》 Pupil instruction: media literacy: artificial intelligence literacy: curriculum frameworks: instructional materials, Assembly Bill 2876 |
该法案要求加州教育委员会在数学、科学和历史课程框架和教材中考虑 "人工智能扫盲"。这意味着加州的学校可以开始向学生传授人工智能工作原理的基础知识,以及使用该技术的局限性、影响和道德考量。 |
2025年1月1日生效 |
州立法 |
加州《公立学校:人工智能工作组,参议院法案第1288号》Public schools: artificial intelligence working group, Senate Bill 1288 |
该法案要求加州公共教育总监成立工作小组,负责指导公立学校中使用人工智能,制定在教育中安全使用人工智能的指南,并制定安全有效地使用人工智能示范政策。 |
2026年1月1日生效 |
州立法 |
加州《违反公共政策的合同:个人或专业服务:数字复制品法案,议会法案第2602号》 Contracts against Public Policy: Personal or Professional Services: Digital Replicas Act, Assembly Bill 2602 |
该法案通过限制合同条款,针对人工智能盗用演员和表演者的姓名、图像和肖像创建了新的保护措施。 |
2025年1月1日生效 |
州立法 |
加州《肖像的使用:数字复制品法案,议会法案第1836号》 Use of Likeness: Digital Replica Act,Assembly Bill 1836 |
该法案禁止在未事先获得死者遗产管理人同意的情况下,制作、分发或提供已故人物的声音或形象的数字复制品,用于表达性的视听作品或音频录音。违反该规定的将被处以10,000 美元或表演者财产实际损失的罚款,以较高者为准。 |
2025年1月1日生效 |
州立法 |
加州《犯罪:儿童色情制品,议会法案第1831号和参议院法案第1381号》 Crimes: child pornography, Assembly Bill 1831 & Senate Bill 1381 |
AB 1831和其姐妹法案SB 1381扩大了儿童性虐待材料(Child Sexual Abuse Material,CSAM)的定义,将人工智能生成的CSAM纳入其中,将此类内容的制作、传播和拥有定为刑事犯罪。 |
2025年1月1日生效 |
州立法 |
加州《犯罪:传播亲密图像,参议院法案第926号》 Crimes: distribution of intimate images,Senate Bill 926 |
该法案将未经同意私密伪造图像(Nonconsensual Intimate Image Deepfakes)定为刑事犯罪,规定如果创建者或传播者应当知道创建或传播图像会造成他人精神痛苦,且事实上确实造成了精神痛苦,则创建和传播看似逼真的伪造图像即为犯罪。 |
2025年1月1日生效 |
州立法 |
加州《色情数字图像,参议院法案第981号》 |
该法案要求社交媒体平台为加州居民创建举报渠道,使其可以举报深度伪造色情内容。在平台调查期间,这些内容必须被暂时屏蔽,如果得到证实,则将被永久删除。 |
2025年1月1日生效 |
州立法 |
加州《保护民主免受深度伪造欺骗法案, Defending Democracy from Deepfake Deception Act of 2024, Assembly Bill 2655 |
该法案要求大型在线平台必须为加州居民提供便捷的举报方式,在选举前120天标注或删除人工智能生成的重大欺骗性内容,并在选举后60天内继续标注或删除那些使选举过程的有效性受到质疑的欺骗性内容。 |
2025年1月1日生效 |
州立法 |
加州《选举:广告中的欺骗性媒体,议会法案第2839号》Elections: Deceptive Media in Advertisements,Assembly Bill 2839 |
该法案禁止任何个体或实体恶意分发与选举有关的欺骗性深度伪造内容,这有助于保护候选人声誉并维护公众对选举结果的信心。 该法案作为紧急法规立即生效,以规范2024年美国总统大选。 |
紧急生效 |
州立法 |
《加州人工智能透明度法案》 |
该法案要求涵盖的提供商向用户提供AI检测工具,并在AI生成的内容中包含显性和隐性披露标识。同时规定了相应的法律制裁措施。 |
2024年9月通过 2026年1月生效 |
州立法 |
《加州加强网络透明度法案》 Bolstering Online Transparency Act |
该法案旨在增强网络透明度,禁止在线机器人隐藏身份以显示为人类用户,防止其在商业交易和政治选举活动中欺骗加州居民。 |
2018年9月通过 2019年7月生效 |
州立法 |
《弗吉尼亚州消费者数据保护法》 Virginia Consumer Data Protection Act,VCDPA |
该法案赋予了消费者访问、删除和更正个人数据的权利,以及选择退出定向广告和数据销售的权利。 弗吉尼亚州系美国第二个拥有隐私保护专项法律的州。 |
2021年3月签署 2023年1月生效 |
州立法 |
《纽约市自动化就业决策工具法令》 Automated Employment Decision Tools |
该法案旨在规范雇主在招聘和晋升时使用自动化就业决策工具,要求对招聘和就业中使用的人工智能工具进行偏见审计,要求自动化就业决策具有透明度和非歧视性。 |
2023年7月生效 |
州立法 |
《蒙大拿州消费者数据保护法》 Montana Consumer Data Privacy Act |
该法案旨在保障数据隐私,赋予消费者访问、删除和更正其个人数据以及选择退出数据销售的权利。 |
2024年10月生效 |
州立法 |
《特拉华州个人数据隐私法案》 Delaware Personal Data Privacy Act |
该法案授予消费者对其个人数据的访问、删除和更正权,并限制企业收集数据。 |
2025年1月生效 |
州立法 |
《印第安纳州消费者数据保护法》 Indiana Consumer Data Protection Act |
该法案规定消费者有权访问、更正和删除个人数据,并控制数据用于定向广告。 |
2026年1月生效 |
州立法 |
《美国伊利诺伊州人工智能视频面试法案》 |
该法案规范视频面试中的人工智能,要求在就业决策中,特别是在基于视频的招聘流程中使用人工智能时必须征得同意并保持透明。 |
2020年1月 |
州立法 |
《田纳西州确保相似声音和图像安全法案》 Ensuring Likeness Voice and Image Security Act |
该法案旨在保护音乐家免遭人工智能技术未经授权使用其声音以及防止音频深度伪造和声音克隆。特别增加了对未经许可复制表演者声音的处罚。 |
2024年3月通过 |
州立法 |
《田纳西州信息保护法案》 Tennessee Information Protction Act |
该法案适用于处理个人信息的企业。它为消费者提供访问权、更正权、删除权和选择退出销售或处理其数据以进行定向广告的权利。它还要求控制者保持稳健的数据安全实践,包括对定向广告、个人信息销售和敏感数据处理等活动进行数据保护评估。 |
2025年7月生效 |
州立法 |
《俄勒冈州消费者隐私法》 Oregon Consumer Privacy Act |
该法案旨在保护消费者的数据权利,包括访问、更正和删除个人数据以及选择退出数据销售的权利。 |
2024年7月生效 |
州立法 |
《爱荷华州消费者数据保护法》 Iowa Consumer Data Protection Act |
该法案旨在保护消费者数据权利,如访问、删除和选择不出售个人数据的权利。适用于控制或处理10万以上居民个人数据或通过销售数据获得50%以上收入的实体。豁免包括已经受HIPAA或GLBA监管的数据。 |
2025年1月生效 |
州立法 |
《新罕布什尔消费者隐私法》 |
该法案赋予消费者与其他州隐私法类似的权利,重点关注数据访问、删除和更正。适用于处理10万居民以上数据的企业或数据销售收入超过50%的实体。豁免HIPAA监管的数据。 |
2025年1月生效 |
州立法 |
《新泽西州参议院法案第332号》 |
该法案赋予消费者控制个人数据的权利,包括访问、删除和选择退出数据销售权。它有独特的适用性规则:要求企业在处理25000 名以上居民的数据时必须合规,且不设收入门槛。 |
2025年1月生效 |
州立法 |
《德克萨斯州数据隐私和安全法案》 Texas Data Privacy and Security Act |
该法案规定了消费者的隐私权,并对企业提出了数据保护要求,如数据泄露通知。 |
2025年7月生效 |
州立法 |
行业指引【11】 |
|||
纽约州金融服务部,《关于保险业人工智能的建议指南》 New York State Department of Financial Services Guidance on AI in Insurance |
该指南旨在监管保险公司对人工智能的使用,以防止歧视性结果,要求对人工智能模型进行评估,以确保承保和定价的公平性和透明度。 |
2024年7月 |
非强制性指引 |
美国联邦航空管理局《人工智能安全保障路线图》 |
该文件旨在保障AI技术在航空系统中的应用安全,确立了七项指导原则,包括:在航空生态系统中工作、聚焦安全保证和增强、避免拟人化和利用行业标准等。 |
2024年7月 |
非强制性指引(航空业) |
美国金融业监管局《监管通知24-09》 |
该通知强调使用生成式人工智能工具时的监管义务。 |
2024年6月 |
非强制性指引(金融业) |
加州律师协会《批准在法律实践中使用生成式人工智能的指南》 Practical Guidance For The Use of Generative Artificial Intelligence In The Practice of Law |
该指南旨在帮助律师在使用生成式人工智能(AI)时把握自己的道德义务。 |
2023年11月 |
非强制性指引 |
美国国土安全部网络安全和基础设施安全局《人工智能路线图》 |
该文件旨在促进人工智能在国家安全中的应用和防范人工智能的恶意使用之间取得平衡。 |
2023年11月 |
非强制性指引 |
纽约市《在政府中负责任地使用人工智能的计划》 The New York City Artificial Intelligence Action Plan |
该文件旨在帮助市政府在利用人工智能(AI)时评估和应对风险。 |
2023年10月 |
非强制性指引 |
美国消费者金融保护局金融保护通知 Consumer Financial Protection Circular 2023-03 |
该文件为使用人工智能系统进行信贷拒绝提供了具体指引。 |
2023年9月 |
非强制性指引(金融业) |
美国战略与国际研究中心《管控AI在数字新闻领域的风险报告》 Navigating the Risks of Artificial Intelligence on the Digital News Landscape |
该报告回顾了以大语言模型为主导的AI技术对数字新闻领域的冲击,指出其所构成的四大风险,并针对这些风险提出六条建议。技术平台、新闻编辑室、政府和个人应共同携手应对风险,积极采取行动,保持新闻业的可持续发展。 |
2023年9月 |
AI风险报告 |
未来隐私论坛、众就业招聘软件开发商《人工智能和工作场所评估技术最佳实践》指南 Best Practices for AI and Workplace Assessment Technologies |
该指南为企业在招聘和雇佣决策中部署AI工具提出建议:开发者和部署者必须明确界定人工智能招聘工具的操作和监督责任等,避免偏见和歧视保证招聘的公开和公平性。 |
2023年9月 |
非强制性指引 |
美国保险专员协会《人工智能原则》 Artificial Intelligence |
该文件旨在为人工智能行为者制定高层次指导原则,不具法律效力。尤其强调了问责制、合规性、透明度及安全、可靠、公平、稳健产出的重要性。 |
2020年8月 |
非强制性指引 |
美国消费者金融保护局《关于复杂算法不当行动要求的通知》 Consumer Financial Protection Circular 2022-03,Adverse action notification requirements in connection with credit decisions based on complex algorithms |
该文件分析了金融业中复杂算法应用可能带来的歧视结果,并提议避免不当算法决策。 |
2022年5月 |
非强制性指引(金融业) |
通过梳理可以看到,截至目前美国虽未针对人工智能颁布普遍适用的强制性联邦立法,但已逐步形成多层级灵活监管机制:在联邦层面,政府协同国家标准与技术研究院(NIST)等机构陆续颁布了《人工智能权利法案蓝图》和《人工智能风险管理框架》等AI监管规则和标准,通过明确安全性、公平性、透明性等原则建立非强制性监管体系,规范人工智能技术的发展和应用,避免其带来不可控的风险和负面影响;在州政府层面,已有超过三十个州正在推动人工智能的监管规范,并处于提案或颁布的不同立法阶段,强调落实AI模型广泛应用背景下对消费者权益和隐私权的保护以及对AI系统透明度和生成内容标识等方面的重点监管。
下文将分别从联邦层面和州层面双线分析美国人工智能监管的具体措施,剖析重点文件的规制思路,从而形成对美国人工智能治理体系的整体认知,并结合宏观背景以期对其未来的监管趋势和前景进行展望。
01
联邦层面监管举措
2023年以来,美国联邦政府在人工智能监管方面持续发力,虽未颁布联邦专门立法,但在全政府协同和分布式治理模式下搭建起了美国式AI监管路线。白宫科技政策办公室发布《人工智能权利法案蓝图》,旨在以公平与隐私为重点预防滥用风险。该蓝图确定了五项原则,包括建立安全和有效的系统、避免算法歧视、保护数据隐私、系统的通知和解释要清晰及时可访问以及设计自动系统失败时的替代方案等。这为自动化系统的设计、使用和部署提供了指导,保护了人工智能时代美国公众的利益。
美国国家标准与技术研究院发布《人工智能风险管理框架》,帮助将风险管理原则转化为实践。该框架将可信度考量纳入设计、开发、使用和评估AI产品、服务和系统中,为组织提供了管理AI风险、提升AI系统可信度的方法,促进了负责任地开发和使用AI系统。框架分为两部分,第一部分分析了AI的风险和可信性,概述了可信的AI系统的特征;第二部分概述了四个具体功能:治理、映射、衡量和管理,帮助组织在实践中解决AI系统的风险。
2023年10月,时任美国总统拜登签署颁布《关于安全、可靠、可信地开发和使用人工智能的行政命令》,旨在建立人工智能安全和保障的新标准,以保护美国用户隐私、促进公平和公民权利,确保美国在人工智能领域的领先地位,维护国家的安全和利益。确立安全新标准等八项行动;另外,该行政令要求领先的人工智能系统开发者与政府分享安全测试结果等关键信息,令政府可以更好地了解人工智能系统的安全性,及时发现潜在风险,并采取相应的措施。同时,开发者也可以从政府的反馈中获得改进的建议,提高系统的安全性;建立生物合成筛选新标准;建立检测AI生成内容和验证官方内容的标准及最佳实践;建立先进的网络安全计划;开发AI工具查找和修补关键软件漏洞,以期防止和规避潜在的生物安全、网络安全、系统安全威胁和风险。
人工智能伦理问题是美国政府的治理重点,核心在于解决算法歧视、数据隐私保护和特殊群体权益保护等问题。政府致力于采取措施消除算法偏见,保护民众免受歧视,同时强调数据收集和使用的合法性与安全性,优先保护公民数据隐私,限制敏感数据收集。此外,政府特别关注患者、学生和工人等特殊群体,推动人工智能在医疗、教育和就业领域的负责任使用,以解决相关问题。
然而,该行政命令在发布后也遭到了一系列消极声音的质疑。部分人认为监管举措效力值得商榷,公司可通过更换技术路径规避。例如,一些科技企业认为行政命令可能会限制创新,增加合规成本,他们可能会寻找其他技术解决方案来避免受到监管的影响。还有人担忧更严格监管会造成准入障碍,不利于新小公司竞争。新小公司可能缺乏资源来满足严格的监管要求,这可能会使他们在市场竞争中处于劣势。也有人对行政命令的合法性提出质疑。他们认为行政命令可能超出了总统的权力范围,或者在制定过程中没有充分考虑各方利益。
02
州层面监管政策
州政府在立法方面发挥先导作用,在通信、深度伪造、消费者权益保护等具体领域的监管,州政府往往先于联邦政府做出反应。在过去五年时间里,共有近三十个州通过了数十项地方立法,在一定程度上填补了国会的立法空白。
重点州的具体措施
1. 科罗拉多州
科罗拉多州采用分层的、基于风险的人工智能政策方法。州长贾里德波利斯于今年5月17日签署了由科罗拉多众议院颁布的SB 205法案,这是美国首个在州一级对人工智能及其应用提出具体要求的综合性监管立法。
该法案借鉴了欧盟人工智能法的理念,对“高风险人工智能系统”进行特别规制。高风险系统是指在教育、就业、金融服务、政府服务、医疗、住房、保险或法律服务等关键领域进行重大决策影响的人工智能系统。法案规定,高风险人工智能系统的部署者必须实施风险管理政策和程序,以识别、记录和减轻算法歧视的风险。此外,部署者还需要完成高风险人工智能系统的影响评估,并定期进行更新和监测。法案明确了开发者和部署者的职责,要求向消费者清楚地公开其使用的人工智能系统的具体信息,包括系统的功能、限制和可能的风险。同时,总检察长负责执行这些规定,并有权制定必要的规则以确保法规得到妥善实施。
2. 田纳西州
田纳西州是第一个保护配音演员免受未经授权的人工智能克隆的州。经州长签署后《确保相似声音和图像安全法案》于2024年7月1日正式生效,要求未经许可不得使用人工智能模仿艺术家的声音。保护音乐家免遭人工智能技术未经授权使用其声音以及防止音频深度伪造和声音克隆。特别增加了对未经许可复制表演者声音的处罚。这一举措体现了田纳西州对艺术家权益的保护,以及对人工智能技术在特定领域可能带来侵权问题的关注。
3. 加利福尼亚州
值得瞩目的是,2024年9月加利福尼亚州州长加文·纽瑟姆签署了数十项与人工智能相关的安全法案,监管内容包括:AI透明度监管,政府的生成式AI使用要求、与选举相关的AI生成的深度伪造内容立法、反对儿童性虐待立法、娱乐行业保护、医疗行业AI使用和对人工智能系统中的个人信息及消费者隐私的保护。然而,加利福尼亚州在人工智能监管方面也面临着一些障碍。州长否决了法案SB 1047,该法案原本会对开发人工智能的公司提出广泛的安全和透明度要求。另一项针对社交媒体上人工智能深度伪造内容分销商的加利福尼亚州法案今年秋天被搁置,等待诉讼结果。
03
美国人工智能监管特点
与欧盟对比,美国政府将人工智能监管服务于在该领域长期保持战略优势的大国竞争需求。其目的在于通过较为灵活的监管方式,为美国的人工智能企业尤其是巨头企业创造有利的发展环境,从而确保美国在人工智能技术方面的领先地位,以在全球竞争中占据优势。欧盟则希望通过影响全球标准的制定来保护本土市场和企业,致力于打造人工智能监管的全球模板。欧盟的《人工智能法案》采取风险分级制度,对不同风险等级的人工智能系统进行分类监管,以确保在其市场上部署和使用的人工智能系统的安全性,并向世界提供符合欧盟价值标准的监管体系。
相比之下,欧盟在人工智能领域的监管体系更为健全且相对严格,以横向监管为基础,分类分级作为风险规制主要方式,还对高风险系统采取了较为严格的强制性监管,要求企业在进入欧洲市场前必须经过内部影响评估、治理机构合格评定、注册录入欧盟高风险数据库、签署符合性声明等四个步骤。同时,对违规公司处以高额罚款。美国相关立法进程显著滞后,更多地依赖于倡议性文件作为应对策略,并秉持自愿性原则。目前,美国仅在州级层面对人工智能产业实施立法监管,且各州发展水平参差不齐。尽管联邦政府部门已阐述了发展人工智能框架的立场和原则,但尚未构建起全面综合的立法监管体系。美国在人工智能治理方面强调“弱监管”和“软治理”,旨在为人工智能技术的发展清除不必要的障碍。
04
总结与展望
当前,美国国内对于人工智能治理的分歧依旧明显。不同行业及社会角色仍未在监管人工智能的最佳方法这一问题上达成一致认知。高新科技企业、法律界人士以及普通民众对于人工智能的监管范围、力度和方式都有着不同的看法。这种分歧使得短期内难以形成统一的监管共识,为全面的人工智能立法带来了巨大挑战。
在人工智能立法中,要找到一个合适的平衡点并非易事。过于模糊的法律在司法实践中可能面临频繁的挑战,因为其缺乏明确的指导,难以确保法律的有效执行。而过于具体的法律又可能因实践的多样性而缺乏适用性,无法涵盖所有可能的情况。这种矛盾使得在广泛的人工智能立法中求得平衡变得极为困难。目前来看,短期内美国进行全面人工智能立法可能性不大。更有可能的是,不同政府机构在其特定管辖范围内制定有针对性的法律或规则,以应对人工智能带来的各种问题。在现阶段创造一个鼓励合作和实验的环境显得尤为重要。人工智能技术仍在快速发展中,过于严格的监管可能会抑制创新,阻碍技术的进步。通过创造合作实验环境,可以让不同的利益相关者共同参与,探索人工智能的发展路径,在安全和发展之间找到平衡。例如,政府可以与科技企业、学术界等合作,共同开展人工智能的研究和实验,以更好地理解人工智能的风险和潜力,为未来的监管提供依据。此外,国际合作也将在人工智能监管中发挥重要作用,以应对人工智能带来的全球性挑战。
作者介绍:
王渝伟,观韬上海办公室合伙人,数字法律与网络合规业委会主任,长期专注于网络安全数据合规业务领域。Email:wangyw@guantao. com
张烜,观韬上海办公室权益合伙人。主要执业领域是境内和跨境投融资和并购、商事争议解决、企业合规。
Email:zhangxuan@guantao. com
徐倩怡(Queenie Xu),观韬上海办公室高级顾问。在涉外投资、股权投资、股权融资、并购业务、外商投资等专业领域有丰富的实践经验。
Email:xuqy@guantao.com
张可妮,观韬上海办公室数据合规团队实习生。
END.
免责. 本文及其内容并不代表iLaw对有关问题的法律意见,同时我们并不保证将会在载明日期之后继续对有关内容进行更新,我们不建议读者仅仅依赖于本文中的全部或部分内容而进行任何决策,因此造成的后果将由行为人自行负责。如果您需要法律意见或其他专家意见,我们建议您向具有相关资格的专业人士寻求专业帮助。