来源:钝角网 2023-12-22 15:47:21
作者:玛丽耶·沙克;昀舒/译
各国政治领导人正争先恐后地对人工智能的进步做出回应。随着从市场营销到医疗保健再到武器系统的应用,人工智能有望在世界各地产生深远影响。在ChatGPT等生成式人工智能(generative AI)的最新发展让人们感到兴奋,也引发了越来越多的担忧。学者和政治家都对这项技术导致人们失业、危害民主和侵犯公民自由的可能性敲响了警钟。所有人都认识到,迫切需要政府监管,确保人工智能应用在法律范围内运作,并保障国家安全、人权和经济发展。
从地方政府到国际组织,对人工智能的监督都是首要考虑的问题,在2023年的最后几个月,新举措的制定加快了。例如,七国集团在10月底发布了一份针对人工智能开发者的非约束性行为准则。11月初,英国主办了人工智能安全峰会,来自28个国家的代表团承诺合作管理人工智能风险。在发布促进“安全、可靠、值得信赖”人工智能的行政命令几周后,美国总统乔·拜登于 11 月中旬会见了中国领导人,并同意就人工智能的军事使用启动政府间对话。12月初,欧盟立法者就《人工智能法案》(AI Act)达成了政治协议,这是一项开创性的法律,将减轻人工智能技术的风险,并制定全球监管标准。
首届人工智能安全峰会现场
尽管人们广泛承认需要引领一个由人工智能驱动的未来,但在国际合作与协调方面,政治领导人往往求助于过去的工具。对人工智能进行全球监督的最突出的建议是寻求复制为其他目的而建立的多边机构:例如,联合国秘书长古特雷斯和其他人呼吁建立一个类似“国际原子能机构”的人工智能监督机构,该机构将以国际原子能机构监督核技术的方式监督人工智能。上个月,英国主导的人工智能安全峰会再次呼吁成立类似“政府间气候变化专门委员会”的针对人工智能的组织(IPCC for AI)。
尽管借鉴以往多边主义成功经验的想法是可以理解的,但简单地引入一个新机构并不能解决人工智能治理的难题。与会者在人工智能安全峰会上做出的承诺,类似于七国集团的指导方针,仅仅是承诺。在缺乏约束性措施的情况下,各方只能自行管理。投资者和股东可能更喜欢这种结果,但政界人士和公民不应幻想私营人工智能公司会为公众利益行事。OpenAI最近的案例就很好表明了:董事会与执行领导层就公司产品的社会影响发生冲突,显示出内部机制在管理人工智能风险方面的脆弱性。
国际监管机构只有在制定规则能让公司和政府承担责任时才能取得成功。政治领导人应该首先敲定这些法律的前提条件和内容,然后再由合适的机构来监督监管。人工智能的快速发展、不透明和不断变化的性质使其与以前的技术有很大的不同,它将需要新的国际监督形式。立法者不应该因为其广泛存在的挑战而感到气馁,而应该把它视作一种创新性立法的契机。
洞悉风险
现有国际机构的成功或许值得效仿,但它们的监督模式并不那么适用于人工智能。以国际原子能机构为例。这个由联合国领导的监督机构成立于1957年,但直到1970年《核不扩散条约》(Nuclear Nonproliferation Treaty)生效后,该机构才能够有效地监督参与国的核武器项目,并维持安全标准。目前关于人工智能治理的讨论忽略了《核不扩散条约》的关键作用。政治领导人渴望建立具有监控能力的以人工智能为重点的机构,但一项可执行的人工智能治理条约却遥遥无期。几个主要国家在国内立法方面几乎没有取得进展。
英国首相苏纳克和包括谷歌前首席执行官埃里克•施密特在内的其他人都从“政府间气候变化专门委员会”(IPCC)那里获得了灵感。“政府间气候变化专门委员会”综合了气候变化的科学研究,并主持了年度缔约方会议峰会。甚至在英国举行首届人工智能安全峰会之前,新的“IPCC for AI”的计划就强调,该机构的职能不是发布政策建议。相反,它会定期总结人工智能研究,强调共同关注的问题,并在不直接提供建议的情况下概述政策选择。这一有限的议程不包含能够提供真正保护和制约企业权力的具有约束力的条约。
在不同时推动国家和国际规则的情况下,建立“制定规范和标准”和“监督遵守情况”的机构,往好了说是天真,往坏了说就是出于私利。企业一致支持非约束性倡议显示了其注重私利。OpenAI的首席执行官萨姆·奥特曼响应了“人工智能领域的国际原子能机构”的呼吁,并警告称,尽管他的公司向公众传播同样的技术,他也要说明人工智能存在的风险。施密特向人工智能创业公司和研究企业投入了大量资金,同时还向美国政府提供人工智能政策建议,强调企业的自我治理。利益冲突的可能性突显出,需要有法律上可执行的护栏,优先考虑公众利益,而不是服务于科技公司底线的松散定义的规范。
基于国际原子能机构(IAEA)或政府间气候变化专门委员会(IPCC)构建组织也有可能忽视人工智能的新颖性及其监管的具体挑战。与由政府控制的核武器不同,人工智能的能力集中在少数几家将产品推向市场的公司手中。政府间气候变化专门委员会是一个独立研究小组,这样的参照,可以有助于人工智能的监管,特别是考虑到公司提供的有关该技术的信息不透明。但促进研究只是制定规则的一步——有效的人工智能治理需要规则。
没有人能知道人工智能在未来会有什么能力,所以管理它的政策和制度必须设计得适应现实状况。首先,监管机构必须能够执行现有的反托拉斯法、反歧视法和知识产权法。各国政府和多边组织还应就人工智能背景下对基本原则的解释达成一致,例如尊重人权和《联合国宪章》的条款。随着人工智能在日常生活中扮演越来越重要的角色,许多基本问题缺乏明确的答案。政策制定者必须界定数据收集何时侵犯隐私权,当算法做出相应决定时应该提供哪些信息,人们如何寻求人工智能服务的歧视性待遇,以及当人工智能驱动的“表达”包括只需点击鼠标就能大量产生“致命病毒”的成分时,可能需要对言论自由进行哪些限制。
虽然国际倡议最近受到很多关注,但有效的多边主义取决于有效的国家法律。如果美国国会为包括该领域许多领导者在内的美国人工智能公司设置法律护栏,可能会为其他国家树立榜样,并为全球人工智能监管奠定基础。但由于分歧严重的国会通过实质性法规的可能性很小,拜登政府解决人工智能问题的工具更加有限。到目前为止,像世界上许多政府一样,拜登政府已经确认人工智能受现有法律的约束,包括消费者保护和非歧视规则。然而,监管机构将如何运用这些法律尚不清楚。美国政府将需要就人工智能技术必须遵守现行法律的背景发布指导方针,并确保监管机构拥有执行这些法律的技能和资源。例如,那些有能力判断酒店是否因为肤色而拒绝客户的机构,将需要一套不同的功能来识别酒店预订网站上的歧视性算法。
在某些领域,现有法律已适用于人工智能技术,并取得了初步成功:向自动驾驶汽车制造商寻求损害赔偿的原告利用产品责任法来证明自己的观点。但随着进一步发展,参照法律先例可能会被证明是困难的。监管机构往往无法获得公司的数据和算法,这使他们无法识别侵犯隐私权、消费者保护或其他法律标准的行为。如果他们想有效地管理人工智能,这些对专有信息的限制必须放松。当公民遇到人工智能产品和系统时,他们也需要指导他们的法律。
与美国相比,欧盟将很快在与其他国家就人工智能的约束性规则进行接触方面处于有利地位。欧盟的《人工智能法案》(AI Act)预计将于2026年生效,其中包含了减轻人工智能应用带来的广泛风险的措施,包括面部识别系统和用于推断某人犯罪可能性的工具。作为民主世界同类政策中最全面的,欧盟法律将成为多边讨论的起点,并可能成为其他国家国内立法的模板。然而,《人工智能法案》并没有解决人工智能在军事领域的使用问题,因为这一政策领域是为欧盟体系中的各国政府保留的。欧盟的市场份额使其在国际谈判中具有重要的影响力。但如果欧盟27个成员国在军事应用上采取不同立场,他们的分歧将削弱欧盟推动全球人工智能标准的能力。
建立共识
各国政府希望对人工智能有所作为,但目前的努力往往缺乏方向和力度。在设立新的国际机构之前,官员们应该努力起草这些机构用于监督的法律。各国政府应围绕几个关键点建立国际共识。首先,人工智能必须是可识别的。随着技术的进步,越来越难以知道客户服务热线上的声音、文本、视频或音频信息是来自人还是计算机。随着人工智能在自动化决策系统中的应用,人工智能越来越多地决定着人们获得就业、贷款和教育机会的能力。每当公司将人工智能用于这些目的时——尤其是生成型人工智能,其输出通常很难被识别为合成——他们应该有法律义务披露其作用。
各国还必须限制使用人工智能武器,包括网络武器。国际法在网络行动中的应用已经是一个模糊的领域,人工智能又增加了新的复杂性。这项技术增加了网络攻击者的优势,他们可能会使用生成式人工智能快速扫描大量软件以寻找漏洞。一项国际协议禁止将人工智能武器化的某些目标,比如网络间谍活动或在另一个国家的竞选活动期间传播虚假信息,这将设置必要的护栏,并促进最佳实践。
最后,人工智能监管不能无视环境保护。用于数据存储和处理的大型数据中心需要大量的电、水和其他资源,这些站点的环境成本正在增加。如今,各家公司只对自己的用水和用电情况给出模糊的估计。一个由各国政府监督的单一全球报告标准将使学术研究人员和记者能够获得环境数据。这将使公众能够仔细审查人工智能公司对自然资源的消耗,并使政策制定者能够实施有效的限制。
走向合作
七国集团行为准则和其他人工智能治理建议并不是多边合作的第一次尝试。全球人工智能合作伙伴关系峰会(GPAI)于2020年6月首次召开,由经济合作与发展组织支持,汇聚了来自25个国家的研究人员和从业者,分享他们的研究成果并讨论合作领域。由于其成员的地域限制和缺乏具有约束力的协定,全球人工智能合作伙伴关系峰会经常被批评为既没有代表性也没有效力。这一峰会(或者最近的人工智能安全峰会)的这一进展,突显了在一个政治分裂的世界里,在全球规范上达成一致的难度。当各国加入一个新的国际机构时,规范不会简单地落实到位。相反,人工智能治理的最佳实践可能会以两种方式之一展开。首先,敌对的国家,将在共同关心的有限领域找到共同点,比如人工智能的军事用途。但如果地缘政治对手无法克服分歧,志同道合的民主国家将需要通过巩固解决人工智能监管具体层面的初步协议来发挥带头作用。
无论如何,在国际人工智能监管方面取得真正进展,需要的不仅仅是让主要国家的政策制定者坐在一起。学者伊丽莎白·罗利希在她对国际原子能机构的描述中指出了使核保障措施有效的两个基本要素:对该机构及其成员国具有约束力的法律协议,以及监督遵守情况的技术工具。人工智能的保障也需要新的和更新的法律,以及执行这些法律的资源和技术能力。如今,许多政治和企业领导人正试图直接跳到最后,把重点放在总体制度上,而不是使这些制度发挥作用的具体政策。历史可以提供宝贵的指南,但没有捷径可走。
作者简介:玛丽耶·沙克(Marietje Schaake)斯坦福大学网络政策中心国际政策主任、欧盟委员会执行副主席维斯塔格的特别顾问。本文译自《外交事务》网站。
来源:钝角网 2023-12-22 15:47:21
作者:玛丽耶·沙克;昀舒/译
各国政治领导人正争先恐后地对人工智能的进步做出回应。随着从市场营销到医疗保健再到武器系统的应用,人工智能有望在世界各地产生深远影响。在ChatGPT等生成式人工智能(generative AI)的最新发展让人们感到兴奋,也引发了越来越多的担忧。学者和政治家都对这项技术导致人们失业、危害民主和侵犯公民自由的可能性敲响了警钟。所有人都认识到,迫切需要政府监管,确保人工智能应用在法律范围内运作,并保障国家安全、人权和经济发展。
从地方政府到国际组织,对人工智能的监督都是首要考虑的问题,在2023年的最后几个月,新举措的制定加快了。例如,七国集团在10月底发布了一份针对人工智能开发者的非约束性行为准则。11月初,英国主办了人工智能安全峰会,来自28个国家的代表团承诺合作管理人工智能风险。在发布促进“安全、可靠、值得信赖”人工智能的行政命令几周后,美国总统乔·拜登于 11 月中旬会见了中国领导人,并同意就人工智能的军事使用启动政府间对话。12月初,欧盟立法者就《人工智能法案》(AI Act)达成了政治协议,这是一项开创性的法律,将减轻人工智能技术的风险,并制定全球监管标准。
首届人工智能安全峰会现场
尽管人们广泛承认需要引领一个由人工智能驱动的未来,但在国际合作与协调方面,政治领导人往往求助于过去的工具。对人工智能进行全球监督的最突出的建议是寻求复制为其他目的而建立的多边机构:例如,联合国秘书长古特雷斯和其他人呼吁建立一个类似“国际原子能机构”的人工智能监督机构,该机构将以国际原子能机构监督核技术的方式监督人工智能。上个月,英国主导的人工智能安全峰会再次呼吁成立类似“政府间气候变化专门委员会”的针对人工智能的组织(IPCC for AI)。
尽管借鉴以往多边主义成功经验的想法是可以理解的,但简单地引入一个新机构并不能解决人工智能治理的难题。与会者在人工智能安全峰会上做出的承诺,类似于七国集团的指导方针,仅仅是承诺。在缺乏约束性措施的情况下,各方只能自行管理。投资者和股东可能更喜欢这种结果,但政界人士和公民不应幻想私营人工智能公司会为公众利益行事。OpenAI最近的案例就很好表明了:董事会与执行领导层就公司产品的社会影响发生冲突,显示出内部机制在管理人工智能风险方面的脆弱性。
国际监管机构只有在制定规则能让公司和政府承担责任时才能取得成功。政治领导人应该首先敲定这些法律的前提条件和内容,然后再由合适的机构来监督监管。人工智能的快速发展、不透明和不断变化的性质使其与以前的技术有很大的不同,它将需要新的国际监督形式。立法者不应该因为其广泛存在的挑战而感到气馁,而应该把它视作一种创新性立法的契机。
洞悉风险
现有国际机构的成功或许值得效仿,但它们的监督模式并不那么适用于人工智能。以国际原子能机构为例。这个由联合国领导的监督机构成立于1957年,但直到1970年《核不扩散条约》(Nuclear Nonproliferation Treaty)生效后,该机构才能够有效地监督参与国的核武器项目,并维持安全标准。目前关于人工智能治理的讨论忽略了《核不扩散条约》的关键作用。政治领导人渴望建立具有监控能力的以人工智能为重点的机构,但一项可执行的人工智能治理条约却遥遥无期。几个主要国家在国内立法方面几乎没有取得进展。
英国首相苏纳克和包括谷歌前首席执行官埃里克•施密特在内的其他人都从“政府间气候变化专门委员会”(IPCC)那里获得了灵感。“政府间气候变化专门委员会”综合了气候变化的科学研究,并主持了年度缔约方会议峰会。甚至在英国举行首届人工智能安全峰会之前,新的“IPCC for AI”的计划就强调,该机构的职能不是发布政策建议。相反,它会定期总结人工智能研究,强调共同关注的问题,并在不直接提供建议的情况下概述政策选择。这一有限的议程不包含能够提供真正保护和制约企业权力的具有约束力的条约。
在不同时推动国家和国际规则的情况下,建立“制定规范和标准”和“监督遵守情况”的机构,往好了说是天真,往坏了说就是出于私利。企业一致支持非约束性倡议显示了其注重私利。OpenAI的首席执行官萨姆·奥特曼响应了“人工智能领域的国际原子能机构”的呼吁,并警告称,尽管他的公司向公众传播同样的技术,他也要说明人工智能存在的风险。施密特向人工智能创业公司和研究企业投入了大量资金,同时还向美国政府提供人工智能政策建议,强调企业的自我治理。利益冲突的可能性突显出,需要有法律上可执行的护栏,优先考虑公众利益,而不是服务于科技公司底线的松散定义的规范。
基于国际原子能机构(IAEA)或政府间气候变化专门委员会(IPCC)构建组织也有可能忽视人工智能的新颖性及其监管的具体挑战。与由政府控制的核武器不同,人工智能的能力集中在少数几家将产品推向市场的公司手中。政府间气候变化专门委员会是一个独立研究小组,这样的参照,可以有助于人工智能的监管,特别是考虑到公司提供的有关该技术的信息不透明。但促进研究只是制定规则的一步——有效的人工智能治理需要规则。
没有人能知道人工智能在未来会有什么能力,所以管理它的政策和制度必须设计得适应现实状况。首先,监管机构必须能够执行现有的反托拉斯法、反歧视法和知识产权法。各国政府和多边组织还应就人工智能背景下对基本原则的解释达成一致,例如尊重人权和《联合国宪章》的条款。随着人工智能在日常生活中扮演越来越重要的角色,许多基本问题缺乏明确的答案。政策制定者必须界定数据收集何时侵犯隐私权,当算法做出相应决定时应该提供哪些信息,人们如何寻求人工智能服务的歧视性待遇,以及当人工智能驱动的“表达”包括只需点击鼠标就能大量产生“致命病毒”的成分时,可能需要对言论自由进行哪些限制。
虽然国际倡议最近受到很多关注,但有效的多边主义取决于有效的国家法律。如果美国国会为包括该领域许多领导者在内的美国人工智能公司设置法律护栏,可能会为其他国家树立榜样,并为全球人工智能监管奠定基础。但由于分歧严重的国会通过实质性法规的可能性很小,拜登政府解决人工智能问题的工具更加有限。到目前为止,像世界上许多政府一样,拜登政府已经确认人工智能受现有法律的约束,包括消费者保护和非歧视规则。然而,监管机构将如何运用这些法律尚不清楚。美国政府将需要就人工智能技术必须遵守现行法律的背景发布指导方针,并确保监管机构拥有执行这些法律的技能和资源。例如,那些有能力判断酒店是否因为肤色而拒绝客户的机构,将需要一套不同的功能来识别酒店预订网站上的歧视性算法。
在某些领域,现有法律已适用于人工智能技术,并取得了初步成功:向自动驾驶汽车制造商寻求损害赔偿的原告利用产品责任法来证明自己的观点。但随着进一步发展,参照法律先例可能会被证明是困难的。监管机构往往无法获得公司的数据和算法,这使他们无法识别侵犯隐私权、消费者保护或其他法律标准的行为。如果他们想有效地管理人工智能,这些对专有信息的限制必须放松。当公民遇到人工智能产品和系统时,他们也需要指导他们的法律。
与美国相比,欧盟将很快在与其他国家就人工智能的约束性规则进行接触方面处于有利地位。欧盟的《人工智能法案》(AI Act)预计将于2026年生效,其中包含了减轻人工智能应用带来的广泛风险的措施,包括面部识别系统和用于推断某人犯罪可能性的工具。作为民主世界同类政策中最全面的,欧盟法律将成为多边讨论的起点,并可能成为其他国家国内立法的模板。然而,《人工智能法案》并没有解决人工智能在军事领域的使用问题,因为这一政策领域是为欧盟体系中的各国政府保留的。欧盟的市场份额使其在国际谈判中具有重要的影响力。但如果欧盟27个成员国在军事应用上采取不同立场,他们的分歧将削弱欧盟推动全球人工智能标准的能力。
建立共识
各国政府希望对人工智能有所作为,但目前的努力往往缺乏方向和力度。在设立新的国际机构之前,官员们应该努力起草这些机构用于监督的法律。各国政府应围绕几个关键点建立国际共识。首先,人工智能必须是可识别的。随着技术的进步,越来越难以知道客户服务热线上的声音、文本、视频或音频信息是来自人还是计算机。随着人工智能在自动化决策系统中的应用,人工智能越来越多地决定着人们获得就业、贷款和教育机会的能力。每当公司将人工智能用于这些目的时——尤其是生成型人工智能,其输出通常很难被识别为合成——他们应该有法律义务披露其作用。
各国还必须限制使用人工智能武器,包括网络武器。国际法在网络行动中的应用已经是一个模糊的领域,人工智能又增加了新的复杂性。这项技术增加了网络攻击者的优势,他们可能会使用生成式人工智能快速扫描大量软件以寻找漏洞。一项国际协议禁止将人工智能武器化的某些目标,比如网络间谍活动或在另一个国家的竞选活动期间传播虚假信息,这将设置必要的护栏,并促进最佳实践。
最后,人工智能监管不能无视环境保护。用于数据存储和处理的大型数据中心需要大量的电、水和其他资源,这些站点的环境成本正在增加。如今,各家公司只对自己的用水和用电情况给出模糊的估计。一个由各国政府监督的单一全球报告标准将使学术研究人员和记者能够获得环境数据。这将使公众能够仔细审查人工智能公司对自然资源的消耗,并使政策制定者能够实施有效的限制。
走向合作
七国集团行为准则和其他人工智能治理建议并不是多边合作的第一次尝试。全球人工智能合作伙伴关系峰会(GPAI)于2020年6月首次召开,由经济合作与发展组织支持,汇聚了来自25个国家的研究人员和从业者,分享他们的研究成果并讨论合作领域。由于其成员的地域限制和缺乏具有约束力的协定,全球人工智能合作伙伴关系峰会经常被批评为既没有代表性也没有效力。这一峰会(或者最近的人工智能安全峰会)的这一进展,突显了在一个政治分裂的世界里,在全球规范上达成一致的难度。当各国加入一个新的国际机构时,规范不会简单地落实到位。相反,人工智能治理的最佳实践可能会以两种方式之一展开。首先,敌对的国家,将在共同关心的有限领域找到共同点,比如人工智能的军事用途。但如果地缘政治对手无法克服分歧,志同道合的民主国家将需要通过巩固解决人工智能监管具体层面的初步协议来发挥带头作用。
无论如何,在国际人工智能监管方面取得真正进展,需要的不仅仅是让主要国家的政策制定者坐在一起。学者伊丽莎白·罗利希在她对国际原子能机构的描述中指出了使核保障措施有效的两个基本要素:对该机构及其成员国具有约束力的法律协议,以及监督遵守情况的技术工具。人工智能的保障也需要新的和更新的法律,以及执行这些法律的资源和技术能力。如今,许多政治和企业领导人正试图直接跳到最后,把重点放在总体制度上,而不是使这些制度发挥作用的具体政策。历史可以提供宝贵的指南,但没有捷径可走。
作者简介:玛丽耶·沙克(Marietje Schaake)斯坦福大学网络政策中心国际政策主任、欧盟委员会执行副主席维斯塔格的特别顾问。本文译自《外交事务》网站。