澳大利亚OAIC发布二则隐私和人工智能合规指南
发布时间:2024-12-17
文 | 钱静雯 汇业律师事务所 合伙人
发布背景 继去年9月发布对《隐私法审查报告》的回应后,澳洲政府一直在加速解决在自动化决策背景下使用个人信息的隐私法律问题。 澳大利亚信息专员办公室(OAIC)于2024年10月21日发布2则指南:《有关隐私以及开发和训练生成式人工智能模型的指南》(Guidance on privacy and developing and training generative AI models,下称《开发和训练指南》)和《有关隐私和商用人工智能产品的使用的指南》(Guidance on privacy and the use of commercially available AI products,下称《产品使用指南》)。 《开发和训练指南》针对使用个人信息训练生成式人工智能模型的开发者。OAIC 建议生成式人工智能模型的开发者应仔细考虑他们打算用于训练模型的数据是否包含任何个人或敏感信息,如有,使用这些信息来训练生成式人工智能模型须考虑是否符合隐私义务。 《产品使用指南》中列出了 OAIC 对使用商用人工智能产品的企业的期望。其中建议,除其他事项外,使用人工智能产品的企业应确保其隐私政策包含有关其使用人工智能的明确信息。 一、关于《开发和训练指南》 出于社会对大模型开发的隐私担忧等原因,OAIC发布本指南旨在引导开发者对这些活动采取谨慎态度、充分考虑隐私,并采用与受影响个人的巨大风险相称的方式。特别要求考虑APP1、3、5、6和10的相关规定。 首先,本指南适用于受《隐私法》约束的生成式人工智能模型或系统的开发者。开发者包括设计(designs)、构建(builds)、训练(trains)、调整(adapts)或组合(combines) AI模型和应用程序的任何组织。该指南还涉及组织向开发者提供个人信息以便他们开发或微调生成式 人工智能模型的情况。 其次,本指南明确《隐私法》适用于为训练生成式人工智能模型而收集、使用和披露的个人信息,就像它适用于所有涉及个人信息的人工智能用途一样。 使用大量信息训练生成式人工智能模型的开发者必须主动考虑这些信息是否包含个人信息,尤其是在信息来源不明的情况下。个人信息指与已识别或可合理识别的个人有关的信息,包括人工智能模型产生的推断、错误或人工生成的信息,例如幻觉(hallucinations)和深度伪造(deepfakes)。 《开发和训练指南》内容要点如下: A. 准确性 根据 APP 10,开发者有义务采取合理措施确保所收集、使用和披露的个人信息准确无误。开发者必须采取合理措施确保准确性,并在开发或微调生成式人工智能模型或系统时首先采取“隐私设计”的方法,包括进行隐私影响评估。同时,开发者应当确保采取的措施与人工智能环境下可能增加的风险水平相称,包括使用高质量数据集、进行适当的测试和适当使用免责声明。 对于免责声明,应清楚地传达对生成式人工智能模型准确性的任何限制,包括数据集是否仅包含截至某个日期的信息,并应表明人工智能模型可能需要仔细考虑和对某些高隐私风险用途采取额外保护措施,例如用于对个人权利产生法律或类似重大影响的决策。 B.训练数据 仅仅因为数据是公开的或可以通过其他方式访问的,并不意味着它可以合法地用于训练或微调生成式 人工智能模型或系统。开发者必须通过合法且公平的手段收集个人信息。根据具体情况,通过网页抓取创建数据集可能构成隐蔽且不公平的收集手段。开发者必须考虑他们打算使用或收集的数据(包括公开可用的数据)是否包含个人信息,并遵守其隐私义务,例如可能需要采取额外措施(例如删除信息)以确保遵守隐私义务。在使用第三方数据集时,开发者必须考虑有关数据集的数据来源和编译过程的信息,并可能需要采取额外措施(例如删除信息)以确保遵守隐私义务。 C.敏感信息 人工智能技术和供应链是非常复杂的,删除或去标识化个人信息的措施可能并不总是有效。开发者必须特别小心敏感信息,因为这些信息通常需要征得同意才能收集。许多个人照片或录音(包括人工生成的)都包含敏感信息,因此未经同意可能无法从网上抓取或从第三方数据集收集。如果在未经同意的情况下无意中收集敏感信息,通常需要将其从数据集中销毁或删除。 D.透明度 当开发者试图使用他们已经持有的个人信息来训练人工智能模型,而这并不是收集的主要目的时,他们需要仔细考虑他们的隐私义务。如果他们未获得与 AI 相关的次要用途的同意,则他们必须能够证明,这种次要用途是个人合理预期的,特别考虑到他们在收集信息时的期望,并且它与主要目的相关。 E. 使用和披露 如果开发者不能清楚地证明人工智能相关目的的次要用途在合理预期之内并与主要用途相关,为避免监管风险,他们应该为该用途征求同意和/或为个人提供有意义且知情的选择退出此类用途的能力。鉴于人工智能技术的独特性、其使用可能产生的重大危害以及社会对人工智能使用的关注程度,在许多情况下很难确定这种二次使用是否在合理预期之内。如果开发商无法明确证明人工智能相关目的的次要用途在合理预期之内且与主要用途相关,则为避免监管风险,他们应就该用途征求同意,并为个人提供有意义且知情的选择退出此类用途的能力。 二、关于《产品使用指南》 首先,本指南明确《隐私法》适用于所有涉及个人信息的人工智能的使用。 本指南旨在帮助组织在使用市售人工智能产品时履行隐私义务,并协助选择合适的产品,还涉及免费提供的人工智能产品(例如可公开访问的 AI 聊天机器人)的使用。本指南适用于涉及个人信息的所有类型的人工智能系统,尤其对生成式人工智能和通用人工智能产品的使用具有特别的指导意义。 在考虑采购商用人工智能产品时,组织必须确保拥有足够的信息来了解产品的工作原理和潜在风险,包括与隐私相关的风险。未能进行适当的尽职调查可能会带来一系列风险,包括可能将部署不适合其预期用途且无法产生准确响应的产品。 《产品使用指南》内容要点如下: A.适用范围 隐私义务将适用于输入人工智能系统的任何个人信息,以及人工智能生成的输出数据(其中包含个人信息)。在考虑采用市售产品时,企业应进行尽职调查(due diligence),以确保产品适合其预期用途(intended uses)。这应包括考虑产品是否已针对此类用途进行测试、如何将人工监督嵌入流程、潜在的隐私和安全风险,以及谁将有权访问实体在使用产品时输入或生成的个人信息。对人工智能产品的尽职调查不应等同于“设置后就忘记”(set and forget)的做法。在整个人工智能产品生命周期中,应定期审查人工智能产品本身的性能、培训员工和进行监控,以确保产品始终符合用途、使用恰当且符合隐私义务。 B.透明度 企业应该更新其隐私政策和通知,提供有关其使用人工智能的清晰透明的信息,包括确保任何面向公众的人工智能工具都能向用户清楚地标识出来。同时在企业内部应该制定使用人工智能系统的政策和程序,以促进透明度并确保良好的隐私治理。 C.收集原则 如果使用人工智能系统生成或推断个人信息,包括图像,则这属于个人信息的收集,必须遵守 APP 3。实体必须确保人工智能生成的个人信息对于其功能或活动而言是合理必要的,并且仅通过合法和公平的手段进行。 D.目的限定 如果将个人信息输入人工智能系统,APP 6 要求实体仅将信息用于收集信息的主要目的。组织应注意,使用人工智能系统的影响可能对儿童和弱势群体尤其严重。由于人工智能系统的算法偏见,个人遭受歧视的例子广为人知。弱势群体(包括原住民)通常无法在反映历史偏见或数据不足的数据集中得到适当体现。 E.实践建议 为避免重大复杂的隐私风险,OAIC 建议(最佳实践是)组织不要将个人信息,尤其是敏感信息输入到公开的生成 AI 工具中。 上述二则指南发布后不久, OAIC裁定,五金零售巨头 Bunnings 自2018 年 11 月起的三年内在新州和维州的 63 家门店中,使用与闭路电视CCTV连接的人脸识别技术(FRT)捕捉每位进入店内顾客的面部,违反了隐私法律。裁决指出,Bunnings 在未经顾客同意的情况下收集了顾客的私人信息,未能采取措施通知顾客,并且其隐私政策中存在漏洞。因为“这项技术是一种具有侵入性的选择,干扰了所有顾客的隐私,而不仅仅是高风险人群的隐私。”Bunnings 已被勒令不得重复或继续这种做法,并必须在一年内销毁通过人脸识别收集到的所有个人和敏感信息。 三、企业和开发者应该做些什么呢? 上述指南发布后,对于在运营中使用个人信息和商用人工智能产品的企业: 最重要的是,隐私政策应明确披露人工智能的使用方式。例如,如指南建议,面向公众的人工智能工具(如聊天机器人)应向客户等外部用户明确标识。 企业应制定政策和程序来规范其对人工智能产品的使用。 对于使用个人信息训练模型的生成式人工智能模型的开发者: 开发者需要考虑他们计划用于训练人工智能模型的个人信息是否是出于训练这一主要目的而收集的。根据个人是否合理地预期其个人信息将用于训练人工智能模型以及个人信息是否属于敏感信息,开发者可能需要征得个人的同意。 开发者应特别小心个人的照片或录音,因为 OAIC 认为个人图像本身可能构成或包含敏感信息,在这种情况下,未经个人同意,不能将其用作 AI 系统的输入数据。 根据上述 OAIC 发布的指南,我们结合实际开发和商用场景,制作了《AI模型开发、训练与商用隐私自查清单》供有关企业参考,有意者请邮件联系本文作者获取。 参考文件 https://www.abc.net.au/news/2024-11-19/oaic-investigation-into-bunnings-facial-recognition/104613700 *张婧雯对本文亦有贡献