2024年8月,澳大利亚政府发布的《自愿人工智能安全标准》(Voluntary AI Safety Standard)为澳大利亚组织提供了关于人工智能安全和责任实践的指导,以确保人工智能系统的安全可靠开发与部署。该标准包括 10 项自愿性防护措施,涵盖治理、风险管理、数据保护、测试、透明度等多个方面,适用于人工智能供应链中的所有组织。其目的在于促进安全和负责任的人工智能实践,提升公众对人工智能的信任,同时为组织在人工智能领域的发展提供清晰的指导框架。

一、标准核心内容

1. 适用范围与定义:适用于澳大利亚人工智能供应链中的所有组织,明确了 AI deployer(部署者)、AI developer(开发者)、AI user(使用者)、Affected stakeholder(受影响利益相关者)等定义。

2. 10 项自愿性防护措施

(1)建立问责流程:包括确定人工智能使用的总体负责人、制定人工智能战略、提供必要培训,将人工智能治理融入现有流程或创建新流程,明确领导责任,确保具备足够资源,保持全生命周期的监督。

(2)实施风险管理流程:创建组织层面的风险管理方法,评估风险与影响,识别潜在风险与危害,确定风险接受标准,实施风险控制措施,定期评估风险,根据风险决定是否要求开发者实施特定技术解决方案。

(3)保护人工智能系统并管理数据:采取合适的数据治理、隐私和网络安全措施,评估和调整现有数据治理流程,审查隐私政策和网络安全实践,明确数据质量、来源、使用权利等要求,考虑数据泄露报告责任。

(4)测试人工智能模型和系统:在部署前全面测试,制定测试计划,明确接受标准,记录测试结果,部署前审查批准,持续监测评估系统性能,建立反馈渠道,定期审计或评估系统,确保符合接受标准。

(5)实现人类控制与监督:为人工智能系统指定责任人,赋予其监督、干预权力,明确能力、监督和干预要求,评估用户和运营人员培训需求,与供应商制定治理和监督计划,明确各方责任。

(6)告知用户相关信息:创建流程向利益相关者披露人工智能使用情况,确保用户理解,确定透明度和审计要求,将标准责任应用于第三方系统,评估特定报告义务,根据情况实施透明度措施,向用户传达人工智能生成内容信息。

(7)建立挑战机制:创建流程让利益相关者理解和挑战人工智能系统的使用,将其嵌入风险控制流程,建立沟通和回应机制,指定负责人审查相关问题。

(8)保持供应链透明度:开发者向部署者提供系统信息,部署者向供应商反馈使用情况,双方明确监测、问题处理等责任,确定信息共享机制,定期审查,在合同中体现相关责任和信息。

(9)记录保存与合规展示:建立人工智能系统清单和文档标准,记录系统详细信息,包括责任人、目的、技术细节、测试结果、风险评估等,确保文档记录足以证明合规性,与供应商合作记录相关信息。

(10)利益相关者参与和评估:识别并与利益相关者互动,评估其需求,制定组织层面的多样性、公平性和包容性目标,评估人工智能对这些方面的影响,识别系统层面的利益相关者和潜在危害,实施公平性措施,确定人类监督阶段,与供应商合作进行影响评估,避免引入偏见。

二、标准应用案例

1. 通用人工智能聊天机器人(General-purpose AI Chatbot):以 NewCo 公司为例,若遵循标准,销售主管会负责选择开发者、进行合同谈判、实施和监测,开展风险评估,进行测试,发现问题后修改系统,最终实现成功的产品发布,提高客户满意度和员工生产力;若不遵循标准,聊天机器人可能出现提供不准确信息、歧视性折扣等问题,导致客户投诉、法律风险和声誉损害。

2. 面部识别技术(Facial recognition technology):EcoRetail 公司考虑使用面部识别技术来识别盗窃者和预防犯罪,但在评估过程中发现该技术在隐私、歧视风险、数据来源和准确性等方面存在问题,最终决定不使用,因为其风险与公司战略、法律义务不符,可能导致声誉损害和商业负面结果。

3. 推荐引擎(Recommender engine):TravelCo.com为增加市场份额使用推荐引擎,但供应商指出提供实时 “最便宜价格” 存在挑战,可能因数据更新延迟导致价格不准确,存在误导消费者的风险。TravelCo.com遵循标准,改变广告宣传,明确告知用户排名受商业安排影响,以避免法律风险。

4. 仓库事故检测(Warehouse accident detection):ManufaxCo 公司自行开发了 Safe Zone 人工智能系统用于工厂安全监测,在应用标准过程中,进行风险评估,设定接受标准,包括有效性、可靠性、公平性和隐私等方面。测试发现问题后,通过更新数据集、更换语音识别模型等措施解决,持续监测和评估系统性能,根据问题进行调整,确保系统有效运行,减少事故发生。

(来源:tbtguide)