苹果公司近日宣布,已正式向全球安全与隐私研究人员开放其“苹果牌ai”的核心组件——private cloud compute(pcc)云端ai模型。此举旨在进一步提升透明度,并强化外界对其ai技术安全与隐私保护的信任。
pcc作为苹果云端ai的基石,被公司誉为业界最先进且安全的计算架构。此前,苹果已允许第三方审计及安全研究人员对pcc进行访问审核。如今,这一权限进一步扩大,所有研究人员均可查阅pcc的安全指南、vre环境及部分核心源代码。
具体而言,pcc的“安全指南”详尽介绍了模型内部各组件的技术细节,而pcc vre则提供了一个研究专用的沙盒环境。研究人员可在搭载m1及以上soc、16gb及以上ram,并运行macos sequoia 15.1开发者预览版的mac电脑上,利用该工具进行安全分析。
苹果还将“抓虫”漏洞奖励计划扩展至pcc,为发现漏洞的研究人员提供高达5-100万美元(折合人民币约35.6-712.8万元)的奖金。