
AI热潮正在重蹈一个熟悉的覆辙,在我职业生涯早期,与我共事的一位风险管理人员常说:“你没邀请我一起喝啤酒,现在却要我买单?”每当有项目因缺乏足够监督而出现问题时,他就会这么说。如果有人试图避重就轻、不解释细节,他还会补充道:“我不知道你让我看的是怪物的脑袋,还是仅仅它的脚趾。”
自2011年以来,我目睹了众多新产品、商业服务和创新在没有充分安全或风险审查的情况下就推向市场。云计算、大数据、BYOD、API、物联网、社交媒体和低代码开发只是其中的几个例子,我们通常的做法是先创新,之后再考虑治理问题。
AI也正遵循着同样的模式,许多行业的领导者对AI充满热情,就如同他们对早期技术一样,然而,许多人仍缺乏明确的方法来追踪AI的应用位置、风险归属,以及自动化决策可能对业务产生的影响。
十年的“快速试错”让我们看到了其中的风险:事件频发、数据泄露以及更大的风险暴露。如果企业现在不将风险管理和问责机制融入AI中,他们将面临与早期创新相同的困境。
真正的风险不在于AI本身,而在于我们如何使用它
即便有麻省理工学院AI风险库等详细框架,许多企业仍难以将AI风险与实际业务问题联系起来。每个人都渴望新的应用场景,但很少有人追踪风险的源头——是在数据中、模型中,还是在机器快速做出的决策中。
实际上,AI风险并非只关乎未来——它们已经是日常运营的一部分。当算法在没有明确问责机制的情况下影响业务结果时,当工具收集敏感数据时,以及当自动化系统做出人们不再检查的决策时,这些风险就会浮现。
这些治理漏洞并非新问题,我们在云计算、API、物联网和大数据领域都曾遇到过同样的问题。解决方案也并不陌生:跟踪、评估、控制和监控。第一步是了解AI的应用位置、处理的数据以及涉及的业务流程。有了这种透明度,治理就变成了管理业务中已有的内容,而不仅仅是担忧未知。
下一步是保护,我们无需重新发明轮子或开发先进的新方法,相反,我们应该从基础做起:先采取简单的治理步骤,然后逐步完善。
借鉴已有的成功经验
好消息是,公司在AI治理方面无需从零开始。网络安全、云计算和隐私保护计划中已经存在关于技术和合规性的指导方针。
现在需要的是将这些传统控制措施应用到这一新环境中:
• 分类与所有权。每个模型都应有明确的所有者,并限制谁可以训练、查询或部署它,其与业务的相关性应通过不同标准(如监管、运营或收入)来明确。
• 基础安全与不可协商事项。访问控制、多因素身份验证、网络分段和审计日志对于AI环境与服务器或云环境同样重要。
• 持续监控。模型行为不仅要准确,还应可观察、可追溯,并对任何目的变更负责。
• 第三方尽职调查。与AI提供商的合同应明确界定对训练数据、生成内容的权利以及应对事件的方式。
• 测试与验证。红队演练、针对AI的渗透测试和场景模拟应成为常规做法。
这些控制措施并非新事物,避免另一种形式的技术债务的希望也并非遥不可及,也许这次我们可以采用“设计即安全”的方法。
同样的治理原则很快将再次接受考验,这次是由新一代自主系统带来的。
自主式AI的兴起与问责真空
新一代自主式AI系统能够在不同平台上自主行动,无需人类直接输入即可执行任务、进行购买或检索数据。从简单的聊天机器人到自主智能体的转变,创造了一个大多数组织尚未准备好的问责真空。
如果没有适当的规范引导,智能体可能会访问不应访问的系统、泄露机密数据、生成不可靠信息、启动未经授权的交易、跳过既定工作流程,甚至违反公司政策或道德规范,这些风险因自主式AI快速且独立的工作方式而加剧,可能在人们察觉之前就造成大问题。
在急于尝试新事物的冲动下,许多公司在没有基本访问控制或监督的情况下就推出了这些智能体。解决方案是采用经过验证的控制措施,如最小权限原则、职责分离、监控和问责。
高管们应该能够根据美国国家标准与技术研究院(NIST)AI风险管理框架(AI RMF)等框架,回答关于在其环境中运行的任何自主AI的基本问题:
1. 建立了哪些治理流程(政策、角色和责任、监督)?
2. 正在利用哪些应用场景和业务适用性?
3. 出错时谁负责?
4. 它代表哪些风险?应用了哪些控制措施?
将治理融入业务,而非围绕业务构建治理
有效的AI治理并非一项IT职能,就如同网络安全并非一项IT职能一样,它是一项具有共同问责制的业务职能。有远见的组织现在正在引入三种机制,将治理嵌入运营中:
1. AI自我评估框架——简单的清单,帮助每个业务部门绘制其AI应用场景、数据源和风险图。
2. 利用治理委员会——由风险、合规、网络安全和业务领导代表组成的跨职能机构。
3. 企业AI使用政策——定义批准的工具、合同标准和内部及外部AI使用的最低保障措施。
这些并非官僚层级,而是可持续创新的基础。当业务部门掌握库存情况时,风险团队可以专注于保障而非发现。现代治理应促进采用,而非抑制或减缓,而是帮助安全地扩大规模。
不要制造另一种债务
与云计算采用的相似之处显而易见,十年前,缺乏早期控制导致数据泄露、系统未受监控以及修复成本高昂。AI正展现出同样的模式,但速度更快,后果更严重。
技术债务不再仅仅关乎代码,它还关乎信任你的数据、对模型负责以及保护你的品牌声誉。
在AI领域取得成功的企业将是那些将治理视为设计过程一部分,而非造成延误的因素的企业。他们将以明确的计划前进,并同时衡量价值和风险。
他们会认识到,真正的创新不仅仅是构建更智能的系统,而是从一开始就使它们安全、负责并值得信赖。对于技术和业务领导者来说,这不仅仅是一个安全要求,这是可持续创新的战略。
文章来自:51CTO
