
技术主管们陷入了一个两难困境:他们清楚负责任的AI部署是什么样的,但上司们期望的成果产出速度,超过了技术本身或其所在企业能够交付的速度。
Solvd的最新研究显示,在年营收超过5亿美元的公司中,71%的CIO和CTO表示,公司的高层领导对AI的ROI抱有不切实际的期望。Wakefield Research于2025年年中开展的这项对500名技术领导者的调查,揭示了一个令人担忧的脱节现象:尽管97%的领导者担心AI的不道德使用,但只有38%的公司设有正式的内部监督机制,以确保AI的负责任部署。
这一差距并非源于疏忽,而是董事会和高层管理人员不断施压,要求AI投资立即产生回报所致。Gartner预测,今年全球AI支出将达到2万亿美元。
Solvd的CTO Skylar Roebuck表示:“AI不是魔法棒,而是一种工具,要获得真正的战略价值,企业需要的不仅仅是创新试点,它们需要明确的业务目标、变革管理计划,以及重新思考工作方式的意愿,这才是最难的部分。”
试点项目“坟场”
企业如此急切并非没有原因,多年来,企业在AI实验上投入甚多,但回报甚微——麻省理工学院研究人员称之为“生成式AI鸿沟”,即那些在演示中令人印象深刻,但从未投入实际生产的试点项目。
Roebuck告诉我:“多年来,由于‘随意的AI行为’——即那些未充分考虑解决方案如何作为商业产品存在的试点和AI实验,企业收获甚微。”这导致技术领导者承受着越来越大的压力,他们需要证明AI的价值,否则就有被视为创新障碍的风险。
Solvd的研究显示,这种压力正在重塑技术领导者的优先级。当被问及他们最大的职责时,46%的人表示是制定从AI中获取收入的商业战略,44%的人则指出是从数据计划中获取收入,这些担忧超过了安全威胁(33%)、人才保留(31%),甚至超过了跟上技术变革的步伐(40%)。
经济衰退悖论
最引人注目的是技术领导者对经济不确定性的反应,调查发现,95%的CIO和CTO担心2026年会出现全球经济衰退,其中54%的人表示“非常”或“极其”担忧,然而,尽管心存恐惧,仍有半数受访者表示他们正在加速AI投资。
要理解这一看似矛盾的现象,需明白AI在当前经济形势下的双重属性。Roebuck解释道:“AI的价值体现在两个方面,一是增量收入故事:更智能的产品、更好的个性化服务、新的销售和服务客户的方式,这令人兴奋,但也更难进行财务建模。”
“另一个更直接的故事是降低成本,如果AI驱动的支持模式能让你降低成本结构30%、40%甚至50%,这就是一个简单的财务方程式,每个人都懂,而且能立即对利润产生影响。”
这种算法解释了为什么AI被视为一种应对经济衰退的策略,而非一个雄心勃勃的远大目标。许多企业并未押注于可能在三年内实现的变革性增长,而是寻求能在今天的电子表格上进行建模的即时效率提升。
但这种效率优先的方法也带来了自身的问题,Klarna公司就是一个例子。2024年,这家瑞典金融科技公司宣称其AI助手能够完成700名客服人员的工作,一度成为头条新闻,然而,到2025年初,该公司改变了方向,CEO Sebastian Siemiatkowski承认,仅依赖AI的方法导致了“服务质量下降”和客户不满。Klarna现在又开始招聘人类客服人员,将他们所称的“高质量人类支持”作为竞争优势。
治理缺口
快速取得成果的压力也解释了为什么AI治理远远落后于AI的采用,尽管对AI的道德使用存在近乎一致的担忧,但Solvd调查中只有38%的公司设有正式监督机制,另有41%的公司“对AI的某些使用进行了有限监督”,而19%的公司仅在需要时进行非正式审查。
Roebuck表示:“问题的很大一部分在于,许多企业领导者仍然认为治理会减缓创新速度。当面临快速推进并迅速展示AI影响的压力时,监督就会显得碍事,从而被置于次要地位。”
然而,技术领导者并不认为道德是商业价值的障碍,而是认为它是可持续成功的关键。在调查中,54%的人认为,使用符合道德的AI的主要好处是能产生更高质量的AI输出,51%的人指出能提供更好的隐私保护,47%的人认为能领先于未来的监管要求。值得注意的是,84%的CIO和CTO计划在未来12个月内加强AI监督,其中23%的人预计会有“显著”增加。
然而,挑战在于如何在同时满足高层领导对快速回报的要求的同时,将这一意图转化为行动。超过一半(52%)的人表示,“让全公司接受并坚持AI的高标准”是一大挑战,而46%的人则面临来自高层领导本身的阻力。
纪律问题
当试点项目失败时,很少是因为技术不起作用,尽管这种情况有时也会发生。Roebuck认为:“许多AI试点项目失败是因为企业将行动误认为是进步。每个人都在急于‘用AI做点什么’,而如果没有纪律,这就会变成一堆互不关联的举措。”
他主张采用他所说的组合策略:通过快速取得成果来保持势头,进行分阶段押注以平衡风险与有意义的成果,以及进行一些能够重新定义竞争优势的变革性举措。他表示:“纪律并不会减缓AI的发展速度,它能防止AI在产生真正影响之前就耗尽精力。”
这种稳健的方法得到了技术领导者的共鸣,尽管面临速度压力,但67%的调查受访者更倾向于“稳健部署,虽然投资回报率较慢,但有更多时间确保遵循所有符合道德的AI最佳实践”,而非牺牲全面性而快速部署。
技术领导者清楚什么方法有效,而他们的企业却奖励另一种做法,这凸显了更深层次的矛盾。CIO和CTO明白,AI的可持续成功需要高层领导的一致意见、与成果而非活动挂钩的明确成功指标,以及类似于任何战略计划的投资门槛,但是,当71%的人面临来自高层的不切实际的投资回报率期望时,实施这种纪律就成了一种需要企业勇气的行为。
未来之路
Solvd研究的核心发现与麻省理工学院更广泛的行业数据相吻合,从生成式AI试点项目95%的失败率,到Gartner警告称“由于初始概念验证工作的高失败率,人们对生成式AI能力的期望正在下降”。
这描绘了一幅行业处于转折点的图景,据高盛集团预测,到2026年,AI公司将在AI领域投资超过5000亿美元,与此同时,根据Solvd的报告,47%的技术领导者表示,经济担忧已经导致AI项目被推迟,32%的项目被缩减规模,7%的项目被完全取消。
在这个关键时刻,技术领导者面临着相互冲突的紧迫任务。首先,他们需要向持怀疑态度的董事会证明AI的价值,同时建立防止成本高昂的失败的治理基础设施,然后,他们必须立即展示成本节约,同时为长期变革奠定基础,最后,他们必须足够迅速地行动,以避免被视为障碍,同时又要足够谨慎地行动,以避免陷入95%的生成式AI实验最终都会陷入的试点项目“坟场”。
Roebuck表示:“解决方案很简单,尽管实施起来并不容易。将AI与实际业务成果挂钩,投资于企业准备度,并制定一项关于如何在企业内利用AI的战略计划。”
对于那71%面临来自高层不切实际期望的人来说,挑战在于向领导团队阐明这一观点,这些领导团队将AI视为一种简单的效率提升手段,而非它实际上所要求的复杂企业变革。那些能够弥合这一差距——使高层期望与运营现实保持一致——的公司,将与那些仍在用又一个注定失败的试点项目追逐每一个看似光鲜的用例的公司区分开来。
文章来自:51CTO
