C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  上尉

注册:2007-10-2911
发表于 2025-3-31 11:01:11 |显示全部楼层

人工智能计划前景广阔,但大多数都未能达到预期。通过人工智能实现企业转型的目标经常会与战略偏差、投资回报率不明确以及运营陷阱相冲突。本文将为您提供一份可操作、适合董事会的路线图,将战略敏捷性和卓越运营相结合。仅靠渐进式思维无法解决人工智能挑战。大家必须拥抱颠覆性创新,设计速胜方案,并培育一个加速整个企业价值创造的创新生态系统。

研究表明,70-80% 的 AI 项目未能实现其预期价值。至关重要的是,罪魁祸首往往不是技术本身,而是领导力和战略缺失。下面,大家从领导的角度分析常见的失败点:涵盖战略、学问、运营和技术挑战,并提出最佳实践来克服它们。

一 领导力和战略缺失

1.缺乏明确的业务协调和高管支撑

成功的 AI 项目始于与业务目标的高度一致以及高层管理人员的坚定支撑。许多 AI 项目失败的原因在于将 AI 视为IT 实验而非业务驱动计划。如果没有高管层的支撑来设定方向和优先分配资源,项目就会偏离轨道。Gartner估计,85% 的 AI 项目无法扩大规模,主要是因为缺乏高管支撑和与业务战略的一致性。实际上,这意味着计划的启动没有明确的业务目标,或者仅委托给技术团队而没有监督。高层支撑很重要:一项行业分析指出“许多 AI 项目失败是因为它们缺乏高管层的支撑和优先考虑......如果没有高层领导倡导和引导 AI 战略,采用工作就会失败。”为了避免这种情况,领导层必须积极支撑人工智能工作,确保它们与战略目标挂钩,并赋予项目团队权力和资源。例如,AMAZON早期的人工智能推荐系统之所以成功,部分原因在于强大的高管支撑和明确的目标(例如提高销售额),这说明了支撑和协调如何推动人工智能投资回报率。

2.投资回报率预期不明确或不切实际

高管们经常会对 AI 项目抱有极高的希望或模糊的成功标准,但过度的承诺 — — 无论是希望实现惊人的投资回报率还是“神奇”的功能 — — 都会导致项目失败。事实上,过度承诺 AI 可以实现的目标会导致交付不足;之前几波 AI 炒作(“AI 隆冬”)就是由无法实现的夸大其词引发的。项目管理协会 (Project Management Institute) 的一份报告称,项目往往“由于目标模糊或对投资回报率 (ROI) 的希望不一致而脱轨”,并敦促在一开始就明确定义问题和预期收益。近一半的 CIO 最近报告称,他们的 AI 计划未能达到投资回报率预期,突显了这一差距。一个真实的例子来自银行业:投资人工智能驱动的交易算法的银行发现,当算法没有马上击败人类交易员时,最初的兴奋变成了失望——投资回报时间表实在是太乐观了。

最佳实践:为与业务 KPI 相关的人工智能项目设定切合实际、可衡量的目标。从规模较小的试点项目开始,以快速见效或节省成本为目标来证明价值,并在扩大规模之前具体量化投资回报(例如,处理时间减少 X%,收入增加 Y 元)。这种渐进式方法可以管理预期并为更大的投资建立信心。

3.问题陈述定义不明确

典型的领导失败是追求 AI 本身的利益——“用锤子找钉子”。如果问题定义不明确或微不足道,AI 解决方案可能无关紧要。IBM 的Watson for Oncology是一个警示故事:借助 Watson 在 Jeopardy 节目中的名声,IBM 开始在医疗保健领域广泛应用 AI,而没有首先确定具体的用例。Watson 成为了“用锤子找钉子”的东西,从成像到临床试验,无所不包,却没有重点解决的问题。结果是,这个系统价格昂贵,但对医生几乎没有实际价值。一般来说,在没有明确界定如何满足业务需求的情况下匆忙进入 AI 领域会导致微不足道的结果。团队可能会构建技术上有趣的模型,但这些模型解决了错误的问题,甚至根本没有解决问题。正如一份报告指出的那样,“许多组织未能明确定义其 AI 的业务目标和用例……团队涉足该技术,却没有提供有形的商业价值。当目标本身模糊时,就没有明确的方法来衡量成功。”。

最佳实践:从明确的问题陈述开始。确定人工智能可以填补空白或改善关键指标的高影响力用例(例如减少客户流失、加快支撑响应)。将人工智能项目与特定的业务痛点相结合,并提前决定如何衡量成功(例如提高准确性、提高效率或增加收入)。最成功的人工智能采用者会为每个计划设定明确的目标和实行路线图。实际上,像对待任何产品一样对待人工智能项目:确保它们解决了真正的用户需求并提供可衡量的价值。这种战略重点可以防止为了创新而创新。

二 组织和学问障碍

1.员工抵制和对工作被取代的恐惧

即使是资金充足、组织良好的人工智能项目,如果不能吸引员工参与,也会遭遇失败。员工们常常担心人工智能会让他们失业,或者彻底改变他们的日常工作。这种焦虑可能表现为积极抵制或消极不采用。

正如一项分析所说明的那样,

“人工智能通常与自动化、失业和不确定性联系在一起。员工可能会将其视为威胁,并主动或被动地抵制实施……担心被裁员或需要学习新技能。”这种学问阻力具有实际影响:如果最终用户避免或破坏新的人工智能系统,它将永远不会产生效果。例如,一家全球消费品企业推出了一款人工智能驱动的规划工具,但管理人员最初忽略了它的建议,更信任他们的传统方法——直到领导层通过培训和激励措施进行干预。一个相关因素是员工和中层管理人员缺乏人工智能素养,这加剧了不确定性。许多工人根本不了解人工智能的工作原理或它如何使他们受益,这使他们更有可能不信任它。

一项研究调查指出,员工和中层管理人员由于担心工作流失以及组织缺乏人工智能常识而抵制采用人工智能。

最佳实践:通过主动变革管理和教育来克服这一问题。领导层应传达清晰的愿景,即人工智能将如何增强(而不是取代)人类角色,并通过技能再培训计划来支撑这一愿景。最佳实践之一是尽早让员工参与进来——让他们成为人工智能之旅的一部分。例如,在客户服务中采用人工智能时,一些企业会任命经验丰富的代理来帮助训练和改进人工智能,将他们变成人工智能的“主人”而不是受害者。开放的沟通是关键:直面恐惧,并强调人工智能让工作更轻松或创造新机会的成功案例。变革专家表示,“领导层必须传达令人信服的愿景,培育创新学问,提供培训和激励措施,并带领员工踏上人工智能之旅……通过教育和透明度重塑对人工智能的信念是关键。”当员工将人工智能视为一种赋予他们权力的工具时(并且他们拥有使用它的技能),抵制就会让位于采用。

2.领导层缺乏人工智能素养

不仅仅是一线员工——如果高管和经理本身对 AI 缺乏了解,项目也可能会失败。领导者为 AI 定下基调和战略;如果没有基本的 AI 常识,他们可能会做出糟糕的决策或无法发现机会。一份 2025 年行业报告指出,“存在一个重大障碍:领导者缺乏 AI 常识。这种常识差距会阻碍他们识别变革机会的能力”。在实践中,这可能意味着高级管理人员误解了 AI 的能力或局限性——例如,希望一个小型数据科学团队“构建一个像 ChatGPT 一样先进的聊天机器人”而不了解其复杂性,或者相反,由于不了解现代 AI 应用程序而低估了 AI 对流程的作用。当领导层不知道什么是现实的时候,他们要么设定无法实现的目标,要么根本不设定目标。

最佳实践:投资AI 教育,培养领导层和跨职能团队。许多有远见的组织现在为高管举办 AI 意识研讨会,教授核心概念、机会和风险。这有助于领导者设定明智的目标并提出正确的问题。同样,培养一些AI“翻译”——既了解业务又了解技术的个人或顾问——可以弥合差距。例如,企业已经创建了AI 战略主管等职位,或依靠顾问来引导高管制定 AI 路线图。通过提高高管和管理层的 AI 熟练程度,该组织能够更好地将 AI 融入战略并做出明智的项目决策。

3.业务团队和技术团队之间协作不佳

AI 项目本质上是跨学科的——它们通常需要数据科学家、IT 工程师、领域专家和业务经理共同努力。当这些团队各自为政时,项目就会受到影响。一种常见的情况是,数据科学团队构建了一个技术上合理的模型,但它并没有真正解决业务团队的问题(或者对他们来说不够用户友好),因为缺乏沟通。“成功实施 AI 需要各个团队之间的密切合作……然而,许多企业都在与缺乏沟通和协调的孤立团队作斗争”,导致 AI 系统无法满足实际需求。另一个误区是没有明确的所有权:如果不清楚谁是领域利益相关者,AI 开发人员可能难以获得必要的投入。斯坦福大学研究企业 AI 工作的研究人员发现这是一个决定性因素。在他们的研究中,一家零售商的 AI 项目在有明确界定的业务专家团队投入成果的情况下取得了成功,但第二个项目却失败了,因为它涉及近 200 名商店经理,没有明显的单一联络点,而且 AI 的目的对他们中的任何一个来说都不重要。简而言之,不明确的合作结构导致第二个项目陷入困境。

最佳实践:打破AI 计划的组织孤岛。建立包括所有相关部门成员的跨职能团队——例如,从第一天起就将数据科学家与业务流程所有者和最终用户配对。它可以有助于创建一个“翻译”角色(正如斯坦福大学的研究表明的那样)——促进技术团队和业务部门之间沟通的人,确保需求和反馈双向流动。定期的联合研讨会或冲刺演示可以让每个人都保持一致。通过促进紧密合作,项目更有可能产生技术上合理操作上有用的解决方案。领导层应通过为 AI 项目设定共同的目标和 KPI 来鼓励这一点,技术团队和业务团队都对此负责。如果做得好,密切合作不仅可以避免失误,还可以加快认同度——业务利益相关者会感受到对解决方案的所有权,而不是 AI 强加给他们的。

三 运营障碍

1.人工智能治理和风险管理不足

人工智能带来了新的风险——从有偏见的决策和隐私泄露到模型失败——需要监督。领导层经常犯的一个错误是推动人工智能项目向前发展,而没有建立适当的治理框架或风险控制。为了急于创新,组织可能会忽略以下问题:谁对人工智能道德和合规负责?大家如何审核模型结果?因此,当问题出现时,它们会让领导者措手不及,甚至更糟的是,造成伤害。行业调查显示,治理和合规是许多组织采用人工智能的最大障碍:在一份 2025 年报告中,51% 的 IT 领导者将治理和监管合规挑战列为他们对人工智能计划的主要担忧。如果没有引导方针,团队可能会部署违反法规或企业价值观的人工智能。例如,如果没有人审查客户数据,人工智能可能会以与隐私法相冲突的方式使用客户数据。或者,模型可能会无意中产生歧视,使企业面临法律和声誉损害。事实上,有记录显示,在缺乏治理的情况下,人工智能“会带来监管和道德风险,使企业面临诉讼和声誉损害”。

最佳实践:在人工智能发展早期实施强大的人工智能治理结构。这可以包括一个人工智能治理委员会或工作组,负责制定数据使用、偏见测试、模型验证和监控方面的政策。建立明确的道德准则和问责制:例如,定义所有人工智能项目都必须遵守的原则(公平、透明、人为监督)。一些组织采用“负责任的人工智能宪章”等框架,要求每个人工智能模型在部署前都经过风险评估。将人工智能风险管理与现有的企业风险流程相结合也是明智之举(例如,将人工智能纳入审计和合规审查中)。通过设置护栏,领导层可以安全地鼓励创新,确保人工智能解决方案维护信任并遵守法律。例如,一家银行机构成立了一个人工智能伦理委员会,在人工智能模型上线之前对其进行审查,以发现其是否存在偏见或合规性问题——这种做法有助于避免代价高昂的后果,并调整模型以实现公平性。

2.监管和合规障碍

对于 AI 项目来说,驾驭监管环境是一项不小的运营挑战,尤其是在监管严格的行业(金融、医疗保健、政府)。AI 系统经常处理敏感数据,并做出可能受到法律和审查的决策。如果领导层低估了这一点,项目可能会停滞或被合规部门否决。常见的障碍包括数据隐私法规(如 GDPR 或特定行业的隐私规则)、安全和责任法规(针对医疗设备或自动驾驶汽车中的 AI)以及新兴的 AI 特定法规(如欧盟 AI 法案)。在最近的一项调查中,近一半的组织将数据安全和隐私问题列为AI 部署的障碍——例如,在实施 AI 时,47% 的人担心客户数据安全,43% 的人担心员工数据隐私。这反映了合规考虑的普遍性。例如,一家医院可能会开发一种人工智能诊断工具,但如果它无法说明其预测以满足 FDA 的要求,它将永远不会被批准使用。或者零售商希翼将人工智能用于客户购买数据,但却因 GDPR 同意要求而受阻。

最佳实践:从一开始就将法律/合规团队整合到人工智能项目中。不要将合规视为障碍,而应尽早让专家参与进来,以确定适用哪些限制(例如,如果隐私法要求,则匿名化数据,如果需要审计,则记录算法)。这样,就可以在设计解决方案时考虑合规性,避免后期返工。此外,请随时了解人工智能法规的最新情况:指派某人监控相关政策变化(例如,有关人工智能透明度或偏见的新指南)。在某些情况下,组织会选择限制某些高风险的人工智能用途,直到制定更明确的法规或内部政策——例如,鉴于隐私法的不断发展,暂缓部署面部识别。通过将合规性视为关键项目参数,领导层可以避免令人不快的意外。此外,积极主动地遵守合规规定可以成为一种竞争优势——它可以与客户和监管机构建立信任,表明企业正在负责任地使用人工智能。

3.低估了 AI 规模化(超越试点)的复杂性

在实验室中构建一个有发展的原型是一回事,而在全企业范围内推广 AI 解决方案则是另一回事。高管们有时会误判这一飞跃,以为成功的概念验证 (POC) 自然会带来成功的规模化系统。实际上,许多 AI 试点项目都陷入了“试点炼狱”。受控的 POC 可能不会揭示在现实条件下出现的集成问题、数据漂移或性能怪癖。正如 PMI 研究人员所说,“在实验室中运行 AI 一帆风顺,但现实世界却波涛汹涌。概念验证项目往往无法转化为成功的现实应用。POC 的受控环境可能会掩盖数据变化和系统集成问题等现实挑战。”如果不做好这些规划,AI 试点项目可能会因无法全面部署而停滞不前。一个典型的例子是,机器学习模型在测试数据上显示出很高的准确性,但在部署时却遇到了看不见的数据模式或扩展性能问题,无法提供相同的结果。 Gartner 等组织已经指出,大多数失败的 AI 项目不是在初始开发中失败,而是在部署和扩展阶段失败——通常是由于基础设施不足、缺乏 MLOps(机器学习操作)实践,或者根本没有原型之外的预算和计划。

最佳实践:领导者应该在每次试点时都考虑到最终结果。 这意味着从一开始就为生产部署制定预算和计划,而不是事后才考虑。 确保项目团队不仅包括数据科学家,还包括知道如何将 AI 集成到遗留系统中并进行扩展的工程师和 IT 运营人员。 一种有效的方法是在现实环境中(或使用现实数据集)开展试点项目,以尽早发现潜在问题。此外,为试点项目制定标准(例如,达到性能目标并确认集成可行性),并确保承诺如果满足标准,项目将获得扩大规模所需的投资。一些企业创建了一个专门的“AI工厂”或孵化计划,以培育概念验证项目并系统地将其过渡到全面生产,将可扩展性、安全性和集成作为专门的工作流。关键是要认识到部署与模型开发同样重要——将试点项目视为大型项目的第一阶段。通过为试点项目分配充足的时间、资源和专业常识,通过 AI 实施的“最后一英里”,组织可以避免拥有一堆对业务毫无影响的令人印象深刻的原型。

四 技术和实施障碍

1.数据质量和可用性问题

数据是人工智能的燃料——劣质燃料会导致引擎熄火。人工智能计划失败的最常见原因之一是数据不足、不正确或无法访问。麦肯锡的一项惊人统计数据表明,70% 的人工智能项目由于数据质量和集成问题而未能实现其目标。实际上,如果您的训练数据充满错误、缺失值或偏差,则模型的输出也会有缺陷。古老的格言“垃圾进,垃圾出”尤其正确:“人工智能项目的成功在很大程度上取决于输入数据的质量……数据质量差会导致模型有缺陷和输出不可靠,从而使人工智能系统无效。”大家在现实案例中也看到过这种情况。例如,IBM 的 Watson for Oncology 就因未接受足够多的真实患者数据进行训练而陷入困境。Watson 的癌症诊断工具最初输入的是一小群医生制作的假设患者病例,而不是多样化的真实世界数据。结果如何?该工具给出了不准确或不安全的治疗建议,因为它无法超越那些有偏见的训练案例进行推广,导致合作医院取消部署。数据问题不仅仅是质量问题;可用性和孤岛也是问题。通常,AI 项目所需的数据位于不同的系统或部门,彼此之间无法通信。“企业内的数据通常分散在不同的系统中……缺乏数据互操作性阻碍了开发企业范围的 AI 应用程序。”如果 AI 需要从尚未更新的旧数据库或企业无法访问的第三方来源提取数据,则项目可能会因等待数据而停滞。

最佳实践:将数据视为 AI 项目中的头等公民。在建模之前,投入大量时间进行数据准备和治理。这包括清理数据、集成不同的数据源以及建立数据管道以不断为 AI 提供最新信息。许多成功的 AI 团队表示,他们将 70-80% 的项目时间花在数据工作上——领导层应相应地分配资源(例如数据工程支撑)。实施强大的数据治理(确保数据准确性、沿袭跟踪和通过多样化数据集解决偏见)也是明智之举。如果内部数据不足,请考虑外部数据合作伙伴关系或经过仔细验证的合成数据生成。该领域的最佳实践是从数据审计开始 AI 项目— 评估您拥有的数据、其质量以及存在哪些差距 — 并且只有在您对数据基础有信心后才继续。通过预先加载数据工作,组织可以提高 AI 项目成功的几率。

2.与遗留系统的集成挑战

AI 解决方案很少独立运行;它们必须与现有的业务流程和 IT 系统集成。如果无法插入生产环境或工作流程,那么出色的 AI 模型基本上是无用的。许多项目失败是因为团队低估了集成的难度——无论是连接到旧的 ERP 系统、部署在边缘设备上,还是仅仅让两个部门的App进行交互。企业通常拥有数十年历史的遗留系统(有些没有 API 或数据格式过时),这些系统并非设计用于与现代 AI 工具配合使用。如果没有仔细规划,AI 项目可能会在独立环境中生成一个简洁的原型,但在尝试连接企业的实时系统时会遇到障碍——例如,AI 生成的建议无法自动输入到销售App中,需要用户不会采取的手动步骤。这在行业研究中被强调为一个普遍存在的问题:集成与数据质量一起被提及为 AI 计划的最大技术障碍。本质上,无法集成意味着无法将 AI 投入运营。

最佳实践:从一开始就为集成进行架构设计。确保在开发 AI 解决方案时考虑到目标生产环境。这可能意味着选择与旧系统兼容的技术(例如,如果企业在某个云平台或编程堆栈上运行,则尽可能将它们用于 AI)。如果旧系统缺乏接口,请在项目早期投资开发中间件或 API 以弥补这一差距。让 IT 运营团队或企业架构师参与 AI 项目规划也很有价值——他们可以预见集成问题并提前解决安全性、可扩展性和兼容性问题。另一种策略是从需要最低限度集成来证明价值的用例开始,然后在建立信任后逐渐解决更深层次的集成。例如,最初将 AI 助手部署为独立的 Web 应用程序(低集成度),然后在成功后将其完全嵌入核心 CRM 平台。通过规划分阶段的集成路线图,组织可以避免出现 AI 模型已完成但部署路径不简单的情况。容器化和微服务等现代技术可以帮助包装 AI 模型,使其更容易与旧系统交互。最终,AI 开发人员和 IT 基础设施团队之间的协调是关键— 在正式上线之前,他们应该在模拟遗留系统约束的临时环境中协作测试 AI。通过此类措施,可以缓解集成挑战,让 AI 解决方案无缝嵌入到业务运营中。

3.模型可靠性、可说明性和道德风险

即使拥有良好的数据和集成,如果模型本身的行为不可靠、透明和合乎道德,AI 项目也可能会失败。模型可靠性问题(如不可预测的性能或随时间推移而下降)将削弱用户信心。例如,如果制造业中的预测性维护 AI 90% 的时间都在工作,但偶尔会错过严重故障,导致停机,运营团队可能会放弃它。密切相关的是可说明性和透明度。许多 AI 模型(尤其是像深度学习这样的复杂模型)都是“黑匣子”,这意味着它们的内部逻辑很难说明。这种不透明性在信任和问责至关重要的领域(从领导角度来看,大多数领域都是如此!)成为一个严重的问题。用户、客户或监管机构可能会要求知道“为什么 AI 会做出这样的建议或决定?”如果团队无法提供清晰的说明,就会产生信任差距。缺乏透明度可能很快导致人工智能系统遭人拒绝:“用户可能很难理解决策是如何做出的,也很难让人工智能系统承担责任……如果人们不信任这些系统,他们就不会放心使用它们,所有投入到项目中的精力、金钱和时间都将付诸东流。”这正是一些金融服务企业在引入人工智能模型进行信用评分时发生的情况——贷款人员和监管机构拒绝了这些模型,因为这些模型无法说明他们的决策,迫使银行恢复传统的评分方法。道德风险是另一个雷区。人工智能可能会无意中从数据中学习到偏见,或者被用于引发道德问题的方式(例如监视、歧视等)。如果人工智能系统产生不公平或有争议的输出,领导层将不得不停止使用。一个著名的例子是AMAZON的人工智能招聘工具:该企业建立了一个人工智能来筛选简历,但后来发现它系统地压低了女性候选人的评级。该模型从过去的招聘数据(偏向男性)中汲取了教训,因此延续了这种偏见。一旦发现这种偏见,AMAZON就会完全放弃该项目,以避免歧视性的招聘做法。这一事件凸显了道德失误如何使整个 AI 投资化为乌有。

最佳实践:为了解决这些问题,组织应在整个开发过程中融入“负责任的 AI”实践。为了提高可靠性,强大的测试和验证必不可少——模拟真实条件、测试极端情况,并计划在生产过程中持续监控模型性能(并能够随着数据的发展进行重新训练或调整)。为了提高可说明性,在应用程序允许的情况下选择更简单的建模技术,或者使用可说明的 AI (XAI) 工具,这些工具可以提供模型逻辑的推理代码或近似值。领域专家应该参与说明和检查 AI 输出的完整性。在受监管的环境中,记录模型的决策过程(即使通过替代模型或特征重要性指标)对于合规性至关重要。在道德方面,偏见审计和公平性检查应该是标准。这意味着检查模型结果是否存在不同群体之间的潜在偏见,并通过调整数据或算法来纠正任何不平衡。实施 AI 道德检查表可能会有所帮助 — — 例如,Cognilytica 建议确保“AI 系统提供人类可理解的方法来了解任何故障的根本原因”,并在可能的情况下优先考虑更易于说明的算法。此外,建立升级流程:如果 AI 输出似乎不正确或有害,应该有一个人在环内审查或推翻决策(特别是在医疗或法律决策等高风险场景中)。通过制定透明度、问责制和公平性的核心要求 — — 而不是事后考虑 — — 领导层可以防止许多失败模式。这不仅可以降低公众尴尬或法律问题的风险,还可以提高用户接受度。当用户理解 AI 系统的建议并认为它公平且受到良好监控时,他们更有可能接受它。总之,赢得信任至关重要:可靠、可说明且合乎道德的 AI 会找到愿意采用的人;任何不及格的人都会面临怀疑,甚至可能取消项目。

4.基础设施成本高且计算效率低下

最后,AI 项目失败的一个非常实际的原因是它们的成本太高而无法继续。一些 AI 项目,尤其是那些涉及生成式 AI 或其他计算密集型模型的项目,需要大量的基础设施和处理成本,而领导者却低估了这些成本。训练大型模型或处理数百万个推理可能会产生巨额云费用或需要昂贵的硬件(GPU、TPU 等)。如果没有计划这些成本,该项目可能会耗尽预算或被认为不值得投资回报。在这方面有一些令人警醒的统计数据:在某些情况下,生成式 AI 项目的成本估算偏离了 500% 到 1000%。这意味着一个预计花费 10 万美金的项目最终可能会花费 100 万美金——如果没有预料到,这将是一场预算灾难。此外,91% 的 CIO 报告称,管理 AI 成本限制了他们从 AI 获取价值的能力。大家看到一些企业在免费或低成本的试用基础设施上启动 AI 试点,然后在扩大规模需要对云计算能力或专用工具进行真正的投资时感到震惊。高成本也与投资回报率相关:一种技术上可行的 AI,如果成本是手动流程的 10 倍,将被视为失败。此外,低效的模型设计会加剧成本——例如,使用 10,000 个特征和巨大计算的算法可能会经过优化以使用 100 个特征并降低运行成本,但团队有时不会进行优化,直到成本达到峰值。

最佳实践:规划可扩展性和成本效益。从一开始,就将成本指标作为项目评估的一部分(例如,跟踪每个预测或每个训练周期的成本并将其向外投射)。明智地利用云服务——许多云提供商都有成本管理工具,并允许限制或警报;使用这些工具可以避免支出失控。从较小的模型开始,只在需要时增加复杂性,而不是默认使用最大的算法,这通常也更经济。模型优化(量化、修剪等)等工程技术可以显著减少计算使用量——任何预期扩展的人工智能项目都应该考虑这些。另一个最佳实践是将基础设施规模与实际需求保持一致:如果第一年的实际需求是 10,000 名用户,就不要以支撑 100 万用户为目标;随着采用率的增长,您可以扩大规模。高管应该要求对 AI 计划进行明确的预算,不仅包括开发成本,还包括部署、云计算、数据存储和维护成本。定期进行成本效益评估是有益的——例如,在试点之后,重新评估增加模型大小或准确性是否值得额外的基础设施支出,或者更精简的方法是否足够。一些企业已经学会了在成本上“快速失败”:如果一种方法成本过高,就转向更有效的方法或缩小问题范围。另一方面,当商业案例合理时,要愿意投资——例如,如果用于供应链优化的 AI 每年运行成本为 50 万元,但每年可节省 500 万元的物流费用,那么这是一笔合理的费用,但需要向决策者明确说明。总之,控制成本就是前瞻性和持续监督:了解人工智能的资源需求,设计高效的解决方案,并监控费用作为关键的成功指标。通过这样做,您可以防止财务超支导致原本有希翼的项目失败。

五 小结

AI 和生成式 AI 项目需要的不仅仅是数据和算法,它们还需要整个组织的领导和协调。正如大家所见,战略清晰度和高管支撑奠定了基础,确保 AI 工作以真正的商业价值为目标并拥有高层支撑者。支撑性组织学问(员工接受 AI 教育并参与变革)极大地提高了采用率和成功率。从治理框架到合规性检查再到扩展策略,强大的运营规划引导 AI 计划顺利完成从试点到生产的艰难过渡。解决技术基础(数据质量、集成、模型透明度和成本优化)可以防止导致项目脱轨的典型陷阱。

共同点是,如果将人工智能项目视为技术尝试,它们就会失败;如果将其视为综合商业计划,它们就会成功。高管领导在其中发挥着关键作用:通过将人工智能与战略相结合,投资于人才和流程(而不仅仅是技术),并预测挑战,他们可以避免许多早期人工智能实验中出现的错误。许多企业通过应用这些经验扭转了局面。例如,星展银行设立了人工智能治理委员会,并对 1,000 多名员工进行了人工智能基础常识培训,这帮助该银行大规模部署人工智能以应对信贷风险和客户服务,并取得了显著成果。这些最佳实践表明,人工智能的高失败率不是宿命,而是对更好领导力的呼吁。


来源:36kr

举报本楼

本帖有 3 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2025-4-2 20:57 , Processed in 0.321384 second(s), 17 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图