C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  中校

注册:2015-11-149
发表于 2025-4-21 14:58:55 |显示全部楼层

在这个由数据驱动的时代,AI正以前所未有的速度发展。随着这一技术的普及和市场化,大家可能在很长的一段时间里,都需要与之共存。由此,人机协同也变成一项很重要的课题,正逐渐成为推动社会进步的关键力量。无论是在医学诊断、金融投资,还是客户服务中,大家都能看到算法与人类合作完成复杂任务的身影。

所谓人机协同中的算法,指的是那些被设计用来辅助、增强甚至部分替代人类决策和行动的计算规则和模型。从简单的搜索引擎排序,到复杂的深度学习模型,这些算法被赋予了强大的信息处理能力,可以帮助人类高效地应对海量数据和烦琐计算。

研究人机协同中的算法,核心在于找到算法擅长领域和人类优势的最佳结合点,从而既能发挥技术的效率,又能保留人类的灵活性和价值判断力,实现真正意义上的“1+1>2”的效果。

算法的两面性

人机协同并不是一个全新的话题。长期以来,大家一直将算法视为辅助人类决策和完成任务的工具。算法在决策中具有显著优势,比如快速处理海量数据、识别复杂模式以及保持一致性,尤其在数据驱动和结构化任务中表现尤为出色。

然而,学术研究也揭示了算法的局限性。例如,在处理模糊、不确定性高或需要情境理解的问题时,算法往往不如人类直觉敏锐。此外,算法的表现高度依赖于数据质量和训练模型的设计,而人类则能够在有限信息下通过经验和推理做出高质量决策。因此,算法与人类在决策中能够形成互补关系。算法擅长分析并提供客观建议,而人类则结合情境、伦理和长期战略视角优化最终决策。

从合作模式来看,人机协同主要有两种常见方式。第一种是平行合作,即算法和人类同时解决类似的问题。算法的决策作为参考意见,由人类进行最终判断。常见的例子包括金融借贷审核和医疗诊断等场景。第二种是序列合作,即算法提供参考意见,但任务的最终完成仍需要人类的介入。例如,算法辅助监督下的骑手配送任务。

由此可见,在当前阶段的许多人机协同中,人类通常是最终的决策者或实行者。如何让人类愿意接受算法建议、主动配合算法实行,甚至在必要时对算法偏差进行纠正,已成为人机协同成败的关键因素。

现有文献中,学者们探讨了很多人的行为决策,尝试从人的角度去理解上述问题。但大家也可以从算法的角度去尝试理解和调整人机协同的设计和效果。

值得说明的是,在算法设计中,可说明性(interpretability)与准确性(accuracy)往往存在权衡。高准确性的复杂模型(如深度学习)能够捕捉数据中的非线性模式和微妙关系,但其内部机制较难被人类理解,从而可能降低透明性和信任度。而简单模型(如线性回归或决策树)虽然更易于说明,但通常在复杂问题中表现出较低的预测准确性。

算法可说明性在人机协同中至关重要,因为它是建立信任和有效协作的关键。相关研究表明,当算法的预测或建议能够被清晰说明时,用户更容易理解其决策逻辑,从而增强信任并更高效地结合自己的专业常识做出最终判断。相反,如果算法是“黑箱模型”,用户可能会因缺乏透明性而对其建议产生怀疑或完全依赖,导致次优决策或潜在风险。

在人机协同中,如何解决这种权衡问题呢?为了解决算法可说明性在实际应用中的挑战,研究者和从业者提出了多种方法。其中,可说明人工智能(explainable AI, XAI)是最具代表性的框架之一。XAI通过技术手段让复杂模型的决策过程更加透明。例如,可以使用特征重要性分析方法(如SHAP值或LIME)来量化各变量对预测结果的贡献;或者通过生成易于理解的规则,直观地描述模型的行为。这些方法在确保模型准确性的同时,还提高了用户对算法的信任和理解能力,从而有力地提高了人机协同的有效性与成功率。

以金融信贷为例,在与一家国内小额贷款机构的合作研究中,大家尝试让信审员与算法共同配合决定每一个借贷申请的判别。通过一系列的实验,大家发现,当且仅当大家提供了算法的说明信息之后,人类信审员在处理相对复杂的任务(即判别所需的信息较为烦琐复杂的情况)时,他们的参与才可能显著降低贷款违约率,实现比纯算法决策更优的表现。

另一个重要的解决思路是将人置于决策循环中(human in the loop,HITL)。它强调算法与人类合作的设计理念,核心在于算法不应完全独立运作,而应作为辅助工具,与人类的经验和判断相结合。通过这种方式,HITL能够在优化决策效率的同时,提升决策的可靠性和灵活性。金融行业中的欺诈检测系统是 HITL的典型应用。银行通过机器学习算法实时监测交易行为,标记潜在的高风险交易,例如异常大额跨国转账。随后,人工分析员介入,对可疑交易进行复审,结合客户背景信息和系统建议做出最终判断。这种人机合作模式既发挥了机器快速处理海量数据的优势,又利用人类在复杂、不确定情境中的专业判断能力,有效减少了误报和漏报。此外,人工分析结果还会反馈到系统中,用于优化模型性能,从而不断提升整体决策效率和精准度。

亚星游戏官网-yaxin222


除此之外,另一种具体的实现方式是增加算法与用户的交互,通过提供用户友好的界面或反馈机制,使人类能够实时干预或调整算法的输出。例如,在供应链管理中,决策者可以根据实际库存水平或市场动态修改算法生成的采购计划。这种交互式设计不仅增强了算法的灵活性,还帮助用户更深入地理解其工作原理,为进一步优化提供了可能。

比如,传统的订单打包优化算法通常专注于最大化箱子的空间利用率,但往往忽略了工人行为偏差对效率的影响。在研究alibaba集团仓库的打包流程时,孙建坤等发现,工人在打包5.8%的包裹时偏离了算法建议,这不仅增加了打包时间,还降低了运营效率。他们深入分析发现,这些偏差主要源于两种机制:(1)信息偏差,即工人基于自身经验或信息做出的优于算法的决策;(2)复杂性偏差,即由于工人对算法建议的抗拒、无法精确实行或主观判断而导致的偏离。为解决这些问题,他们设计了一种“以人为中心的打包优化算法”,利用算法预测工人可能偏离算法的情况(如更换更大箱子的倾向),并主动调整相关订单的打包建议。在与alibaba合作开展的大规模随机实验中,这一新算法将目标包裹的更换大箱子率从29.5%降低到23.8%,同时将目标包裹的平均打包时间减少了4.5%。

此外,HITL还包括让人类对算法的结果进行解读和阐释,特别是在涉及多个利益相关方的复杂场景中。管理者可以将算法的预测结果转化为更具行动引导性的建议,同时结合商业目标、法律合规和伦理考量做出最终决策。这种阐释过程不仅是决策链中的关键环节,还能为组织内部的信任建设和常识传递创造价值。通过合理引入人的参与,HITL模式实现了人类直觉与算法智能的互补,推动了更平衡、更透明的决策体系发展。例如,罗学明等发现,在销售人员的培训中,历史业绩较差的销售人员容易因信息过载而受挫,而历史业绩排名靠前的销售人员则对AI教练表现出强烈排斥。如果能结合AI教练与人类教练(即人类管理者)的“混合引导”,其效果优于单独依靠其中任何一方。这种组合利用了AI教练的数据分析能力和人类管理者的沟通技巧,成功解决了排名靠前和靠后销售人员面临的不同问题。

如何看待算法偏差?

另一个绕不开的问题是算法偏差。这是指算法因训练数据或设计过程中的不平衡而表现出的系统性误差。这种偏差在人机协同中可能带来严重问题,例如强化已有的不公平或偏见,导致不平等决策。

在招聘、贷款审批等高影响领域,算法偏差可能放大社会不公,使得某些群体因数据代表性不足或历史歧视而被系统性低估或排除。人类参与的信任可能因此受损,从而影响协同效率。

为缓解算法偏差,可以采取多种解决方案:一是确保训练数据的多样性与平衡性,避免某些群体被过度或不足代表;二是引入公平性约束或偏差检测工具,在算法开发和部署阶段实时评估和纠正偏差;三是在人机协同中通过人类的监督和审查来识别潜在的偏差。例如,管理者可以对算法结果进行跨群体的对比分析,发现并修正异常。此外,增加用户的透明度教育和反馈机制也有助于及时发现问题并改进系统,从而实现更公平和负责任的人机协同。

随着AI的发展,特别是生成式AI的逐步成熟和普及,算法在人机协同中的作用也在随之增大。例如,近几个月来,有不少文献指出,大语言模型(large language models, LLMs)可以显著简化问卷设计和生成的过程,成为一种高效的问卷自动生成工具。通过自然语言处理能力,LLMs能够快速生成多样化的问卷问题,从基本人口统计到复杂的行为洞察,甚至根据上下文或目标受众的特定需求定制问题。相比传统手动设计,LLMs能够缩短时间和降低成本,同时提高问卷的语言流畅性和逻辑性。这一能力对商业领域影响深远。例如,企业可以利用LLMs快速设计市场调研问卷,以更灵活地捕捉消费者偏好。此外,LLMs还能根据实时调研结果动态调整后续问题,增强数据收集的针对性和深度,从而为企业提供更全面和精确的决策支撑。

更重要的是,随着生成式AI的成熟,人类与AI的关系正从合作(collaboration) 向更深层次的团队协作(teaming)演变。这种转变的核心在于,AI不仅作为辅助工具提供支撑,还逐渐展现出与人类“共事”的能力,形成更具动态性和互补性的合作关系。尤其是以LLMs为代表的生成式人工智能,凭借其通用常识能力,正从单纯的认知智能(cognitive intelligence)扩展到情感、社交和创造性智能。例如,通过对上下文和学问的深度理解,LLMs可以在多方会议或团队合作中充当调解者或信息整合者,促进沟通与协调。此外,LLMs在生成创意内容(如广告文案、设计概念)方面表现突出,可激发人类的灵感并提升创意效率。

亚星游戏官网-yaxin222


人机团队协作新挑战

首先,AI可以推动从“领导指挥”到“协同创造”的决策模式重塑,帮助企业更快、更全面地应对复杂问题。其次,AI作为团队成员的引入,将改变组织学问,要求管理者在信任与责任之间找到平衡。此外,员工需要掌握新的技能,包括如何正确解读AI建议、管理AI输出,以及为AI训练提供反馈,从而提升团队整体的生产力与创新能力。

然而,人机团队协作也会带来挑战。如角色分配和信任建立,即如何明确AI与人类在团队中的角色与职责,在持续的互动中建立对AI决策的适当信任并解决可能出现的意见冲突,而非过度依赖或完全忽视;认知差异的调和,即AI基于数据驱动的逻辑推理与人类基于经验和情感判断可能出现矛盾,如何平衡两者的视角;以及动态适应性,当任务或环境发生变化时,团队需要调整策略,如何通过激励机制设计来保证AI和人类在变化的环境中能保持相应的积极性和适应性。

此外,技术在推动效率和创新的同时,也带来了不可忽视的“外部性”。例如,AI系统可能通过使用历史数据来优化招聘流程,但这些数据本身可能包含偏见,导致对某些群体的不公平对待。在长期的AI工具介入的环境下,这种现象可能会被不断迭代放大,在社会中进一步加剧不平等。考虑到AI应用可能带来的诸多挑战,学者们提出了“有意识的人工智能”(mindful AI)理念,试图在开发和部署AI时,明确不仅仅追求效率或利润,还要关注公平性、包容性等价值目标,并且考虑AI系统对不同群体、社会整体以及环境的长期影响。未来,企业需要构建透明的AI治理框架,避免AI 成为“替罪羊”或权力集中化的工具;并通过教育与实践,最大化AI的潜力,实现从协作到共创的深度融合。MI·专题

参考文献

Goli A, Singh A. Frontiers: Can Large Language Models Capture Human Preferences?[J]. Marketing Science, 2024.

Bubeck S, Chandrasekaran V, Eldan R, et al. Sparks of artificial general intelligence: Early experiments with gpt-4[J].arXiv preprint arXiv:2303.12712, 2023.

Luo X, Qin M S, Fang Z, et al. Artificial intelligence coaches for sales agents: Caveats and solutions[J]. Journal of Marketing,2021, 85(2): 14-32.

Sun J, Zhang D J, Hu H, et al. Predicting human discretion to adjust algorithmic prescription: A large-scale field experiment inwarehouse operations[J]. Management Science, 2022, 68(2): 846-865.


来源:36kr

举报本楼

本帖有 1 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2025-4-22 10:05 , Processed in 0.193497 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图