为员工服务的人工智慧:调查结果

本文为机器翻译
展示原文

为员工服务的人工智能调查结果1——人们对职场中的人工智能究竟有何感受?需要注意的是,这篇文章很可能在你的邮箱里被截断了。

这是一份由读者支持的出版物。想要接收新文章并支持我的工作,请考虑成为付费订阅者。

人工智能与工人

人工智能占据着各大媒体的头条,其极端性可想而知。有时,市场对萨姆·奥特曼将一切称为“泡沫” 2感到恐慌。有时,则是以死亡告终的恐怖病态故事。报道在乌托邦和反乌托邦的框架之间摇摆不定——人工智能要么彻底改变一切,要么毁灭一切。

人工智能至少正在同时带来四大变革——改变我们的工作方式、投资方式、驱动世界的方式以及各国竞争的方式。我们正试图将一项不可预测的技术融入那些并非为其设计的系统。在这片混乱的中间地带,究竟发生了什么?

我想知道大家对人工智能的感受。员工们对于与这些新系统一起工作有什么看法?所以我直接问了他们。

大约有1200人在24小时内参与了这项调查。调查完全匿名,所以我没有收集任何人口统计数据,这本身就是一种限制。这项研究的最终目标是探索性研究——这更多的是初步探索人们在这个巨大变革时期的思维方式,而不是得出陈述性结论。

劳动力市场

劳动力市场已经感受到人工智能的影响。

有研究( 特别是麻省理工学院的一项研究)指出,95% 的人工智能试验实际上并不起作用……但这关乎选择,而非技术。现在还处于早期阶段。

市场叙事

市场认为这会奏效。股市最关注的两件事是:(1) 降息和 (2) 英伟达。英伟达预计,在经历了两年的辉煌之后,其增长将出现放缓。这可能预示着整个人工智能行业未来的发展方向——放缓。

  • 萨姆·奥特曼本人曾将当前的人工智能市场描述为一个泡沫(这种诚实令人耳目一新),他承认尽管自己的公司推动了这一泡沫,但他仍然承认这一泡沫。

  • 他还声称,OpenAI 需要在数据中心上投入“数万亿美元”才能维持 ChatGPT 的增长。

  • 泡沫估值 + 万亿美元的资本需求 = 波动性,因此投资者在将人工智能视为通用实用程序(特别是因为 OpenAI 的备用计划似乎是出售基础设施服务)和将其视为炒作(该公司仍然没有赚钱)之间摇摆不定。

股票市场和劳动力市场这两个市场都反映出人们对人工智能是一场真正的生产力革命还是纯粹的投机狂热存在深深的不确定性。

基础设施

但这次或许有所不同?部分原因在于基础设施建设。数据中心就是经济。这不像互联网泡沫时期,Pets.com 一夜之间化为乌有,化为泡影——这次涉及的是水泥和土地。

  • 正如麦肯锡的《计算成本》所指出的,当人工智能公司陷入困境时,他们会留下价值 7 万亿美元的数据中心,这些数据中心仍然需要电力和维护。

  • 高盛的“人工智能动力瓶颈” 强调了另一个瓶颈:电力。到2030年,人工智能数据中心可能推动全球新增100吉瓦的电力需求,相当于7500万个美国家庭的用电量!这需要巨大的实体投入。

那些斥资数万亿美元建设数据中心的公司,根本无法等待深思熟虑的AI集成战略。他们需要能够证明资本支出合理性的利用率,这意味着在人们真正理解其影响之前,就将AI工具推向工作流程。我调查中的员工们一直在抱怨“仓促实施”和“过于热心的公司员工”将AI强行推向尚未准备好的领域。具体情况自有其逻辑。

此外,中国正在迅速采取行动。

地缘政治

萨姆·奥特曼警告称, 美国对半导体的出口管制可能无法有效限制中国人工智能的进步,因为中国目前几乎可以解决任何问题。DeepSeek 的最新模型证明了他的观点。中国实验室通过优化算法,而不是投入更多计算资源,在硬件水平较低的情况下实现了具有竞争力的性能。

这造成了一个加速陷阱。外部威胁为国内快速采用人工智能提供了理由,但这种加速恰恰转化为工人所担心的那种混乱的职场整合。正是竞争压力使人工智能成为国家优先事项,而同样的压力也使其在职场上的部署显得杂乱无章,对工人不利。

为什么这对工人很重要

这些领域中的每一个都带来了压力,最终落到个体劳动者身上,他们试图弄清楚自己与人工智能系统的关系。劳动力市场研究表明,颠覆已经发生。市场或许需要繁荣发展。基础设施投资带来了快速部署的压力。地缘政治竞争加剧了紧迫性,使得谨慎实施成为一种我们无法承受的奢侈。

但所有这些宏观分析都忽略了一点:普通人是如何应对这些压力的?他们想要什么?他们担心什么?他们如何理解与强大却难以预测的情报机构合作的意义?

那么……人们对此有何感想?


关于让人工智能为工人服务的调查

我问了 11 个问题4 ,其中有多次填空的机会:

  1. 您对您所在行业的 AI 工具有多熟悉?

  2. 过去 6 个月您在工作中使用过 AI 吗?

  3. 您希望人工智能给您的工作带来的最大好处是什么?

  4. 您对工作中的人工智能最大的担忧是什么?

  5. 在有关如何实施人工智能的决策中,工人应该扮演什么角色?

  6. 您在多大程度上相信您的雇主或组织会以有利于员工的方式使用人工智能?

  7. 您的雇主是否提供过如何使用人工智能工具的培训?

  8. 如果您可以制定一项政策来确保人工智能使工人受益并为其提供补充,您会制定什么政策?

  9. 您从事什么行业或工作类型?

  10. 您是工会或工人协会的成员吗?

  11. 任何其他想法

他们的回应很大程度上表明,员工既不完全热情,也不完全抵制——但他们正在积极思考与不完全是人类但也不是真正可预测的智能(例如幻觉5 )一起工作意味着什么。

需要明确的是,这一切都有其个人层面——很多人利用这项技术来建立一种拟人化的联系,以及与聊天机器人的相互依赖6。OpenAI不得不放弃这种谄媚——这个模型太讨人喜欢了。正如《纽约时报》报道的那样,人们对他们感到愤怒:

奥特曼周四表示,ChatGPT 的“每日用户数量每天都创下新高”,物理学家和生物学家都对 GPT-5 7帮助他们开展工作表示赞赏。“然后有人会说:‘你夺走了我的朋友。这是邪恶的。你是邪恶的。我要你找回来。’”

我们与人工智能的关系错综复杂。本文我不会着重探讨人工智能更个人化的一面。实验室希望它成为一种庞大、智能、数学冠军般的存在,掌控生活和工作,但大多数人只是想要一个可以随时询问的伙伴,比如“我应该在哪里给小狗买新的狗粮”或“请帮我分析一下这个数据集”。

在这个紧张的过渡时期,我们必须知道人们对此有何想法。

执行摘要

  • 熟悉度与使用度: 85% 的人熟悉,但即使非常熟悉的人中,也有超过四分之一的人根本不使用人工智能。

  • 希望:员工希望人工智能能够接管他们工作中那些枯燥乏味的部分。他们最希望的益处是减少重复性工作并提高效率。

  • 担忧:工人们不太担心工作被完全取代,而是更担心工作中好的部分被侵蚀。

  • 行业差异:担忧反映了职业身份:医疗保健工作者担心准确性错误,教师担心失去联系,技术工作者担心创造力下降。

  • 决策: 62% 的受访者希望在工作中应用人工智能时拥有共同决策权,15% 的受访者希望拥有完全自主权。只有不到 2% 的受访者表示愿意不参与决策。

  • 信任悖论:大多数人对雇主在人工智能方面“多少有些信任”。但在许多行业,大多数人表示不信任。没有一个行业达到大多数人“完全信任”。

  • 培训差距:只有约60%的受访者接受过培训,创意产业(20%)和娱乐业(5%)的比例尤其低。

  • 政策要求:最常见的要求是:培训/技能提升资金、算法透明度和失业工人的安全网。

问题 1 和 2:熟悉度和使用情况

大多数使用人工智能的受访者表示,他们至少“熟悉”人工智能工具(排名3或以上)。熟悉程度显然在一定程度上影响了采用率:在表示“不太熟悉”的员工中,只有9%的人在工作中使用人工智能,而在表示“非常熟悉”的员工中,这一比例则达到三分之二。

但这种关系并不完美。有一群有趣的人——26%的人“非常熟悉”人工智能工具,但却不使用它。这些人清楚地知道这些系统的功能,并且或许是故意决定不将它们集成到自己的工作流程中。

问题 3 和 4:好处和顾虑

当被问及希望人工智能能为他们做些什么时,绝大多数员工都提到了工作中可能枯燥乏味的部分:减少重复性任务,提高工作效率。人们对这项技术的主要期望是,人工智能能够成为一种生产力工具,解放他们的时间和精力,用于更有意义的工作。以下是调查中的一些内容:

但这些员工也担心职业发展机会减少工作质量下降。换句话说:即使他们希望人工智能接管繁重的工作,他们也担心人工智能可能会夺走他们工作中与晋升和身份认同相关的部分。

问题9:行业分析

按行业细分担忧和益处,可以揭示更多信息。大多数行业,例如科技、金融和咨询行业,最热衷于减少重复性工作、提高效率,同时也最担心失业。

但人们的担忧各不相同——学术界和医疗界最担心的是准确性下降。设计/创意行业担心的是创造力的丧失。政府工作人员最担心的是偏见。

医护人员尤其关注效率的提高,但他们非常担心准确性、责任和患者安全:

教育更担心失去有意义的联系,而不是效率:

技术工作者存在矛盾——人工智能提高了效率(这确实是主要卖点),但它也引发了对技能相关性和创造力的生存担忧。

从逻辑上讲,每个职业与人工智能的关系似乎都反映了关于职业身份和目标的更深层次的问题。医护人员担心准确性,因为准确性决定了他们领域的能力。科技工作者担心创造力,因为创造性解决问题是他们的核心价值主张。教师担心有意义的人际关系,因为这才是教育的意义所在,而不仅仅是信息传递。

人们正在将人工智能视为一面镜子,反思自己对工作价值的理解。

问题 5、6 和 7:决策、信任和培训

当被问及工人在人工智能实施方式决策中应扮演的角色时,约 62% 的受访者希望对人工智能实施进行共同决策,15% 的受访者希望拥有完全的决策权,而不到 2% 的受访者愿意不参与决策。

大多数人对雇主实施人工智能以造福员工抱有一定程度的信任——以1到3的等级进行评分,1代表不信任,3代表完全信任。大多数人选择了2,即他们在一定程度上信任雇主。但少数行业大多数人表示“不信任”。没有一个行业投票“完全信任”。

这反映了大多数关于人工智能的讨论。大多数尝试过人工智能的人了解其能力,感到兴奋,但并不一定信任它(也并不真正信任他们的雇主)。我们相信它能完成我们可以验证的具体、有限的任务。我们不相信它能替我们思考。

这就是功能性信任和存在性信任的区别。功能性信任指的是更有界限、可验证、更具工具性的任务——比如“我相信它能记录会议记录、总结笔记或生成测试代码——这些我可以检查的事情。” 存在性信任指的是放弃判断或认知——比如“我不相信它能决定我如何治疗病人、如何制定合同或如何给学生的论文评分。”

来自不同行业的一些引言强调了这一点,从信任度来看:

因此,建立信任的关键或许在于共同决策和培训的结合。尽管大多数人熟悉人工智能,也大多数人在使用人工智能,但大多数人并没有接受过人工智能方面的培训

因此,建立对这些工具的信任的一种方法可能是提供培训。

问题 8:政策

当问及工人们真正想要什么政策时,差距进一步扩大。在开放式文本的回复中,主要有三个主题:

人们有要求,特别是有关培训和技能提升的要求。

他们还希望看到更多的透明度和监督。

他们希望看到保护就业或重新分配人工智能收益的尝试。

但总的来说,他们想要框架。

随着事态的不断加速,这些要求也合情合理。Kimi(另一家表现相当出色的人工智能实验室)最近在一次采访中提到,他们正在将方向盘交给人工智能进行训练和处理。不再需要人工干预。这将创造一个无需人工输入的环境,人工智能将自行构建。其含义显而易见。这些政策建议将在之后的文章中进一步探讨。

问题 10:工会

本次调查中,只有约8%的受访者是工会成员,这或许提醒我们,工会在当今经济领域的影响范围之广,微乎其微。从如此小的样本中很难得出任何有意义的结论。以下是他们的一些看法:

  • 作为巴尔的摩一家致力于重建红线社区的建筑工人合作社,我们实际上认为我们正处于一个罕见的机遇之中,可以利用人工智能来增强边缘化工人和社区的能力。——建筑工人

  • 看到人工智能在公立高中发挥作用,感觉非常不可思议。——教育工作者

  • 虽然我的雇主正在培训我们使用人工智能,但他们也设定了不切实际的任务目标,随后每周都会发布一份报告,据说这是为了提供透明度,但收集到的关于我们任务/产出的数据并不能说明全部情况,而只是部门负责人想要报告的情况。——政府工作人员

  • 自人工智能兴起以来,我对初级工程岗位的匮乏深感担忧。我认为一个鲜少被讨论的问题是,当技术工人离开职场时,可供借鉴的经验丰富的人才库将越来越少。我还觉得,所有类型的工人都被期望用更少的资源完成更多的工作,在某些情况下,人工智能并不能解决问题,但人们期望个人能够更快地完成工作。——运输和物流

问题 11:还有其他想法吗

调查中最重要的部分是最后的开放式评论框,我在整篇文章中都从这个评论框中提取内容,在这里我要求人们分享正式问题没有涵盖的有关他们的人工智能体验的任何其他内容。

我收到了成百上千篇短文(谢谢大家!),它们读起来就像来自文化转型前线的快讯。人们显然渴望以比公共话语(或他们的工作场所)通常允许的更细致入微的方式讨论这些话题。

人工智能迫使每个人清晰地表达自己为何工作,工作的意义何在,以及人类最希望保留和发展的能力有哪些。人工智能正以一种我们大多数人从未有过的方式,让我们思考身为人类的意义。

下一步做什么?

关于人工智能与工作的传统叙事侧重于替代和效率:哪些工作将被自动化,生产力将提升多少,人类是否会被淘汰。但我认为,真正的故事在于人们如何保持自身的目标感和自主性。

太多组织将人工智能的实施视为纯粹的技术挑战,而非文化转型。太多员工只能独自摸索如何融入人工智能,缺乏机构支持或集体智慧。我们的公共讨论中,太多人仍然停留在将人工智能视为救星或威胁的二元思维模式,忽略了人们如何与这些技术共存的更复杂的现实。

当人们拥有足够的空间时,他们会对这些挑战进行深入思考。他们正在开发创造性的解决方案和协作方法,以期实现更可持续的人机融合。但政府、企业以及人工智能公司本身必须发挥领导作用。他们必须(应该?)倾听产品用户的需求。

全国各地的办公室、学校、医院和设计工作室正在发生的事情,并非像新闻标题所描述的那样。这不仅仅是革命或毁灭。这是一个混乱的中间地带,人们正在实时构建新的工作规则。这关乎人们如何在与强大、实用且不同于我们自身的智能形式共事的同时,保持完整的人性。

这是一份由读者支持的出版物。想要接收新文章并支持我的工作,请考虑成为付费订阅者。

谢谢阅读。

1

我将花更多时间完善调查结果,并与一个政策小组合作,帮助向政府提出一些相关政策建议。这并不是这项调查的结束,因为调查结果值得在 Substack 之外进行分析!

2

或者因为 Nvidia 表示增长正在放缓

3

GDP 正在区块链上发展,这对人工智能来说可能也是一种好兆头

4

一个重要的发现是,人们对于被问到人工智能的问题感到非常兴奋。很多回复都表示感谢有人在倾听。

5

Maia Mindel 指出,人们在这里使用的一个比喻是“如果有一只狗可以读报纸,并且能读出 80% 的正确率,那么在很多方面这都是一件很酷的事情,但对于了解新闻来说却不是这样。”

6

埃隆·马斯克一直在推特上谈论Grok的AI伙伴之一Ani。MetaAI 允许用户创建一系列像“继母”和“俄罗斯女孩”这样的机器人,这很奇怪。Danielle Fong称之为“懒惰”。

7

Anthony Lee Zhang 对 GPT5 发射的相对失败提出了一个有趣的假设:“GPT5 支持我的‘约翰·冯·诺依曼’假说:超级智能是不可能的。这些模型不会再超越这个极限。智能存在一个物理极限,它本质上相当于约翰·冯·诺依曼的智商,而 o3/o4 或多或少已经达到了这个极限。”

相关赛道:
来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论