标签归档:AI

关于 AI 解决问题能力的思考

我们一直有个想法,让 AI 能自动帮我们完成我们想要做的事情,让自动驾驶,自动写文章,自动做饭,自动操作设备,自动……

随着 AI 的发展,这个想法越来越接近现实,但是还没有实现。

大型语言模型已经具备了强大的知识掌握能力和语言表达能力,能够进行复杂的对话、代码生成、逻辑推理,甚至模拟某种程度的「思考过程」。但现实是,从「能说会道」到「能完成任务」之间,还有一段不小的距离。

我们不妨换个角度想一想:当我们让一个人类来完成一项任务时,我们通常会先给出一个大致的目标,然后逐步明确问题的边界、操作的步骤、可用的工具以及判断结果是否合格的标准。

这个过程,本质上就是在界定问题范围。而问题范围的界定程度,直接决定了完成任务的难易程度。

举个例子:

  • 如果你让一个人「帮我查一下明天的天气」,这个问题的边界非常清晰:地点、时间、数据源、输出格式都相对明确。
  • 但如果你说:「帮我设计一个新产品并提出完整的商业策略」,这个任务的边界就非常模糊:用户是谁?目标市场在哪里?预算是多少?成功的标准是什么?每个维度都可能引出一连串子问题。

同样的道理也适用于 AI。当前的 LLM 和 Agent 系统,在处理边界清晰的问题时表现良好,比如问答、摘要、代码填空等。但一旦任务的边界开始模糊、动态、依赖外部反馈,AI 的表现就会迅速下降。

我们可以将任务的难度,理解为 AI 需要「摸清楚问题边界」的程度:

  • 边界清晰:问题的输入、输出、规则都明确,AI 可以像填空题一样一步步推出来。这类任务是目前AI的强项。
  • 边界部分明确:有一定规则和目标,但需要自己补充部分前提或假设,比如“帮我写一段支持用户登录的代码”,AI 需要决定使用什么框架、是否带界面等等。
  • 边界高度不确定:如「帮我规划一次创业项目」,AI 需要从目标澄清开始,到路径选择、资源调度、自我评估等多个层面进行处理,这时候它往往会陷入混乱。

换句话说,问题边界越模糊,AI 所要面对的「可能性范围」就越大。 如果不加限制,它就像在一片完全未知的森林里找路,既不知道出口在哪,也不知道有没有陷阱。于是它要么乱走一通,要么干脆原地画圈,给出一些看似合理却走不通的「方案」。

人类面对复杂或模糊的问题时,常常也不是立刻给出答案,而是先界定问题范围

  • 这个问题的关键变量是什么?
  • 我需要哪些信息才能做出决策?
  • 能不能先试着完成一个最小版本,看看方向是否正确?

这种思考方式其实是一种认知上的「范围压缩」能力,目的是在面对信息不完备或目标不清晰时,先把问题压缩到一个可以行动的范围,再逐步展开。

相比之下,当前的 LLM 与 Agent 系统,即便具备了强大的生成能力和任务执行能力,在主动界定问题范围上,仍显得笨拙甚至「无意识」。

常见的三个表现:

  1. 缺乏信息优先级判断能力:LLM 接收到一个模糊任务时,往往无法判断哪些信息是「必须现在明确」的,哪些可以「先搁置再处理」。它通常会试图一次性填满所有空白,而不是按优先级逐步推进。

  2. 不具备「最小可行路径」意识:在面对一个复杂任务时,LLM 更倾向于直接生成一个看似完整的解决方案(例如一个功能齐全的系统架构或一篇结构完整的长文),而不是像人一样,先试着完成一个最小可行版本(MVP),再逐步扩展。

  3. 无法识别自己的「知识盲区」:更关键的是,LLM 并不知道自己不知道。它不会像人那样产生「这个问题我不确定,我需要求证」的元认知反应,而是继续生成看似合理但实则无效甚至自相矛盾的内容。这种「自信且错误」的输出在真实任务中极具风险。

新的 Agent 架构正在尝试解决这一问题。这类系统强调:

  • 多阶段任务拆解:将一个复杂任务拆成多个阶段,每个阶段都有明确的子目标与预期输出;
  • 反思与自检机制:在生成每一步结果后,模型会对其进行「自我评估」,判断是否合理、是否遗漏、是否需要重试;
  • 信息明确性评估:模型会尝试识别「哪些信息还不足以支持下一步推理」,并主动提出请求或假设补全;
  • 动态路径调整能力:在发现路径错误时,能够中止当前链条,回退到上一步重新规划,而不是「硬着头皮走下去」。

这些能力构成了模型的「思维闭环」,让其在某种意义上具备了「界定问题范围」的雏形。

在真实世界中,任务从来不是开门见山、结构清晰的:

  • 用户可能只给出一个模糊的目标(如「帮我设计一个商业模式」);
  • 过程中会出现信息缺失、中断、反馈变化;
  • 执行中需要不断判断「我走的方向是否还正确」。

要应对这些情况,AI 不仅需要处理信息的能力,更需要处理「信息不足」时的自我调节能力

这个问题的研究,已经引起了学术界的广泛关注。有一些观点::

  • 草图策略:让 AI 在面临复杂问题时,不再一次性给出答案,而是先生成多条解决思路的「草图」,再将其分解为子任务,逐步执行、评估、修正。这种方式的核心价值在于:先建立多个「问题理解的版本」,再逐步收敛

  • 「树搜索」+「奖励驱动」。让 AI 在面对不确定任务时,能够像爬山一样,不断生成多个路径,并根据「每一步的效果」来评估是否继续深入。这种「试探 + 筛选」的方式,帮助模型更加高效地界定问题边界,从而避免陷入无效探索。

  • 仅作为助手:让 AI 作为辅助的思维工具,用于生成备选方案、补全缺失要素、解释已有路径等。

回到我们当前,作为一个 AI 的使用者,我们能做什么呢?

  1. 提出更好的问题:我们可以通过更精准的问题表述来帮助 AI 更好地工作。这意味着在提问时,不仅要描述目标,还要主动界定边界条件:具体背景是什么?可用资源有哪些?有哪些限制条件?预期的输出格式是什么?这种前置界定能显著提高 AI 的输出质量。同时,我们也可以采用渐进式引导的方式,先让 AI 完成一个小范围的子任务,验证其理解是否正确,再逐步扩展到更复杂的任务范围,形成一种「小步快跑」的合作模式。

  2. 构建人机协作的闭环流程:有效的人机协作应该是一个闭环流程,而非单向输入输出。这意味着用户需要对AI的输出进行及时评估,提供明确的反馈,指出哪些方向是正确的,哪些需要调整,哪些问题仍然存在。通过这种持续的反馈修正机制,AI 能够逐步调整其对问题边界的理解。特别是对于复杂任务,我们可以建立人在回路的工作模式,即AI负责生成备选方案和细节执行,人类负责决策方向和质量把关,形成优势互补的协作关系。

  3. 适应 AI 的认知局限性:理解并适应AI的认知局限,是高效使用 AI 的关键。目前的 AI 在处理抽象概念、因果关系和长期规划时仍有明显短板。因此,我们可以主动将复杂任务拆解为一系列明确边界的子问题,让 AI 在其擅长的领域发挥作用。同时,对于涉及价值判断、创新突破或高风险决策的任务,我们需要保持审慎态度,将AI视为辅助工具而非决策者。认识到这一点,有助于我们在期待与现实之间找到平衡点,避免对 AI 能力的过度期待或低估。

以 AI 编程为例,当前比较好的实践是:

经验先行(包括自身经验或行业最佳实践),预先为 AI 构建整体架构,并将复杂任务拆解为一系列边界清晰、认知负载适中的子任务。每一个子任务都应在模型的能力边界之内,既能被准确理解和执行,又能稳步推动整体目标的进展,避免陷入回溯式的反复试错与路径偏离。

以上。

如何面对「AI 焦虑」

昨天看到网友 yuekun 发的一个消息,大概如下:

我决定“拉黑”Al 了。。。

AI变化太他* 快了,这两天不断被 Al新闻洗脑越看越焦虑,越焦虑越想看,我还在追求那该死的确定性

我决定拉黑 AI 内容了,因为这些都他* 是【快速贬值】的内容之所以说是快速贬值因为!

1个星期后没人记得今天发生了什么别说一个星期,3天前AI发生了什么还人记得吗?

能有 AI 焦虑的已经是比较优秀的人了,已经走在大家的前面了。

最近这几年,大家的工作,生活中已经有越来越多的 AI 在进入。

  • 工作上,同事已经开始用豆包/KIMI/灵宝/DeepSeek 写方案、改文案、写代码,效率惊人;
  • 网络上,AI 绘画、AI 剪辑、AI 写作层出不穷,创意产业正在被改写;
  • 朋友圈里,已经有人靠「AI+副业」赚到了第一桶金;

可能还会有这样的想法:「我会不会被 AI 取代?」、「我还能干什么?」、「未来还有我的位置吗?」

如果你有这样的焦虑感,放心,你不是一个人!

这一轮 AI 革命,以前所未有的速度冲击着我们的认知、工作与生活。今天这篇文章,我们不谈高深的技术原理,也不喊口号。我们只聊一个问题:

面对 AI 焦虑,我们该怎么办?

什么是「AI 焦虑」?

「AI 焦虑」是一种新型的社会心理状态。它并不是因为 AI 本身带来了什么直接伤害,而是因为:

  • 不确定感——不知道 AI 会发展到什么程度;人类天生害怕未知。AI技术发展的不可预测性让我们感到失控和无力。我们无法确切预见五年后的工作环境会是什么样子,这种不确定性是焦虑的主要来源。
  • 被替代感——担心自己所掌握的技能很快就会被机器超越;许多人将自己的价值与工作紧密联系在一起。当AI挑战我们的专业领域,也就挑战了我们的自我认同。「如果AI能做得比我好,那我的价值在哪里?」这个问题困扰着大家。
  • 无力感——感到自己跟不上技术变化的节奏;对于不熟悉 AI 技术的人来说,理解和适应这些变化尤为困难。这种知识差距加剧了焦虑感,让人觉得自己被时代抛弃。
  • 落后感——看到别人借助 AI 成长飞快,自己却无从下手。

换句话说,AI 焦虑,其实是技术飞跃带来的认知落差,也是时代变化下的身份危机

这并不是第一次。

  • 蒸汽机时代,工人们担心机器取代人力;
  • 电气化时代,马车夫开始失业;
  • 互联网时代,传统媒体人不得不转型自媒体;
  • 今天,轮到白领与知识工作者,直面 AI 的挑战。

每一次技术革命,都伴随着阵痛、焦虑与重新定位。

AI 焦虑,不是「你不够努力」,而是你活在一个剧烈变动的时代

AI 到底会不会「抢走我们饭碗」?

我们先来看一个事实:

AI 不会取代你,但会取代不会用 AI 的你。

这句话看似鸡汤,实则是现实。AI 的出现,并不是「人类 vs 机器」的对抗,它更像是一场「人类 + 机器」的协作革命。它和人类在当前还存在 「工具理性」到「价值理性」的鸿沟

AI的绝对优势领域

  1. 超大规模信息处理
    数据清洗与结构化:可实时解析百万级非结构化数据(如电商评论情感分析、医疗影像归档)
    概率推演引擎:基于历史数据预测股票波动率(误差率<1.2%)、疫情传播模型构建
    标准化流程执行:银行反洗钱系统日均扫描2000万笔交易,准确率99.97%

  2. 确定性规则下的精准输出
    代码生成:Cursor 辅助完成超6 0% 的函数级编程任务
    模板化内容生产:1 分钟生成符合 AP 格式的上市公司财报摘要
    工业级重复操作:汽车焊接机器人连续工作 2000 小时无误差

  3. 多模态感知增强
    跨媒介转化:将设计师手稿自动转为Blender三维模型
    环境适应性处理:会议录音实时降噪并生成带章节标记的文本纪要

AI的认知天花板

  1. 情感价值创造
    • 无法真正理解《红楼梦》中林黛玉「冷月葬花魂」的悲剧美学意象
    • 心理咨询时仅能套用 DSM-5 标准,无法捕捉来访者微表情中的绝望

  2. 非确定性系统整合
    • 制定企业转型战略时,无法平衡股东诉求、员工情绪与政策风险
    • 设计城市更新方案时,难以协调文物保护与商业开发的文化冲突

  3. 元认知突破创新
    • 可生成 100 种咖啡包装设计,但无法像原研哉通过「无印良品」重新定义消费哲学
    • 能复现爱因斯坦相对论公式,但无法诞生「时空弯曲」的颠覆性假设

  4. 伦理情境判断
    • 面对自动驾驶「电车难题」时,算法无法承载不同文明对生命价值的权重差异
    • 处理医疗资源分配时,缺乏对弱势群体生存权的道德勇气

换句话说:

「AI是卓越的『执行者』,人类是不可替代的『决策者』」

  • 执行维度:海量数据清洗、模式化输出、物理规则明确的任务
  • 决策维度:情感共鸣、复杂系统博弈、伦理价值抉择、范式革命创新

因此,AI 会替代一部分工作,但也会催生大量新的岗位,比如:

  • Prompt 工程师(AI 提示词设计师);
  • AI 教练(帮助企业训练专属 AI);
  • AI 辅助创作者(人机协作);
  • AI 伦理与治理专家;
  • 数据标注、清洗、优化人员……

过去 3 年,AI 技术已经催生出许多新的职业岗位,这一趋势还在加速中。

为什么你会特别焦虑?

有这样一个现象:

越是知识密集型、创意型的行业,从业者越容易感到 AI 焦虑。

为什么?

因为大家原本以为,AI 最难的是「脑力劳动」,结果没想到 AI 写得比人快、画得比人好、剪得比人准。

一夜之间,原本「吃香」的技能变成了「谁都可以」的工具。

套在开发逻辑上,有人称之为「技术平权」

于是,很多人开始怀疑:

  • “我的核心竞争力还存在吗?”
  • “我学的东西还有价值吗?”
  • “再学也赶不上 AI 的更新速度啊……”

这里有一个心理机制很关键:

AI 打破了我们对「专业性」的想象。

过去,一个人要成为专业人士,可能需要 10 年学习与积累。但今天,AI 几秒钟就能模仿出一个专业人士的成果。这种落差感,带来的不只是焦虑,更是身份的崩塌感

但我们必须意识到:

AI 是工具,不是目的。你不是在输给 AI,而是输给了不会使用 AI 的自己。

如何正面应对 AI 焦虑?

说了这么多,我们终于要聊关键部分:应对之道

1. 从抗拒到接纳:停止「逃避感」

很多人焦虑的根源在于:

  • “我不想碰 AI,它太复杂”;
  • “我再怎么学,也学不过 AI”;
  • “我现在还没空,等将来再说”。

但事实是:你越晚接触 AI,门槛就越高。

AI 的学习曲线并不陡峭,但它在快速演进。你今天花 5 小时学习 ChatGPT,可能比你明年花 50 小时还更有效。

第一步,是接纳它的存在,就像你曾经接纳智能手机、接纳微信、接纳短视频一样。

2. 从被动到主动:开始「有手感」

我们不需要成为 AI 专家,但我们必须成为 AI 用户。

从今天起:

  • 用 豆包/KIMI/元宝/DeepSeek 帮你写一封邮件;
  • 用 Midjourney 或 DALL·E 画一张图;
  • 用 Notion AI/腾讯会议 整理一份会议纪要;
  • 用 AI 工具帮你润色文章、翻译文档……

这样,就会发现:AI 不是来代替你,而是来放大你。

它让我们的时间更值钱,让我们的创意更高效,让我们从「执行者」变成「指挥者」。

3. 从焦虑到学习:构建「成长感」

AI 不会终结人类的价值,但它一定会倒逼人类进化认知结构

我们要学的,不是「如何跟 AI 竞争」,而是:

  • 如何提问更好
  • 如何判断 AI 的输出质量和正确性
  • 如何将 AI 的结果转化为自己的成果
  • 如何创造 AI 做不到的价值

这需要我们具备:

  • 批判性思维;
  • 多元化视角;
  • 系统化学习能力;
  • 情绪管理与人际沟通能力。

这些,正是人类在 AI 时代最宝贵的「护城河」。

开启人机协作时代

除了态度上的转变,我们还需要在实践中探索「人+AI」的协作方式。以下三点,或许可以提供一些启发:

1. 能力分层:让 AI 做擅长的,人类做关键的

在很多工作场景中,可以将整个业务流程划分为:

  • 数据处理层:交给 AI,例如自动分类、信息提取、报告生成;
  • 价值判断层:由人类主导,比如战略决策、情感共鸣、道德评估。

举个例子:在财务行业,AI 可以自动生成报表、识别异常交易,但最终的审计判断,仍需要有经验的会计师来把关。

2. 思维互补:用 AI 拓宽选择空间,人类负责价值筛选

AI 的计算能力远超人类,它可以在几秒钟内生成上百个方案。例如:

  • 市场营销人员可以用 AI 生成 100 个广告标题;
  • 视频创作者可以请 AI 写出 50 个脚本大纲;
  • 产品经理可以让 AI 提出多个功能迭代建议。

但最终,哪些方案最符合用户心理?哪些创意最具文化共鸣?这仍然需要人类的大脑与直觉来判断。这种模式,本质上是:

AI 提供「宽度」,人类决定「深度」。

3. 伦理防火墙:在关键场景中,设置人类「最后一环」

AI 的效率令人惊叹,但它不具备真正的道德意识。在一些涉及人类生命、法律、公正的场景中,必须设置「人类兜底机制」。

比如:

  • 在医疗诊断中,AI 可以辅助分析影像、预测病灶,但最终诊断结果应由医生确认;
  • 在司法量刑中,AI 可辅助评估风险与量刑建议,但量刑决定必须由法官裁定;
  • 在金融风控中,AI 可快速筛查欺诈行为,但冻结账户需人工复核。

这种「人类最终确认环节」,就是我们在 AI 时代构筑的伦理防火墙

通过这些实践启示我们可以看到,真正的 AI 时代,并不是「人退 AI 进」,而是人类与 AI 分工协作、优势互补、共同进化

你不需要变成一台机器,但你需要学会如何驾驭一台机器

未来的你,会感谢现在行动的自己

我们生活在一个剧变的时代。AI 是洪流,既可能将我们卷走,也可以成为我们前进的船桨。

我们可能无法阻止技术的浪潮,但我们可以选择:

  • 成为浪潮的受害者,还是浪潮的驾驭者?
  • 被动等待行业淘汰,还是主动创造新机会?
  • 沉浸在焦虑中,还是走出第一步?

未来的世界,不是「AI 取代人类」,而是 人与 AI 共舞

要做的,不是跟 AI 比赛,而是学会与 AI 搭档

当我们真正掌握 AI,当我们将它变成自己能力的延伸,就会发现:

焦虑,是成长前夜的灯光。

最后,送君一段话:

「真正的焦虑,不是来自技术,而是来自我们与变化之间的距离。
AI 不是终点,它是新的起点。
与其害怕未来,不如成为未来的一部分。」

以上。

AI 时代研发同学的必备软技能:从「写好代码」到「终结问题」的进化指南

当 Cursor/Windsurf 为你生成代码片段,ChatGPT/DeepSeek 为你优化技术文档,Midjourney 为你绘制精美草图,你是否也曾思考过:
「在这个 AI 时代,你工作的核心竞争力究竟是什么?」

过去,技术硬实力是研发同学的核心武器,但今天,AI 工具正在以惊人的速度让这些技能「平民化」:

  • 代码量产:AI 几秒钟生成数百行代码;
  • 自动调优:AI 自主优化算法参数,超越人类水平;
  • 全栈覆盖:从前端到后端,从 DevOps 到数据分析,AI 工具无处不在。

然而,AI 的快速普及并不是威胁,而是机会。未来最优秀的研发,不再只是写代码的人,而是能够驾驭 AI,解决复杂问题、创造价值的人。而这一切的基础,就在于软技能的升级。

1. AI 时代的「新研发」画像:从执行到创造的转型

AI 时代对研发同学的要求正在发生质的变化。你需要的不仅是工具使用能力,更是掌握以下三大能力的思维跃迁:

1.1 问题定义力:从「如何做」到「做什么」

AI 工具可以为你提供实现方案,但它无法回答「我们到底要解决什么问题」。能精准定义问题的人,才能引领 AI 高效运转。

  • 举例:用户反馈「系统太慢」,真正的瓶颈可能并不是代码性能,而是业务逻辑过于复杂,或者数据库架构不合理。
  • 关键问题:AI 可以帮你解决「已知问题」,但只有你能找到「未知问题」。

建议实践:

  • 在接到需求时,不急于动手写代码,而是花 30% 的时间明确核心目标。
  • 使用「5 WHY」拆解问题,找到真正的根因。

以某电商大促系统卡顿的问题为例:

当用户反馈「下单页面卡顿」时,我们需要问:

第一层追问:卡顿发生在点击下单按钮时?还是页面加载时?(发生在哪里?)

第二层追问:只有大促期间出现?普通时段正常?(发生在什么时候?)

第三层拆解:日志显示数据库查询耗时暴增,但真的是 SQL 问题吗?(多问一次)

最终发现根本原因是优惠券叠加计算逻辑:当用户同时使用店铺券、平台券、满减券时,业务逻辑循环嵌套导致指数级复杂度上升。

  • 用「5 WHY」法拆解问题
    比如面对「系统太慢」的反馈,可以问:
    1. 为什么太慢? -> 数据查询耗时过长。
    2. 为什么查询耗时过长? -> 数据库没有索引。
    3. 为什么没有索引? -> 设计时没有考虑这个场景。
      通过层层追问,找到问题的根因,而不是停留在表面。

多站在用户视角思考:系统性能对用户真正的影响是什么?是加载时间?响应速度?还是页面卡顿?明确目标后再行动。

1.2 跨领域协作力:从「技术孤岛」到「多维桥梁」

研发同学往往被视为技术专家,但在 AI 时代,研发工作正在从「单一技术领域」走向「跨领域协作」,能够在技术与业务、技术与设计之间建立桥梁的人更具影响力

AI 工具的普及,让技术不再是只有工程师能看懂的「黑箱」,它正在成为每个部门都能触及的工具。这意味着,研发者的作用不再是单纯的技术专家,而是跨部门桥梁

  • 场景 1:向业务团队解释 AI 模型的局限性,例如:大模型生成的预测结果为何在特定场景无法应用。
  • 场景 2:与设计师协作,优化用户体验,而不是单纯关注技术实现。

建议实践:

  • 多关注非技术领域的语言和逻辑,例如:用「用户故事」代替技术术语。
  • 在技术方案中,明确描述其对业务的价值和风险。

举个例子:从「技术术语」到「用户故事」假设业务部门提出一个需求:「我们需要一个 AI 模型来预测用户流失率。」

  • 如果你直接给出技术方案,比如「我们用随机森林算法和 LSTM 模型」,业务团队可能一头雾水,也无法判断你的方案是否符合实际需求。
  • 更好的方式是转化为业务语言,比如:「我们会用 AI 模型预测哪些用户可能流失,这样可以提醒销售团队提前联系,并减少用户流失。」

这种「跨领域翻译能力」不仅能让技术方案更落地,还能让你在团队中更具影响力。

那么,如何提升跨领域协作力?

  • 学习对方的语言和逻辑:比如了解产品经理常用的「用户故事」格式,用场景化的方式描述技术方案。
    • 比如:用户故事可以是「作为一名用户,我希望系统能在 2 秒内加载完成,这样我就不会失去耐心」。
  • 明确技术对业务的价值:在提交技术方案时,补充说明「这个功能可以提升 xx% 的用户体验,节约 xx% 的成本」。

在 AI 时代,研发者不仅是技术的推动者,更是沟通技术与业务、技术与设计的桥梁。谁能打通这些边界,谁就掌握了更多主动权。

1.3 批判性思维:从「接受答案」到「验证答案」

AI 工具给出的代码、方案并非总是可靠。研发者必须具备质疑与验证的能力,避免高效地犯错。

  • AI 提供的代码是否安全? Cursor 生成的代码可能存在漏洞。
  • AI 生成的方案是否符合需求场景? 自动化工具可能忽略了业务逻辑中的特殊条件。

建议实践:

  • 为你的 AI 工作流创建「质检清单」,例如:性能测试、安全检查、业务逻辑验证等。
  • 从 AI 输出中学习,而不是无脑接受,学习其思路和编码的方式等等。

如何培养批判性思维?

  • 为 AI 创建「质检清单」
    每次接受 AI 的输出前,进行以下检查:

    1. 技术层面:代码是否经过边界测试?是否存在安全隐患?
    2. 业务层面:输出结果是否符合实际场景?是否考虑了用户行为习惯?
    3. 合规层面:生成内容是否符合公司政策或行业法规?
  • 从失败案例中学习:多分析 AI 工具失败的案例,理解 AI 的局限性和潜在风险。比如,研究某些场景下的 AI 偏见问题,避免类似错误。

2. AI 时代的软技能到底有多重要?

如果技术硬实力是「上限」,软技能就是「下限」。AI 可以让所有人起点更高,但也会放大研发者的短板:

  • 不会定义问题的人,会被工具束缚在错误的方向上。
  • 缺乏沟通能力的人,会在跨部门协作中失去对话权。
  • 思维固化的人,无法适应 AI 工具带来的工作流变化。

2.1 生存指南

  1. 用「 CTO 思维」拆需求,接到任务时先问三连:

    1. 这个需求背后的商业目标是什么?(比如提升转化率?降低客诉?)
    2. 如果只能用一句话描述成功标准,应该是什么?
    3. 现有数据中哪些指标暗示了真正的问题?(如支付环节跳出率>80%)
  2. 给 AI 加「导航仪」,向 AI 提问时避免开放式指令,而是结构化引导:

    • 错误示范:”优化系统性能”
    • 正确姿势:”当前订单提交平均耗时 2.3 秒( APM 数据),在保证 100% 数据一致性的前提下,请提供三种不同成本预算的优化方案”

2.2 话术 – 「见人说人话,见鬼说鬼话」

  • 对老板:「投入 1 个月开发时间,能防止明年 618 大促期间服务器崩溃的风险」,关注成本和产出
  • 对运营:「这个接口延迟降低1秒,首页UV转化率能提升0.7%(附 A/B 测试数据)」,关注指标
  • 对客服:「新系统上线后,用户咨询’物流进度’的话术可以减少 3 次点击步骤」,关注对于其工作的影响

2.3 软技能的红利公式

AI 时代个人价值 = (技术硬实力 × 软技能系数)^ AI 工具适配度  

系数破局点:

  • 会用AI写代码 → 硬实力基准线(人人可达)
  • 能判断该让 AI 写什么代码 → 软技能决胜区(稀缺资源)

那些软技能出色的研发同学,能够借助 AI 实现飞跃式成长,成为团队中的关键角色。

3. 打造你的「AI 时代工具箱」

软技能的提升不是一朝一夕的事,但可以通过系统化的方法论,逐步打造适应 AI 时代的「工具箱」。

3.1 练习「问题之上」的思维:从执行者到问题定义者

AI 工具可以帮助你高效地执行任务,但它无法告诉你「最重要的问题是什么」。在 AI 时代(也不仅仅是 AI 时代),研发需要从全局视角思考问题的本质:为什么做,而不仅仅是怎么做。

3.1.1 如何练习「问题之上」的思维?

每天主动问自己三个「为什么」,从执行层面上升到战略层面:

  1. 为什么这个功能重要?:真实案例:某研发团队接到任务,优化一个页面加载速度。当他们问「为什么优化加载速度重要?」时,发现问题的本质并不在于技术性能,而是用户期望在关键时刻快速获取信息。最终,他们通过简化页面结构和聚焦核心功能,比单纯优化代码更高效地解决了问题。

  2. 为什么用户需要这个解决方案?:从用户视角出发,挖掘需求背后的真实动机。例如,一款 AI 推荐系统的研发团队意识到,用户并不需要复杂的算法结果,而是想快速找到符合场景的解决方案。于是,他们优化了推荐理由的呈现方式,让用户更容易理解和采纳推荐结果。

  3. 如果资源有限,如何找到最优解?:设想一个极限场景:如果只能用 50% 的时间或资源完成任务,你会如何取舍?这种思考方式能帮助你聚焦核心问题,避免陷入无意义的细节优化中。

3.1.2 成为「破界思考者」的 4 层跃迁法

人类擅长于发现隐藏在表象下的真问题。4 层跃迁法帮助突破思维惯性:

▌认知框架

  • 第1层:需求表象:「业务方要求 3 天上线一个推荐算法」
  • 第2层:利益相关者分析:使用 RACI 矩阵梳理:谁决策/执行/被影响
  • 第3层:系统动力学推演:用因果回路图分析技术方案对用户体验/后端负载/商业指标的连锁影响
  • 第4层:第一性原理拆解:追问:用户点击转化率低的根本原因是算法不准?还是商品信息呈现方式问题?

▌实战工具包

  • 丰田「5Why分析法」进阶版

    现象:用户投诉支付失败率上升  
    Why 1 ▶ 接口超时?  
    Why 2 ▶ 第三方支付网关响应慢?  
    Why 3 ▶ 未适配银行新加密协议?  
    Why 4 ▶ 运维监控策略未覆盖合作方变更?  
    Why 5 ▶ 跨部门信息同步机制缺失?  
    
  • MIT系统思考工具箱

记住:AI 再强大,也需要你来定义问题。跳脱「怎么做」的思维框架,才能成为团队中的问题定义者。

3.2 刻意提升「非技术表达」:让技术为业务赋能

技术再高深,如果让人听不懂,价值就会大打折扣。AI 时代的研发者不仅需要写得出代码,更需要讲得清技术。能用简单、直观的方式表达技术方案,既能提高跨部门协作效率,又能让你的工作成果更具说服力。

3.2.1 如何刻意练习「非技术表达」?

  1. 用一张图解释技术架构:将复杂的技术架构简化成流程图、思维导图或者用户体验图。例如,一个后端服务的高可用方案,可以用一张图展示数据流动、容错机制以及业务价值,而不是写一长段技术描述。

  2. 用「用户视角」描述技术方案的价值:比如,你正在开发一个自动化测试工具,与其说「这个工具可以减少测试时间」,不如说「这个工具可以帮助团队提前发现潜在的产品缺陷,从而减少 30% 的用户投诉」。这样的表达更容易被非技术团队接受。

  3. 用故事化的方式呈现你的方案:例如,在解释一个推荐算法时,可以说:「想象一下用户点开首页,看到的是他最喜欢的内容,这背后是我们的 AI 模型在实时分析用户行为。」这种讲故事的方式更具感染力。

3.2.2 实践工具

  • ▌FAB 法则(Feature-Advantage-Benefit)
    表达技术方案时,从功能(Feature)入手,解释优势(Advantage),最后明确带来的好处(Benefit)。

    • 功能:我们的推荐算法会实时预测用户偏好。
    • 优势:它能够在用户访问的第一时间推荐最相关的内容。
    • 好处:提升用户粘性和点击率,从而增加转化率。
    • 例如:
  • ▌SCQA模型(情境-冲突-问题-答案)

    [情境] 当前订单查询 API 响应时间突破 2s  
    [冲突] 用户体验下滑 vs 硬件扩容成本激增  
    [问题] 如何在零成本下优化性能?  
    [答案] 通过 AI 预测缓存热点数据(命中率提升至 92% )  
    
  • 金字塔原理实战:技术方案文档采用「结论先行+ MECE 分类」结构

记住:技术的价值必须通过清晰的表达被团队和业务部门感知,才能真正落地并创造商业价值。

3. 搭建「AI 质检工作流」:让 AI 为你所用,而不是盲目信任

AI 工具再强大,也只是工具,其输出的内容仍然可能存在问题。研发者需要对 AI 的输出保持质疑态度,并建立一套完善的质检流程,确保工具真正符合需求。

▌四阶验证框架

阶段
检查重点
工具/方法
输入层
需求理解偏差
ChatGPT 反向提问验证法
设计层
架构合理性
架构决策记录(ADR)模板
实现层
安全隐患/技术债
SonarQube+AI 代码审计
价值层
商业目标对齐度
OKR-KPI 映射矩阵

当AI工具成为标配,建立质量管控机制比盲目追求效率更重要

4. 用 AI 「解未来」

  • 精准定义问题,让 AI 为你服务,而不是反过来被工具左右。
  • 跨领域协作,用技术思维解决业务问题,成为团队的桥梁。
  • 对 AI 保持质疑,避免高效犯错,用批判性思维守住技术底线。

AI 不会淘汰研发,只会淘汰不会用 AI 的研发。当机器开始思考时,人类的智慧应该闪耀在机器停止思考的地方。

此刻的你,不妨用 0.1 秒思考:是继续做工具的操控者,还是成为驾驭 AI 的「指挥官」?这场进化游戏没有旁观席,每个技术人都已身在局中。

未来的研发工作,不再是机械地写代码,而是以技术为工具,解决问题、创造价值、推动变革

从今天开始,思考:

  • 我的工作是否创造了价值?
  • 我的技能是否放大了 AI 的潜能?
  • 我的软技能是否已跟上时代的节奏?

AI 已来,你准备好了吗? 


「你认为 AI 时代最重要的软技能是什么?欢迎评论留言讨论!」

以上。