首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >蚂蚁集团校招要求AI编程#AI时代的问题解决能力新框架

蚂蚁集团校招要求AI编程#AI时代的问题解决能力新框架

作者头像
mixlab
发布2026-04-10 15:16:20
发布2026-04-10 15:16:20
1220
举报

提问比记忆更重要:AI时代的问题解决能力新框架

最近,蚂蚁集团的校招已经要求AI编程作为笔试环节了,重点考察面试者解决问题的能力

Anthropic在Claude的产品页面上写过一句话,被很多人截图保存:

"There's never been a worse time to be a problem, or a better time to be a problem solver."

一个问题从来没有这么糟糕过,也从来没有哪个时代比现在更适合做一个问题解决者[2]。

这句话初读像是营销文案,细读却发现它精准地戳中了一个正在发生的结构性变化:AI正在将回答问题的能力以前所未有的速度民主化,但定义问题的能力:判断什么真正值得解决、什么才是核心,在AI时代反而变得更加稀缺。

这是人机协作时代的第一道分水岭。

问题定义:AI时代最稀缺的认识论能力

认知科学家Allen Newell和Herbert Simon在1972年提出的问题空间理论,至今依然是理解人类问题解决能力的基石。

他们的核心发现是:一个问题被如何表征,决定了它有多难被解决。同一个现实问题,当被映射到不同的问题空间时,难度可能相差数个数量级。

传统的计算机科学教育花了大量时间教如何在给定空间里找解:排序算法、搜索树、动态规划。但很少花时间教如何构建正确的问题空间。然而在AI协作场景下,最重要的认知动作恰恰发生在将模糊的现实问题映射为AI能够处理的指令这一瞬间。

你可能有过类似的体验:拿着一个模糊的想法去问AI,得到的答案总觉得哪里不对;但换一种问法,更具体、更边界清晰,AI立刻给出了你真正需要的东西。问题往往不在AI,而在你给出的指令是否真的描述了你要解决的问题。

MIT的Dimitris Bertsimas有过一个判断:当AI让获取答案变得极其容易时,提出正确问题的能力溢价就开始飙升[1]。

Prompt设计:被严重低估的工程技能

很多人把Prompt当作聊天,但真正用好AI的人把Prompt当作指令设计

就像我们AI编程训练营上的学员,在训练前认为就是聊天,训练后才深刻理解到什么叫设计Prompt

一个高质量的Prompt,通常包含以下几个结构要素:

角色定义:告诉AI"你是谁"。一个数据分析师、一个后端工程师、一个文案编辑,角色设定决定了AI输出的语言风格、专业深度和关注重点。

目标描述:明确"要做什么"。这里最常见的错误是描述模糊,比如"帮我优化这个系统":优化什么?性能?成本?用户体验?"帮我把这个查询的响应时间从500ms降低到50ms以内,同时保持现有API接口不变",才是有效的目标描述。

边界约束:规定"不能做什么"。有时候同样重要的是明确边界:不涉及数据库Schema变更、不改变现有认证机制、不引入新的第三方依赖。这些约束如果不在Prompt里明确,AI可能会默认给出"更全面但超出范围"的方案。

评估标准:定义"怎么算成功"。这是最容易被忽视的要素。一个AI能理解的验收标准,往往也是你自己对问题理解最清晰的部分。让AI评估自己的答案:让AI在给出最终方案之前,先自检一遍是否符合你的评估标准,是大幅提升输出质量的有效策略。

把Prompt设计当成写验收说明书,而不是写情书。这是工程思维对创意浪漫的降维打击,但在这个语境下,这种"打击"是受欢迎的。

跨学科的评估框架:判断比生成更难

AI擅长生成,人类擅长判断。

当你向AI描述一个问题,它会快速生成多个可能的解决方案:代码实现、方案框架、分析报告。但这些输出的质量参差不齐,评估哪个更接近目标、哪个在当前资源约束下最可行,依然需要人类的判断力。

这里有一个被严重低估的能力:元认知能力:对自己思维过程的思考。具体来说:在AI给出多个方案时,你能否快速判断每个方案的核心假设是什么?这些假设在你当前的实际场景里是否成立?如果某个方案失败了,最可能的原因是什么?

这种能力,来自认知科学里对"专家 vs. 新手"差异的研究。专家之所以成为专家,不是因为他们记忆了更多的答案,而是因为他们拥有更丰富的问题分类系统

面对一个新问题,他们能迅速将它归类到某个已知的模式里,并调用对应的解决策略

在AI时代,这种问题分类系统的价值不降反升。当你能够将一个问题正确归类,你就能判断AI的哪类输出最值得参考;当你知道自己的分类可能出错,你就能更有意识地让AI帮你检验假设。

遇事先问AI与AI共同思考

社区里有一个被反复验证的方法论转变:过去,遇到技术问题第一步是查文档或问专家;现在,第一步变成了问AI

这种转变的深层逻辑不是AI比专家更可靠,而是AI的反应速度远快于专家——在AI给出初始答案后,你再根据答案的质量决定是否继续深挖、是否需要人工审核、是否需要引入外部验证。

这本质上是一种认知外包的升级:不是把思考外包给AI,而是把重复性的信息检索和初步推理外包给AI,让人类大脑腾出空间来做真正需要判断力的事情:定义问题、评估方案、做出决策。

一套实用的人机协作框架,大致包含以下几个层次的迭代:

第一层:问题初步定义。向AI描述你的问题,获取初步的框架和可能的方向。不要期待第一次就能得到完美的答案,这一层的目的是验证你对问题的理解是否到位。

第二层:假设检验。基于AI的初步反馈,识别你自己假设中最不确定的部分,然后针对这些部分设计更精确的问题,让AI帮你检验或推翻这些假设。

第三层:方案迭代。当方向明确后,让AI生成多个可选方案,然后让AI自己评估每个方案:从性能、可维护性、开发时间三个维度评估这三个方案,并给出推荐及理由。这种让AI评估AI输出的策略,往往能大幅提升最终方案的质量。

第四层:人类终审。AI的输出永远需要人类来承担最终责任,特别是涉及商业决策、伦理边界或高风险后果的场景。AI是强大的协作者,但最终的判断权依然在人类手中。

人机协作能力不是一项静态技能,而是一套需要持续迭代的实践框架。

工具在变,AI的能力边界在变,你的使用经验也在积累:真正有价值的能力,是持续校准人机分工边界的元能力。

致最先触达未来的那一小部分人:愿你的提问能力,早日匹配你面对的问题复杂度。


参考

[1] 90% Of College Students Use AI: Higher Ed Needs AI Fluency Support Now. Forbes, September 2025.

[2] Anthropic: The AI for Problem Solvers.

[3] Anthropic Research.

[4] Lovable: AI App Builder.

[5] Claude Code.

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2026-04-01,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 无界社区mixlab 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 提问比记忆更重要:AI时代的问题解决能力新框架
    • 问题定义:AI时代最稀缺的认识论能力
    • Prompt设计:被严重低估的工程技能
    • 跨学科的评估框架:判断比生成更难
    • 从遇事先问AI到与AI共同思考
    • 参考
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档