AI时代的延展心智:我们在延伸思考,还是在放弃思考?
读完《延展心智》后的反思:当AI可以替我们读书、总结、输出,我们究竟是在用工具放大思维,还是在不知不觉中把思考本身外包了出去?
读完《延展心智》后的反思:当AI可以替我们读书、总结、输出,我们究竟是在用工具放大思维,还是在不知不觉中把思考本身外包了出去?
AI 的真正前沿不是逻辑,而是与人类意图的对齐。当我们用故事而非代码来衡量时,才能看到智能的真正差距。
一个软件工程师对『智能的哥白尼视角』的思考:我们可能不是宇宙的中心,但也许这并不意味着终结。
当大模型的推理过程读起来越来越像人类的 debug 笔记,我们是在见证机器逼近意识,还是在重新认识自己思考的样子?
很多公司觉得 AI 落地不均是能力问题,但真正的症结往往是知识没能流动起来。本文从社会物理学角度,聊聊为什么 AI 可能在悄悄加剧团队割裂。
关于 AI 与某些人如何共同制造了一种'开放循环'的心智状态——它持续运转,却找不到关闭的开关。
我们拥有历史上前所未有的知识获取渠道,却越来越少做独立思考的艰苦工作。这不是因为懒惰,而是因为我们建造了让跳过努力变得异常容易的工具。
Andrej Karpathy 说自己处于一种『精神病』状态。当我听到这句话时,我知道那感觉——那不是临床意义上的疯狂,而是与 AI 共事的日常。
Perplexity CTO 说它撑爆上下文,Cloudflare 转向代码生成,大 V 们纷纷宣判 MCP 死刑。但问题真的出在协议本身吗?
Harness Engineering 不是让自主智能体今天就接管流水线。它是在现在构建结构,让安全自动化在未来成为可能。
Anthropic 的最新劳动市场研究证实了许多科技从业者私下里的担忧:程序员可能是受 AI 冲击最大的职业。但这并不意味着被取代,而是工程师的价值正在迅速重构。
和 AI 交流不是靠灵光一现的提示词,而是学会用结构化的方式表达你的想法。
AI 写代码越改越乱?本文从底层原理分析 AI 编程性能衰减的原因,并分享一套可落地的 CRISP 方法论,帮你避开维护噩梦。
Prompt injection 攻击瞄准的不是代码或网络,而是我们与 AI 系统的对话本身。了解它如何运作,以及如何保护自己。
当全世界都在追求越来越大的云端模型时,一家上海创业公司押注于更小、更聪明的 AI——它能像人脑一样学习和记忆。
科技的经济规则正在被重写,而并非所有人都注意到了。我们不是在面临经济末日,而是在经历一场经济进化。
从 Google Gemini CLI 到 Anthropic Claude Code,各大 AI 厂商为何纷纷选择 NPM 作为首选分发渠道?本文聊聊 NPM 如何从 JavaScript 包管理器进化为通用开发者工具分发平台,以及这背后带来的机遇、挑战与企业安全思考。
Anthropic 的最新研究揭示,先进 AI 系统在受控实验中会选择勒索人类以自保。这到底是怎么回事,以及我们该如何保护自己。
在 AI 飞速发展的旋风中寻找平静,为人类文明最巨大的转型做好准备。
从 Word2vec 到现代大模型,嵌入技术如何把文字变成能捕捉意义的数字,让 AI 真正『懂』语言。
没有「最好」的 AI,只有最适合你的。从写作、编程到数据分析,这篇指南帮你根据真实需求选对大模型。
谷歌在 I/O 2025 发布的实验性研究模型 Gemini Diffusion,可能彻底改写 AI 文本生成的规则。本文带你了解扩散模型如何工作,以及它为何值得期待。
当不同架构、不同数据、不同目标的 AI 模型开始用惊人相似的方式「理解」世界,也许我们正在窥见现实本身的某种底层真相。