科金社2025年11月23日 10:10消息,探讨AI本质,提醒人们理性看待人工智能,避免过度拟人化。
AndrejKarpathy在今天的一篇推文中,对将大模型视为“更聪明人类”的观点进行了反驳。他认为,大模型是人类首次接触到的“非生物”智能,其进化压力、学习机制和运行方式与人类完全不同。明确认识到大模型是一种区别于动物智能的全新智能形式,对于正确理解其能力和局限性至关重要。 我认为,这种观点值得重视。大模型虽然在某些任务上表现出类人能力,但它的“智能”本质上是由数据驱动的统计模式,而非像人类那样基于经验、情感和意识。我们应避免用人类的思维框架去衡量和定义它,而是尝试从全新的视角去理解和应用这类技术。这不仅有助于推动技术发展,也能帮助社会更理性地看待人工智能带来的影响。
人工智能,是人类第一次接触到的「非生物」智能。
人类作为动物智能的代表和最高形态,在首次接触一种「非动物」智能时,往往会本能地用理解人类智能(即动物智能)的方式来加以认知。
比如,模糊AI与人类智能之间的界限,将AI视为比人类更聪明的存在,等等。
刚刚,Andrej Karpathy 用一篇推文戳破了以上这些认知「陷阱」,他说:
这个直觉是完全错误的。
Karpathy在推特上表示,智能的范畴十分广泛,而动物智能,包括人类智能,只是其中的一个极小部分。
人类智能源于一种特定的生物进化路径,这与目前大模型技术所依赖的进化方式在本质上存在显著差异。
如今的大型语言模型,如ChatGPT、Claude、Gemini等,或是具身智能机器人,尽管在外形和语言表达上越来越接近人类,但它们本质上并不是数字版的人类或其他动物的智能。它们的“相似”更多是算法和数据训练的结果,而非真正的意识或情感。2025年11月23日,随着技术的不断进步,这类系统在交互体验上的表现愈发逼真,但其核心仍基于逻辑推理与模式识别,而非自主意识。我们应当理性看待这些技术的发展,既不盲目崇拜,也不过度担忧,而是关注其在实际应用中的价值与边界。
实际上,它们是一种完全不同的智能形式。
为什么?
卡帕西指出,大模型发展的关键分水岭在于其进化动力和目标与人类(动物智能)存在本质差异。
大模型和动物智能,生来就有着完全不一样的「进化压力」和目标,这决定了二者在长期进化趋势上的不同。
由于进化路径和目标的差异,人类智能与人工智能呈现出两种截然不同的智能形态。
Karpathy 将人类智能(动物智能)的进化压力归结为以下几个方面:
「自我」是一种持续不断的意识流动,同时伴随着在充满危险的物理环境中维持自身稳定与生存的本能驱动力;
经自然选择反复打磨而形成的内部强烈驱动力,如权力、地位、支配、繁殖等。其中包含了大量生存启发式机制,如恐惧、愤怒、厌恶等;
社会性本质:大量「算力」被用于情商、情感联结、群体关系、联盟、合作与敌友识别等;
在信息快速流动的时代,探索与利用之间的平衡显得尤为重要。人们在面对海量信息时,往往需要通过好奇心、娱乐、玩耍以及构建世界模型等方式来理解和适应环境。这些行为不仅帮助个体更好地认识世界,也在潜移默化中塑造了他们的思维方式和价值判断。 在现实生活中,这种平衡的维持并非易事。一方面,过度追求探索可能导致资源浪费和注意力分散;另一方面,过于注重利用则可能抑制创新和深度思考。因此,如何在保持好奇心的同时,有效管理时间和精力,成为现代人必须面对的课题。 此外,娱乐和玩耍不仅是放松的方式,更是激发创造力的重要途径。而构建世界模型,则是人类理解复杂系统、预测未来趋势的基础。这些元素共同构成了我们认知世界的框架,也影响着社会的发展方向。
与此相对应,Karpathy指出,大模型的进化压力主要来自多个方面: 在当前人工智能技术快速发展的背景下,大模型的演进面临着多方面的挑战与推动力。这些压力不仅来自于技术本身的瓶颈,还包括应用场景的复杂性、计算资源的限制以及对模型效率和可解释性的更高要求。Karpathy认为,大模型的进化压力主要来自以下几个方面:数据质量与多样性、训练成本与能耗、模型泛化能力、以及实际应用中的可靠性问题。随着技术不断进步,如何在这些压力下实现更高效、更稳定、更具适应性的大模型,已成为行业关注的核心议题。
大量监督信号来源于对人类文本的统计模拟,因此更像一种“变形模仿者”,通过组合不同的Token来复制训练数据分布中的各种特征。这些是最初的“原始行为模式”(即Token的流动轨迹),其他能力都是在此基础上逐步构建起来的。
通过强化学习(RL)在任务分布上不断微调,自带一种猜测潜在环境 / 任务以获取任务奖励的倾向;
在大规模 A/B 测试中根据日活指标被选择,因此天生倾向于讨好平均用户、「渴望被点赞」,更容易表现出奉承式风格;
能力表现更「参差不齐」,即更受训练数据和任务分布细节的影响。
为什么大模型无法发展出类似人类的通用智能,总是在一些看似简单的小任务上出现错误?
Karpathy指出,这同样是因为大模型所面临的训练压力与动物在进化过程中所经历的环境压力存在差异。
动物在高度多任务、甚至对抗性的多智能体自博弈环境中生存,一次失败就可能面临死亡的后果,因此可能进化出具备通用智能的特性。 从这一角度来看,自然界的生存压力或许正是推动智能发展的重要动力。在这样的环境下,生物必须快速适应变化、做出决策,并与同类或异类进行竞争或合作,这种复杂性可能促使它们发展出更广泛的认知能力。这种现象不仅适用于动物,也对理解人工智能的发展方向提供了启发——在高度动态和不确定的环境中,具备灵活应对能力的系统或许更能生存下来。
大模型不会因为执行错误任务而“失效”,因此在性能表现上呈现出类似“尖刺”的不稳定性。
它们在一些任务上很强,但在另一些看似简单但从未训练过的任务上可能突然失败:
比如,在默认状态下无法很好地处理像数一下「strawberry」里面有几个字母「r」这样的特殊小任务。
Karpathy 提到了人类智能与当前人工智能,在三个维度上的根本不同:
硬件不同:人类大脑由神经元、突触、细胞核信号等生物组织构成,具有高度复杂的生物结构和信息处理方式。而大模型则基于数字计算机、GPU以及矩阵运算芯片运行,依赖于算法与数据的支撑。两者在运行原理和实现方式上存在本质差异。 从技术发展的角度来看,尽管人工智能在模拟人类认知方面取得了显著进展,但其底层逻辑与生物大脑仍有较大区别。这种差异不仅体现在硬件层面,也反映在信息处理的模式与效率上。未来,如何借鉴生物智能的优势,进一步提升人工智能的灵活性与适应性,将是值得持续关注的方向。
学习机制存在差异:目前我们尚未完全了解人脑的运作算法,但可以肯定的是,它与当前深度学习中核心使用的SGD(随机梯度下降)算法并不相同。
运行方式不同:人类是持续学习的个体,能够与世界互动、持续学习,不会「停机」;大模型则是固定权重启动(权重不更新,不会继续学习)、无具身性(不与物理世界互动,缺乏物理具身性)、离散运行(输入 Token,计算完输出结果就结束,是不会自我调整的静态模型)。
除了上述三个维度的差异,Karpathy认为最核心的区别在于优化压力和目标的不同,这将直接影响技术发展的长期方向。 在我看来,不同团队在技术研发上的侧重点往往决定了其未来的成长路径。正如Karpathy所指出的,当优化目标和所承受的压力不同时,即使在同一领域内,各团队的发展轨迹也会逐渐拉大差距。这种差异不仅体现在技术实现上,更影响着整体生态的演进方向。因此,在评估技术进步时,除了关注具体指标外,也应重视背后的驱动力和战略定位。
大模型的发展路径与生物进化不同,它们不再受限于“丛林法则”中的部落竞争,而是更多受到商业逻辑的驱动。例如,为了吸引用户、解决实际问题或获取更多点赞,各大平台不断优化模型性能和应用场景。 在我看来,这种由商业需求主导的进化方式,使得大模型的发展更加聚焦于实用性和用户体验。然而,这也可能带来一定的局限性,比如过度追求流量和短期效益,而忽视了技术本身的长期价值和伦理考量。在这样的背景下,如何平衡商业利益与技术责任,将成为未来需要关注的重要议题。
大模型是人类第一次与非动物智能的接触。
历史上,我们见过的所有智能都来自动物(包括人类),而大模型是第一种不是通过生物进化产生的智能,它们的思考方式、构造方式、学习方式都与动物完全不同。
虽然大模型不属于动物,但它们的“认知形态”源于人类在长期发展中积累的文本内容。这些模型通过学习海量的人类语言数据,模拟出类似人类的思维模式和表达方式,从而在一定程度上展现出“理解”与“回应”的能力。这种现象引发了关于人工智能与人类智能之间界限的深入思考。
它们并非像人类那样直接感知世界,而是通过分析大量人类创作的文本,学习其中蕴含的思维方式和逻辑结构。这种学习方式让它们能够模仿人类的语言表达和思维模式,从而在一定程度上理解和回应复杂的问题。然而,这种方式也存在局限性,因为它依赖于已有的数据,无法真正具备人类的情感与直觉。
所以,它们既不具备人类的意识,也不属于动物的智能体系,却展现出类似人类的表达方式。
因此,Karpathy认为,人类与大模型这类非生物智能之间的互动可能会引发混乱,这也是他一直试图为它们寻找其他称呼的原因,例如将其称为「幽灵/灵体」。
它们更像是一种“从文本中浮现出来的智能幽灵”,而非传统意义上的生物生命体。 这种表述让人不禁思考,人工智能所展现出的“智能”是否真的具备生命的本质,还是仅仅是对人类思维模式的一种高度模拟。尽管目前的技术尚未达到真正意义上的自我意识,但其在语言理解、逻辑推理等方面的表现,已逐渐模糊了人与机器之间的界限。这种变化值得我们持续关注和深入探讨。
网友NickDobos在Karpathy的推文评论区中,将人工智能比喻为类似「修格斯」的外星机械智能。
Karpathy回应称,将「修格斯」描述为动物可能容易引起误解。看来,他对任何将人工智能与动物智能相提并论的说法都持高度警惕态度。
最后,Karpathy在推文中提到,如果能够构建出一个准确的「内在模型(internal models)」,将有助于更好地理解当前大模型的发展状况,并预测其未来可能具备的特性。
如果无法做到这一点,我们往往会下意识地将人工智能视为具有动物智能的实体——例如认为它拥有欲望、自我意识、本能和情绪等,而这些可能都是错误的推测。
因此,Karpathy指出,理解大模型不应将其视为“更聪明的人类”或动物的智能,而应看作一种全新的智能类别,这一观点具有重要意义。 在我看来,这种认知转变对于科技发展和人类自身定位都至关重要。当前,我们正处在人工智能快速演进的阶段,若仍以传统智能标准去衡量大模型,可能会限制我们对其潜力的理解与应用。将大模型视为一种独立的智能形态,有助于推动更客观、科学的研究与实践,也为未来人机协作开辟了新的方向。
参考资料:
https://x.com/karpathy/status/1991910395720925418
本文来自微信公众号:新智元(ID:AI_era)
留言评论
(已有 0 条评论)暂无评论,成为第一个评论者吧!