C
Claude Open Courses
Home/AI 基础概念/什么是人工智能?

什么是人工智能?

理解 AI 的基本概念和发展历程

一句话理解 AI

人工智能(Artificial Intelligence)简单来说就是让机器模拟人类智能的技术

就像人类可以学习、推理、理解语言一样,AI 系统也可以做到这些事情——只不过它们是通过数学模型和大量数据来实现的。

目前最火的 AI 技术是大语言模型(LLM),比如 Claude、GPT 等。它们通过学习海量文本来理解和生成语言。

AI 的发展历程

选择阶段查看详情

早期探索

1950s-1980s:图灵提出"图灵测试",早期 AI 主要是规则系统——人工编写规则让机器执行。能力有限,只能处理特定任务。

Transformer:改变一切的架构

Transformer 是当前所有主流大语言模型的基础架构,由 Google 在 2017 年论文《Attention is All You Need》中提出。

它的核心创新是自注意力机制(Self-Attention)——让模型理解文本中词与词之间的关系。

输入: "Claude 是 Anthropic 开发的 AI 助手,它非常擅长编程"

自注意力: "它" → 关注度最高的词 → "Claude"

Transformer 为什么革命性

🐢之前(RNN)

  • 必须一个词一个词处理
  • 难以捕捉长距离依赖
  • 训练速度慢

之后(Transformer)

  • 并行处理所有词
  • 轻松理解远距离关系
  • 模型越大效果越好(Scaling Law)

初学者要记住的 5 个要点

  • AI 的本质是让机器从数据中学习模式,而不是手动编写规则
  • 大语言模型(LLM)是当前最重要的 AI 技术,基于 Transformer 架构
  • Transformer 的核心是注意力机制——让模型理解上下文关系
  • Scaling Law — 更大的模型 + 更多的数据 = 更好的效果
  • AI 不是魔法 — 它本质上是统计学和线性代数的产物