\documentclass[12pt, t, aspectratio=169]{beamer}
\usepackage{ctex}
\usepackage{graphicx}
\usepackage{amsmath}
\usepackage{amssymb}
\usepackage{hyperref}
\usepackage{tikz}
\usetikzlibrary{positioning}

% 设置主题与配色
\usetheme{Madrid}
\usecolortheme{default}
\setbeamertemplate{navigation symbols}{} % 去除导航符号

% 标题页信息
\title{深度学习革命：开启智能新纪元}
\author{知识工程师}
\institute{深度学习基础系列课程}
\date{\today}

\begin{document}

% 标题页
\begin{frame}
    \titlepage
\end{frame}

% 目录页
\begin{frame}
    \frametitle{目录}
    \tableofcontents
\end{frame}

% 第一部分：深度学习简介
\section{深度学习简介}

\begin{frame}
    \frametitle{深度学习是什么？}
    \begin{itemize}
        \item 机器学习的分支领域
        \item 通过多隐层模型和海量训练数据学习有用特征
        \item 提升分类或预测准确性
        \item 源于人工神经网络研究
        \item 通过组合低层特征形成抽象高层表示
    \end{itemize}
\end{frame}

\begin{frame}
    \frametitle{与传统机器学习的区别}
    \begin{columns}
        \column{0.5\textwidth}
        \textbf{深度学习}
        \begin{itemize}
            \item 自动学习特征
            \item 模型复杂，参数量大
            \item 需大量训练数据
            \item 复杂任务表现更优
        \end{itemize}
        
        \column{0.5\textwidth}
        \textbf{传统机器学习}
        \begin{itemize}
            \item 需人工提取特征
            \item 模型相对简单
            \item 对数据量要求较低
            \item 简单任务效率更高
        \end{itemize}
    \end{columns}
\end{frame}

\begin{frame}
    \frametitle{发展历程}
    \begin{enumerate}
        \item \textbf{1943年}：Warren McCulloch和Walter Pitts提出人工神经元模型
        \item \textbf{1958年}：Frank Rosenblatt发明感知器
        \item \textbf{1986年}：Geoffrey Hinton等人提出反向传播算法
        \item \textbf{2012年}：AlexNet在ImageNet竞赛中夺冠，标志深度学习时代到来
    \end{enumerate}
    
    % \begin{center}
    %     \includegraphics[width=0.6\textwidth]{dl_timeline.png} % 可替换为实际时间线图片
    % \end{center}
\end{frame}

% 第二部分：深度学习的训练方法
\section{深度学习的训练方法}

\begin{frame}
    \frametitle{神经网络基础}
    \textbf{神经元（节点）}
    \begin{itemize}
        \item 神经网络基本计算单元
        \item 接收多个输入信号
        \item 加权求和后通过激活函数产生输出
    \end{itemize}
    
    \begin{center}
        \begin{tikzpicture}[
            neuron/.style={circle, draw, minimum size=15pt}
        ]
            \node[neuron] (n) {$\sum \rightarrow \sigma$};
            \draw[->] (-1.5,0) -- (n);
            \draw[->] (n) -- (1.5,0);
            \node[left] at (-1.5,0) {输入};
            \node[right] at (1.5,0) {输出};
        \end{tikzpicture}
    \end{center}
\end{frame}

\begin{frame}
    \frametitle{激活函数}
    \begin{columns}
        \column{0.33\textwidth}
        \textbf{Sigmoid}
        \[ \sigma(x) = \frac{1}{1+e^{-x}} \]
        \begin{itemize}
            \item 输出范围：0-1
            \item 易出现梯度消失
        \end{itemize}
        
        \column{0.33\textwidth}
        \textbf{ReLU}
        \[ \text{ReLU}(x) = \max(0, x) \]
        \begin{itemize}
            \item 简单高效
            \item 缓解梯度消失
        \end{itemize}
        
        \column{0.33\textwidth}
        \textbf{Tanh}
        \[ \tanh(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}} \]
        \begin{itemize}
            \item 输出范围：-1-1
            \item 存在梯度消失
        \end{itemize}
    \end{columns}
\end{frame}

\begin{frame}
    \frametitle{梯度下降法}
    \textbf{基本原理}
    \begin{itemize}
        \item 沿损失函数梯度下降方向寻找最优解
        \item 损失函数：衡量预测与真实结果差异
        \item 梯度：指示损失函数变化最快方向
    \end{itemize}
    
    \textbf{主要变种}
    \begin{itemize}
        \item 批量梯度下降：用全部数据计算梯度
        \item 随机梯度下降：用单个样本计算梯度
        \item Mini-batch梯度下降：用小批量样本计算梯度
    \end{itemize}
\end{frame}

\begin{frame}
    \frametitle{反向传播算法}
    \textbf{计算过程}
    \begin{enumerate}
        \item \textbf{前向传播}：输入数据经各层计算得到预测结果
        \item \textbf{损失计算}：对比预测与真实结果，得到损失值
        \item \textbf{反向传播}：从输出层开始，用链式法则逐层计算参数偏导数
        \item \textbf{参数更新}：根据偏导数调整权重和偏置，重复迭代
    \end{enumerate}
    
    % \begin{center}
    %     \includegraphics[width=0.7\textwidth]{backprop.png} % 可替换为反向传播示意图
    % \end{center}
\end{frame}

\begin{frame}
    \frametitle{权重初始化策略}
    \begin{columns}
        \column{0.5\textwidth}
        \textbf{Xavier初始化}
        \begin{itemize}
            \item 根据输入输出神经元数量初始化
            \item 权重均值为0
            \item 方差适配连接数量
            \item 减少梯度消失/爆炸
        \end{itemize}
        
        \column{0.5\textwidth}
        \textbf{He初始化}
        \begin{itemize}
            \item 适用于ReLU激活函数
            \item 权重均值为0
            \item 方差按输入神经元数量调整
            \item 稳定激活值和梯度传播
        \end{itemize}
    \end{columns}
\end{frame}

% 第三部分：常用模型和方法
\section{深度学习常用模型和方法}

\begin{frame}
    \frametitle{卷积神经网络（CNN）}
    \textbf{结构特点}
    \begin{itemize}
        \item 局部连接：神经元仅与输入局部区域相连
        \item 参数共享：同一卷积核在图像不同位置共享参数
    \end{itemize}
    
    \textbf{核心组件}
    \begin{itemize}
        \item 卷积层：用卷积核滑动提取局部特征
        \item 池化层：降低特征图维度，防止过拟合
    \end{itemize}
    
    \textbf{应用领域}：图像分类、目标检测、图像分割、人脸识别
\end{frame}

\begin{frame}
    \frametitle{循环神经网络（RNN）}
    \textbf{结构特点}
    \begin{itemize}
        \item 包含循环连接
        \item 可记忆历史信息
        \item 特别适合处理序列数据
    \end{itemize}
    
    % \begin{center}
    %     \includegraphics[width=0.6\textwidth]{rnn.png} % 可替换为RNN结构示意图
    % \end{center}
    
    \textbf{应用场景}：文本生成、机器翻译、情感分析、语音识别
\end{frame}

\begin{frame}
    \frametitle{长短期记忆网络（LSTM）}
    \textbf{特殊结构}
    \begin{itemize}
        \item RNN的一种变体
        \item 引入门控机制：输入门、遗忘门、输出门
        \item 包含记忆单元用于长期存储信息
    \end{itemize}
    
    \textbf{优势}
    \begin{itemize}
        \item 解决普通RNN的梯度消失问题
        \item 能够学习更长期的依赖关系
        \item 处理长序列数据表现更优
    \end{itemize}
\end{frame}

\begin{frame}
    \frametitle{生成对抗网络（GAN）}
    \textbf{基本原理}
    \begin{itemize}
        \item 由生成器和判别器组成
        \item 生成器：创造逼真样本，欺骗判别器
        \item 判别器：区分真实样本与生成样本
        \item 两者零和博弈，互相促进提升
    \end{itemize}
    
    \textbf{应用领域}
    \begin{itemize}
        \item 图像生成
        \item 图像修复
        \item 艺术创作
        \item 数据增强
    \end{itemize}
\end{frame}

% 第四部分：应用与展望
\section{深度学习的应用与展望}

\begin{frame}
    \frametitle{各领域应用：计算机视觉}
    \begin{itemize}
        \item \textbf{自动驾驶}：环境感知（识别道路、车辆、行人）
        \item \textbf{安全监控}：人脸识别、行为分析
        \item \textbf{医学影像}：病变识别、疾病诊断
    \end{itemize}
    
    % \begin{center}
    %     \includegraphics[width=0.7\textwidth]{cv_applications.png} % 可替换为计算机视觉应用图片
    % \end{center}
\end{frame}

\begin{frame}
    \frametitle{各领域应用：自然语言处理}
    \begin{itemize}
        \item \textbf{机器翻译}：打破语言障碍
        \item \textbf{情感分析}：判断文本情感，分析用户反馈
        \item \textbf{问答系统}：智能客服、自动答疑
        \item \textbf{文本生成}：新闻、故事、诗歌创作
    \end{itemize}
    
    % \begin{columns}
    %     \column{0.5\textwidth}
    %     \includegraphics[width=\textwidth]{nlp_translation.png} % 可替换为翻译示例
        
    %     \column{0.5\textwidth}
    %     \includegraphics[width=\textwidth]{nlp_qa.png} % 可替换为问答系统示例
    % \end{columns}
\end{frame}

\begin{frame}
    \frametitle{其他领域应用}
    \begin{itemize}
        \item \textbf{智能推荐}：个性化商品、音乐、电影推荐
        \item \textbf{金融领域}：风险评估、股票价格预测
        \item \textbf{工业制造}：质量检测、故障诊断
        \item \textbf{机器人技术}：环境感知、自主导航
        \item \textbf{生物信息学}：基因序列分析、蛋白质结构预测
    \end{itemize}
\end{frame}

\begin{frame}
    \frametitle{未来发展趋势}
    \begin{enumerate}
        \item \textbf{模型发展}
        \begin{itemize}
            \item 更复杂强大，处理复杂任务
            \item 轻量化、高效化，适配移动端
        \end{itemize}
        
        \item \textbf{多模态融合}
        \begin{itemize}
            \item 融合图像、文本、语音等多模态数据
            \item 实现更全面的理解与交互
        \end{itemize}
        
        \item \textbf{与其他技术结合}
        \begin{itemize}
            \item 量子计算：加速模型训练
            \item 区块链：保障数据安全隐私
        \end{itemize}
    \end{enumerate}
\end{frame}

% 结束页
\begin{frame}
    \centering
    \Huge{谢谢观看！}
    \vspace{1cm}
    
    \Large{Q \& A}
\end{frame}

\end{document}