ss = '''
<h1>
注意力机制是一种模拟人类认知过程的计算技术，其核心思想是让机器在处理信息时能够像人一样有选择地关注关键部分，而忽略次要内容。而忽略次要内容。这一机制最早源于神经科学对人类视觉系统的研究，后来被引入到人工智能领域，尤其在自然语言处理和计算机视觉任务中展现出强大的性能。

<h2>
注意力机制的工作原理可以概括为动态权重分配。
在处理序列数据时，系统会为输入的不同部分计算重要性权重，
这些权重决定了每个部分对当前处理的贡献程度。
以机器翻译为例，当模型生成目标语言的某个词时，
它会自动关注源语言中最相关的词或短语，而不是平等对待所有输入信息。
这种动态聚焦能力显著提高了模型处理长距离依赖关系的能力。
<h3>
在技术实现上，注意力机制通常包含三个关键步骤：首先是计算查询向量与键向量的相似度，常用的方法包括点积注意力、加性注意力等；然后通过softmax函数将相似度转换为概率分布，得到注意力权重；最后用这些权重对值向量进行加权求和，得到最终的注意力输出。这种设计使得模型能够灵活地捕捉输入数据中不同位置间的复杂关系。
<h4>
注意力机制最著名的应用是Transformer架构，它完全基于自注意力机制构建，摒弃了传统的循环神经网络结构。在Transformer中，多头注意力机制允许模型同时关注来自不同位置的不同表示子空间的信息，这大大增强了模型的表达能力。这种架构在机器翻译任务中取得了突破性进展，并成为当前大语言模型的基础组件。
<h5>
与传统神经网络相比，注意力机制具有几个显著优势。首先，它能够直接建模任意距离的依赖关系，不受序列长度的限制；其次，注意力权重提供了可解释性，我们可以直观地看到模型关注了输入的哪些部分；再者，它的并行计算特性大幅提升了训练效率。不过注意力机制也存在计算复杂度高、内存消耗大等挑战，特别是在处理超长序列时。
<h6>
随着研究的深入，注意力机制发展出了多种变体。稀疏注意力通过限制关注范围来降低计算成本；局部注意力专注于邻近区域；分层注意力则在不同粒度上分配注意力。这些改进使得注意力机制能够适应更广泛的应用场景。在视觉领域，注意力机制被用于图像分类、目标检测等任务，帮助模型聚焦于图像的关键区域。
<h7>
当前，注意力机制已经成为深度学习模型的标准组件之一。从BERT、GPT等预训练语言模型，到AlphaFold等科学计算模型，注意力机制都发挥着核心作用。未来，随着对注意力机制理论理解的深入和计算效率的进一步提升，它有望在更复杂的认知任务中展现更大潜力，推动人工智能向更接近人类思维方式的方向发展。

'''
import re
# 按照标题，那个h1,h2，h3，h4，h5，h6分割文档
chunks = re.split(r'<h\d>', ss, flags=re.MULTILINE)
print( chunks[1])