<template>
  <div class="Adv">
    <div class="intro-text">
      <h1 class="main-title">对抗样本简介</h1>
      <!-- <el-collapse v-model="activeName" accordion> -->
        <el-collapse v-model="activeName" >
        <el-collapse-item title="什么是对抗样本攻击？" name="1" style="{font-size: 30px}">
          <p>对抗样本攻击是一种针对机器学习模型的策略。通过在输入数据中引入不易察觉的微小变化，来误导模型做出错误的判断或决策。这种攻击手段在图像识别、语音处理和自然语言理解等领域尤为常见。</p>
        </el-collapse-item>
        <el-collapse-item title="攻击原理" name="2">
          <p>输入扰动：攻击者在原始数据中添加精心设计的噪声，这些噪声对于人类观察者来说几乎不可察觉。</p>
          <p>模型误导：尽管输入数据仅发生了微小变化，但机器学习模型可能会因此产生完全不同的预测结果。</p>
        </el-collapse-item>
        <el-collapse-item title="攻击类型" name="3">
          <p>白盒攻击：攻击者完全了解模型的内部结构和参数。</p>
          <p>黑盒攻击：攻击者没有模型的内部信息，但可能通过模型的响应来推断并实施攻击。</p>
          <p>迁移攻击：在一个模型上生成的对抗样本可能对其他模型同样有效。</p>
        </el-collapse-item>
        <el-collapse-item title="常见攻击方法" name="4">
          <p>快速梯度符号法（FGSM）：利用模型损失函数的梯度信息快速生成对抗样本。</p>
          <p>基本迭代方法（BIM）：通过迭代过程逐步优化对抗样本，以增强攻击效果。</p>
        </el-collapse-item>
        <el-collapse-item title="防御策略" name="5">
          <p>数据预处理：通过清洗和规范化数据，减少对抗样本的影响。</p>
          <p>模型加固：训练过程中引入对抗样本，提高模型对攻击的抵抗力。</p>
          <p>模型监控：实时监控模型的预测行为，及时发现并响应潜在的攻击。</p>
        </el-collapse-item>
      </el-collapse>
    </div>
  </div>
</template>
<script>
    export default{
        name : "AdvIntro",
        data(){
            return {
                activeName : '1'
            }
        }
    }
</script>
<style scoped>
.Adv {
  max-width: 800px;
  margin: 0px auto;
  min-height: 90vh;
  padding: 20px auto;
}

.intro-text {
  text-align: justify;
  width: 100vh;
}

.main-title {
  text-align: center;
  font-size: 45px;
  margin-bottom: 20px;
}

.el-collapse-item__title {
  font-size: 35px; /* 设置折叠项标题的字体大小 */
  color: #333;
}

.el-collapse-item__content {
  background-color: #f5f5f5;
  border: 1px solid #ddd;
  padding: 10px;
}

.el-collapse-item__content p {
  font-size: 20px; /* 设置段落文字的字体大小 */
  line-height: 1.6;
  margin-bottom: 10px;
}
</style>
