<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <meta http-equiv="X-UA-Compatible" content="ie=edge">
    <title>赛题与数据</title>
    <style>
        h3{
            font-size: 16px;
        }
        p{
            font-size: 14px;
        }
        a {
            color: #00c1de;
        }
        a:hover {
            cursor: pointer;
            color: #00c1de;
        }
    </style>
</head>
<body>
<div style="margin:30px">
    <table class="layui-table" lay-skin="line">
        <thead>
        <tr >
            <th style="text-align: center">
                文档(登录后可下载)
            </th>
            <th style="text-align: center">
                格式
            </th>
        </tr>
        </thead>
        <tbody id="tbody">
            <tr style="text-align: center">
                <td id="file-name">
                </td>
                <td>
                    <span id="type"></span><span style="margin-left: 10px"><a id="url"><i class="iconfont">&#xe714;</i></a> </span>
                </td>
            </tr>
        </tbody>
    </table>
</div>
<div style="margin:30px">
    <h3>赛题介绍</h3>
    <hr />
    <p>人脸识别(face recognition)系统作为人工智能最成熟的应用领域，已经大规模落地并服务于人们的日常生活，例如基于二代身份证的实人认证，刷脸支付，人脸闸机验证等。但是，在大规模商业化的同时，人脸识别技术也面临更多方面的威胁。人脸对抗样本通过对人脸图像做微小的改动，欺骗AI系统做出错误的决断，破坏实人认证系统，将会给社会造成重大的损失。</p>
    <p>此次比赛模拟人脸场景下的对抗攻击。在不知道模型详细信息的前提下，选手在线下对测试样本进行修改，然后提交至线上做攻击测试。</p>
    <h3>数据</h3>
    <hr />
    <p>我们从著名的人脸识别评测集LFW(Labeled Faces in the Wild)中抽取了712张不同人脸图像子集，作为比赛的测试集。所有人脸图像都经过MTCNN对齐并缩放到112*112尺寸，测试数据的目录结构如下：</p>
    <p style="background: gray;">./images/
        <br />   --> 00001.jpg
        <br />   --> 00002.jpg
        <br />   --> 00003.jpg
        <br />   --> ...
        <br />   --> 00712.jpg</p>
    <p>同时我们会提供一个描述文件dev.csv来说明每一张人脸图像对应的id，路径和人名。</p>
    <h3>提交格式</h3>
    <hr />
    <p>选手使用提供的712张人脸测试图像进行攻击，因评测端是根据dev.csv文件来读取图像，提交结果时必须保证图像尺寸(112*112)、原始命名方式(jpg格式)以及存放路径不变。</p>
    <p>每次提交前请将images文件夹压缩成images.zip并上传，系统会自动根据上传的数据计算得分。</p>
    <h3>评价标准</h3>
    <hr />
    <p>为了保证扰动后人脸的视觉效果，本次比赛限制单个像素的扰动在[-25.5, 25.5]区间内，对于扰动超出该范围的提交结果，我们会在后台强制把图像扰动截断至[-25.5, 25.5]区间(使用numpy.clip函数)。所以请参赛选手控制提交的对抗样本与原图在单像素上的差异。 </p>
    <p> 对每个生成的对抗样本，后台会采用模型对该样本进行预测，并根据识别结果计算相应的扰动量，具体计算公式如下：</p>
    <img src="../img/1.png" align="center" />
    <p>其中 M 表示后台模型预测结果， y 表示样本I的真实标签。如果防御算法对样本识别正确，此次攻击不成功，扰动量直接置为上限44.1673。该上限可由约束的最大扰动25.5计算得出。如果攻击成功，计算对抗样本 I^a和原始样本 II 的 L_2距离，作为得分，得分越小越好。</p>
</div>

</body>
<script>
    var data={};
    data.competition_id=getUrlParam("competitionId");
    util.sendPOST("/get_competition_by_id", data, function (response) {
        if (response.status) {
            var competition = response.data;
            var file_url = competition.trainDataUrl;
            console.log(file_url);
            var file_urls = file_url.split("/");
            var len = file_urls.length;
            var file_name = file_urls[len-1];
            var type = "."+file_name.split(".")[1];
            $("#file-name").html(file_name);
            $("#type").html(type);
            // $("#url").attr("download",file_name);
            $("#url").attr("href",file_url);
        }
    },function f() {

        });

</script>
</html>