--- license: mit --- # 模型训练过程汇总(持续更新中) 本仓库采用扁平化的目录结构和标签系统来组织模型,具体说明如下: ## 仓库结构 - **一级目录**:直接以模型名称命名,例如 `Clone-detection-BigCloneBench`、`GraphMAE_QM9` 等 - **模型目录结构**:每个模型目录下包含: - `code/`:存放模型相关代码和训练脚本 - `model/`:存放模型训练过程和权重文件 - 按数据集分类 - 训练变体(0:标准训练,1:数据增强,2:后门攻击) - 每个epoch的权重文件(.pth)和embedding(.npy) - `dataset/`:训练数据集(解压或压缩包形式) ## 标签系统 每个模型都具有以下标签属性: 1. **数据类型** (data_type) - 代码 (code) - 文本 (text) - 图像 (image) - 图结构 (graph) 2. **任务类型** (task_type) - 分类 (classification) - 生成 (generation) - 检索 (retrieval) - 相似度计算 (similarity) - 表示学习 (representation_learning) - 自动编码 (autoencoder) - 代码补全 (completion) - 预训练 (pretraining) 3. **领域** (domain) - 代码克隆检测 (code_clone_detection) - 代码搜索 (code_search) - 分子性质预测 (molecular_property) - 代码缺陷检测 (code_defect_detection) - 计算机视觉 (computer_vision) - 移动端计算 (mobile_computing) - Transformer架构 (transformer) 4. **输入/输出类型** (input_type/output_type) - 代码 (code) - 代码对 (code_pair) - 代码token序列 (code_tokens) - 代码排序 (code_ranking) - 自然语言 (natural_language) - 图结构 (graph) - 图像 (image) - 二元标签 (binary) - 类别标签 (class_label) - 分子特征 (molecular_features) 所有模型的元数据和标签信息都存储在 `models.json` 文件中 可以通过运行 `python model_filter.py` 命令来通过标签进行快速检索和筛选。 下表汇总了所有收集的模型训练过程信息:
模型名称 模型简介 模型类型 Epoch数量 数据集信息
Clone-detection-BigCloneBench 基于大规模代码克隆基准数据集的代码克隆检测模型,任务是进行二元分类(0/1),其中1代表语义等价,0代表其他情况。 代码克隆检测 待上传 BigCloneBench数据集
Clone-detection-POJ-104 基于POJ-104数据集的代码克隆检测模型,任务是识别不同编程题目中相似的代码实现,给定一段代码和一组候选代码,任务是返回具有相同语义的Top K个代码 代码克隆检测 待上传 POJ-104编程题目数据集
CodeCompletion-token 基于token级别的代码自动补全模型 代码补全 待上传 Java代码token序列数据集
Defect-detection 代码缺陷检测模型,通过分析代码来识别潜在的缺陷和错误(进行二元分类(0/1)) 代码缺陷检测 待上传 包含缺陷标注的C语言代码数据集
code-refinement 代码优化模型 代码优化/重构 待上传 代码优化前后对数据集(C语言)
code-to-text 代码到自然语言的转换模型 代码注释生成 待上传 多语言代码-文本对数据集
NL-code-search-Adv 高级自然语言代码搜索模型,通过计算自然语言查询与代码片段之间的相似性来实现代码搜索, 代码搜索 待上传 自然语言-(python)代码对数据集
NL-code-search-WebQuery 基于Web查询的代码搜索模型,该模型通过编码器处理代码和自然语言输入,并利用多层感知器(MLP)来计算相似性得分 代码搜索 待上传 Web查询-代码对数据集(CodeSearchNet数据集和CoSQA数据集(python))
text-to-code 自然语言到代码的生成模型 代码生成 待上传 文本描述-代码(c语言)对数据集
GraphMAE_QM9 在QM9数据集上训练的图掩码自编码器,通过对分子图中的原子的坐标以及类型进行预测实现自监督训练 图自编码器 待上传 分子属性预测数据集
AlexNet 2012年获得ImageNet冠军的经典模型,首次证明了深度学习在图像识别上的强大能力。 图像分类 待补充 CIFAR-10数据集
DenseNet 每一层都直接与其他所有层相连,像搭积木一样层层堆叠,可以更好地学习图像特征。 图像分类 待补充 CIFAR-10数据集
EfficientNet 通过平衡网络的深度、宽度和图像分辨率,用更少的计算量达到更好的效果。 图像分类 待补充 CIFAR-10数据集
GoogLeNet 谷歌开发的模型,像多个眼睛同时看图片的不同部分,既省资源又准确。 图像分类 待补充 CIFAR-10数据集
LeNet5 深度学习领域的开山之作,虽然简单但奠定了现代CNN的基础架构。 图像分类 待补充 CIFAR-10数据集
MobileNetv1 专门为手机设计的轻量级模型,用特殊的卷积方式减少计算量。 图像分类 待补充 CIFAR-10数据集
MobileNetv2 MobileNet的升级版,增加了特征复用机制,性能更好。 图像分类 待补充 CIFAR-10数据集
MobileNetv3 结合自动搜索技术的新版本,自动找到最适合手机的网络结构。 图像分类 待补充 CIFAR-10数据集
ResNet 通过特殊的"快捷连接"解决深层网络训练难的问题,可以训练超级深的网络。 图像分类 待补充 CIFAR-10数据集
SENet 为网络添加了"注意力机制",让模型能够关注图片中重要的部分。 图像分类 待补充 CIFAR-10数据集
ShuffleNet 通过巧妙地打乱和分组计算,实现了手机上的高效运行。 图像分类 待补充 CIFAR-10数据集
ShuffleNetv2 在原版基础上优化设计,速度更快,效果更好。 图像分类 待补充 CIFAR-10数据集
SwinTransformer 把自然语言处理的先进技术用于图像,通过逐步关注图片不同区域来理解图像。 图像分类 待补充 CIFAR-10数据集
VGG 用统一的小型卷积核堆叠成深层网络,结构简单但效果好。 图像分类 待补充 CIFAR-10数据集
ViT 把图片切成小块后像读文章一样处理,是一种全新的图像处理方式。 图像分类 待补充 CIFAR-10数据集
ZFNet 通过可视化研究改进的AlexNet,帮助人们理解网络是如何"看"图片的。 图像分类 待补充 CIFAR-10数据集