Datasets:
Modalities:
Text
Formats:
csv
Size:
100K - 1M
ArXiv:
Tags:
sequential-recommendation
raw-data
anonymized
e-commerce
next-item-prediction
generative-retrieval
License:
(中文版) AL-GR/Origin-Sequence-Data: 原始用户行为序列 📜
📝 数据集摘要
本仓库 AL-GR/Origin-Sequence-Data 包含了 AL-GR 生态系统的基础——原始用户行为序列。它所代表的数据,是格式化为用于训练大语言模型(LLM)的指令式Prompt之前的形态。
数据集中的每一行都代表了用户购物旅程中的一步,由一系列过去交互过的物品(user_history)和他们接下来交互的物品(target_item)组成。所有的物品ID都已被脱敏处理为简短的、唯一的字符串。
本数据集非常适合:
- 🧑🔬 希望设计自己的数据处理或Prompt策略的研究人员。
- 📈 训练和评估传统的序列推荐模型(如 GRU4Rec, SASRec 等)。
- 🔎 理解主
AL-GR数据集所构建的源数据。
🚀 如何使用
该数据集的数据被存放在多个文件夹中(s1_splits, s2_splits 等),这对于 datasets 库来说是一种非标准格式。为了实现无缝加载,我们需要一个加载脚本。
步骤一:创建加载脚本
在您的本地电脑上创建一个名为 origin-sequence-data.py 的文件,并将以下代码粘贴进去。
import csv
import datasets
import glob
_DESCRIPTION = "AL-GR项目的原始用户行为序列,已划分为历史和目标物品。"
_CITATION = """
@misc{al-gr-origin-sequence,
author = {[您的姓名或团队名]},
title = {AL-GR/Origin-Sequence-Data: Raw User Behavior Sequences},
year = {[年份]},
# ... 其他引文信息
}
"""
class OriginSequenceData(datasets.GeneratorBasedBuilder):
"""AL-GR原始用户行为序列的加载器。"""
def _info(self):
return datasets.DatasetInfo(
description=_DESCRIPTION,
features=datasets.Features({
"user_history": datasets.Value("string"),
"target_item": datasets.Value("string"),
}),
citation=_CITATION,
)
def _split_generators(self, dl_manager):
repo_path = dl_manager.manual_dir
return [
datasets.SplitGenerator(name="s1", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/s1_splits/*.csv"))}),
datasets.SplitGenerator(name="s2", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/s2_splits/*.csv"))}),
datasets.SplitGenerator(name="s3", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/s3_splits/*.csv"))}),
datasets.SplitGenerator(name="test", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/test/*.csv"))}),
]
def _generate_examples(self, filepaths):
key = 0
for filepath in filepaths:
with open(filepath, "r", encoding="utf-8") as f:
# 假设CSV文件包含表头 'user_history', 'target_item'
# 如果没有,可能需要使用 csv.reader 并通过索引访问。
reader = csv.DictReader(f)
for row in reader:
yield key, {
"user_history": row["user_history"],
"target_item": row["target_item"],
}
key += 1
步骤二:上传脚本
将 origin-sequence-data.py 文件上传到此数据集在 Hugging Face Hub 上的根目录。
步骤三:一行代码加载数据集!
一旦脚本上传完成,您(以及其他任何人)就可以轻松地加载整个数据集:
from datasets import load_dataset
# 加载脚本会被自动检测并执行。
dataset = load_dataset("AL-GR/Origin-Sequence-Data")
# 访问不同的数据划分
print("来自s1划分的样本:")
print(dataset['s1'][0])
print("\n来自test划分的样本:")
print(dataset['test'][0])
🏗️ 数据集结构
数据字段
user_history(string) 🕒: 一个由空格分隔的、脱敏后的物品ID序列,代表用户的历史交互行为。target_item(string) 🎯: 用户接下来交互的单个、脱敏后的物品ID。
数据划分
数据集被划分为四个主要部分,存储在不同的文件夹中:
s1_splits,s2_splits,s3_splits: 三个按时间顺序排列的训练集。这对于时间感知模型的训练和评估非常有用,允许模型在较早的数据上训练,并在较新的数据上测试。test: 一个专用于最终模型评估的测试集。
🔗 与 AL-GR 的关系
本数据集是主 AL-GR 生成式数据集的直接前身。转换关系如下:
Origin-Sequence-Data(本数据集):user_history: "AdPxq 6Vf1Re WkQqK..."target_item: "ECZSq"
AL-GR(生成式数据集):system: "你是一个推荐系统..."user: "当前用户的历史行为如下:C...C..." (ID可能经过了重新映射)answer: "C..." (目标物品,经过重新映射)
本数据集为任何希望复现或创建 AL-GR Prompt格式变体的人提供了原始素材。
✍️ 引文信息
如果您在研究中使用了本数据集,请引用:
📜 许可协议
本数据集采用 [例如:Apache License 2.0] 许可协议。