Origin-Sequence-Data / README-ZH.md
AL-GR's picture
Update README-ZH.md
a8e0d62 verified

(中文版) AL-GR/Origin-Sequence-Data: 原始用户行为序列 📜

📝 数据集摘要

本仓库 AL-GR/Origin-Sequence-Data 包含了 AL-GR 生态系统的基础——原始用户行为序列。它所代表的数据,是格式化为用于训练大语言模型(LLM)的指令式Prompt之前的形态。

数据集中的每一行都代表了用户购物旅程中的一步,由一系列过去交互过的物品(user_history)和他们接下来交互的物品(target_item)组成。所有的物品ID都已被脱敏处理为简短的、唯一的字符串。

本数据集非常适合:

  • 🧑‍🔬 希望设计自己的数据处理或Prompt策略的研究人员。
  • 📈 训练和评估传统的序列推荐模型(如 GRU4Rec, SASRec 等)。
  • 🔎 理解主 AL-GR 数据集所构建的源数据。

🚀 如何使用

该数据集的数据被存放在多个文件夹中(s1_splits, s2_splits 等),这对于 datasets 库来说是一种非标准格式。为了实现无缝加载,我们需要一个加载脚本

步骤一:创建加载脚本

在您的本地电脑上创建一个名为 origin-sequence-data.py 的文件,并将以下代码粘贴进去。

import csv
import datasets
import glob

_DESCRIPTION = "AL-GR项目的原始用户行为序列,已划分为历史和目标物品。"
_CITATION = """
@misc{al-gr-origin-sequence,
  author = {[您的姓名或团队名]},
  title = {AL-GR/Origin-Sequence-Data: Raw User Behavior Sequences},
  year = {[年份]},
  # ... 其他引文信息
}
"""

class OriginSequenceData(datasets.GeneratorBasedBuilder):
    """AL-GR原始用户行为序列的加载器。"""

    def _info(self):
        return datasets.DatasetInfo(
            description=_DESCRIPTION,
            features=datasets.Features({
                "user_history": datasets.Value("string"),
                "target_item": datasets.Value("string"),
            }),
            citation=_CITATION,
        )

    def _split_generators(self, dl_manager):
        repo_path = dl_manager.manual_dir
        return [
            datasets.SplitGenerator(name="s1", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/s1_splits/*.csv"))}),
            datasets.SplitGenerator(name="s2", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/s2_splits/*.csv"))}),
            datasets.SplitGenerator(name="s3", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/s3_splits/*.csv"))}),
            datasets.SplitGenerator(name="test", gen_kwargs={"filepaths": sorted(glob.glob(f"{repo_path}/test/*.csv"))}),
        ]

    def _generate_examples(self, filepaths):
        key = 0
        for filepath in filepaths:
            with open(filepath, "r", encoding="utf-8") as f:
                # 假设CSV文件包含表头 'user_history', 'target_item'
                # 如果没有,可能需要使用 csv.reader 并通过索引访问。
                reader = csv.DictReader(f)
                for row in reader:
                    yield key, {
                        "user_history": row["user_history"],
                        "target_item": row["target_item"],
                    }
                    key += 1

步骤二:上传脚本

origin-sequence-data.py 文件上传到此数据集在 Hugging Face Hub 上的根目录

步骤三:一行代码加载数据集!

一旦脚本上传完成,您(以及其他任何人)就可以轻松地加载整个数据集:

from datasets import load_dataset

# 加载脚本会被自动检测并执行。
dataset = load_dataset("AL-GR/Origin-Sequence-Data")

# 访问不同的数据划分
print("来自s1划分的样本:")
print(dataset['s1'][0])

print("\n来自test划分的样本:")
print(dataset['test'][0])

🏗️ 数据集结构

数据字段

  • user_history (string) 🕒: 一个由空格分隔的、脱敏后的物品ID序列,代表用户的历史交互行为。
  • target_item (string) 🎯: 用户接下来交互的单个、脱敏后的物品ID。

数据划分

数据集被划分为四个主要部分,存储在不同的文件夹中:

  • s1_splits, s2_splits, s3_splits: 三个按时间顺序排列的训练集。这对于时间感知模型的训练和评估非常有用,允许模型在较早的数据上训练,并在较新的数据上测试。
  • test: 一个专用于最终模型评估的测试集。

🔗 与 AL-GR 的关系

本数据集是主 AL-GR 生成式数据集的直接前身。转换关系如下:

  • Origin-Sequence-Data (本数据集):

    • user_history: "AdPxq 6Vf1Re WkQqK..."
    • target_item: "ECZSq"
  • AL-GR (生成式数据集):

    • system: "你是一个推荐系统..."
    • user: "当前用户的历史行为如下:C...C..." (ID可能经过了重新映射)
    • answer: "C..." (目标物品,经过重新映射)

本数据集为任何希望复现或创建 AL-GR Prompt格式变体的人提供了原始素材。

✍️ 引文信息

如果您在研究中使用了本数据集,请引用:

📜 许可协议

本数据集采用 [例如:Apache License 2.0] 许可协议。