
from itemadapter import ItemAdapter

# 注意：管道默认是不生效的，需要去settings里面开启管道
class Scrapy01Pipeline:
    """类名随便取"""

    def process_item(self, item, # item接收 spider传来的数据
                     spider): # 爬虫对象
        """函数名不可改"""

        print(item)
        print(spider.name)
        # 将解析的数据传递给 下一个 管道pipeline，注意管道之间的优先级
        return item


class NewPipeline:
    def process_item(self, item, spider):

        # 写入文件
        with open("./data/game.txt", 'a') as f:
            name, category, date = item.get('name'), item.get('category'), item.get('date')
            s1 = name + ": " + category + ": " + date + '\n'
            f.write(s1)

        # 将解析的数据传递给 下一个 管道pipeline
        return item