# -*- coding: utf-8 -*-

# Define here the models for your scraped items
#
# See documentation in:
# https://doc.scrapy.org/en/latest/topics/items.html

import scrapy


# create by menglie
# 用于二次爬取文章信息
class ReferenceItem(scrapy.Item):

    # 从已经查到的文件得到
    paperID = scrapy.Field()  # 文章ID 作为解决文章重名问题时
    entityId = scrapy.Field()  # 可用于和已经查到的  专家文章数据 的链接
    baiduLink = scrapy.Field()
    # 在知网上用于查找的参数
    paperName = scrapy.Field()  # 文章名字.
    paperAuthor = scrapy.Field()  # 文章作者

    # 使用链接找到
    paperLink = scrapy.Field()  # 知网上的原来论文地址，就是我门的使用的数据查询
    referenceType =scrapy.Field() # 知网上参考文献 出自什么数据库  外文题录数据库 、中国图书全文数据库 等
    referenceLink = scrapy.Field()  # 参考文献在知网上的链接
    referenceName = scrapy.Field()  # 参考文献  名字
    referenceAuthor = scrapy.Field()  # 参考文献 作者
    referenceFrom = scrapy.Field()  # 参考文献的  发表来源
    referenceTime = scrapy.Field()  # 参考文献的  发表版次 比如 中国超声医学杂志 2013（01） 中的 2013（01)
    referenceInfo = scrapy.Field()  # 特殊的参考文献 外文的 其他数据库中的文献等等 只存一列信息
