#!/usr/bin/env python
# -*- coding: utf-8 -*-
"""
__title__ = ''
__author__ = 'liugenxian'
__mtime__ = '2017/3/6'
"""

import os
import re
import requests
from bs4 import BeautifulSoup

class ScalersForum(object):
    def __init__(self, id, name='scalers'):
        self.id = id
        self.name = name

    def get_pageUrls_of_aMember(self, idMember, myCookies):
        """
        获取一个会员的帖子的全部页面的 url list
        :param idMember: 成员的会员号，即页面地址id，我的是555
        :param myCookies: 我的cookies 字典形式
        :return url list:
        """
        base_url = r'http://qgc.qq.com'
        member_url = base_url + r'/314962432/t/' + str(idMember)
        response = requests.get(member_url, cookies=myCookies)

        # "html.parser" 是 Python标准库 的 HTML 解析器
        # 对获取到的页面内容(response.content)进行解析
        soup = BeautifulSoup(response.content, "html.parser")

        # 找到名为class="page"的<div>标记, 在<div>内迭代所有<a>标记
        # 每个<a>里的<href>标记，即是需要找到的所有网页链接
        # 或直接找到 class=c_tx 的 <a> tag
        # page_tag = soup.find_all(lambda tag: tag.name == 'div' and tag.get('class') == ['page'])
        a_tag = soup.find_all(lambda tag: tag.name == 'a' and tag.get('class') == ['c_tx'])
        # logging.info(a_tag)

        # urls 为会员的帖子的全部页面的链接列表
        urls = [member_url]

        for a in a_tag:
            url = base_url + a.get('href')
            urls.append(url)

        return urls
