#-*- coding:utf-8 -*-
import requests,urllib,os
from bs4 import BeautifulSoup
from time import sleep



ans = 0
os.chdir(os.path.join(os.getcwd(),'info/detail'))
for page in range(1,3):
    if page==1:
        #修改点1
        url='http://www.jianjuke.cn/office/0-0-2/'

    header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.109 Safari/537.36'}
    source_code = requests.get(url,headers=header)
    source_code.encoding = 'utf-8' #解决乱码问题
    plain_text = source_code.text
    soup = BeautifulSoup(plain_text,'lxml')
    count = 0
    #修改点2
    index = 61
    for item_info in soup.find_all('li',class_='ga-list g-item'):
        img_src = item_info.find('div',class_='g-dtl')
        item_detail = item_info.find('a').get('href')
        itemName = img_src.find('a',class_='d-name').get('title')
        img_src = item_info.find('img',class_='d-img lazy').get('data-original')
        item_price = item_info.find('span',class_='m-count JS_async_price').text
        item_oldPrice = item_info.find('del',class_='Left p-del').text
        #假设现在点进了跳转链接 获取具体信息 比如详细参数
        source_code2 = requests.get(item_detail,headers=header)
        source_code2.encoding = 'utf-8'
        soup = BeautifulSoup(source_code2.text,'lxml')
        guige = soup.find('div',id='body_guige')
        img_source = soup.find('div',class_='stage')
        
        #img_source = img_source.find('img').get('data-original')       
        #换一下思路 我现在并不需要缩略图的大图 我需要点进缩略图页面后的三张大图
        count = 0
        pics = []
        for pic_info in soup.find_all('a',class_='faceimg-item'):
            link = pic_info.get('data-thumbnail')
            pics.append(link)
            count = count + 1
            if count == 4:
                break
        
        #urllib.request.urlretrieve(pic_link,pic_name)
        print('名称为'+itemName)
        #print('缩略图链接为'+img_src)
        #print('原图链接为'+img_source)
        #print('一号大图为'+pics[0])
        #print('二号大图为'+pics[1])
        #print('三号大图为'+pics[2])
        #print('原价为'+item_oldPrice)
        #print('现价为￥'+item_price)
        #print('跳转链接为'+item_detail)
        print('规格信息为'+guige.prettify()+'\n')
        #urllib.request.urlretrieve(img_source,itemName+'.jpg')


        """
        关于爬下来后怎么存放的问题：
        就不手动创建四个大文件夹以区分四钟家具了 而是每种爬20个 这样就1-20是卧室，21-40是客厅了之类的
        分成三个文件夹，data一个，pic一个，deail一个
        data里只有一个txt文件，内容是：商品编号、商品名称、原价、现价
        pic里存放所有的图片，命名规范为：编号-thumb.jpg 编号-1.jpg 编号-2.jpg 编号-3.jpg
        detail里存放所有的详细信息，一个商品一个txt文件，里面塞入爬下的guige.prettify 命名规范为：商品编号.txt
        """
        """
	#写入data.txt
        with open('data/data.txt','a+',encoding='utf-8') as f:
             f.writelines([str(index),"\n",itemName,"\n",item_oldPrice,"\n",item_price,"\n\n"])
        index = index  + 1
        
        #接下来给Pic里塞图片
        if index == 8 or index == 9:
             urllib.request.urlretrieve(img_src,str(index)+"-thumb.jpg")
             urllib.request.urlretrieve(pics[1],str(index)+"-1.jpg")
             urllib.request.urlretrieve(pics[2],str(index)+"-2.jpg")
             urllib.request.urlretrieve(pics[3],str(index)+"-3.jpg")
        else:
             urllib.request.urlretrieve(img_src,str(index)+"-thumb.jpg")
             urllib.request.urlretrieve(pics[0],str(index)+"-1.jpg")
             urllib.request.urlretrieve(pics[1],str(index)+"-2.jpg")
             urllib.request.urlretrieve(pics[2],str(index)+"-3.jpg")
        print('index为'+str(index))
        """
	#接下来存储详细规格信息
        with open(str(index)+".txt",'a+',encoding='utf-8') as f:
            f.writelines(guige.prettify()+"\n")
        
        index = index + 1
        sleep(0.5)
			
    
    
