豆瓣爬虫练习

豆瓣读书热门标签

import requests
from bs4 import BeautifulSoup

baseUrl = "https://book.douban.com/tag/?view=cloud"   
headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36","Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8"}

def get_books():
    url = baseUrl
    lists = []
    html = requests.get(url,headers=headers)
    soup = BeautifulSoup(html.content, "html.parser")
    items = soup.find("table", "tagCol").find_all("tr")
    for i in items:
         lines = i.find_all("td")
         for j in lines:
              books = {}      
              books["title"]=j.a.string  
              books["num"]=j.b.string  
              lists.append(books)# 得到标签列表,一共120个热门标签
    return lists

if __name__ == "__main__":
    lists = get_books()
    print(lists)

20170421按区爬取链家二手房

import pymysql
import requests
from bs4 import BeautifulSoup
import time


  
headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36","Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8"}
qu_lists = {'tianhe':'天河','yuexiu':'越秀','liwan':'荔湾','haizhu':'海珠','panyu':'番禺','baiyun':'白云','huangpugz':'黄埔','conghua':'从化','zengcheng':'增城','huadu':'花都','luogang':'萝岗','nansha':'南沙'}

     
def get_books(start):
     #%d用作数字占位
     url = "http://gz.lianjia.com/ershoufang/待选/pg%d/" 
     lists = []
     for j in qu_lists:
          baseUrl = url.replace('待选',j)
          full_url = baseUrl % start
          tag = qu_lists[j]
          html = requests.get(full_url,headers=headers)
          soup = BeautifulSoup(html.content, "html.parser")# BeautifulSoup解析页面内容
          items = soup.find("ul", "sellListContent").find_all("li") # 获取所有的房子内容
          for i in items:
              books = {}      # 临时存取房产的数据
              books["tag"] = tag # 天河
              books["title"]=i.find("div","title").a.string  #雅逸庭3房出售 单边位 带主套 免交个税
              books["tagBlock"]=i.find("div","title").find("span","new tagBlock").text if(i.find("div","title").find("span","new tagBlock")) else ""  #新上
              books["link"]=i.find("div","title").a.get('href')  #http://gz.lianjia.com/ershoufang/GZ0002556701.html
              books["address_xiaoqu"]=i.find("div","houseInfo").a.string  #广州雅居乐花园雅逸庭 
              books["address_info"]= i.find("div","houseInfo").a.next_sibling  # | 3室2厅 | 109.5平米 | 东北 | 精装 | 无电梯
              books["flood"]= i.find("div","flood").find("div","positionInfo").span.next_sibling  #中楼层(共6层)2010年建塔楼  -  
              books["area"]= i.find("div","flood").find("div","positionInfo").a.string  #华南
              books["total_price"] = i.find("div","totalPrice").find("span").text   # 总价
              books["mean_price"] = i.find("div", "unitPrice").find("span").text  # 均价
              books["followInfo"]= i.find("div","followInfo").span.next_sibling  #103人关注 / 共42次带看 / 29天以前发布

              books["subway"]= i.find("div","tag").find("span","subway").text if(i.find("div","tag").find("span","subway")) else "" #距离1号线广州东站站338米
              books["taxfree"]= i.find("div","tag").find("span","taxfree").text if(i.find("div","tag").find("span","taxfree")) else "" #距离1号线广州东站站338米
              books["haskey"]= i.find("div","tag").find("span","haskey").text if(i.find("div","tag").find("span","haskey")) else ""#距离1号线广州东站站338米

              lists.append(books) # 保存到返回数组中
              print(books["area"])
          time.sleep(3.5)
     return lists

if __name__ == "__main__":
     
     # 连接数据库,需指定charset否则可能会报错
     db = pymysql.connect(host="localhost",user="root",password="root",db="new_schema",charset="utf8mb4")
     cursor = db.cursor()
     cursor.execute("DROP TABLE IF EXISTS lianjia170421")# 如果表存在则删除
     # 创建表sql语句
     createTab = """CREATE TABLE lianjia170421(
         id INT NOT NULL AUTO_INCREMENT PRIMARY KEY,
         tag VARCHAR(100) NOT NULL,
         title VARCHAR(100) NOT NULL,
         tagBlock VARCHAR(100) NOT NULL,
         link VARCHAR(100) NOT NULL,
         address_xiaoqu VARCHAR(100) NOT NULL,
         address_info VARCHAR(100) NOT NULL,
         flood VARCHAR(100) NOT NULL,
         area VARCHAR(300) NOT NULL,
         total_price VARCHAR(50) NOT NULL,
         mean_price VARCHAR(100) NOT NULL,
         followInfo VARCHAR(200) NOT NULL,
         subway VARCHAR(100) NOT NULL,
         taxfree VARCHAR(100) NOT NULL,
         haskey VARCHAR(100) NOT NULL
     )"""
     cursor.execute(createTab)
     for start in range(1,100,1):
          lists = get_books(start)# 获取提取到数据
          for i in lists:
               # 插入数据到数据库sql语句,%s用作字符串占位
              sql = "INSERT INTO `lianjia170421`(`tag`,`title`,`tagBlock`,`link`,`address_xiaoqu`,`address_info`,`flood`,`area`,`total_price`,`mean_price`,`followInfo`,`subway`,`taxfree`,`haskey`) VALUES(%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s)"
              try:
                  cursor.execute(sql, (i["tag"], i["title"], i["tagBlock"], i["link"], i["address_xiaoqu"], i["address_info"], i["flood"], i["area"], i["total_price"], i["mean_price"], i["followInfo"], i["subway"], i["taxfree"], i["haskey"]))
                  db.commit()
                  print(i["name"]+" is success")
              except:
                  db.rollback()
          time.sleep(3.5)
     db.close()

为什么会报这个错。。
AttributeError: 'NoneType' object has no attribute 'find_all'

华为软挑排名

# -*- coding: utf-8 -*-
"""
Created on Sun Apr 22 11:03:17 2018

@author: Rainey
"""

import requests
from bs4 import BeautifulSoup

headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36","Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8"}
data = {
        'stageKey': '复赛',
        'subKey': 8,
        'stageType': 1
        }
     


def get_html():
     url = "http://codecraft.devcloud.huaweicloud.com/Home/TeamScoreDisplays" 
     
     html = None
     try:
         html = requests.post(url=url,headers=headers,data=data).text
     except:
         get_html()
     return html
          
                          

if __name__ == "__main__":
    
     print(get_html())# 此处直接返回的是Response文件
     
     soup = BeautifulSoup(get_html())# BeautifulSoup解析页面内容
     items = soup.find_all("tr") # 获取所有的队伍内容
     for i in items:
         books = {}      
         books["team"]=i.find("td","first-td").string  
         print(books["team"])
         books["score"]=i.find("td","score").string  
         print(books["score"])
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 162,825评论 4 377
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 68,887评论 2 308
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 112,425评论 0 255
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,801评论 0 224
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 53,252评论 3 299
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 41,089评论 1 226
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 32,216评论 2 322
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 31,005评论 0 215
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,747评论 1 250
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,883评论 2 255
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,354评论 1 265
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,694评论 3 265
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,406评论 3 246
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,222评论 0 9
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,996评论 0 201
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 36,242评论 2 287
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 36,017评论 2 281

推荐阅读更多精彩内容