Go 百度贴吧、捧腹段子并发爬虫

爬虫设计

爬虫设计步骤:

  • 明确目标:要知道在哪个范围或者网站去搜索
  • 爬:将所有的网站的内容全部爬下来
  • 取:去掉对我们没用处的数据
  • 处理数据:按照我们想要的方式存储和使用

百度贴吧爬虫

1、规律分析:

  • 网页规律
https://tieba.baidu.com/f?kw=绝地求生&ie=utf-8&pn=0
https://tieba.baidu.com/f?kw=绝地求生&ie=utf-8&pn=50
https://tieba.baidu.com/f?kw=绝地求生&ie=utf-8&pn=100

2、爬虫 Demo

package main

import (
    "fmt"
    "net/http"
    "strconv"
    "os"
)

// 爬取网页内容
func HttpGet(url string)(result string, err error) {
    resp, err1 := http.Get(url)
    if err1 != nil {
        // print err
        err = err1
        return
    }
    
    defer resp.Body.Close()
    
    // 读取网页 Body 内容
    buf := make([]byte, 1024 * 4)
    for {
        n, err := resp.Body.Read(buf)
        if n == 0 { // 读取结束,或者出问题
            // print err
            break
        }
        
        result += string(buf[:n])
    }
    
    return
}

// 爬取一个网页
func SpidePage(i int, page chan<- int) {
    url = "http://tieba.baidu.com/f?kw=ios&ie=utf-8&pn=0&red_tag=y1558891520&pn=" + strconv.Itoa((i - 1) * 50)
    // print url
    
    // 2) 爬,将所有的网站的内容全部爬下来
    result, err := HttpGet(url) 
    if err != nil {
        // print err
        continue
    }
    
    // 把内容写入到文件
    fileName := strconv.Itoa((i - 1) * 50) + ".html"
    f, err1 := os.Create(fileName)
    if err1 != nil {
        // print err1
        continue
    }
    
    f.WriteString(result) // 写内容
    f.Close() // 关闭文件
    
    page <- i // 写内容
}


func DoWork(start, end int) {
    fmt.Printf("正在爬取 %d 到 %d 的页面\b", start, end)
    
    page := make(chan int)
    
    // 1) 明确目标(要知道你准备在哪个范围或者网站去搜索)
    // https://tieba.baidu.com/f?kw=绝地求生&ie=utf-8&pn=0 // 下一页加 50
    for i := start; i < end; i++ {
        go SpidePage(i, page)
    }
    
    for i := start; i < end; i++ {
        // 没爬完之前是阻塞的
        fmt.Printf("第%d个页面爬取完成\n", <-page)
    }
}

func main() {
    var start, end int
    fmt.Printf("请输入起始页(>= 1): ")
    fmt.Scan(&start)
    fmt.Printf("请输入终止页(>= 起始页): ")
    fmt.Scan(&end)
    
    DoWork(start, end)
}

段子爬虫

1、规律分析

  • 网页规律
https://www.pengfu.com/index_1.html
https://www.pengfu.com/index_2.html
https://www.pengfu.com/index_3.html
  • 主页面规律
<h1 class="dp-b"><a href=" 一个段子 URL 连接 "
  • 段子 URL
<h1> 标题 </h1> 只取1个
<div class="content-txt pt10"> 段子内容 <a id="prev" href="

2、爬虫 Demo

package main

import (
    "fmt"
    "net/http"
    "strconv"
    "regexp"
    "strings"
    //"os"
)

func HttpGet(url string)(result string, err error) {
    resp, err1 := http.Get(url)
    if err1 != nil {
        // print err
        err = err1
        return
    }
    
    defer reso.Body.Close()
    
    // 读取网页内容
    buf := make([]byte, 4 * 1024)
    for {
        n, _ := resp.Body.Read(buf)
        if n == 0 {
            break
        }
        
        result += string(buf{:n})
    }
    return
}

func SpiderOneJoy(url string)(title, content string, err error) {
    // 开始爬取网页内容
    result, err1 := HttpGet(url)
    if err1 != nil {
        err = err1
        return
    }
    
    2) 开始爬取页面内容
    result, err := HttpGet(url)
    if err != nil {
        // print err
        return
    }
    fmt.Printf("r = ", result)
    
    // 3)获取关键信息:标题
    // <h1> 段子标题 </h1> 只取1个
    re1 := regexp.MustCompile(`<h1>(?s:(.*?))</h1>`) // 正则表达式以组为单位,?s 表示遇到 \n 的也匹配
    if re1 == nil {
        err = fmt.Errorf("%s", "regex.MustCompile err")
        return
    }
    
    // 取段子标题
    tmpTitle := re.FindAllStringSubmatch(result, 1) // 最后一个参数为 1, 表示只过滤第 1 个
    for _, data := range tmpTitle {
        title = data[1]
        
        // 对tab、制表符、换行、空格特殊处理
        title = strings.Replace(title, "\r", "",-1)
        title = strings.Replace(title, "\n", "",-1)
        title = strings.Replace(title, " ", "",-1)
        title = strings.Replace(title, "\t", "",-1)
        break
    }
    
    // 3)获取关键信息:内容
    // <div class="content-txt pt10"> 段子内容 <a id="prev" href="
    re2 := regexp.MustCompile(`<div class="content-txt pt10">(?s:(.*?))<a id="prev" href=`) // 正则表达式以组为单位,?s 表示遇到 \n 的也匹配
    if re2 == nil {
        err = fmt.Errorf("%s", "regex.MustCompile err")
        return
    }
    
    // 取段子内容
    tmpContent := re.FindAllStringSubmatch(result, -1) // -1 表示过滤全部
    for _, data := range tmpContent {
        content = data[1]
        
        // 对tab、制表符、换行、空格特殊处理
        content = strings.Replace(content, "\r", "",-1)
        content = strings.Replace(content, "\n", "",-1)
        content = strings.Replace(content, " ", "",-1)
        content = strings.Replace(content, "\t", "",-1)
        content = strings.Replace(content, "<br />", "",-1)
        break
    }
    
    return
}

// 把内容写入到文件
func StoreJoyToFile(i int, fileTitle, fileContent []string) {
    // 新建文件
    f, err := os.Create(strconv.IToa(i) + ".txt")
    if err != nil {
        // print err
        return
    }
    
    defer f.Close()
    
    // 写内容
    n := len(fileTitle)
    for i := 0; i < n; i++ {
        // 写标题
        f.WriteString(fileTitle[i] + "\n")
        // 写内容
        f.WriteString(fileContent[i] + "\n")
        
        f.WriteString("\n==============\n")
    }
}

// 爬取主页面
func SpidePage(i int) {
    // 1) 明确爬取的 url
    // url: https://www.pengfu.com/index_1.html
    url := "https://www.pengfu.com/index_" + strconv.IToa(i) + ".html"
    fmt.Printf("正在爬取滴%d个网页:%s", i, url)
    
    // 2) 开始爬取页面内容
    result, err := HttpGet(url)
    if err != nil {
        // print err
        return
    }
    fmt.Printf("r = ", result)
    
    // 3) 取内容,正则匹配
    // <h1 class="dp-b"><a href=" 一个段子 URL 连接 " 
    // 解析表达式,取关键信息
    re := regexp.MustCompile(`<h1 class="dp-b"><a href="(?s:(.*?))"`) // 正则表达式以组为单位,?s 表示遇到 \n 的也匹配
    if re == nil {
        // print err
        return
    }
    
    // 去关键信息: 段子详情页的 URL
    joyUrls := re.FindAllStringSubmatch(result, -1)
    fmt.Println("joyUrl = %s", joyUrls)
    
    fileTitle := make([]string, 0)
    fileContent := make([]string, 0)
    
    // joyUrls:[[<h1 class="dp-b"><a href="https://www.pengfu.com/content_1788974_1.html"https://www.pengfu.com/content_1788974_1.html]
    
    // 获取 joyUrl
    // 切片迭代,第一个返回下标,第二个返回内容
    for _, data := range joyUrls {
        // print url
        // fmt.Println("url = ", data[1])
        // 爬取每一个段子
        title, content, err :=  SpiderOneJoy(data[1])
        if err != nil {
            // print err
            continue
        }
        
        // print title、content
        fileTitle = append(fileTitle, title) // 追加内容
        fileContent = append(fileContent, content) // 追加内容
    }
    
    // print fileTitle、fileContent
    
    // 把内容写入到文件
    StoreJoyToFile(i, fileTitle, fileContent)
}

func DoWork(start, end int) {
    fmt.Printf("正在爬取 %d 到 %d 的页面\b", start, end)
    
    page := make(chan int)
    
    // 1) 明确目标(要知道你准备在哪个范围或者网站去搜索)
    // 
    for i := start; i < end; i++ {
        go SpidePage(i, page)
    }
    
    for i := start; i < end; i++ {
        // 没爬完之前是阻塞的
        fmt.Printf("第%d个页面爬取完成\n", <-page)
    }  
}

func main() {
    var start, end int
    fmt.Printf("请输入起始页(>= 1): ")
    fmt.Scan(&start)
    fmt.Printf("请输入终止页(>= 起始页): ")
    fmt.Scan(&end)
    
    DoWork(start, end)
}
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,117评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,328评论 1 293
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,839评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,007评论 0 206
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,384评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,629评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,880评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,593评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,313评论 1 243
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,575评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,066评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,392评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,052评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,082评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,844评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,662评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,575评论 2 270

推荐阅读更多精彩内容