【编程】获取简书文章数据

欢迎关注我的专栏( つ•̀ω•́)つ【人工智能通识】
【专题】简书下载器:Python-Tkinter项目编程入门


继续之前的Tkinter界面交互的文章。

Options.py

我们需要把浏览器的Cookies以及各种Headers信息提供给Python,这样才能模拟自己的用户登录信息,更多内容可以参考这个较早的文章 【网络数据抓取-Python-爬虫-Header-Boss直聘】

为了不干扰reqs.py文件,我们创建一个modules/options.py文件用来放置这些信息,它的代码如下:

savePath='../data'
urlVolumns = 'https://www.jianshu.com/author/notebooks'
params = {'order_by': 'shared_at', 'page': '1'}
headers = '''
accept: application/json
...这些内容从浏览器的控制台中复制得到,参见下面...
user-agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36
'''
def str2obj(s, s1=';', s2='='):
    li = s.split(s1)
    res = {}
    for kv in li:
        li2 = kv.split(s2)
        if len(li2) > 1:
            res[li2[0]] = li2[1]
    return res

headers = str2obj(headers, '\n', ': ')

这里的headers字段可以从Chrome浏览器的【控制台-Networks】对应的接口中复制得到,如下图:


有两点特别需要注意:

  • 冒号开头的不要复制,比如:authority...这样的不要。
  • 要去掉if-none-match: W/...这行,这个的意思是如果本地有缓存那么就不读取,可能会得到304错误,去掉后就可以强制读取了。

关于上面的str2obj函数,这是将header的字符串格式转换为对象格式{'accept':'application/json',...},你可以在这里添加print(headers)来测试观看结果。

获取文集数据

首先我们注释掉getAll中的内容,这样我们就可以直接运行reqs.py文件而不必去用待界面的main.py测试。

我们在modules/reqs.py中直接引入刚才撰写的options.py文件,并引入json:

import options as opt
import json

然后我们就可以使用了,先修改最底部获取文集的函数getVolums:

def getVolums():  # 获取文集列表
    res = requests.get(opt.urlVolumns, headers=opt.headers)
    resdata = json.loads(res.text)
    print(resdata)
    return 'getVolums OK!'

getVolums()

运行后就会输出你的文集列表数据,类似[{'id': 32873510, 'name': '人工智能DBD', 'seq': 0}, {'id': 34298143,...这样的数据,每一个id对应一个文集。

获取文章列表

然后我们修改获取每个文章的函数getArticlesList,并在getVolums中调用它:

def getArticlesList(volId):  # 获取文章列表
    urlVol = 'https://www.jianshu.com/author/notebooks/'+str(volId)+'/notes'
    res = requests.get(urlVol, headers=opt.headers)
    resdata = json.loads(res.text)
    print(resdata)
    return 'getArticlesList OK!'


def getVolums():  # 获取文集列表
    res = requests.get(opt.urlVolumns, headers=opt.headers)
    resdata = json.loads(res.text)
    for d in resdata[:1]:
        time.sleep(1)
        getArticlesList(d['id'])

    return 'getVolums OK!'


getVolums()

在getVolums中我们向getArticlesList传递了文集的id即getArticlesList(d['id']),然后再getArticlesList中我们拼合了每一文集的地址urlVol,然后再获取。

注意这里我们只测试获取了第一个文集的文章列表。所以打印出来的情况是[{'id': 44398213, 'slug': '1839738a0f3f', 'shared': True, 'notebook_id': 32873510, 'seq_in_nb': 0, 'note_type': 2, 'autosave_control': 26, 'title': '人工智能通识DBD-2019年4月汇总', 'content_updated_at': 1554554957,...

获取文章内容

和上面的方法类似,我们进一步修改:

def getArticle(artId):  # 获取文章内容
    global afini
    urlArt = 'https://www.jianshu.com/author/notes/'+str(artId)+'/content'
    res = requests.get(urlArt, headers=opt.headers)
    resdata = json.loads(res.text)
    print(resdata)
    afini += 1
    return 'getArticles OK!'


def getArticlesList(volId):  # 获取文章列表
    urlVol = 'https://www.jianshu.com/author/notebooks/'+str(volId)+'/notes'
    res = requests.get(urlVol, headers=opt.headers)
    resdata = json.loads(res.text)
    for d in resdata[:1]:
        time.sleep(1)
        getArticle(d['id'])
    return 'getArticlesList OK!'


def getVolums():  # 获取文集列表
    res = requests.get(opt.urlVolumns, headers=opt.headers)
    resdata = json.loads(res.text)
    for d in resdata[:1]:
        time.sleep(1)
        getArticlesList(d['id'])

    return 'getVolums OK!'


getVolums()

这样运行起来的话就可以得到第一个文集的第一个文章的内容,比如{'content': '欢迎关注我的专栏( つ•̀ω•́)つ[【人工智能通识】](https://www.jianshu.com/c/e9a7b7b7024d)\n\n---\n0404 [软件技术-WebVR-AFrame文字的实现](https://www.jianshu.com/p/ac92a4e0bf84)...

后续我们还要将这些文章的内容分别存储起来,并且读取其中包含的图片文件。


欢迎关注我的专栏( つ•̀ω•́)つ【人工智能通识】


每个人的智能新时代

如果您发现文章错误,请不吝留言指正;
如果您觉得有用,请点喜欢;
如果您觉得很有用,欢迎转载~


END

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,117评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,328评论 1 293
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,839评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,007评论 0 206
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,384评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,629评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,880评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,593评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,313评论 1 243
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,575评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,066评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,392评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,052评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,082评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,844评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,662评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,575评论 2 270

推荐阅读更多精彩内容

  • 欢迎关注我的专栏( つ•̀ω•́)つ【人工智能通识】【专题】简书下载器:Python-Tkinter项目编程入门 ...
    zhyuzh3d阅读 1,256评论 7 6
  • 欢迎关注我的专栏( つ•̀ω•́)つ【人工智能通识】【专题】简书下载器:Python-Tkinter项目编程入门 ...
    zhyuzh3d阅读 4,619评论 0 2
  • sqlmap用户手册 说明:本文为转载,对原文中一些明显的拼写错误进行修正,并标注对自己有用的信息。 ======...
    wind_飘阅读 1,945评论 0 5
  • sqlmap是一个开源的渗透测试工具,可以用来进行自动化检测,利用SQL注入漏洞,获取数据库服务器的权限。它具有功...
    道书简阅读 1,337评论 0 0
  • [大螺丝]得到打卡DAY44/90 组织能力是一种无形的东西,可以说是一种价值观,企业文化,让员工全身心投入到组织...
    江尺澜依阅读 424评论 0 0