前言
今天完成我的博客页面剩下的内容,并将该页面的所有内容整合起来,弄出一个归纳与提醒的小程序。
归档与标签
根据前面获取到的内容可以很容易的就完成归档与标签的获取,代码如下:
month_post_count = result.xpath('//div [@class = "ui list readmore"]/a/@href')
label_list = result.xpath('//a [@class = "ui label basic"]/@href')
print("博客归档链接为:{},标签链接为:{}".format(month_post_count, label_list))
到此整个我的博客页面已经全部获取完毕了,接下来开始进行爬虫整合的工作
整合爬取到的内容
将前两天的爬虫进行整合
- 新建一个
content.py
的文件,写入初始数据
BLOG_NAME = "SilenceHL"
POST_COUNT = 41
FANS_COUNT = 2
LIKE_COUNT = 5
FAVORITES_COUNT = 6
ACCESS = 571
RANK = 1609
- 完成对个人数据的展示以及数据的更新
print("欢迎来到{}的博客,\n目前该博客博文数量为{}篇,较昨日新增{}篇,\n粉丝数为{}人,较昨日新增{}人,\n获得喜欢的数量为{},较昨日新增{},\n""获得收藏的数量为{},较昨日新增{},\n当前访问人数为{},较昨日新增{},\n当前排名为{},较昨日新增{},\n博客所有归档链接为{}\n,所有标签链接为{}".format(name, post_count,int(
post_count) - POST_COUNT,
fans_count, int(
fans_count) - FANS_COUNT,
like_count,int(
like_count) - LIKE_COUNT,
favorites_count,int(
favorites_count) - FAVORITES_COUNT,
access,int(access) - ACCESS,
rank,int(rank) - RANK,
month_post_list,
label_list))
with open('content.py', 'w') as f:
f.write("""BLOG_NAME = "{}"
POST_COUNT = {}
FANS_COUNT = {}
LIKE_COUNT = {}
FAVORITES_COUNT = {}
ACCESS = {}
RANK = {}""".format(name, post_count, fans_count, like_count, favorites_count, access, rank))
print('完成当日数据更新')