微博(APP)榜单爬虫及数据可视化

微博(APP)榜单爬虫及数据可视化

前言

今天继续APP爬虫,今天爬取的是微博榜单(24小时榜)的数据,采集的字段有:

  • 用户id
  • 用户地区
  • 用户性别
  • 用户粉丝
  • 微博内容
  • 发布时间
  • 转发、评论和点赞量

该文分以下内容:

  • 爬虫代码
  • 用户分析
  • 微博分析

微博(APP)榜单爬虫及数据可视化

微博(APP)榜单爬虫及数据可视化

爬虫代码

import requests import json import re import time import csv headers = { 'Host': 'api.weibo.cn', 'Connection': 'keep-alive', 'User-Agent': 'Weibo/29278 (iPhone; iOS 11.4.1; Scale/2.00)' } f = open('1.csv','w+',encoding='utf-8',newline='') writer = csv.writer(f) writer.writerow(['user_id','user_location','user_gender','user_follower','text','created_time','reposts_count','comments_count','attitudes_count']) def get_info(url): res = requests.get(url,headers=headers) print(url) datas = re.findall('"mblog":(.*),"weibo_position"',res.text,re.S) for data in datas: json_data = json.loads(data+'}') user_id = json_data['user']['name'] user_location = json_data['user']['location'] user_gender = json_data['user']['gender'] user_follower = json_data['user']['followers_count'] text = json_data['text'] created_time = json_data['created_at'] reposts_count = json_data['reposts_count'] comments_count = json_data['comments_count'] attitudes_count = json_data['attitudes_count'] print(user_id,user_location,user_gender,user_follower,text,created_time,reposts_count,comments_count,attitudes_count) writer.writerow([user_id,user_location,user_gender,user_follower,text,created_time,reposts_count,comments_count,attitudes_count]) time.sleep(5) if>微博(APP)榜单爬虫及数据可视化

接着对地区进行数据处理,进行统计。可以看出,位于北京的用户是最多的(大V都在北京)。

df['location'] = df['user_location'].str.split(' ').str[0] 

微博(APP)榜单爬虫及数据可视化

接下来看下用户的性别比例:男性用户占多。

微博(APP)榜单爬虫及数据可视化

最后再看看上榜大V粉丝前十:

微博(APP)榜单爬虫及数据可视化

微博分析

首先,对时间数据进行处理,取出小时时间段。

微博(APP)榜单爬虫及数据可视化

接着,我们看看微博点赞前十的用户。

微博(APP)榜单爬虫及数据可视化

最后,绘制微博文章词云图。

微博(APP)榜单爬虫及数据可视化

来源:https://www.jianshu.com/p/91e6827d77e1

本文采用「CC BY-SA 4.0 CN」协议转载自互联网、仅供学习交流,内容版权归原作者所有,如涉作品、版权和其他问题请给「我们」留言处理。

(6)
张乐的头像张乐编辑
上一篇 2018-07-20 01:43
下一篇 2019-03-28 17:16

相关文章

关注我们
关注我们
分享本页
返回顶部