Python对冰冰的第一条vlog并进行数据分析

2022-11-27 11:31:40 浏览数 (2)

Python对冰冰的第一条vlog并进行数据分析

Python对冰冰的第一条vlog千条评论并进行数据分析,绘制词云图,看看大家说了什么吧。

酱酱酱,那就开始吧

版权声明:本文为博主原创文章,创作不易 本文链接:https://cloud.tencent.com/developer/article/2176598


文章目录

  • Python对冰冰的第一条vlog并进行数据分析
  • 1. 数据收集
    • 1.1 获取接口
    • 1.2 查看数据
    • 1.3 解析URL
    • 1.4 解析数据
  • 2. 数据分析
    • 2.1 数据描述
    • 2. 2 删除空值
    • 2.3 删除重复值
  • 3. 可视化展示
    • 3.1 点赞TOP20
    • 3.2 等级分布
    • 3.3 性别分布
    • 3.4 绘制词云图
    • 3.5 Summary
  • 4. 后记

https://www.bilibili.com/video/av800760067

【冰冰vlog.001】带大家看看每个冬天我必去的地方

1. 数据收集

1.1 获取接口

哔哩哔哩其实留了很多接口,可以供我们来获取数据。 首先打开目标网站,并查看网页源码,发现评论内容不在源码中,可以确认评论是动态生成的。于是进入开发者模式,查找返回的内容。

1.2 查看数据

点击preview即可发现评论数据在这里

1.3 解析URL

去掉第一个和最后一个参数可得评论URL,https://api.bilibili.com/x/v2/replyjsonp&type=1&oid=800760067&sort=2&pn=.


1.4 解析数据

大家可以将获取的json

接下来就是正式的爬取工作了,和爬取百度图片原理一样,自己试试吧。

为了方便查看json数据,可以将html中的json复制到json在线解析中查看

2. 数据分析

数据获取后,就可以开始初步的数据分析了

代码语言:javascript复制
import pandas as pd

data = pd.read_excel(r"bingbing.xlsx")
data.head()

用户

性别

等级

评论

点赞

0

食贫道

6

呆呆你来了嘿!

158457

1

毕导THU

6

我是冰冰仅有的3个关注之一tv_doge我和冰冰贴贴

148439

2

老师好我叫何同学

6

热词系列_知识增加

89634

3

央视网快看

保密

6

冰冰来了!我们要失业了吗doge

118370

4

厦门大学

保密

5

哇欢迎冰冰!!!

66196

原文链接

2.1 数据描述

代码语言:javascript复制
data.describe()

等级

点赞

count

1180.000000

1180.000000

mean

4.481356

2200.617797

std

1.041379

10872.524850

min

2.000000

1.000000

25%

4.000000

4.000000

50%

5.000000

9.000000

75%

5.000000

203.750000

max

6.000000

158457.000000

2. 2 删除空值

代码语言:javascript复制
data.dropna()

用户

性别

等级

评论

点赞

0

食贫道

6

呆呆你来了嘿!

158457

1

毕导THU

6

我是冰冰仅有的3个关注之一tv_doge我和冰冰贴贴

148439

2

老师好我叫何同学

6

热词系列_知识增加

89634

3

央视网快看

保密

6

冰冰来了!我们要失业了吗doge

118370

4

厦门大学

保密

5

哇欢迎冰冰!!!

66196

...

...

...

...

...

...

1175

黑旗鱼

保密

5

11小时一百万,好快惊讶

5

1176

是你的益达哦

6

冰冰粉丝上涨速度:11小时107.3万,平均每小时上涨9.75万,每分钟上涨1625,每秒钟...

5

1177

快乐风男崔斯特

4

军训的时候去了趟厕所,出来忘记是哪个队伍了。看了up的视频才想起来,是三连doge

5

1178

很认真的大熊

5

我觉得冰冰主持春晚应该问题不大吧。OK

5

1179

飞拖鞋呀吼

保密

5

《论一个2级号如何在2020年最后一天成为百大up主》

5

1180 rows × 5 columns

2.3 删除重复值

代码语言:javascript复制
data.drop_duplicates()

用户

性别

等级

评论

点赞

0

食贫道

6

呆呆你来了嘿!

158457

1

毕导THU

6

我是冰冰仅有的3个关注之一tv_doge我和冰冰贴贴

148439

2

老师好我叫何同学

6

热词系列_知识增加

89634

3

央视网快看

保密

6

冰冰来了!我们要失业了吗doge

118370

4

厦门大学

保密

5

哇欢迎冰冰!!!

66196

...

...

...

...

...

...

1175

黑旗鱼

保密

5

11小时一百万,好快惊讶

5

1176

是你的益达哦

6

冰冰粉丝上涨速度:11小时107.3万,平均每小时上涨9.75万,每分钟上涨1625,每秒钟...

5

1177

快乐风男崔斯特

4

军训的时候去了趟厕所,出来忘记是哪个队伍了。看了up的视频才想起来,是三连doge

5

1178

很认真的大熊

5

我觉得冰冰主持春晚应该问题不大吧。OK

5

1179

飞拖鞋呀吼

保密

5

《论一个2级号如何在2020年最后一天成为百大up主》

5

1179 rows × 5 columns

3. 可视化展示

用的的工具是pyecharts,可以参考快速掌握数据可视化工具pyecharts

3.1 点赞TOP20

代码语言:javascript复制
df1 = data.sort_values(by="点赞",ascending=False).head(20)
代码语言:javascript复制
from pyecharts import options as opts
from pyecharts.charts import Bar
from pyecharts.faker import Faker

c1 = (
    Bar()
    .add_xaxis(df1["评论"].to_list())
    .add_yaxis("点赞数", df1["点赞"].to_list(), color=Faker.rand_color())
    .set_global_opts(
        title_opts=opts.TitleOpts(title="评论热度Top20"),
        datazoom_opts=[opts.DataZoomOpts(), opts.DataZoomOpts(type_="inside")],
    )
    .render_notebook()
)
c1

3.2 等级分布

代码语言:javascript复制
data.等级.value_counts().sort_index(ascending=False)
代码语言:javascript复制
6    165
5    502
4    312
3    138
2     63
Name: 等级, dtype: int64
代码语言:javascript复制
from pyecharts import options as opts
from pyecharts.charts import Pie
from pyecharts.faker import Faker

c2 = (
    Pie()
    .add(
        "",
        [list(z) for z in zip([str(i) for i in range(2,7)], [63,138,312,502,165])],
        radius=["40%", "75%"],
    )
    .set_global_opts(
        title_opts=opts.TitleOpts(title="等级分布"),
        legend_opts=opts.LegendOpts(orient="vertical", pos_top="15%", pos_left="2%"),
    )
    .set_series_opts(label_opts=opts.LabelOpts(formatter="{b}: {c}"))
    .render_notebook()
)
c2

3.3 性别分布

代码语言:javascript复制
data.性别.value_counts().sort_index(ascending=False)
代码语言:javascript复制
from pyecharts import options as opts
from pyecharts.charts import Pie
from pyecharts.faker import Faker

c4 = (
    Pie()
    .add(
        "",
        [list(z) for z in zip(["男","女","保密"], ["404",'103','673'])],
        radius=["40%", "75%"],
    )
    .set_global_opts(
        title_opts=opts.TitleOpts(title="性别分布"),
        legend_opts=opts.LegendOpts(orient="vertical", pos_top="15%", pos_left="2%"),
    )
    .set_series_opts(label_opts=opts.LabelOpts(formatter="{b}: {c}"))
    .render_notebook()
    
)
c4

3.4 绘制词云图

代码语言:javascript复制
from wordcloud import WordCloud
import jieba
from tkinter import _flatten
from matplotlib.pyplot import imread
from PIL import Image, ImageDraw, ImageFont
import matplotlib.pyplot as plt
with open('stoplist.txt', 'r', encoding='utf-8') as f:
    stopWords = f.read()
with open('停用词.txt','r',encoding='utf-8') as t:
    stopWord = t.read()
total = stopWord.split()   stopWords.split()
def my_word_cloud(data=None, stopWords=None, img=None):
    dataCut = data.apply(jieba.lcut)  # 分词
    dataAfter = dataCut.apply(lambda x: [i for i in x if i not in stopWords])  # 去除停用词
    wordFre = pd.Series(_flatten(list(dataAfter))).value_counts()  # 统计词频
    mask = plt.imread(img)
    plt.figure(figsize=(20,20))
    wc  = WordCloud(scale=10,font_path='C:/Windows/Fonts/STXINGKA.TTF',mask=mask,background_color="white",)
    wc.fit_words(wordFre)
    plt.imshow(wc)
    plt.axis('off')
my_word_cloud(data=data["评论"],stopWords=stopWords,img="1.jpeg")

3.5 Summary

4. 后记

根据弹幕获取的词云图,可以参考 冰冰B站视频弹幕爬取原理解析

通过之前博客的学习,想必大家已经对Python网络爬虫有了了解,希望大家动手实践。笔者能力有限,有更多有趣的发现,欢迎私信或留言


到这里就结束了,如果对你有帮助,欢迎点赞关注,你的点赞对我很重要

0 人点赞