python爬取B站视频弹幕分析并制作词云

时间:2022-07-23
本文章向大家介绍python爬取B站视频弹幕分析并制作词云,主要内容包括其使用实例、应用技巧、基本知识点总结和需要注意事项,具有一定的参考价值,需要的朋友可以参考一下。

目录

  • 1.分析网页
  • 2.爬虫+jieba分词+制作词云
    • 2.1爬虫
    • 2.2jieba分词
    • 2.3制作词云
  • 3.成品展示
  • 4.完整代码

1.分析网页

视频地址:https://www.bilibili.com/video/BV19E411W7BE 本身博主同时也是一名up主,虽然已经断更好久了,但是不妨碍我爬取弹幕信息来分析呀。 这次我选取的是自己唯一的爆款视频。就是下面这个。

希望大家能够多多支持up,up在这里谢过大家了。 打开网址我们能够发现弹幕信息是存储在这一块的。

本来以为是可以直接爬到的,但是当我点开F12检查网页的时候却发现:

他很明显只加载了一部分的弹幕信息,那么怎么获取呢,别急下面有一个查看历史弹幕信息,我们点击一下试试看。

既然知道了信息是藏在哪里的,那么接下来就是简单分析一下他的url地址的格式了。

可以看到重点其实就在date上,只要更换date就能获得那一天的弹幕了,所以我们基本确定我们的URL地址。接下来就是爬虫了。

2.爬虫+jieba分词+制作词云

2.1爬虫

首先是简单的先获取整个网页信息,但是获取的过程中,出现了这个错误。

这个大家都懂是啥意思,那么我们怎么解决的?很简单,我们将账号信息带进去就行了,那么怎么带呢?这里我选择的是直接将cookie信息放入请求头之中。这个cookie信息大家需要根据自己的浏览返回的信息进行选择。

像这样,放入headers中。

headers={"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36",
         "cookie": "_uuid=32558797-D0FE-C0F7-536C-63AF0D8AE40770652infoc; buvid3=3DB514DE-EAB4-4ED9-B597-BCDD98AF986240968infoc; sid=hwpgj1q2; DedeUserID__ckMd5=e16b5b4e38e97a2b; CURRENT_FNVAL=16; rpdid=|(JYl~Yuukl~0J'ulmR|uuukk; LIVE_BUVID=AUTO7915950709280947; CURRENT_QUALITY=64; UM_distinctid=173a99a3d29656-0dfad7ca6e9865-3b634404-1fa400-173a99a3d2a9f0; bili_jct=69d8904981c02268b8880fc10dc2abac; bp_t_offset_103134642=420625431706221182; SESSDATA=048bf530%2C1611830350%2C409d1*81; DedeUserID=103134642; PVID=1; bp_video_offset_103134642=422972760179214717; bfe_id=6f285c892d9d3c1f8f020adad8bed553"}

这样我们便能爬取到了

接下来获取弹幕信息。这里很简单通过xpath就能获取到。

parse=parsel.Selector(html)
links=parse.xpath("//d/text()").getall()
print(links)

既然已经获取到弹幕了,我们就需要将这些信息存储起来,用于我们接下来的操作。 这里我们选择将它存储到CSV文件中具体操作其实和之前的文件下载操作相差不大。

for i in links:
    with open(r'C:Users瓤瓤DesktopB站弹幕.csv','a',newline='',encoding='utf-8-sig') as f:
        writer=csv.writer(f)
        links=[]
        links.append(i)
        writer.writerow(links)

打开之后就是这样的:

2.2jieba分词

文件都存储好了,那么我接下来的第一步就是将我们的弹幕进行jieba分词,拆解成一个一个的词语

f =open(r'C:Users瓤瓤DesktopB站弹幕.csv',encoding='utf-8')#打开文件
text=f.read() #读取文件
text_list=jieba.analyse.extract_tags(text,topK=40)#进行jieba分词,并且取频率出现最高的40个词
text_list=" ".join(text_list)#用空格将这些字符串连接起来
print(text_list)

效果:

2.3制作词云

既然词我们已经准备好了,那么我们接下来就是将它制作成词云。

#创建自定义图片样式
img=plt.imread('./img/huge.jpg')
w=wordcloud.WordCloud(
    width=1500,
    height=1000,
    font_path="STXIHEI.TTF",#设置字体的格式 字体所在位置C:WindowsFonts
    background_color="white",
    scale=50,
    contour_width=5,
    contour_color="red",
    mask=img,#图片遮罩层
    #设置屏蔽词
    stopwords={"00","天下第一","bgm","周董","真的","胡是","你币","肖战","游记","周杰伦","陈奕迅","这个"}
)
w.generate_from_text(text_list)

#绘制图片
fig=plt.figure(1)
plt.imshow(w)
plt.axis("off")
plt.show()     #显示生成的词云文件

在设置字体样式的过程中千万要选用能够识别中文的字体样式,否则会变成一堆方框。字体所在位置字体所在位置C:WindowsFonts接着只要耐心等程序运行完就行了。

3.成品展示

4.完整代码

import requests
import parsel
import csv
import jieba.analyse
import wordcloud
from matplotlib import pylab as plt
url='https://api.bilibili.com/x/v2/dm/history?type=1&oid=160472309&date=2020-08-12'
headers={"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36",
         "cookie": "_uuid=32558797-D0FE-C0F7-536C-63AF0D8AE40770652infoc; buvid3=3DB514DE-EAB4-4ED9-B597-BCDD98AF986240968infoc; sid=hwpgj1q2; DedeUserID__ckMd5=e16b5b4e38e97a2b; CURRENT_FNVAL=16; rpdid=|(JYl~Yuukl~0J'ulmR|uuukk; LIVE_BUVID=AUTO7915950709280947; CURRENT_QUALITY=64; UM_distinctid=173a99a3d29656-0dfad7ca6e9865-3b634404-1fa400-173a99a3d2a9f0; bili_jct=69d8904981c02268b8880fc10dc2abac; bp_t_offset_103134642=420625431706221182; SESSDATA=048bf530%2C1611830350%2C409d1*81; DedeUserID=103134642; PVID=1; bp_video_offset_103134642=422972760179214717; bfe_id=6f285c892d9d3c1f8f020adad8bed553"}
response=requests.get(url,headers=headers)
html=response.content.decode("utf-8")
# print(html)
parse=parsel.Selector(html)
links=parse.xpath("//d/text()").getall()
# print(links)
for i in links:
    with open(r'C:Users瓤瓤DesktopB站弹幕.csv','a',newline='',encoding='utf-8-sig') as f:
        writer=csv.writer(f)
        links=[]
        links.append(i)
        writer.writerow(links)

# #制作词云图
f =open(r'C:Users瓤瓤DesktopB站弹幕.csv',encoding='utf-8')
text=f.read()
text_list=jieba.analyse.extract_tags(text,topK=40)
text_list=" ".join(text_list)
print(text_list)
#
img=plt.imread('./img/huge.jpg')
w=wordcloud.WordCloud(
    width=1500,
    height=1000,
    font_path="STXIHEI.TTF",
    background_color="white",
    scale=50,
    contour_width=5,
    contour_color="red",
    mask=img,
    stopwords={"00","天下第一","bgm","周董","真的","胡是","你币","肖战","游记","周杰伦","陈奕迅","这个"}
)
w.generate_from_text(text_list)

#绘制图片
fig=plt.figure(1)
plt.imshow(w)
plt.axis("off")
plt.show()     #显示生成的词云文件