吴京近年拍的影视都是非常富有国家情怀的,大人小孩都爱看,每次都是票房新高,最新的长津湖两部曲大家都有看吗,第一步还可以,第二部水门桥也不差,截止目前已经36.72亿票房。
某眼评分9.6,某瓣评分7.2。2月每日票房基本每天第一,但是它为什么好看呢?让我们用python来看看,看过的人都在说什么~
一、准备工作
爬虫部分需要使用这几个模块
requests
parsel
csv
前面两个需要安装,键盘上按 win+r 打开运行框,输入 cmd 然后确定,然后输入 pip install 模块名,回车即可安装。
二、代码
代码仅供参考,我就不一一分析,录了一个十分钟的视频讲解,不会的兄弟可以跟着视频学习。
视频地址:【Python案例合集】十分钟速成一个,就是这么效率!更多案例持续更新…
这也是一个视频合集,正在慢慢更新,大家可以三连一下~
爬虫代码
import csv import requests import parsel # Python学习交流群:924040232 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/98.0.4758.102 Safari/537.36' } for page in range(1, 20): url = f'...../subject/35613853/comments?start={page*20}&limit=20&status=P&sort=new_score' data_html = requests.get(url=url, headers=headers).text selector = parsel.Selector(data_html) comment_list = selector.css('.comment-item') for comment in comment_list: short = comment.css('.short::text').get().strip() name = comment.css('.comment-info a::text').get().strip() time = comment.css('.comment-time::text').get().strip() vote_count = comment.css('.votes.vote-count::text').get().strip() print(short, name, time, vote_count) with open('长津湖.csv', mode='a', encoding='utf-8', newline='') as f: csv_writer = csv.writer(f) csv_writer.writerow([short, name, time, vote_count])
词云图代码
import jieba from pyecharts.charts import WordCloud import pandas as pd from pyecharts import options as opts wordlist = [] data = pd.read_csv('长津湖.csv', encoding='utf-8')['short'] data data_list = data.values.tolist() data_str = ' '.join(data_list) words = jieba.lcut(data_str) #取出除每一个单词 for word in words: #去除小于2个字的词 if len(word) > 1: #数据的添加, wordlist.append({"word":word,"count":1}) #wordlist为列表类型,元素为字典类型[{"word":发展,"count":1},...,...,] df = pd.DataFrame(wordlist) # 以word的值作为关键词分组,再统计每组的(count)的总数sum #groupby DataFrame中的分组函数 dfword = df.groupby('word')['count'].sum() # sort_values以列的值排序,ascending为false时降序排序 dfword2 = dfword.sort_values(ascending=False) #将dfword2 的前100数据转为DataFrame。 dfword3 = pd.DataFrame(dfword2.head(100),columns=['count']) # 此时列”word“是作为列索引,可将其转为列 dfword3['word'] = dfword3.index #将word列转为列表 word = dfword3['word'].tolist() #将count列转为列表 count = dfword3['count'].tolist() #用for循环合并数据 a = [list(z) for z in zip(word,count)] c = ( #WordCloud类的实列化 WordCloud() #添加图名称、数据、字体的随机大小、图像类型 ,mask_image="demo.png" # 词云图轮廓,有 'circle', 'cardioid', 'diamond', 'triangle-forward', 'triangle', 'pentagon', 'star' 可选 .add("", a, word_size_range=[20, 100],shape='circle') #图像的具体设置也可以再全局设置中设置,其中还有一些好玩的设置,这里就不在深入了 .set_global_opts(title_opts=opts.TitleOpts(title="词云图")) ) #在jupyter上显示 c.render_notebook()
兄弟们快去试试吧,有什么问题欢迎三连后在评论区交流~
声明:本站所发布的一切破解补丁、注册机和注册信息及软件的解密分析文章仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。