1. 首页
  2. > 香港公司年审 >

海南省国家税务局官网ie=utf8(海南税务局注册码)


前言

前几天有个学生娃子找我帮忙做点可视化的作业,作业内容包括采集网易云音乐热评评论内容,数据量1W作业足够,然后就是做点数据分析相关的工作即可。这份大作业里边有网络爬虫,有数据分析和数据处理,还有可视化,算是一个大实验了,还需要上交实验报告。



分析过程

时间处理


下面的代码主要是评论时间分布,主要是针对时间列做了数据处理,常规操作,你也对照的去以日期和月份去挖掘下有意思的事情。


import pandas as pd from pyecharts import Line # 读取数据 df = pd.read_csv(music_comments.csv, header=None, names=[name, userid, age, gender, city, text, comment, commentid, praise, date], encoding=utf-8-sig) # 根据评论ID去重 df = df.drop_duplicates(commentid) df = df.dropna() # 获取时间 df[time] = [int(i.split( )[1].split(:)[0]) for i in df[date]] # 分组汇总 date_message = df.groupby([time]) date_com = date_message[time].agg([count]) date_com.reset_index(inplace=True) # 绘制走势图 attr = date_com[time] v1 = date_com[count] line = Line("歌曲被爆抄袭后-评论的时间分布", title_pos=center, title_top=18, width=800, height=400) line.add("", attr, v1, is_smooth=True, is_fill=True, area_color="#000", is_xaxislabel_align=True, xaxis_min="dataMin", area_opacity=0.3, mark_point=["max"], mark_point_symbol="pin", mark_point_symbolsize=55) line.render("歌曲被爆抄袭后-评论的时间分布.html")

运行之后,得到的效果图如下所示:



可以看到评论的小伙伴喜欢在下午临近下班和晚上的时候进行评论。


用户评论数量

代码和上面差不多,只需要更改下数据即可。


import pandas as pd # 读取数据 df = pd.read_csv(music_comments.csv, header=None, names=[name, userid, age, gender, city, text, comment, commentid, praise, date], encoding=utf-8-sig) # 根据评论ID去重 df = df.drop_duplicates(commentid) df = df.dropna() # 分组汇总 user_message = df.groupby([userid]) user_com = user_message[userid].agg([count]) user_com.reset_index(inplace=True) user_com_last = user_com.sort_values(count, ascending=False)[0:10] print(user_com_last)

运行之后,得到的结果如下所示:



可以看到有忠粉,狂粉,评论数据上百,恐怖如斯。


评论词云

词云这个老生常谈了,经常做,直接套用模板,改下底图即可,代码如下:


from wordcloud import WordCloud import matplotlib.pyplot as plt import pandas as pd import random import jieba # 设置文本随机颜色 def random_color_func(word=None, font_size=None, position=None, orientation=None, font_path=None, random_state=None): h, s, l = random.choice([(188, 72, 53), (253, 63, 56), (12, 78, 69)]) return "hsl({}, {}%, {}%)".format(h, s, l) # 读取信息 df = pd.read_csv(music_comments.csv, header=None, names=[name, userid, age, gender, city, text, comment, commentid, praise, date], encoding=utf-8-sig) # 根据评论ID去重 df = df.drop_duplicates(commentid) df = df.dropna() words = pd.read_csv(chineseStopWords.txt, encoding=gbk, sep= , names=[stopword]) # 分词 text = for line in df[comment]: text = .join(jieba.cut(str(line), cut_all=False)) # 停用词 stopwords = set() stopwords.update(words[stopword]) backgroud_Image = plt.imread(music.jpg) wc = WordCloud( background_color=white, mask=backgroud_Image, font_path=FZSTK.TTF, max_words=2000, max_font_size=250, min_font_size=15, color_func=random_color_func, prefer_horizontal=1, random_state=50, stopwords=stopwords ) wc.generate_from_text(text) # img_colors = ImageColorGenerator(backgroud_Image) # 看看词频高的有哪些 process_word = WordCloud.process_text(wc, text) sort = sorted(process_word.items(), key=lambda e: e[1], reverse=True) print(sort[:50]) plt.imshow(wc) plt.axis(off) wc.to_file("网易云音乐评论词云.jpg") print(生成词云成功!)

最后生成的词云图如下所示:



用户年龄

代码和上面差不多,只需要更改下数据即可,这里直接放效果图了,如下图所示:



感觉还是年轻的粉丝居多啊!


地区分布

这个代码稍微复杂一些了,毕竟涉及到地图,代码如下:


import pandas as pd from pyecharts import Map def city_group(cityCode): """ 城市编码 """ city_map = { 11: 北京, 12: 天津, 31: 上海, 50: 重庆, 5e: 重庆, 81: 香港, 82: 澳门, 13: 河北, 14: 山西, 15: 内蒙古, 21: 辽宁, 22: 吉林, 23: 黑龙江, 32: 江苏, 33: 浙江, 34: 安徽, 35: 福建, 36: 江西, 37: 山东, 41: 河南, 42: 湖北, 43: 湖南, 44: 广东, 45: 广西, 46: 海南, 51: 四川, 52: 贵州, 53: 云南, 54: 西藏, 61: 陕西, 62: 甘肃, 63: 青海, 64: 宁夏, 65: 新疆, 71: 台湾, 10: 其他, } cityCode = str(cityCode) return city_map[cityCode[:2]] # 读取数据 df = pd.read_csv(music_comments.csv, header=None, names=[name, userid, age, gender, city, text, comment, commentid, praise, date], encoding=utf-8-sig) # 根据评论ID去重 df = df.drop_duplicates(commentid) df = df.dropna() # 进行省份匹配 df[location] = df[city].apply(city_group) # 分组汇总 loc_message = df.groupby([location]) loc_com = loc_message[location].agg([count]) loc_com.reset_index(inplace=True) # 绘制地图 value = [i for i in loc_com[count]] attr = [i for i in loc_com[location]] print(value) print(attr) map = Map("歌曲被爆抄袭后评论用户的地区分布图", title_pos=center, title_top=0) map.add("", attr, value, maptype="china", is_visualmap=True, visual_text_color="#000", is_map_symbol_show=False, visual_range=[0, 60]) map.render(歌曲被爆抄袭后评论用户的地区分布图.html)

最后得到的效果图如下所示:



可以看到四川、广东省的评论数量居多。


粉丝性别

代码和上面的差不多,这里不再赘述,直接上效果图了。



可以看到女粉丝占据了大头。


版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至123456@qq.com 举报,一经查实,本站将立刻删除。

联系我们

工作日:9:30-18:30,节假日休息