词云可视化(摘录)
文章目录
- 本课概要
- 安装本课程所需的Python第三方模块
- 一行命令安装(推荐,适用于99.999%的情况)
- 如果安装过程中报错(0.001%会发生)
- 四行Python代码上手词云制作
- 1号词云:《葛底斯堡演说》黑色背景词云(4行代码上手)
- 美化词云
- 2号词云:面朝大海,春暖花开(配置词云参数)
- 常用参数
- 从外部文件读入文本
- 3号词云:乡村振兴战略中央文件(句子云)
- 中文分词
- 中文分词第三方模块`jieba`
- 中文分词-小试牛刀
- 中文分词库`jieba`的常用方法
- 4号词云:斯坦森介绍词云(中文分词)
- 5号词云:乡村振兴战略中央文件(词云)
- 6号词云:乡村振兴战略中央文件(五角星形状)
- 7号词云:新时代中国特色社会主义(中国地图形状)
- 8号词云:《三国演义》词云(stopwords参数去除词)
- 9号词云:《哈姆雷特》(勾勒轮廓线)
- 10号词云:《爱丽丝漫游仙境》词云(按模板填色)
- 进阶词云:尽享数据驱动与开源社区
- 11号词云:绘制你的微信好友个性签名词云
- 文字情感分析与文本挖掘
- Python中文语言处理第三方库snownlp小试牛刀
- 12号词云:《三体Ⅱ黑暗森林》情感分析词云
- 13号词云:《三国演义》人物阵营分色词云
- 参考资料与扩展阅读
本课概要
词云是文本大数据可视化的重要方式,可以将大段文本中的关键语句和词汇高亮展示。
从四行代码开始,一步步教你做出高大上的词云图片,可视化生动直观展示出枯燥文字背后的核心概念。进一步实现修改字体、字号、背景颜色、词云形状、勾勒边框、颜色渐变、分类填色、情感分析等高级玩法。
学完本课之后,你可以将四大名著、古典诗词、时事新闻、法律法规、政府报告、小说诗歌等大段文本做成高大上的可视化词云,还可以将你的微信好友个性签名导出,看看你微信好友的“画风”是怎样的。
从远古山洞壁画到微信表情包,人类千百年来始终都是懒惰的视觉动物。连篇累牍的大段文本会让人感到枯燥乏味。在这个“颜值即正义”的时代,大数据更需要“颜值”才能展现数据挖掘的魅力。
对于编程小白,学会此技可以玩转文本,入门中文分词、情感分析。对于编程高手,通过本课可以进一步熟悉Python的开源社区、计算生态、面向对象,自定义自己专属风格的词云。
词云的应用场景
- 会议记录
- 海报制作
- PPT制作
- 生日表白
- 数据挖掘
- 情感分析
- 用户画像
- 微信聊天记录分析
- 微博情感分析
- Bilibili弹幕情感分析
- 年终总结
安装本课程所需的Python第三方模块
一行命令安装(推荐,适用于99.999%的情况)
打开命令行,输入下面这行命令,回车执行即可。
pip install numpy matplotlib pillow wordcloud imageio jieba snownlp itchat -i https://pypi.tuna.tsinghua.edu.cn/simple
如果安装过程中报错(0.001%会发生)
如果报错:
Microsoft Visual C++ 14.0 is required.
解决方法:
到 http://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud 页面下载所需的wordcloud模块的.whl文件,再用pip安装下载的文件。
比如,对于64位windows操作系统,python版本为3.6的电脑,就应该下载
wordcloud-1.4.1-cp36-cp36m-win_amd64.whl
这个文件下载后打开命令行,使用cd命令切换到该文件的路径,执行
pip install wordcloud-1.4.1-cp36-cp36m-win_amd64.whl
命令,即可安装成功。
四行Python代码上手词云制作
1号词云:《葛底斯堡演说》黑色背景词云(4行代码上手)
# 导入词云制作第三方库wordcloud
import wordcloud
# 创建词云对象,赋值给w,现在w就表示了一个词云对象
w = wordcloud.WordCloud()
# 调用词云对象的generate方法,将文本传入
w.generate('and that government of the people, by the people, for the people, shall not perish from the earth.')
# 将生成的词云保存为output1.png图片文件,保存出到当前文件夹中
w.to_file('output1.png')
运行完成之后,在代码所在的文件夹,就会出现output.png
图片文件。可以看出,wordcloud自动将and that by the not from
等废话词组过滤掉,并且把出现次数最多的people
大号显示。
wordcloud
库为每一个词云生成一个WordCloud对象(注意,此处的W和C是大写)
也就是说,wordcloud.WordCloud()
代表一个词云对象,我们将它赋值给w
。
现在,这个w
就是词云对象啦!我们可以调用这个对象。
我们可以在WordCloud()
括号里填入各种参数,控制词云的字体、字号、字的颜色、背景颜色等等。
wordcloud库会非常智能地按空格进行分词及词频统计,出现次数多的词就大。
美化词云
2号词云:面朝大海,春暖花开(配置词云参数)
增加宽、高、字体、背景颜色等参数
# 2号词云:面朝大海,春暖花开
import wordcloud
# 构建词云对象w,设置词云图片宽、高、字体、背景颜色等参数
w = wordcloud.WordCloud(width=1000,height=700,background_color='white',font_path='msyh.ttc')
# 调用词云对象的generate方法,将文本传入
w.generate('从明天起,做一个幸福的人。喂马、劈柴,周游世界。从明天起,关心粮食和蔬菜。我有一所房子,面朝大海,春暖花开')
# 将生成的词云保存为output2-poem.png图片文件,保存到当前文件夹中
w.to_file('output2-poem.png')
如果参数过多,第二行写成长长的一行不好看,可以写成多行,让代码更工整
# 2号词云:面朝大海,春暖花开
import wordcloud
# 构建词云对象w,设置词云图片宽、高、字体、背景颜色等参数
w = wordcloud.WordCloud(width=1000,
height=700,
background_color='white',
font_path='msyh.ttc')
w.generate('从明天起,做一个幸福的人。喂马、劈柴,周游世界。从明天起,关心粮食和蔬菜。我有一所房子,面朝大海,春暖花开')
w.to_file('output2-poem.png')
常用参数
-
width 词云图片宽度,默认400像素
-
height 词云图片高度 默认200像素
-
background_color 词云图片的背景颜色,默认为黑色
background_color='white'
-
font_step 字号增大的步进间隔 默认1号
font_path 指定字体路径 默认None,对于中文可用
font_path='msyh.ttc'
-
mini_font_size 最小字号 默认4号
-
max_font_size 最大字号 根据高度自动调节
-
max_words 最大词数 默认200
-
stop_words 不显示的单词
stop_words={"python","java"}
-
Scale 默认值1。值越大,图像密度越大越清晰
-
prefer_horizontal:默认值0.90,浮点数类型。表示在水平如果不合适,就旋转为垂直方向,水平放置的词数占0.9?
-
relative_scaling:默认值0.5,浮点型。设定按词频倒序排列,上一个词相对下一位词的大小倍数。有如下取值:“0”表示大小标准只参考频率排名,“1”如果词频是2倍,大小也是2倍
-
mask 指定词云形状图片,默认为矩形
通过以下代码读入外部词云形状图片(需要先
pip install imageio
安装imageio)
import imageio
mk = imageio.imread("picture.png")
w = wordcloud.WordCloud(mask=mk)
也就是说,我们可以这样来构建词云对象w,其中的参数均为常用参数的默认值,供我们自定义:
w = wordcloud.WordCloud(
width=400,
height=200,
background_color='black',
font_path=None,
font_step=1,
min_font_size=4,
max_font_size=None,
max_words=200,
stopwords={},
scale=1,
prefer_horizontal=0.9,
relative_scaling=0.5,
mask=None)
从外部文件读入文本
3号词云:乡村振兴战略中央文件(句子云)
import wordcloud
# 从外部.txt文件中读取大段文本,存入变量txt中
f = open('关于实施乡村振兴战略的意见.txt',encoding='utf-8')
txt = f.read()
# 构建词云对象w,设置词云图片宽、高、字体、背景颜色等参数
w = wordcloud.WordCloud(width=1000,
height=700,
background_color='white',
font_path='msyh.ttc')
# 将txt变量传入w的generate()方法,给词云输入文字
w.generate(txt)
# 将词云图片导出到当前文件夹
w.to_file('output3-sentence.png')
中文分词
中文分词第三方模块jieba
中文分词-小试牛刀
安装中文分词库jieba:在命令行中输入pip install jieba
打开python的交互式shell
界面,也就是有三个大于号>>>
的这个界面,依次输入以下命令。
>>> import jieba
>>> textlist = jieba.lcut('动力学和电磁学')
>>> textlist
['动力学', '和', '电磁学']
>>> string = " ".join(textlist)
>>> string
'动力学 和 电磁学'
以上代码将一句完整的中文字符串
转换成了以空格分隔的词组成的字符串
,而后者是绘制词云时generate()
方法要求传入的参数。
中文分词库jieba
的常用方法
精确模式(最常用,只会这个就行)
:每个字只用一遍,不存在冗余词汇。jieba.lcut('动力学和电磁学')
全模式
:把每个字可能形成的词汇都提取出来,存在冗余。jieba.lcut('动力学和电磁学',cut_all=True)
搜索引擎模式
:将全模式分词的结果从短到长排列好。jieba.lcut_for_search('动力学和电磁学')
以下命令演示了三种分词模式及结果,精确模式是最常用的。
>>> import jieba
>>> textlist1 = jieba.lcut('动力学和电磁学')
>>> textlist1
['动力学', '和', '电磁学']
>>> textlist2 = jieba.lcut('动力学和电磁学',cut_all=True)
>>> textlist2
['动力', '动力学', '力学', '和', '电磁', '电磁学', '磁学']
>>> textlist3 = jieba.lcut_for_search('动力学和电磁学')
>>> textlist3
['动力', '力学', '动力学', '和', '电磁', '磁学', '电磁学']
4号词云:斯坦森介绍词云(中文分词)
# 4号词云:斯坦森介绍词云
# 导入词云制作库wordcloud和中文分词库jieba
import jieba
import wordcloud
# 构建并配置词云对象w
w = wordcloud.WordCloud(width=1000,
height=700,
background_color='white',
font_path='msyh.ttc')
# 调用jieba的lcut()方法对原始文本进行中文分词,得到string
txt = '杰森·斯坦森,英文名Jason Statham,1967年7月26日在英国伦敦出生,是美国著名的影视男演员,在1998年因为出演了电影《两杆大烟枪》中的男一号,而宣布进入演艺圈。'
txtlist = jieba.lcut(txt)
string = " ".join(txtlist)
# 将string变量传入w的generate()方法,给词云输入文字
w.generate(string)
# 将词云图片导出到当前文件夹
w.to_file('output4-Statham.png')
5号词云:乡村振兴战略中央文件(词云)
# 5号词云:乡村振兴战略中央文件(词云)
# 导入词云制作库wordcloud和中文分词库jieba
import jieba
import wordcloud
# 构建并配置词云对象w
w = wordcloud.WordCloud(width=1000,
height=700,
background_color='white',
font_path='msyh.ttc')
# 对来自外部文件的文本进行中文分词,得到string
f = open('关于实施乡村振兴战略的意见.txt',encoding='utf-8')
txt = f.read()
txtlist = jieba.lcut(txt)
string = " ".join(txtlist)
# 将string变量传入w的generate()方法,给词云输入文字
w.generate(string)
# 将词云图片导出到当前文件夹
w.to_file('output5-village.png')
# 高级词云:绘制指定形状的词云
通过以下代码读入外部词云形状图片(需要先pip install imageio
安装imageio)
import imageio
mk = imageio.imread("picture.png")
w = wordcloud.WordCloud(mask=mk)
6号词云:乡村振兴战略中央文件(五角星形状)
# 6号词云:乡村振兴战略中央文件(五角星形状)
# 导入词云制作库wordcloud和中文分词库jieba
import jieba
import wordcloud
# 导入imageio库中的imread函数,并用这个函数读取本地图片,作为词云形状图片
import imageio
mk = imageio.imread("wujiaoxing.png")
w = wordcloud.WordCloud(mask=mk)
# 构建并配置词云对象w,注意要加scale参数,提高清晰度
w = wordcloud.WordCloud(width=1000,
height=700,
background_color='white',
font_path='msyh.ttc',
mask=mk,
scale=15)
# 对来自外部文件的文本进行中文分词,得到string
f = open('关于实施乡村振兴战略的意见.txt',encoding='utf-8')
txt = f.read()
txtlist = jieba.lcut(txt)
string = " ".join(txtlist)
# 将string变量传入w的generate()方法,给词云输入文字
w.generate(string)
# 将词云图片导出到当前文件夹
w.to_file('output6-village.png')
7号词云:新时代中国特色社会主义(中国地图形状)
# 7号词云:新时代中国特色社会主义(中国地图形状)
# 导入词云制作库wordcloud和中文分词库jieba
import jieba
import wordcloud
# 导入imageio库中的imread函数,并用这个函数读取本地图片,作为词云形状图片
import imageio
mk = imageio.imread("chinamap.png")
w = wordcloud.WordCloud(mask=mk)
# 构建并配置词云对象w,注意要加scale参数,提高清晰度
w = wordcloud.WordCloud(width=1000,
height=700,
background_color='white',
font_path='msyh.ttc',
mask=mk,
scale=15)
# 对来自外部文件的文本进行中文分词,得到string
f = open('新时代中国特色社会主义.txt',encoding='utf-8')
txt = f.read()
txtlist = jieba.lcut(txt)
string = " ".join(txtlist)
# 将string变量传入w的generate()方法,给词云输入文字
w.generate(string)
# 将词云图片导出到当前文件夹
w.to_file('output7-chinamap.png')
加scale参数为15的效果
不加scale参数的效果,稍显模糊
8号词云:《三国演义》词云(stopwords参数去除词)
# 8号词云:《三国演义》词云(stopwords参数去除“曹操”和“孔明”两个词)
# 导入词云制作库wordcloud和中文分词库jieba
import jieba
import wordcloud
# 导入imageio库中的imread函数,并用这个函数读取本地图片,作为词云形状图片
import imageio
mk = imageio.imread("chinamap.png")
# 构建并配置词云对象w,注意要加stopwords集合参数,将不想展示在词云中的词放在stopwords集合里,这里去掉“曹操”和“孔明”两个词
w = wordcloud.WordCloud(width=1000,
height=700,
background_color='white',
font_path='msyh.ttc',
mask=mk,
scale=15,
stopwords={'曹操','孔明'})
# 对来自外部文件的文本进行中文分词,得到string
f = open('threekingdoms.txt',encoding='utf-8')
txt = f.read()
txtlist = jieba.lcut(txt)
string = " ".join(txtlist)
# 将string变量传入w的generate()方法,给词云输入文字
w.generate(string)
# 将词云图片导出到当前文件夹
w.to_file('output8-threekingdoms.png')
9号词云:《哈姆雷特》(勾勒轮廓线)
# 9号词云:哈姆雷特(勾勒轮廓线)
# 导入词云制作库wordcloud
import wordcloud
# 将外部文件包含的文本保存在string变量中
string = open('hamlet.txt').read()
# 导入imageio库中的imread函数,并用这个函数读取本地图片,作为词云形状图片
import imageio
mk = imageio.imread("alice.png")
# 构建词云对象w,注意增加参数contour_width和contour_color设置轮廓宽度和颜色
w = wordcloud.WordCloud(background_color="white",
mask=mk,
contour_width=1,
contour_color='steelblue')
# # 将string变量传入w的generate()方法,给词云输入文字
w.generate(string)
# 将词云图片导出到当前文件夹
w.to_file('output9-contour.png')
10号词云:《爱丽丝漫游仙境》词云(按模板填色)
# 10号词云:《爱丽丝漫游仙境》词云(按模板填色)
# 导入绘图库matplotlib和词云制作库wordcloud
import matplotlib.pyplot as plt
from wordcloud import WordCloud,ImageColorGenerator
# 将外部文件包含的文本保存在text变量中
text = open('alice.txt').read()
# 导入imageio库中的imread函数,并用这个函数读取本地图片queen2.jfif,作为词云形状图片
import imageio
mk = imageio.imread("alice_color.png")
# 构建词云对象w
wc = WordCloud(background_color="white",
mask=mk,)
# 将text字符串变量传入w的generate()方法,给词云输入文字
wc.generate(text)
# 调用wordcloud库中的ImageColorGenerator()函数,提取模板图片各部分的颜色
image_colors = ImageColorGenerator(mk)
# 显示原生词云图、按模板图片颜色的词云图和模板图片,按左、中、右显示
fig, axes = plt.subplots(1, 3)
# 最左边的图片显示原生词云图
axes[0].imshow(wc)
# 中间的图片显示按模板图片颜色生成的词云图,采用双线性插值的方法显示颜色
axes[1].imshow(wc.recolor(color_func=image_colors), interpolation="bilinear")
# 右边的图片显示模板图片
axes[2].imshow(mk, cmap=plt.cm.gray)
for ax in axes:
ax.set_axis_off()
plt.show()
# 给词云对象按模板图片的颜色重新上色
wc_color = wc.recolor(color_func=image_colors)
# 将词云图片导出到当前文件夹
wc_color.to_file('output10-alice.png')
进阶词云:尽享数据驱动与开源社区
11号词云:绘制你的微信好友个性签名词云
# 11号词云:绘制你的微信好友个性签名词云
# 导入微信库ichat,中文分词库jieba
import itchat
import jieba
# 先登录微信,跳出登陆二维码
itchat.login()
tList = []
# 获取好友列表
friends = itchat.get_friends(update=True)
# 构建所有好友个性签名组成的大列表tList
for i in friends:
# 获取个性签名
signature = i["Signature"]
if 'emoji' in signature:
pass
else:
tList.append(signature)
text = " ".join(tList)
# 对个性签名进行中文分词
wordlist_jieba = jieba.lcut(text, cut_all=True)
wl_space_split = " ".join(wordlist_jieba)
# 导入imageio库中的imread函数,并用这个函数读取本地图片,作为词云形状图片
import imageio
mk = imageio.imread("chinamap.png")
# 导入词云制作库wordcloud
import wordcloud
# 构建并配置词云对象w,注意要加scale参数,提高清晰度
my_wordcloud = wordcloud.WordCloud(background_color='white',
width=1000,
height=700,
font_path='msyh.ttc',
max_words=2000,
mask=mk,
scale=20)
my_wordcloud.generate(wl_space_split)
nickname = friends[0]['NickName']
filename = "output11-{}的微信好友个性签名词云图.png".format(nickname)
my_wordcloud.to_file(filename)
# 显示词云图片
import matplotlib.pyplot as plt
plt.imshow(my_wordcloud)
plt.axis("off")
plt.show()
print('程序结束')
文字情感分析与文本挖掘
Python中文语言处理第三方库snownlp小试牛刀
安装中文文本分析库snownlp:在命令行中输入pip install snownlp
。
打开python的交互式shell
界面,也就是有三个大于号>>>
的这个界面,依次输入以下命令。
>>> import snownlp
>>> word = snownlp.SnowNLP("中华民族伟大复兴")
>>> feeling = word.sentiments
>>> feeling
0.9935086411278989
>>> word = snownlp.SnowNLP("快递慢到死,客服态度不好,退款!")
>>> feeling = word.sentiments
>>> feeling
0.00012171645785852281
snownlp的语料库是淘宝等电商网站的评论,所以对购物类的文本情感分析准确度很高。
一键执行的详细脚本文件详见 github代码库-zihaowordcloud中的test2-snownlp.py
文件。
12号词云:《三体Ⅱ黑暗森林》情感分析词云
# 12号词云:《三体Ⅱ黑暗森林》情感分析词云
# 导入词云制作库wordcloud和中文分词库jieba
import jieba
import wordcloud
# 导入imageio库中的imread函数,并用这个函数读取本地图片,作为词云形状图片
import imageio
mk = imageio.imread("chinamap.png")
# 构建并配置两个词云对象w1和w2,分别存放积极词和消极词
w1 = wordcloud.WordCloud(width=1000,
height=700,
background_color='white',
font_path='msyh.ttc',
mask=mk,
scale=15)
w2 = wordcloud.WordCloud(width=1000,
height=700,
background_color='white',
font_path='msyh.ttc',
mask=mk,
scale=15)
# 对来自外部文件的文本进行中文分词,得到积极词汇和消极词汇的两个列表
f = open('三体黑暗森林.txt',encoding='utf-8')
txt = f.read()
txtlist = jieba.lcut(txt)
positivelist = []
negativelist = []
# 下面对文本中的每个词进行情感分析,情感>0.96判为积极词,情感<0.06判为消极词
print('开始进行情感分析,请稍等,三国演义全文那么长的文本需要三分钟左右')
# 导入自然语言处理第三方库snownlp
import snownlp
for each in txtlist:
each_word = snownlp.SnowNLP(each)
feeling = each_word.sentiments
if feeling > 0.96:
positivelist.append(each)
elif feeling < 0.06:
negativelist.append(each)
else:
pass
# 将积极和消极的两个列表各自合并成积极字符串和消极字符串,字符串中的词用空格分隔
positive_string = " ".join(positivelist)
negative_string = " ".join(negativelist)
# 将string变量传入w的generate()方法,给词云输入文字
w1.generate(positive_string)
w2.generate(negative_string)
# 将积极、消极的两个词云图片导出到当前文件夹
w1.to_file('output12-positive.png')
w2.to_file('output12-negative.png')
print('词云生成完成')
13号词云:《三国演义》人物阵营分色词云
# 13号词云:三国人物阵营分色词云
# B站专栏:同济子豪兄 2019-5-23
# 导入wordcloud库,并定义两个函数
from wordcloud import (WordCloud, get_single_color_func)
class SimpleGroupedColorFunc(object):
"""Create a color function object which assigns EXACT colors
to certain words based on the color to words mapping
Parameters
----------
color_to_words : dict(str -> list(str))
A dictionary that maps a color to the list of words.
default_color : str
Color that will be assigned to a word that's not a member
of any value from color_to_words.
"""
def __init__(self, color_to_words, default_color):
self.word_to_color = {word: color
for (color, words) in color_to_words.items()
for word in words}
self.default_color = default_color
def __call__(self, word, **kwargs):
return self.word_to_color.get(word, self.default_color)
class GroupedColorFunc(object):
"""Create a color function object which assigns DIFFERENT SHADES of
specified colors to certain words based on the color to words mapping.
Uses wordcloud.get_single_color_func
Parameters
----------
color_to_words : dict(str -> list(str))
A dictionary that maps a color to the list of words.
default_color : str
Color that will be assigned to a word that's not a member
of any value from color_to_words.
"""
def __init__(self, color_to_words, default_color):
self.color_func_to_words = [
(get_single_color_func(color), set(words))
for (color, words) in color_to_words.items()]
self.default_color_func = get_single_color_func(default_color)
def get_color_func(self, word):
"""Returns a single_color_func associated with the word"""
try:
color_func = next(
color_func for (color_func, words) in self.color_func_to_words
if word in words)
except StopIteration:
color_func = self.default_color_func
return color_func
def __call__(self, word, **kwargs):
return self.get_color_func(word)(word, **kwargs)
# 导入imageio库中的imread函数,并用这个函数读取本地图片,作为词云形状图片
import imageio
mk = imageio.imread("chinamap.png")
w = WordCloud(width=1000,
height=700,
background_color='white',
font_path='msyh.ttc',
mask=mk,
scale=15,
max_font_size=60,
max_words=20000,
font_step=1)
import jieba
# 对来自外部文件的文本进行中文分词,得到string
f = open('三国演义.txt',encoding='utf-8')
txt = f.read()
txtlist = jieba.lcut(txt)
string = " ".join(txtlist)
# 将string变量传入w的generate()方法,给词云输入文字
w.generate(string)
# 创建字典,按人物所在的不同阵营安排不同颜色,绿色是蜀国,橙色是魏国,紫色是东吴,粉色是诸侯群雄
color_to_words = {
'green': ['刘备','刘玄德','孔明','诸葛孔明', '玄德', '关公', '玄德曰','孔明曰',
'张飞', '赵云','后主', '黄忠', '马超', '姜维', '魏延', '孟获',
'关兴','诸葛亮','云长','孟达','庞统','廖化','马岱'],
'red': ['曹操', '司马懿', '夏侯', '荀彧', '郭嘉','邓艾','许褚',
'徐晃','许诸','曹仁','司马昭','庞德','于禁','夏侯渊','曹真','钟会'],
'purple':['孙权','周瑜','东吴','孙策','吕蒙','陆逊','鲁肃','黄盖','太史慈'],
'pink':['董卓','袁术','袁绍','吕布','刘璋','刘表','貂蝉']
}
# 其它词语的颜色
default_color = 'gray'
# 构建新的颜色规则
grouped_color_func = GroupedColorFunc(color_to_words, default_color)
# 按照新的颜色规则重新绘制词云颜色
w.recolor(color_func=grouped_color_func)
# 将词云图片导出到当前文件夹
w.to_file('output13-threekingdoms.png')
参考资料与扩展阅读
翻译:WorldCloud()官方使用说明 & matplotlib.pyplot.imshow()官方使用说明
Python语言程序设计MOOC 北京理工大学 嵩天
python123:你不知道的词云
文本素材来源
- 《哈姆雷特(英文版)》全文: https://python123.io/resources/pye/hamlet.txt
- 《三国演义》全文: https://python123.io/resources/pye/threekingdoms.txt
- 《新时代中国特色社会主义》全文: https://python123.io/resources/pye/新时代中国特色社会主义.txt
- 《关于实施乡村振兴战略的意见》全文: https://python123.io/resources/pye/关于实施乡村振兴战略的意见.txt
做而论道_CS: 由补码换算到十进制数,也极其简单。 你只需记住:【补码首位的权,是负数】。 一般的八位二进制数,各个位的权是: 128、64、32、16、8、4、2、1; 如果是八位的补码,各个位的权则是: -128、64、32、16、8、4、2、1。 例如,有一个补码:1110 0001, 它代表的十进制是:-128 + 64 + 32 + 1= -31。 再看,另一个补码:0110 0001, 它代表的十进制是:0 + 64 + 32 + 1 = +97。 仅仅使用【进制转换】,不就完事了! ---------------------- 那么,所谓的: 机器数真值符号位原码反补码正数三码与正数相同 负数取反加一符号位不变符号位也参加运算模同余 ... 这一大堆乱七八糟的概念,不都是垃圾嘛! 进位,是小学二年级的知识点吧? 舍弃进位,很难理解吗? 老外竟然能弄出那么大一堆概念! 老外的数学水平,由此可见一斑。 我们的计算机老师,数学水平也太洼,看不透进位的事。 捡个鞋拔子就当成玉如意了。 就知道跟风,带着学生往坑里跳! 在大学里面,一天一天的,兜着圈子讲小学的知识。 甚至还把这些垃圾,弄成考研的内容! 天天蒙骗学生,自己赚取名声和丰厚的讲课费。 真是毁人不倦坑人不浅! 顺便还能抓几个学生挂科,抖一下威风! 现在知道我们缺芯片用的原因了吧!
做而论道_CS: 取反加一,也就是一个【障眼法】而已。 补码,它只不过是一个【代替负数】的正数。 其实,任何进制,都有“补码”的。 你看十进制,两位数,就是:0 ~ 99。 可以有:27 + 99 = (一百) 26 也可以:27 - 1 = 26 如果你忽略进位,依然保持两位数,那么: 正数,就能当负数来用; 加法,也就能完成减法运算。 如果在计算机舍弃进位,会怎样? 计算机中,就全是正数了。 负数没有了,减法运算也没有了。 减法器,也就没有了用武之地。 计算机只需配置一个加法器,便可横行天下! ---------------------- 看到了吗? 只要你舍弃了进位,正数就能代替负数! 补码,并不是来自取反加一。 【舍弃进位】,才是补码的来源和存在意义! ---------------------- 两位十进制时,舍弃进位,就是减去一百 (10^2)。 那么,加上 99,再减去 100,必然就是“-1 ”! 八位二进制数:0000 0000 ~ 1111 1111。 换算到十进制:0 ~ 255。 出现进位,即:2^8 = 256。 那么,加上 255 (1111 1111),再减 256,不也是-1 吗? 同理,254 (1111 1110),就能代替-2。 253 (1111 1101),就是-3 了。 。。。 最后,128 (1000 0000),即为-128。 这些个正数,就是计算机专家 “发明” 的补码。 ---------------------- 其实,补码,不需要谁来发明! 当你舍弃了进位,补码自然而然就出来了, 【舍弃进位】,这不过就是小学的知识点。 计算机专家,却弄不明白这个。 于是,就编造了一批垃圾: 机器数真值原码反码取反加一符号位不变模符号位也参加运算... 谁要是跟老外学算术,立刻、马上,直接就掉沟里去了!
没有对象的野指针2: 非常好,省去了看视频的时间
镁铂钰: 你少管
MONKEYPI: 多学习吧