预览加载中,请您耐心等待几秒...
1/10
2/10
3/10
4/10
5/10
6/10
7/10
8/10
9/10
10/10

亲,该文档总共47页,到这已经超出免费预览范围,如果喜欢就直接下载吧~

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

第3章Python常用机器学习库3.4OpenCV1.OpenCV窗口操作2)destroyAllWindows()与DestroyWindow(stringwinName)1.OpenCV处理图像【例3.67】2)图像的通道拆分与合并2.OpenCV捕获摄像头图像【例3.69】捕获摄像头图像。2)摄像头范围内的人脸检测【例3.70】检测摄像头范围内的人脸3.5ScikitlearnScikitlearn算法地图3.5.2SKlearn的一般步骤获取数据,创建数据集使用比较著名的是鸢尾花数据集,调用如下:【例3.71】查看iris数据集。3.6其他常用模块3.6.1Wordcloud制作词云【例3.72】文本信息制作词云图fromwordcloudimportWordCloudimportmatplotlib.pyplotasplt【例3.73】指定背景图片的词云fromwordcloudimportWordCloudimportmatplotlib.pyplotaspltfromimageioimportimread#打开文本文件text=open('song.txt','r').read()#读入背景图片bg_pic=imread('notation.png')#生成词云stopwd=['is','a','the','to','of','in','on','at','and']wdcd=WordCloud(mask=bg_pic,background_color='white',scale=1.5,stopwords=stopwd)wdcd=wdcd.generate(text)plt.imshow(wdcd)plt.axis('off')3.6.2Jieba中文分词2.自然语言处理的主要步骤1)TF-IDF关键词提取2)文本向量化3.中文分词工具---Jieba1)Jieba的三种分词模式:Jieba分词通过其提供的cut方法和cut_for_search方法来实现的,jieba.cut_for_search方法更适合搜索引擎。【例3.74】jieba中文分词。2)词性标注3.6.3PILfromPILimportImageimg1=Image.open("1.jpg")img1=img1.convert('RGBA')convert('RGBA')ret是布尔值,如果读取Scikitlearn的简称是SKlearn,Python中实现机器学习的模块。IMREAD_GRAYSCALEsave("blend.minNeighbors:表示构成检测目标的相邻矩形的最小个数,默认为3个。通过词云,可以突出展示高频高质的信息,凸显数据所体现的主旨。2)图像的通道拆分与合并74】jieba中文分词。SKlearn包含了许多最常见的机器TF-IDF(termminSize,maxSize:限制目标区域的范围。词性也称为词类,是词汇基本的语法属性。到了正确的帧,则返回True;Sentence:需要分词的字符串3.查找图像边缘fromPILimportImage,ImageFilter3.7本章习题