首页  软件  游戏  图书  电影  电视剧

请输入您要查询的图书:

 

图书 Python数据预处理技术与实践
内容
目录
第1章 概述
1.1 Python数据预处理
1.1.1 什么是数据预处理
1.1.2 为什么要做数据预处理
1.1.3 数据预处理的工作流程
1.1.4 数据预处理的应用场景
1.2 开发工具与环境
1.2.1 Anaconda介绍与安装
1.2.2 Sublime Text
1.3 实战案例:第一个中文分词程序
1.3.1 中文分词
1.3.2 实例介绍
1.3.3 结巴实现中文分词
1.4 本章小结
第2章 Python科学计算工具
2.1 NumPy
2.1.1 NumPy的安装和特点
2.1.2 NumPy数组
2.1.3 Numpy的数学函数
2.1.4 NumPy线性代数运算
2.1.5 NumPy IO操作
2.2 SciPy
2.2.1 SciPy的安装和特点
2.2.2 SciPy Linalg
2.2.3 SciPy文件操作
2.2.4 SciPy 插值
2.2.5 SciPy Ndimage
2.2.6 SciPy优化算法
2.3 Pandas
2.3.1 Pandas的安装和特点
2.3.2 Pandas的数据结构
2.3.3 Pandas的数据统计
2.3.4 Pandas处理丢失值
2.3.5 Pandas处理稀疏数据
2.3.6 Pandas的文件操作
2.3.7 Pandas 可视化
2.4 本章小结
第3章 数据采集与存储
3.1 数据与数据采集
3.2 数据类型与采集方法
3.2.1 结构化数据
3.2.2 半结构化数据
3.2.3 非结构化数据
3.3 网络爬虫技术
3.3.1 前置条件
3.3.2 Scrapy 技术原理
3.3.3 Scrapy新建爬虫项目
3.3.4 爬取网站内容
3.4 爬取数据以JSON格式进行存储
3.5 爬取数据的MySQL存储
3.5.1 MySQL与Navicat部署
3.5.2 MySQL存储爬虫数据
3.6 网络爬虫技术扩展
3.7 本章小结
第4章 文本信息抽取
4.1 文本抽取概述
4.2 文本抽取问题
4.3 Pywin32抽取文本信息
4.3.1 Pywin32介绍
4.3.2 抽取Word文档文本信息
4.3.3 抽取PDF文档文本信息
4.3.4 打造灵活的文本抽取工具
4.4 文本批量编码
4.5 实战案例:遍历文件批量抽取新闻文本内容
4.5.1 递归读取文件
4.5.2 遍历抽取新闻文本
4.6 本章小结
第5章 文本数据清洗
5.1 新闻语料的准备
5.2 高效读取文件
5.2.1 递归遍历读取新闻
5.2.2 yield生成器
5.2.3 高效遍历读取新闻
5.3 通过正则表达式来清洗文本数据
5.3.1 正则表达式
5.3.2 清洗文本数据
5.4 清洗HTML网页数据
5.5 简繁字体转换
5.6 实战案例:批量新闻文本数据清洗
5.6.1 高效读取文件内容
5.6.2 抽样处理文件
5.6.3 通过正则表达式批量清洗文件
5.7 本章小结
第6章 中文分词技术
6.1 中文分词简介
6.1.1 中文分词概述
6.1.2 常见中文分词方法
6.2 结巴分词精讲
6.2.1 结巴分词的特点
6.2.2 结巴分词的安装
6.2.3 结巴分词核心方法
6.2.4 结巴中文分词的基本操作
6.2.5 自定义分词词典
6.2.6 关键词提取
6.2.7 词性标注
6.3 HanLP分词精讲
6.3.1 JPype1的安装
6.3.2 调用HanLP的Java包
6.3.3 HanLP分词
6.3.4 HanLP实现自定义分词
6.3.5 命名实体识别与词性标注
6.3.6 HanLP实现关键词抽取
6.3.7 HanLP实现自动摘要
6.4 自定义去除停用词
6.4.1 以正则表达式对文本信息进行清洗
6.4.2 结巴中文分词词性解读
6.4.3 根据词性规则构建自定义停用词
6.5 词频统计
6.5.1 NLTK介绍与安装
6.5.2 统计新闻文本词频
6.5.3 统计特定词频和次数
6.5.4 特征词的频率分布表
6.5.5 频率分布图与频率累计分布图
6.5.6 基于Counter的词频统计
6.6 自定义去高低词频
6.7 自定义规则提取特征词
6.8 实战案例:新闻文本分词处理
6.9 本章小结
第7章 文本特征向量化
7.1 解析数据文件
7.2 处理缺失值
7.2.1 什么是数据缺失值
7.2.2 均值法处理数据缺失值
7.2.3 Pandas 处理缺失值
7.3 数据的归一化处理
7.3.1 不均衡数据分析
7.3.2 归一化的原理
7.3.3 归一化的优点
7.4 特征词转文本向量
7.5 词频-逆词频(TF-IDF)
7.6 词集模型与词袋模型
7.7 实战案例:新闻文本特征向量化
7.8 本章小结
第8章 Gensim文本向量化
8.1 Gensim的特性和核心概念
8.2 Gensim构建语料词典
8.3 Gensim统计词频特征
8.4 Gensim计算TF-IDF
8.5 Gensim实现主题模型
8.5.1 主题模型
8.5.2 潜在语义分析(LSA)
8.5.3 隐含狄利克雷分布(LDA)
8.5.4 LDA的模型实现
8.5.5 随机映射(RP)
8.6 实战案例:Gensim实现新闻文本特征向量化
8.6.1 参数设置
8.6.2 生成词典模型
8.6.3 生成TF-IDF模型
8.7 本章小结
第9
导语
本书结合作者的项目经验,从实际工程需求出发,循序渐进地介绍了大数据预处理相关技术、流行工具与应用案例,全书分为三部分,核心内容概要如下:
第一部分数据预处理的基础知识。包括数据预处理的基本概念、工作流程、应用场景、开发环境、入门演练和Python科学计算工具包Numpy、SciPy、Pandas的实际应用等。
第二部分数据预处理的实战进阶。内容包括:
数据采集与存储,主要涉及数据结构类型和采集方式,着重介绍了爬虫技术以及不同格式的文本信息抽取和文件读取。
高效读取文件、正则清洗文本信息、网页数据清洗和文本批量清洗。
中文分词精讲、封装分词工具包、NLTK词频处理、命名实体抽取和批量分词处理。
特征向量化处理,涉及数据解析、缺失值处理、归一化处理、特征词文本向量化、词频-逆词频、词集模型、词袋模型和批量文本特征向量化。
基于Gensim的文本特征向量化,涉及构建语料词典、词频统计、词频-逆词频计算、主题模型和特征降维等。
内容推荐
本书基础理论和工程应用相结合,循序渐进地介绍了数据预处理的基本概念、基础知识、工具应用和相关案例,包括网络爬虫、数据抽取、数据清洗、数据集成、数据变换、数据向量化、数据规约等知识,书中针对每个知识点,都给出了丰富的教学实例和实现代码,最后,通过一个新闻文本分类的实际项目讲解了数据预处理技术在实际中的应用。
本书的特点是几乎涵盖了数据预处理的各种常用技术及主流工具应用,示例代码很丰富,适合于大数据从业者、AI技术开发人员以及高校大数据专业的学生使用。
标签
缩略图
书名 Python数据预处理技术与实践
副书名
原作名
作者 白宁超//唐聃//文俊
译者
编者
绘者
出版社 清华大学出版社
商品编码(ISBN) 9787302539711
开本 16开
页数 256
版次 1
装订 平装
字数 375
出版时间 2019-12-01
首版时间 2019-12-01
印刷时间 2019-12-01
正文语种
读者对象 普通大众
适用范围
发行范围 公开发行
发行模式 实体书
首发网站
连载网址
图书大类
图书小类
重量 404
CIP核字 2019224198
中图分类号 TP311.561
丛书名
印张 16.75
印次 1
出版地 北京
240
170
13
整理
媒质
用纸
是否注音
影印版本
出版商国别 CN
是否套装
著作权合同登记号
版权提供者
定价
印数
出品方
作品荣誉
主角
配角
其他角色
一句话简介
立意
作品视角
所属系列
文章进度
内容简介
作者简介
目录
文摘
安全警示 适度休息有益身心健康,请勿长期沉迷于阅读小说。
随便看

 

兰台网图书档案馆全面收录古今中外各种图书,详细介绍图书的基本信息及目录、摘要等图书资料。

 

Copyright © 2004-2025 xlantai.com All Rights Reserved
更新时间:2025/5/15 11:34:16