首页  软件  游戏  图书  电影  电视剧

请输入您要查询的图书:

 

图书 模式分类(原书第2版·典藏版)
内容
编辑推荐
本书是模式识别领域的经典教材,被卡内基·梅隆大学、哈佛大学、斯坦福大学、剑桥大学等多所学校选作教材,主要面向人工智能、计算机科学、电子工程、自动化、数学与统计学等领域的高年级本科生和研究生以及科技人员。
内容推荐
本书的第1版《模式分类与场景分析》出版于1973年,是模式识别和场景分析领域奠基性的经典名著。在第2版中,除了保留了第1版的关于统计模式识别和结构模式识别的主要内容以外,读者将会发现新增了许多近25年来的新理论和新方法,其中包括神经网络、机器学习、数据挖掘、进化计算、不变量理论、隐马尔可夫模型、统计学习理论和支持向量机等。作者还为未来25年的模式识别的发展指明了方向。书中包含许多实例,各种不同方法的对比,丰富的图表,以及大量的课后习题和计算机练习。本书作为流行和经典的教材,主要面向电子工程、计算机科学、数学和统计学、媒体处理、模式识别、计算机视觉、人工智能和认知科学等领域的研究生和高年级本科生,也可作为相关领域科技人员的重要参考书。
目录
目录<br /><br /><br />Pattern Classification, Second Edition<br /><br /><br /><br />译者序<br /><br />前言<br />第1章绪论<br /><br /><br /><br />1.1 机器感知<br /><br />1.2 一个例子<br /><br />1.3 模式识别系统<br /><br />1.3.1 传感器<br /><br />1.3.2 分割和组织<br /><br />1.3.3 特征提取<br /><br />1.3.4 分类器<br /><br />1.3.5 后处理<br /><br />1.4 设计循环<br /><br />1.4.1 数据采集<br /><br />1.4.2 特征选择<br /><br />1.4.3 模型选择<br /><br />1.4.4 训练<br /><br />1.4.5 评价<br /><br />1.4.6 计算复杂度<br /><br />1.5 学习和适应<br /><br />1.5.1 有监督学习<br /><br />1.5.2 无监督学习<br /><br />1.5.3 强化学习<br /><br />本章小结<br /><br />全书各章概要<br /><br />文献和历史评述<br /><br />参考文献<br /><br />第2章贝叶斯决策论<br /><br /><br />2.1 引言<br /><br />2.2 贝叶斯决策论——连续特征<br /><br />2.3 最小误差率分类<br /><br /><br /><br /><br />2.3.1 极小化极大准则<br /><br /><br />2.3.2 NeymanPearson准则<br /><br />2.4 分类器、判别函数及判定面<br /><br />2.4.1 多类情况<br /><br />2.4.2 两类情况<br /><br />2.5 正态密度<br /><br />2.5.1 单变量密度函数<br /><br />2.5.2 多元密度函数<br /><br />2.6 正态分布的判别函数<br /><br />2.6.1 情况1:<br />Σi=σ2I<br /><br /><br />2.6.2 情况2:<br />Σi=Σ<br /><br />2.6.3 情况3:Σi=任意<br /><br /><br /><br /><br />2.7 误差概率和误差积分<br /><br /><br />2.8 正态密度的误差上界<br /><br /><br /><br />2.8.1 Chernoff界<br /><br />2.8.2 Bhattacharyya界<br /><br />2.8.3 信号检测理论和操作特性<br /><br /><br />2.9 贝叶斯决策论——离散特征<br /><br />2.9.1 独立的二值特征<br /><br />2.10 丢失特征和噪声特征<br /><br />2.10.1 丢失特征<br /><br />2.10.2 噪声特征<br /><br />2.11 贝叶斯置信网<br /><br />2.12 复合贝叶斯决策论及<br />上下文<br /><br />本章小结<br /><br />文献和历史评述<br /><br />习题<br /><br />上机练习<br /><br />参考文献<br /><br />第3章优选似然估计和贝叶斯<br />参数估计<br /><br /><br />3.1 引言<br /><br />3.2 优选似然估计<br /><br />3.2.1 基本原理<br /><br />3.2.2 高斯情况:μ未知<br /><br />3.2.3 高斯情况:μ和Σ均未知 <br /><br />3.2.4 估计的偏差<br /><br />3.3 贝叶斯估计<br /><br />3.3.1 类条件密度<br /><br />3.3.2 参数的分布<br /><br />3.4 贝叶斯参数估计:高斯情况<br /><br />3.4.1 单变量情况:p(μ|<br />)<br /><br />3.4.2 单变量情况:p(x|)<br /><br /><br /><br />3.4.3 多变量情况<br /><br />3.5 贝叶斯参数估计:一般理论<br /><br />3.5.1 优选似然方法和贝叶斯方法何时有<br /><br />区别 <br /><br /><br />3.5.2 无信息先验和不变性<br /><br />3.5.3 Gibbs算法<br /><br />3.6 充分统计量<br /><br /><br />3.7 维数问题<br /><br />3.7.1 精度、维数和训练集的大小<br /><br />3.7.2 计算复杂度<br /><br />3.7.3 过拟合<br /><br />3.8 成分分析和判别函数<br /><br />3.8.1 主成分分析<br /><br />3.8.2 Fisher线性判别分析<br /><br />3.8.3 多重判别分析<br /><br />3.9 期望优选化算法<br /><br />3.10 隐马尔可夫模型<br /><br />3.10.1 一阶马尔可夫模型<br /><br />3.10.2 一阶隐马尔可夫模型<br /><br />3.10.3 隐马尔可夫模型的计算<br /><br />3.10.4 估值问题<br /><br />3.10.5 解码问题<br /><br />3.10.6 学习问题<br /><br />本章小结<br /><br />文献和历史评述<br /><br />习题<br /><br />上机练习<br /><br />参考文献<br /><br />第4章非参数技术<br /><br />4.1 引言<br /><br />4.2 概率密度的估计<br /><br />4.3 Parzen窗方法<br /><br />4.3.1 均值的收敛性<br /><br />4.3.2 方差的收敛性<br /><br />4.3.3 举例说明<br /><br />4.3.4 分类的例子<br /><br />4.3.5 概率神经网络<br /><br />4.3.6 窗函数的选取<br /><br />4.4 n近邻估计<br /><br />4.4.1 n近邻估计和Parzen<br />窗估计<br /><br />4.4.2 后验概率的估计<br /><br />4.5 最近邻规则<br /><br />4.5.1 最近邻规则的收敛性<br /><br />4.5.2 最近邻规则的误差率<br /><br />4.5.3 误差界<br /><br />4.5.4近邻规则<br /><br />4.5.5近邻规则的计算复杂度<br /><br />4.6 距离度量和最近邻分类<br /><br />4.6.1 度量的性质<br /><br />4.6.2 切空间距离<br /><br />4.7 模糊分类<br /><br />4.8 RCE网络<br /><br />4.9 级数展开逼近<br /><br />本章小结<br /><br />文献和历史评述<br /><br />习题<br /><br />上机练习<br /><br />参考文献<br />第5章线性判别函数<br /><br /><br /><br />5.1 引言 <br /><br />5.2 线性判别函数和判定面<br /><br />5.2.1 两类情况 <br /><br />5.2.2 多类的情况 <br /><br />5.3 广义线性判别函数 <br /><br />5.4 两类线性可分的情况 <br /><br />5.4.1 几何解释和术语 <br /><br />5.4.2 梯度下降算法<br /><br />5.5 感知器准则函数最小化<br /><br />5.5.1 感知器准则函数 <br /><br />5.5.2 单个样本校正的收敛性证明<br /><br />5.5.3 一些直接的推广 <br /><br />5.6 松弛算法<br /><br />5.6.1 下降算法 <br /><br />5.6.2 收敛性证明 <br /><br />5.7 不可分的情况 <br /><br />5.8 最小平方误差方法<br /><br />5.8.1 最小平方误差及伪逆<br /><br />5.8.2 与Fisher线性判别的关系 <br /><br />5.8.3 很优判别的渐近逼近<br /><br />5.8.4 Widrow-Hoff 算法或最小均<br />方算法 <br /><br />5.8.5 随机逼近法 <br /><br />5.9 Ho-Kashyap算法<br /><br />5.9.1 下降算法 <br /><br />5.9.2 收敛性证明 <br /><br />5.9.3 不可分的情况<br /><br />5.9.4 一些相关的算法 <br /><br />5.10 线性规划算法<br /><br />5.10.1 线性规划<br /><br />5.10.2 线性可分情况<br /><br />5.10.3 极小化感知器准则函数<br /><br />5.11 支持向量机 <br /><br />5.12 推广到多类问题<br /><br />5.12.1 Kesler构造法<br /><br />5.12.2 固定增量规则的收敛性<br /><br />5.12.3 MSE算法的推广 <br /><br />本章小结<br /><br />文献和历史评述<br /><br />习题<br /><br />上机练习<br /><br />参考文献<br /><br />第6章 多层神经网络<br /><br />6.1 引言 <br /><br />6.2 前馈运算和分类<br /><br />6.2.1 一般的前馈运算 <br /><br />6.2.2 多层网络的表达能力<br /><br />6.3 反向传播算法 <br /><br />6.3.1 网络学习 <br /><br />6.3.2 训练协议 <br /><br />6.3.3 学习曲线 <br /><br />6.4 误差曲面<br /><br />6.4.1 一些小型网络<br /><br />6.4.2 异或问题<br /><br />6.4.3 较大型的网络<br /><br />6.4.4 关于多重极小<br /><br />6.5 反向传播作为特征映射<br /><br />6.5.1 隐含层的内部表示——权值 <br /><br />6.6 反向传播、贝叶斯理论及概率<br /><br />6.6.1 贝叶斯判别与神经网络 <br /><br />6.6.2 作为概率的输出 <br /><br />6.7 相关的统计技术<br /><br />6.8 改进反向传播的一些实用技术<br /><br />6.8.1 激活函数 <br /><br />6.8.2 sigmoid函数的参数<br /><br />6.8.3 输入信号尺度变换 <br /><br />6.8.4 目标值<br /><br />6.8.5 带噪声的训练法 <br /><br />6.8.6 人工“制造”数据 <br /><br />6.8.7 隐单元数 <br /><br />6.8.8 权值初始化 <br /><br />6.8.9 学习率<br /><br />6.8.10 冲量项<br /><br />6.8.11 权值衰减<br /><br />6.8.12 线索<br /><br />6.8.13 在线训练、随机训练或成批<br />训练<br /><br />6.8.14 停止训练<br /><br />6.8.15 隐含层数<br /><br />6.8.16 误差准则函数<br /><br />6.9 二阶技术<br /><br />6.9.1 黑塞矩阵 <br /><br />6.9.2 牛顿法<br /><br />6.9.3 Quickprop算法<br /><br />6.9.4 共轭梯度法 <br /><br />6.10 其他网络和训练算法<br /><br />6.10.1 径向基函数网络<br /><br />6.10.2 特殊的基函数<br /><br />6.10.3 匹配滤波器<br /><br />6.10.4 卷积网络<br /><br />6.10.5 递归网络<br /><br />6.10.6 级联相关<br /><br />6.11 正则化、复杂度调节和剪枝<br /><br />本章小结<br /><br />文献和历史评述<br /><br />习题<br /><br />上机练习<br /><br />参考文献<br /><br />第7章 随机方法 <br /><br />7.1 引言 <br /><br />7.2 随机搜索<br /><br />7.2.1 模拟退火 <br /><br />7.2.2 玻耳兹曼因子<br /><br />7.2.3 确定性模拟退火 <br /><br />7.3 玻耳兹曼学习<br /><br />7.3.1 可见状态的随机玻耳兹曼<br />学习<br /><br />7.3.2 丢失特征和类别约束<br /><br />7.3.3 确定性玻耳兹曼学习<br /><br />7.3.4 初始化和参数设置 <br /><br />7.4 玻耳兹曼网络和图示模型 <br /><br />7.5 进化方法<br /><br />7.5.1 遗传算法 <br /><br />7.5.2 其他启发式方法<br /><br />7.5.3 遗传算法如何起作用<br /><br />7.6 遗传规划<br /><br />本章小结<br /><br />文献和历史评述<br /><br />习题<br /><br />上机练习<br /><br />参考文献<br />第8章 非度量方法 <br /><br />8.1 引言 <br /><br />8.2 判定树 <br /><br />8.3 CART <br /><br />8.3.1 分支数目 <br /><br />8.3.2 查询的选取与节点不纯度 <br /><br />8.3.3 分支停止准则<br /><br />8.3.4 剪枝 <br /><br />8.3.5 叶节点的标记<br /><br />8.3.6 计算复杂度 <br /><br />8.3.7 特征选择 <br /><br />8.3.8 多元判定树 <br /><br />8.3.9 先验概率和代价函数<br /><br />8.3.10 属性丢失问题<br /><br />8.4 其他树方法 <br /><br />8.4.1 ID3<br /><br />8.4.2 C4.5 <br /><br />8.4.3 哪种树分类器是很优的 <br /><br />8.5 串的识别<br /><br />8.5.1 串匹配<br /><br />8.5.2 编辑距离 <br /><br />8.5.3 计算复杂度 <br /><br />8.5.4 容错的串匹配<br /><br />8.5.5 带通配符的串匹配 <br /><br />8.6 文法方法<br /><br />8.6.1 文法 <br /><br />8.6.2 串文法的类型<br /><br />8.6.3 利用文法的识别 <br /><br />8.7 文法推断<br /><br />8.8 基于规则的方法<br /><br />本章小结<br /><br />文献和历史评述<br /><br />习题<br /><br />上机练习<br /><br />参考文献<br />第9章 独立于算法的机器<br />学习<br /><br />9.1 引言 <br /><br />9.2 没有天生优越的分类器<br /><br />9.2.1 没有免费的午餐定理<br /><br />9.2.2 丑小鸭定理 <br /><br />9.2.3 最小描述长度<br /><br />9.2.4 最小描述长度原理 <br /><br />9.2.5 避免过拟合及Occam剃刀原理<br /><br />9.3 偏差和方差 <br /><br />9.3.1 回归中的偏差和方差关系<br /><br />9.3.2 分类中的偏差和方差关系<br /><br />9.4 统计量估计中的重采样技术 <br /><br />9.4.1 刀切法(jackknife)<br /><br />9.4.2 自助法(bootstrap)<br /><br />9.5 分类器设计中的重采样技术 <br /><br />9.5.1 bagging算法<br /><br />9.5.2 boosting法 <br /><br />9.5.3 基于查询的学习 <br /><br />9.5.4 arcing、基于查询的学习、偏差和<br />方差 <br /><br />9.6 分类器的评价和比较 <br /><br />9.6.1 参数模型 <br /><br />9.6.2 交叉验证 <br /><br />9.6.3 分类准确率的“刀切法”和<br />“自助法”估计 <br /><br />9.6.4 优选似然模型比较<br /><br />9.6.5 贝叶斯模型比较 <br /><br />9.6.6 问题平均误差率 <br /><br />9.6.7 从学习曲线预测最终性能 <br /><br />9.6.8 单个分割平面的能力<br /><br />9.7 组合分类器 <br /><br />9.7.1 有判别函数的分量分类器 <br /><br />9.7.2 无判别函数的分量分类器 <br /><br />本章小结<br /><br />文献和历史评述<br /><br />习题<br /><br />上机练习<br /><br />参考文献<br />第10章 无监督学习和聚类<br /><br />10.1 引言<br /><br />10.2 混合密度和可辨识性<br /><br />10.3 优选似然估计<br /><br />10.4 对混合正态密度的应用<br /><br />10.4.1 情况1:均值向量未知 <br /><br />10.4.2 情况2:所有参数未知 <br /><br />10.4.3k-均值聚类<br /><br />10.4.4 模糊k-均值聚类 <br /><br />10.5 无监督贝叶斯学习<br /><br />10.5.1 贝叶斯分类器<br /><br />10.5.2 参数向量的学习<br /><br />10.5.3 判定导向的近似解<br /><br />10.6 数据描述和聚类<br /><br />10.7 聚类的准则函数<br /><br />10.7.1 误差平方和准则<br /><br />10.7.2 相关的最小方差准则<br /><br />10.7.3 散布准则<br /><br />10.8 迭代很优化 <br /><br />10.9 层次聚类<br /><br />10.9.1 定义<br /><br />10.9.2 基于合并的层次聚类方法<br /><br />10.9.3 逐步优化的层次聚类<br /><br />10.9.4 层次聚类和导出度量<br /><br />10.10 验证问题<br /><br />10.11 在线聚类<br /><br />10.11.1 聚类数目未知 <br /><br />10.11.2 自适应共振网 <br /><br />10.11.3 基于评判的学习 <br /><br />10.12 图论方法<br /><br />10.13 成分分析 <br /><br />10.13.1 主成分分析<br /><br />10.13.2 非线性成分分析 <br /><br />10.13.3 独立成分分析<br /><br />10.14 低维数据表示和多维尺度<br />变换<br />10.14.1 自组织特征映射 <br /><br />10.14.2 聚类与降维<br /><br />本章小结<br /><br />文献和历史评述<br /><br />习题<br /><br />上机练习<br /><br />参考文献<br /><br />附录A数学基础<br /><br />索引
标签
缩略图
书名 模式分类(原书第2版·典藏版)
副书名
原作名
作者 [美]理查德·O.杜达(Richard O.Duda),皮特·E.哈特(Peter E. Hart),大卫·G.斯托克(David G. Stork)
译者
编者
绘者
出版社 机械工业出版社
商品编码(ISBN) 9787111762324
开本 16开
页数 542
版次 1
装订
字数 884
出版时间 2024-10-01
首版时间
印刷时间 2024-10-01
正文语种
读者对象
适用范围
发行范围
发行模式 实体书
首发网站
连载网址
图书大类 科学技术-自然科学-自然科普
图书小类
重量
CIP核字
中图分类号 O235
丛书名
印张
印次 1
出版地
整理
媒质
用纸
是否注音
影印版本
出版商国别
是否套装
著作权合同登记号
版权提供者
定价
印数
出品方
作品荣誉
主角
配角
其他角色
一句话简介
立意
作品视角
所属系列
文章进度
内容简介
作者简介
目录
文摘
安全警示 适度休息有益身心健康,请勿长期沉迷于阅读小说。
随便看

 

兰台网图书档案馆全面收录古今中外各种图书,详细介绍图书的基本信息及目录、摘要等图书资料。

 

Copyright © 2004-2025 xlantai.com All Rights Reserved
更新时间:2025/5/15 7:52:57