注重体验与质量的电子书资源下载网站
分类于: 职场办公 云计算&大数据
简介
统计机器翻译 豆 8.6分
资源最后更新于 2020-08-26 15:05:41
作者:菲利普·科恩
译者:宗成庆
出版社:
出版日期:2012-01
ISBN:9787121175923
文件格式: pdf
标签: 机器翻译 自然语言处理 NLP 机器学习 计算机 统计 machine-learning 翻译
简介· · · · · ·
《国外计算机科学教材系列:统计机器翻译》提供了必要的语言学和概率论基础知识,涵盖了机器翻译的主要模型:基于词的、基于短语的和基于句法树的模型,还介绍了机器翻译评测、语言建模、区分式训练以及整合语言学标注的高级方法。《国外计算机科学教材系列:统计机器翻译》汇总了最新的研究成果和一些尚未解决的挑战,使初学者和经验丰富的研究人员都能够对这一领域有所贡献。这是一本本科生和研究生的理想读本,也适用于任何对机器翻译开发有兴趣的读者。
目录
第1章 绪论
1.1 概述
1.1.1 第1章:绪论
1.1.2 第2章:词、句子和语料
1.1.3 第3章:概率论
1.1.4 第4章:基于词的翻译模型
1.1.5 第5章:基于短语的翻译模型
1.1.6 第6章:解码
1.1.7 第7章:语言模型
1.1.8 第8章:评测
1.1.9 第9章:判别式训练
1.1.10 第10章:整合语言学信息
1.1.11 第11章:基于树的翻译模型
1.2 机器翻译简史
1.2.1 肇始
1.2.2 ALPAC报告及其后果
1.2.3 首批商用系统
1.2.4 基于中间语系统的研究
1.2.5 数据驱动方法
1.2.6 目前的开发商
1.2.7 技术现状
1.3 应用
1.3.1 全自动高质量机器翻译
1.3.2 要旨翻译
1.3.3 集成语音技术
1.3.4 手持设备中的翻译
1.3.5 后编辑
1.3.6 译者的工具
1.4 可用资源
1.4.1 工具
1.4.2 语料
1.4.3 评测竞赛
1.5 小结
1.5.1 核心概念
1.5.2 延伸阅读
1.6 习题
第2章 词、句子和语料
2.1 词
2.1.1 词例化
2.1.2 词的分布
2.1.3 词性
2.1.4 形态学
2.1.5 词汇语义学
2.2 句子
2.2.1 句子结构
2.2.2 语法理论
2.2.3 句子结构的翻译
2.2.4 语篇
2.3 语料
2.3.1 文本的类型
2.3.2 获取平行语料
2.3.3 句子对齐
2.4 小结
2.4.1 核心概念
2.4.2 延伸阅读
2.4.3 习题
第3章 概率论
3.1 概率分布估计
3.1.1 估计分析
3.1.2 常见概率分布
3.1.3 基于统计的概率估计
3.2 概率分布计算
3.2.1 形式定义
3.2.2 联合概率分布
3.2.3 条件概率分布
3.2.4 贝叶斯法则
3.2.5 插值
3.3 概率分布的特性
3.3.1 均值和方差
3.3.2 期望和方差
3.3.3 熵
3.3.4 互信息
3.4 小结
3.4.1 核心概念
3.4.2 延伸阅读
3.4.3 习题
第二部分 核心方法
第4章 基于词的翻译模型
4.1 基于词的机器翻译
4.1.1 词汇翻译
4.1.2 数据统计
4.1.3 估计概率分布
4.1.4 对齐
4.1.5 IBM模型1
4.2 学习词汇翻译模型
4.2.1 语料不完备问题
4.2.2 期望最大化算法
4.2.3 IBM模型1中的期望最大化算法
4.2.4 困惑度
4.3 确保流畅的输出
4.3.1 流利译文的经验证据
4.3.2 语言模型
4.3.3 噪声信道模型
4.4 更高级的IBM模型
4.4.1 IBM模型2
4.4.2 IBM模型3
4.4.3 训练模型3:采样对齐空间
4.4.4 IBM模型4
4.4.5 IBM模型5
4.5 词对齐
4.5.1 词对齐任务
4.5.2 词对齐质量评估
4.5.3 基于IBM模型的词对齐
4.6 小结
4.6.1 核心概念
4.6.2 延伸阅读
4.6.3 习题
第5章 基于短语的翻译模型
5.1 标准模型
5.1.1 基于短语的翻译模型提出的动因
5.1.2 数学定义
5.2 学习短语翻译表
5.2.1 从词对齐中抽取短语
5.2.2 一致性定义
5.2.3 短语抽取算法
5.2.4 应用实例
5.2.5 短语翻译概率估计
5.3 翻译模型的扩展
5.3.1 对数线性模型
5.3.2 双向翻译概率
5.3.3 词汇化加权
5.3.4 词语惩罚
5.3.5 短语惩罚
5.3.6 作为分类问题的短语翻译
5.4 调序模型的扩展
5.4.1 调序限制
5.4.2 词汇化调序
5.5 基于短语模型的期望最大化训练
5.5.1 短语对齐的联合模型
5.5.2 对齐空间的复杂度
5.5.3 模型训练
5.6 小结
5.6.1 核心概念
5.6.2 延伸阅读
5.6.3 习题
第6章 解码
6.1 翻译过程
6.1.1 翻译一个句子
6.1.2 计算句子的翻译概率
6.2 柱搜索
6.2.1 翻译选项
6.2.2 通过假设扩展的解码过程
6.2.3 计算复杂度
6.2.4 翻译假设重组
6.2.5 栈解码
6.2.6 直方图剪枝和阈值剪枝
6.2.7 调序限制
6.3 未来代价估计
6.3.1 不同的翻译困难
6.3.2 翻译选项的未来代价估计
6.3.3 任意输入跨度的未来代价估计
6.3.4 在搜索中使用未来代价
6.4 其他解码算法
6.4.1 基于覆盖栈的柱搜索算法
6.4.2 A*搜索算法
6.4.3 贪婪爬山解码
6.4.4 有限状态转换机解码
6.5 小结
6.5.1 核心概念
6.5.2 延伸阅读
6.5.3 习题
第7章 语言模型
7.1 n元文法语言模型
7.1.1 马尔可夫链
7.1.2 估计
7.1.3 困惑度
7.2 计数平滑
7.2.1 加1平滑法
7.2.2 删除估计平滑法
7.2.3 古德图灵平滑法
7.2.4 评估
7.3 插值和后备
7.3.1 插值
7.3.2 递归插值
7.3.3 后备
7.3.4 预测词的差异性
7.3.5 历史的差异性
7.3.6 修正的Kneser-Ney平滑算法
7.3.7 评估
7.4 控制语言模型的大小
7.4.1 不同的n元文法的数目
7.4.2 在磁盘上进行估计
7.4.3 高效的数据结构
7.4.4 减小词汇表规模
7.4.5 抽取相关的n元文法
7.4.6 根据需要加载n元文法
7.5 小结
7.5.1 核心概念
7.5.2 延伸阅读
7.5.3 习题
第8章 评测
8.1 人工评测
8.1.1 流利度和忠实度
8.1.2 评测目的
8.1.3 其他评测标准
8.2 自动评测
8.2.1 准确率和召回率
8.2.2 词错误率
8.2.3 BLEU:一个双语评测的替代指标
8.2.4 METEOR
8.2.5 关于评测的争论
8.2.6 评测指标的评测
8.2.7 自动评测不足的证据
8.3 假设检验
8.3.1 计算置信区间
8.3.2 成对比较
8.3.3 自举重采样
8.4 面向任务的评测
8.4.1 后编辑的代价
8.4.2 内容理解测试
8.5 小结
8.5.1 核心概念
8.5.2 延伸阅读
8.5.3 习题
第三部分 前沿研究
第9章 判别式训练
9.1 寻找候选译文
9.1.1 搜索图
9.1.2 词格
9.1.3 n-best列表
9.2 判别式方法的原理
9.2.1 译文的特征表示
9.2.2 标注译文的正确性
9.2.3 监督学习
9.2.4 最大熵
9.3 参数调节
9.3.1 实验设置
9.3.2 Powell搜索方法
9.3.3 单纯型算法
9.4 大规模判别式训练
9.4.1 训练问题
9.4.2 目标函数
9.4.3 梯度下降
9.4.4 感知机
9.4.5 正则化
9.5 后验方法与系统融合
9.5.1 最小贝叶斯风险
9.5.2 置信度估计
9.5.3 系统融合
9.6 小结
9.6.1 核心概念
9.6.2 延伸阅读
9.6.3 习题
第10章 整合语言学信息
10.1 直译
10.1.1 数字和名字
10.1.2 名字翻译
10.1.3 直译的有限状态方法
10.1.4 资源
10.1.5 反向直译与翻译
10.2 形态学
10.2.1 词素
10.2.2 简化丰富的形态变化
10.2.3 翻译形态丰富的语言
10.2.4 单词拆分
10.3 句法重构
10.3.1 基于输入语言句法的调序
10.3.2 学习调序规则
10.3.3 基于词性标记的调序
10.3.4 基于句法树的调序
10.3.5 预留选择
10.4 句法特征
10.4.1 方法论
10.4.2 数的一致性
10.4.3 一致性
10.4.4 句法分析概率
10.5 因子化翻译模型
10.5.1 因子化翻译的分解
10.5.2 因子化模型训练
10.5.3 模块的融合
10.5.4 高效解码
10.6 小结
10.6.1 核心概念
10.6.2 延伸阅读
10.6.3 习题
第11章 基于树的翻译模型
11.1 同步文法
11.1.1 短语结构语法
11.1.2 同步短语结构语法
11.1.3 同步树替换文法
11.2 同步文法的学习
11.2.1 层次短语模型的学习
11.2.2 句法翻译规则的学习
11.2.3 规则的简化
11.2.4 文法规则的打分
11.3 基于句法分析算法的解码
11.3.1 线图分析
11.3.2 核心算法
11.3.3 线图的组织
11.3.4 假设重组
11.3.5 栈剪枝
11.3.6 文法规则的使用
11.3.7 立方剪枝
11.3.8 文法二叉化
11.3.9 外向代价估计
11.4 小结
11.4.1 核心概念
11.4.2 延伸阅读
11.4.3 习题
参考文献
索引
1.1 概述
1.1.1 第1章:绪论
1.1.2 第2章:词、句子和语料
1.1.3 第3章:概率论
1.1.4 第4章:基于词的翻译模型
1.1.5 第5章:基于短语的翻译模型
1.1.6 第6章:解码
1.1.7 第7章:语言模型
1.1.8 第8章:评测
1.1.9 第9章:判别式训练
1.1.10 第10章:整合语言学信息
1.1.11 第11章:基于树的翻译模型
1.2 机器翻译简史
1.2.1 肇始
1.2.2 ALPAC报告及其后果
1.2.3 首批商用系统
1.2.4 基于中间语系统的研究
1.2.5 数据驱动方法
1.2.6 目前的开发商
1.2.7 技术现状
1.3 应用
1.3.1 全自动高质量机器翻译
1.3.2 要旨翻译
1.3.3 集成语音技术
1.3.4 手持设备中的翻译
1.3.5 后编辑
1.3.6 译者的工具
1.4 可用资源
1.4.1 工具
1.4.2 语料
1.4.3 评测竞赛
1.5 小结
1.5.1 核心概念
1.5.2 延伸阅读
1.6 习题
第2章 词、句子和语料
2.1 词
2.1.1 词例化
2.1.2 词的分布
2.1.3 词性
2.1.4 形态学
2.1.5 词汇语义学
2.2 句子
2.2.1 句子结构
2.2.2 语法理论
2.2.3 句子结构的翻译
2.2.4 语篇
2.3 语料
2.3.1 文本的类型
2.3.2 获取平行语料
2.3.3 句子对齐
2.4 小结
2.4.1 核心概念
2.4.2 延伸阅读
2.4.3 习题
第3章 概率论
3.1 概率分布估计
3.1.1 估计分析
3.1.2 常见概率分布
3.1.3 基于统计的概率估计
3.2 概率分布计算
3.2.1 形式定义
3.2.2 联合概率分布
3.2.3 条件概率分布
3.2.4 贝叶斯法则
3.2.5 插值
3.3 概率分布的特性
3.3.1 均值和方差
3.3.2 期望和方差
3.3.3 熵
3.3.4 互信息
3.4 小结
3.4.1 核心概念
3.4.2 延伸阅读
3.4.3 习题
第二部分 核心方法
第4章 基于词的翻译模型
4.1 基于词的机器翻译
4.1.1 词汇翻译
4.1.2 数据统计
4.1.3 估计概率分布
4.1.4 对齐
4.1.5 IBM模型1
4.2 学习词汇翻译模型
4.2.1 语料不完备问题
4.2.2 期望最大化算法
4.2.3 IBM模型1中的期望最大化算法
4.2.4 困惑度
4.3 确保流畅的输出
4.3.1 流利译文的经验证据
4.3.2 语言模型
4.3.3 噪声信道模型
4.4 更高级的IBM模型
4.4.1 IBM模型2
4.4.2 IBM模型3
4.4.3 训练模型3:采样对齐空间
4.4.4 IBM模型4
4.4.5 IBM模型5
4.5 词对齐
4.5.1 词对齐任务
4.5.2 词对齐质量评估
4.5.3 基于IBM模型的词对齐
4.6 小结
4.6.1 核心概念
4.6.2 延伸阅读
4.6.3 习题
第5章 基于短语的翻译模型
5.1 标准模型
5.1.1 基于短语的翻译模型提出的动因
5.1.2 数学定义
5.2 学习短语翻译表
5.2.1 从词对齐中抽取短语
5.2.2 一致性定义
5.2.3 短语抽取算法
5.2.4 应用实例
5.2.5 短语翻译概率估计
5.3 翻译模型的扩展
5.3.1 对数线性模型
5.3.2 双向翻译概率
5.3.3 词汇化加权
5.3.4 词语惩罚
5.3.5 短语惩罚
5.3.6 作为分类问题的短语翻译
5.4 调序模型的扩展
5.4.1 调序限制
5.4.2 词汇化调序
5.5 基于短语模型的期望最大化训练
5.5.1 短语对齐的联合模型
5.5.2 对齐空间的复杂度
5.5.3 模型训练
5.6 小结
5.6.1 核心概念
5.6.2 延伸阅读
5.6.3 习题
第6章 解码
6.1 翻译过程
6.1.1 翻译一个句子
6.1.2 计算句子的翻译概率
6.2 柱搜索
6.2.1 翻译选项
6.2.2 通过假设扩展的解码过程
6.2.3 计算复杂度
6.2.4 翻译假设重组
6.2.5 栈解码
6.2.6 直方图剪枝和阈值剪枝
6.2.7 调序限制
6.3 未来代价估计
6.3.1 不同的翻译困难
6.3.2 翻译选项的未来代价估计
6.3.3 任意输入跨度的未来代价估计
6.3.4 在搜索中使用未来代价
6.4 其他解码算法
6.4.1 基于覆盖栈的柱搜索算法
6.4.2 A*搜索算法
6.4.3 贪婪爬山解码
6.4.4 有限状态转换机解码
6.5 小结
6.5.1 核心概念
6.5.2 延伸阅读
6.5.3 习题
第7章 语言模型
7.1 n元文法语言模型
7.1.1 马尔可夫链
7.1.2 估计
7.1.3 困惑度
7.2 计数平滑
7.2.1 加1平滑法
7.2.2 删除估计平滑法
7.2.3 古德图灵平滑法
7.2.4 评估
7.3 插值和后备
7.3.1 插值
7.3.2 递归插值
7.3.3 后备
7.3.4 预测词的差异性
7.3.5 历史的差异性
7.3.6 修正的Kneser-Ney平滑算法
7.3.7 评估
7.4 控制语言模型的大小
7.4.1 不同的n元文法的数目
7.4.2 在磁盘上进行估计
7.4.3 高效的数据结构
7.4.4 减小词汇表规模
7.4.5 抽取相关的n元文法
7.4.6 根据需要加载n元文法
7.5 小结
7.5.1 核心概念
7.5.2 延伸阅读
7.5.3 习题
第8章 评测
8.1 人工评测
8.1.1 流利度和忠实度
8.1.2 评测目的
8.1.3 其他评测标准
8.2 自动评测
8.2.1 准确率和召回率
8.2.2 词错误率
8.2.3 BLEU:一个双语评测的替代指标
8.2.4 METEOR
8.2.5 关于评测的争论
8.2.6 评测指标的评测
8.2.7 自动评测不足的证据
8.3 假设检验
8.3.1 计算置信区间
8.3.2 成对比较
8.3.3 自举重采样
8.4 面向任务的评测
8.4.1 后编辑的代价
8.4.2 内容理解测试
8.5 小结
8.5.1 核心概念
8.5.2 延伸阅读
8.5.3 习题
第三部分 前沿研究
第9章 判别式训练
9.1 寻找候选译文
9.1.1 搜索图
9.1.2 词格
9.1.3 n-best列表
9.2 判别式方法的原理
9.2.1 译文的特征表示
9.2.2 标注译文的正确性
9.2.3 监督学习
9.2.4 最大熵
9.3 参数调节
9.3.1 实验设置
9.3.2 Powell搜索方法
9.3.3 单纯型算法
9.4 大规模判别式训练
9.4.1 训练问题
9.4.2 目标函数
9.4.3 梯度下降
9.4.4 感知机
9.4.5 正则化
9.5 后验方法与系统融合
9.5.1 最小贝叶斯风险
9.5.2 置信度估计
9.5.3 系统融合
9.6 小结
9.6.1 核心概念
9.6.2 延伸阅读
9.6.3 习题
第10章 整合语言学信息
10.1 直译
10.1.1 数字和名字
10.1.2 名字翻译
10.1.3 直译的有限状态方法
10.1.4 资源
10.1.5 反向直译与翻译
10.2 形态学
10.2.1 词素
10.2.2 简化丰富的形态变化
10.2.3 翻译形态丰富的语言
10.2.4 单词拆分
10.3 句法重构
10.3.1 基于输入语言句法的调序
10.3.2 学习调序规则
10.3.3 基于词性标记的调序
10.3.4 基于句法树的调序
10.3.5 预留选择
10.4 句法特征
10.4.1 方法论
10.4.2 数的一致性
10.4.3 一致性
10.4.4 句法分析概率
10.5 因子化翻译模型
10.5.1 因子化翻译的分解
10.5.2 因子化模型训练
10.5.3 模块的融合
10.5.4 高效解码
10.6 小结
10.6.1 核心概念
10.6.2 延伸阅读
10.6.3 习题
第11章 基于树的翻译模型
11.1 同步文法
11.1.1 短语结构语法
11.1.2 同步短语结构语法
11.1.3 同步树替换文法
11.2 同步文法的学习
11.2.1 层次短语模型的学习
11.2.2 句法翻译规则的学习
11.2.3 规则的简化
11.2.4 文法规则的打分
11.3 基于句法分析算法的解码
11.3.1 线图分析
11.3.2 核心算法
11.3.3 线图的组织
11.3.4 假设重组
11.3.5 栈剪枝
11.3.6 文法规则的使用
11.3.7 立方剪枝
11.3.8 文法二叉化
11.3.9 外向代价估计
11.4 小结
11.4.1 核心概念
11.4.2 延伸阅读
11.4.3 习题
参考文献
索引