注重体验与质量的电子书资源下载网站
分类于: 设计 职场办公
简介
机器翻译 豆 0.0分
资源最后更新于 2020-09-23 15:16:01
作者:李沐
出版社:高等教育出版社
出版日期:2018-01
ISBN:9787040502435
文件格式: pdf
标签: 机器翻译 人工智能 深度学习 计算机 机器学习 NLP 微软亚洲研究院
简介· · · · · ·
机器翻译是人工智能,尤其是自然语言处理方向里的一个重要研究领域。本书旨在作为该领域的入门书籍,内容上尽可能覆盖机器翻译研究历史上各种主流的研究方法和相关资源。全书分为七章,三个主要部分。第一部分(第一、第二章) 主要介绍了机器翻译的历史、研究概况和基础知识,第二部分 (第三、第四章) 详细讨论了统计机器翻译方法的理论和实现,第三部分 (第五至七章) 则着重介绍了基于深度学习在机器翻译研究中应用的最新进展,内容包括深度学习的基础知识和在机器翻译中应用深度学习的不同方法。每章后均附有扩展阅读的内容供想深入研究的读者参考。
本书可以作为高等院校计算机和信息技术等相关专业的研究生教材,也可供对机器翻译的研究和进展有兴趣的读者和工程技术人员参考。
目录
第一章 绪论
1.1 机器翻译概述
1.1.1 机器翻译定义
1.1.2 机器翻译简史
1.1.3 机器翻译方法
1.1.4 机器翻译分析及展望
1.2 机器翻译的应用
1.2.1 文本翻译
1.2.2 语音翻译
1.2.3 应用扩展
1.3 本书章节总览
参考文献
第二章 机器翻译语料和评测
2.1 机器翻译语料
2.1.1 单语语料
2.1.2 双语语料
2.1.3 语料获取
2.1.4 语料处理
2.2 机器翻译评测
2.2.1 人工评测
2.2.2 自动评测
2.2.3 评测活动
参考文献
第三章 统计机器翻译基础
3.1 统计机器翻译简介
3.1.1 统计机器翻译系统框架
3.1.2 统计机器翻译基本流程
3.2 统计机器翻译建模
3.2.1 噪声-信道模型
3.2.2 对数-线性模型
3.2.3 模型训练方法
3.3 语言模型
3.3.1 n元文法语言模型定义
3.3.2 语言模型的平滑
3.3.3 语言模型的评价指标
3.4 翻译模型
3.4.1 词汇翻译模型
3.4.2 短语翻译模型
3.5 调序模型
3.5.1 基于跳转距离的调序模型
3.5.2 词汇化调序模型
3.5.3 基于句法的调序模型
3.6 扩展阅读
参考文献
第四章 统计机器翻译系统模型
4.1 基于短语的统计机器翻译模型
4.1.1 噪声-信道模型短语翻译模型
4.1.2 对数-线性模型短语翻译模型
4.1.3 解码
4.2 基于形式文法的统计机器翻译模型
4.2.1 基于反向转录文法的统计机器翻译模型
4.2.2 基于层次化短语的统计机器翻译模型
4.3 基于句法的统计机器翻译系统模型
4.3.1 树到串的翻译模型
4.3.2 串到树的翻译模型
4.4 多系统融合
4.4.1 句子级系统融合
4.4.2 短语级系统融合
4.4.3 词级系统融合
4.5 领域自适应
4.5.1 基于数据选择的领域自适应
4.5.2 基于自学习的领域自适应
4.5.3 基于上下文信息的领域自适应
4.6 统计机器翻译开源工具
4.7 扩展阅读
参考文献
第五章 自然语言处理中的深度学习基础
5.1 深度学习基础
5.1.1 简介
5.1.2 感知机
5.1.3 多层感知机
5.1.4 激活函数
5.1.5 反向传播算法
5.2 神经网络学习算法
5.2.1 随机梯度下降算法
5.2.2 基于动量的随机梯度下降算法
5.2.3 AdaGrad算法
5.2.4 RMSProp算法
5.2.5 AdaDelta算法
5.2.6 Adam算法
5.2.7 不同参数更新方法的比较
5.3 自然语言处理中常用的神经网络模型
5.3.1 前馈神经网络
5.3.2 循环神经网络
5.3.3 长短时记忆网络
5.3.4 深层循环神经网络
5.3.5 卷积神经网络
5.3.6 通用词嵌入
5.4 扩展阅读
5.5 词汇缩写详解
参考文献
第六章 神经机器翻译
6.1 简单的神经网络机器翻译模型
6.2 神经联合模型
6.2.1 从语言模型到联合模型
6.2.2 基于神经网络的联合模型
6.2.3 基于神经网络的联合模型的训练
6.2.4 联合模型解码速度的优化
6.3 基于序列转换的神经机器翻译
6.3.1 编码器-解码器框架
6.3.2 编码器及其构造
6.3.3 其他方式的编码器
6.3.4 解码器及其构造
6.4 注意力模型
6.4.1 基本序列转换模型的困难
6.4.2 注意力网络
6.4.3 匹配函数
6.4.4 局部匹配与全局匹配
6.5 卷积串到串模型
6.5.1 卷积编码器和解码器
6.5.2 多步注意力机制
6.6 完全基于注意力网络的神经翻译模型
6.6.1 基于注意力网络的编码器和解码器
6.6.2 分组(multi-head)注意力网络
6.6.3 位置编码(positional encoding)
6.6.4 自注意力网络性能分析
6.7 参数正则化
6.7.1 L1/L2正则化
6.7.2 maxout和dropout正则化
6.8 神经机器翻译解码
6.8.1 贪心搜索(greedy search)
6.8.2 束搜索(beam search)
6.8.3 集合解码(ensemble decoding)
6.9 神经机器翻译模型的训练
6.10 扩展阅读
6.11 本章小结
参考文献
第七章 前沿课题
7.1 基于句法的神经机器翻译
7.2 并行化训练
7.2.1 数据并行化
7.2.2 模型并行化
7.3 神经机器翻译的快速解码技术
7.3.1 网络预计算
7.3.2 参数的量化
7.3.3 受限词表优化
7.4 注意力模型的改进
7.4.1 覆盖度和能产度
7.4.2 循环注意力网络
7.5 神经机器翻译的可伸缩性
7.5.1 近似softmax函数
7.5.2 未登录词处理
7.5.3 基于词根分解的开放词汇表
7.6 单语数据在神经机器翻译中的应用
7.6.1 独立的神经语言模型
7.6.2 往返翻译(back translatinn)
7.6.3 联合训练(joint training)
7.6.4 强化学习在神经机器翻译中的应用
7.6.5 生成对抗网络
7.7 扩展阅读
7.8 本章小结
参考文献
1.1 机器翻译概述
1.1.1 机器翻译定义
1.1.2 机器翻译简史
1.1.3 机器翻译方法
1.1.4 机器翻译分析及展望
1.2 机器翻译的应用
1.2.1 文本翻译
1.2.2 语音翻译
1.2.3 应用扩展
1.3 本书章节总览
参考文献
第二章 机器翻译语料和评测
2.1 机器翻译语料
2.1.1 单语语料
2.1.2 双语语料
2.1.3 语料获取
2.1.4 语料处理
2.2 机器翻译评测
2.2.1 人工评测
2.2.2 自动评测
2.2.3 评测活动
参考文献
第三章 统计机器翻译基础
3.1 统计机器翻译简介
3.1.1 统计机器翻译系统框架
3.1.2 统计机器翻译基本流程
3.2 统计机器翻译建模
3.2.1 噪声-信道模型
3.2.2 对数-线性模型
3.2.3 模型训练方法
3.3 语言模型
3.3.1 n元文法语言模型定义
3.3.2 语言模型的平滑
3.3.3 语言模型的评价指标
3.4 翻译模型
3.4.1 词汇翻译模型
3.4.2 短语翻译模型
3.5 调序模型
3.5.1 基于跳转距离的调序模型
3.5.2 词汇化调序模型
3.5.3 基于句法的调序模型
3.6 扩展阅读
参考文献
第四章 统计机器翻译系统模型
4.1 基于短语的统计机器翻译模型
4.1.1 噪声-信道模型短语翻译模型
4.1.2 对数-线性模型短语翻译模型
4.1.3 解码
4.2 基于形式文法的统计机器翻译模型
4.2.1 基于反向转录文法的统计机器翻译模型
4.2.2 基于层次化短语的统计机器翻译模型
4.3 基于句法的统计机器翻译系统模型
4.3.1 树到串的翻译模型
4.3.2 串到树的翻译模型
4.4 多系统融合
4.4.1 句子级系统融合
4.4.2 短语级系统融合
4.4.3 词级系统融合
4.5 领域自适应
4.5.1 基于数据选择的领域自适应
4.5.2 基于自学习的领域自适应
4.5.3 基于上下文信息的领域自适应
4.6 统计机器翻译开源工具
4.7 扩展阅读
参考文献
第五章 自然语言处理中的深度学习基础
5.1 深度学习基础
5.1.1 简介
5.1.2 感知机
5.1.3 多层感知机
5.1.4 激活函数
5.1.5 反向传播算法
5.2 神经网络学习算法
5.2.1 随机梯度下降算法
5.2.2 基于动量的随机梯度下降算法
5.2.3 AdaGrad算法
5.2.4 RMSProp算法
5.2.5 AdaDelta算法
5.2.6 Adam算法
5.2.7 不同参数更新方法的比较
5.3 自然语言处理中常用的神经网络模型
5.3.1 前馈神经网络
5.3.2 循环神经网络
5.3.3 长短时记忆网络
5.3.4 深层循环神经网络
5.3.5 卷积神经网络
5.3.6 通用词嵌入
5.4 扩展阅读
5.5 词汇缩写详解
参考文献
第六章 神经机器翻译
6.1 简单的神经网络机器翻译模型
6.2 神经联合模型
6.2.1 从语言模型到联合模型
6.2.2 基于神经网络的联合模型
6.2.3 基于神经网络的联合模型的训练
6.2.4 联合模型解码速度的优化
6.3 基于序列转换的神经机器翻译
6.3.1 编码器-解码器框架
6.3.2 编码器及其构造
6.3.3 其他方式的编码器
6.3.4 解码器及其构造
6.4 注意力模型
6.4.1 基本序列转换模型的困难
6.4.2 注意力网络
6.4.3 匹配函数
6.4.4 局部匹配与全局匹配
6.5 卷积串到串模型
6.5.1 卷积编码器和解码器
6.5.2 多步注意力机制
6.6 完全基于注意力网络的神经翻译模型
6.6.1 基于注意力网络的编码器和解码器
6.6.2 分组(multi-head)注意力网络
6.6.3 位置编码(positional encoding)
6.6.4 自注意力网络性能分析
6.7 参数正则化
6.7.1 L1/L2正则化
6.7.2 maxout和dropout正则化
6.8 神经机器翻译解码
6.8.1 贪心搜索(greedy search)
6.8.2 束搜索(beam search)
6.8.3 集合解码(ensemble decoding)
6.9 神经机器翻译模型的训练
6.10 扩展阅读
6.11 本章小结
参考文献
第七章 前沿课题
7.1 基于句法的神经机器翻译
7.2 并行化训练
7.2.1 数据并行化
7.2.2 模型并行化
7.3 神经机器翻译的快速解码技术
7.3.1 网络预计算
7.3.2 参数的量化
7.3.3 受限词表优化
7.4 注意力模型的改进
7.4.1 覆盖度和能产度
7.4.2 循环注意力网络
7.5 神经机器翻译的可伸缩性
7.5.1 近似softmax函数
7.5.2 未登录词处理
7.5.3 基于词根分解的开放词汇表
7.6 单语数据在神经机器翻译中的应用
7.6.1 独立的神经语言模型
7.6.2 往返翻译(back translatinn)
7.6.3 联合训练(joint training)
7.6.4 强化学习在神经机器翻译中的应用
7.6.5 生成对抗网络
7.7 扩展阅读
7.8 本章小结
参考文献