TODO:
word2vec
GPT
bert
eimo
就业相关
岗位要求
就业方向
对话系统
舆情监控
**推荐系统**
搜索
机器翻译
预训练模型介绍
发展历程
NLP=NLU+NLG
技术演化路径
Word2vec
有上下文信息,
CBOW: 用中间预测前后预测中间词
预训练模型
bert 用的是encoder
GPT用的decoder, 去掉了中间一层
bert 用的 masked Language Modeling的结构(隐藏中间并预测这个辅助任务), 前向后相都考虑了
gpt 只能从左到右
ELMo concat了左到右和右到左
学习路径
资料推荐
总览
前期知识
WMT数据集
语言翻译
参考指标bleu
self-attention
可以降低时间复杂度
具有更强的可解释性, 显示了不同词语间的关联信息.
- 提出self-attention, 拉开非序列化模型序幕
- 为预训练模型到来打下基础
- bert等