机器理解能力讨论

这篇博客记录语言信息处理课的Topic作业

Topic

观点一:如果将数据库的大小扩大一百万倍甚至十亿倍,最终机器翻译能完美地翻译任何语言。。

观点二:再多的数据也不能让机器拥有理解能力

你认为呢?每次课后更新

我的观点

2018/10/16

本节课学习了贝叶斯理论,通过贝叶斯理论我们就能够获得句子构成的概率

所以我们通过分析概率分布,就可以获得单词之间的搭配规则,当思考这种规则如何转换为理解能力呢??

2018/10/9

本节课介绍了知识图谱,知识图谱被誉为是机器的大脑。

所以我想通过对大规模数据构建知识图谱,来辅助机器翻译。

并且通过在知识图谱上完成知识推理,并对知识进行自动构建,能够使得机器拥有理解能力,
并且在图谱上产生的理解能力,是很方便可视化出来的

2018/9/24

我支持观点一,对这个问题保持乐观的态度。

其实现在在数据库比较丰富的语言翻译领域,比如中文对英文;或者英语和法语这些,已经能够达到“相对”满意的效果。相对而言,数据比较匮乏的小语种,效果就比较差。

而且之所以现在在语料充足的语言之间进行翻译,效果也可能比较差。我想还是数据覆盖程度的问题,也就是数据库中的语料还没有完全覆盖到使用者各种“特别”的翻译需求。

当然如果你非要钻牛角尖定义什么是“完美”的翻译,我想人类都达不到,又何必苛求机器呢?

对于观点二,机器能不能拥有理解能力,我觉得肯定是学到了理解能力。至少是浅层语义上的理解能力,否则也不可能在各式的阅读理解,对话/问答任务上取得良好的效果。不过,可惜的是当下还不能对深度的神经网络进行可视化,也就是你不能具体的描述机器到底理解了什么。