导语:如果你刚刚开始使用pytorch并想学习如何进行基本的

导语:深度学习八大开源框架深度学习八大开源框架导读:深度学习(deeplearning)是机器学习中一种基于对数据进行表征学习的方法,深度学习的好处是用非监督式或半监督式的特征学习、分层特征提取高效算法来替代手工获取

【CIMIC】11 11 京东全球好物节

作者| chrisfotache

分享到:

导语:新一批论文,让你对深度学习在自然语言处理以及对象检测领域的运用有个清晰的了解。

雷锋网曾编译了《干货分享|深度学习零基础进阶大法!》系列,相信读者一定对深度学习的历史有了一个基本了解,其基本的模型架构(cnn/rnn/lstm)与深度学习如何应用在图片和语音识别上肯定也不在话下了。今天这一部分,我们将通过新一批论文,让你对深度学习在不同领域的运用有个清晰的了解。由于第三部分的论文开始向细化方向延展,因此你可以根据自己的研究方向酌情进行选择。雷锋网对每篇论文都增加了补充介绍。这一弹主要从自然语言处理以及对象检测两方面的应用进行介绍。

本文编译于外媒 github,原文标题《deeplearningpapersreadingroadmap》,原作者 songrotek。___li nlp(自然语言处理)antoinebordes等人撰写了论文《jointlearningofwordsandmeaningrepresentationsforopen-textsemanticparsing》。通常来说,模拟是减轻强化学习的高样本复杂性的好策略。从科学方法论上看,对于反事实的场景,模拟的环境是数据集的模拟,因此它们可以使用共同的指标,允许重复性实验和创新民主化。antoinebordes主张使用一个可实现的模拟问题的集合(对于多种问题,哪一种完美的性能是可能实现的,哪一种能表现出明显不同的能力。)在这篇论文中,你可以对这个问题有所了解。

[1] fr/~bordesan/dokuwiki/libphp?id=en%3apubli&cache=cache&media=en:bordepdf

词嵌入是目前无监督学习的成功应用之一。它们最大的好处无疑是它们不需要昂贵的人工标注,而是在从未标注的现成大数据集中派生的。然后预训练的词嵌入就可以运用在仅使用少量有标注数据的下游任务中了。《distributedrepresentationsofwordsandphrasesandtheircompositionality 》 是 mikolov 等人编著的论文。其中介绍了 2013年创立的word2vec,这是一个允许无缝训练和使用预训练嵌入的工具套件。

[2] /paper/5021-distributed-representations-of-words-and-phrases-and-their-compospdf

这是由 sutskever等人编写的《sequence-to-sequencelearningwithattentionalneuralnetworks(使用注意神经网络的序列到序列学习)》。2014年,seq2seq的神经网络模型开始用于机器翻译。在带有(可选)注意(attention)的标准seq2seq模型的torch实现中,其编码器-解码器(encoder-decoder)模型是lstm。编码器可以是一个双向lstm。此外还能在字符嵌入(characterembeddings)上运行一个卷积神经网络然后再运行一个highwaynetwork,从而将字符(而不是输入的词嵌入)作为输入来使用。

[3] /paper/5346-sequence-to-sequence-learning-with-neurapdf

这是 ankitkumar所写的《 askmeanything:dynamicmemorynetworksfornaturallanguageprocessing》,其中介绍了应用偶发性修正存储的想法,期。