精选NLP、CV领域论文TOP10(附链接)

简介:

自然语言处理

01

Knowledge Graph Embedding: A Survey of Approaches and Applications

@jerryshi 推荐

#Knowledge Graph

本文对当下流行的 Knowledge Graph Eembedding 进行汇总,主要介绍了两大类,Translational Distance Models 和 Semantic Matching Models,简要叙述了每中方式下的算法。最后又给出了 KG Embedding 的一些应用,包括 KG 内部知识补全及外部的关系抽取、QA、推荐等。

论文链接:

https://www.paperweekly.site/papers/1425

                                                                                                                           02

Parallel WaveNet: Fast High-Fidelity Speech Synthesis

@wuhecong 推荐

#Deep Learning


DeepmMind 17 年 11 月份的论文,wavenet 的改良版本,实现了并行文本转语音。可以和百度的 Deep Voice 3 对比一下。

论文链接

https://www.paperweekly.site/papers/1416

03

Deconvolutional Latent-Variable Model for Text Sequence Matching

@zhangjianhai 推荐

#Sentence Matching

利用 Convolution encoder - Deconvolution decoder 学习句子的语义表示,将 cnn-deconv 框架用于文本匹配任务中,如 Text Entailment、Paraphrase Identification 任务中,generation 和 discriminative 共同训练,提升特定任务的效果。

该论文方法优势是可以利用 unlabeled 数据帮助学习句子表示,当数据不足时非常有效,随着标注数据的增加,优势逐渐减小。

论文链接

https://www.paperweekly.site/papers/1387

04

Exploring the Effectiveness of Convolutional Neural Networks for Answer Selection in End-to-End Question Answering

@longquan 推荐

#QA System

本文尝试探索了从整个端到端问答系统的流程的角度去衡量卷积神经网络对于答案选择任务的有效性。使用的数据集是标准的 TrecQA 数据集。

论文链接

https://www.paperweekly.site/papers/1400

05

Attention-based LSTM for Aspect-level Sentiment Classification

@applenob 推荐

#Sentiment Classification

使用基于 Attention 的 LSTM 解决细粒度的情感分析问题,在 SemEval 2014 上取得 state-of-art 的结果。

论文链接

https://www.paperweekly.site/papers/1359

计算机视觉

06

Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

@Aidon 推荐

#Neural Networks

文章提出一种加速 DNNs 的新方法(WAE: wavelet-like auto-encoder)来克服现有方法中存在的一个主要问题:如何保证网络加速而又不损失网络性能。

MAE 借助小波的思想,在 encoding 阶段利用 CNNs 分别提取图像的低频分量和高频分量,在 decoding 阶段利用这两个分量恢复出原始图像。

训练好 MAE 之后,可以用于提取图像的低频分量和高频分量,比如在图像分类任务中,将低频分量输入到标准的分类 DNNs(如 VGG-16,ResNet)中,然后与高频分量融合后一起用于分类。

这里提高效率的关键在于,相比于原始图像,提取的低频分量和高频分量都是低分率(原始图像的 1/4)的。

论文链接

https://www.paperweekly.site/papers/1413

07

Targeted Backdoor Attacks on Deep Learning Systems Using Data Poisoning

@snowwalkerj 推荐

#Face Recognition

在不直接接触模型和训练样本的前提下,只使用极少量的“污染样本”来迷惑模型,达到攻击(伪装)指定类别的目的。攻击者可以通过佩戴特定的装饰来达到把自己伪装成某个特定目标的目的。

论文链接

https://www.paperweekly.site/papers/1384

08

Data Distillation: Towards Omni-Supervised Learning

@corenel 推荐

#Unsupervised Learning

本文来自 Facebook AI Research,提出了一种利用单一模型来 ensemle 不同 encoded features 来进行 self=training 的方法,就结果上来说很不错,值得一看。

论文链接

https://www.paperweekly.site/papers/1380

09

Toward Multimodal Image-to-Image Translation

@duinodu 推荐

#Image-to-image Translation

在很多 image-to-image 问题中,one-to-many 是大部分情况,而一般方法比如 pix2pix,仅仅能产生 one-to-one 的结果,但似乎 one-to-many 更符合常理。比如一张灰色的图,对应的彩色图片应该有很多种方式,不仅仅是一种。

困难在于,GAN 总是会让 G 产生某几种固定的模式输出,而如果简单地在输入加随机噪声,G 会在 D 的判别下,忽略随机噪声的作用,还是会有 mode collapse 问题。

文章提出一种 bicycle 的方式,显式地对隐含变量 z 进行表示,处理 one-to-many 中的 mode collapse 问题。

论文链接

https://www.paperweekly.site/papers/1373

10

Video Object Segmentation with Re-identification

@chenhong 推荐

#Video Object Segmentation

传统的视频分割方法依赖于生成掩膜的时间连续性,但是无法处理目标丢失或目较大的位移等情况。

论文为了克服这些问题,提出视频对象分割与重新识别( Video Object Segmentation with Re-identification,VSReID),包括掩码生成模块和 ReID 模块(Person re-identification,ReID,既给定一个监控行人图像,跨设备检索行人的图像)。

前者通过 flow warping 生成初始化概率图,后者自适应匹配检索丢失的目标实体。通过通过两个模块的迭代应用,本文的模型在 DAVIS-2017 取得冠军,验证了算法的性能。

论文链接

https://www.paperweekly.site/papers/1398


原文发布时间为:2018-02-12

本文作者:PaperDaily

本文来自云栖社区合作伙伴“数据派THU”,了解相关信息可以关注“数据派THU”微信公众号

相关文章
|
8月前
|
机器学习/深度学习 人工智能 缓存
TextBrewer:融合并改进了NLP和CV中的多种知识蒸馏技术、提供便捷快速的知识蒸馏框架、提升模型的推理速度,减少内存占用
TextBrewer:融合并改进了NLP和CV中的多种知识蒸馏技术、提供便捷快速的知识蒸馏框架、提升模型的推理速度,减少内存占用
TextBrewer:融合并改进了NLP和CV中的多种知识蒸馏技术、提供便捷快速的知识蒸馏框架、提升模型的推理速度,减少内存占用
|
9月前
|
机器学习/深度学习 人工智能 编解码
NLP领域再创佳绩!阿里云机器学习平台 PAI 多篇论文入选 ACL 2023
阿里云机器学习平台PAI主导的多篇论文在ACL 2023 Industry Track上入选。
|
10月前
|
机器学习/深度学习 人工智能 自然语言处理
NLP还能做什么?北航、ETH、港科大、中科院等多机构联合发布百页论文,系统阐述后ChatGPT技术链(1)
NLP还能做什么?北航、ETH、港科大、中科院等多机构联合发布百页论文,系统阐述后ChatGPT技术链
101 0
|
10月前
|
机器学习/深度学习 人工智能 自然语言处理
NLP还能做什么?北航、ETH、港科大、中科院等多机构联合发布百页论文,系统阐述后ChatGPT技术链(2)
NLP还能做什么?北航、ETH、港科大、中科院等多机构联合发布百页论文,系统阐述后ChatGPT技术链
|
10月前
|
机器学习/深度学习 自然语言处理
【论文解读】Self-Explaining Structures Improve NLP Models
浙大联合北大出了篇比较有意思的文章,从模型解释的角度设计了一个称为Self-Explaining的网络模型,该网络模型可以直接加在任何预训练模型之上,来提高模型的性能和准确率。现在让我们来看看这篇文章吧。
154 0
|
10月前
|
自然语言处理 数据挖掘
【论文解读】Do Prompts Solve NLP Tasks Using Natural Language?
提示学习实现文本分类的各类方法对比的论文
72 0
|
11月前
|
自然语言处理 数据可视化 计算机视觉
全领域涨点 | Transformer携Evolving Attention在CV与NLP领域全面涨点(文末送书)(二)
全领域涨点 | Transformer携Evolving Attention在CV与NLP领域全面涨点(文末送书)(二)
68 0
|
11月前
|
机器学习/深度学习 自然语言处理 计算机视觉
全领域涨点 | Transformer携Evolving Attention在CV与NLP领域全面涨点(文末送书)(一)
全领域涨点 | Transformer携Evolving Attention在CV与NLP领域全面涨点(文末送书)(一)
108 1
|
11月前
|
机器学习/深度学习 自然语言处理 数据可视化
泛化神器 | 李沐老师新作进一步提升模型在多域多的泛化性,CV和NLP均有大幅度提升(文末获取论文)
泛化神器 | 李沐老师新作进一步提升模型在多域多的泛化性,CV和NLP均有大幅度提升(文末获取论文)
164 0
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
细数NLP与CV的融合创新:盘点多模态深度学习这几年
细数NLP与CV的融合创新:盘点多模态深度学习这几年
200 0