场景文本检测器由文本检测和识别模块组成。已经进行了许多研究,以将这些模块统一为端到端的可训练模型,以实现更好的性能。典型的结构将检测和识别模块放置在单独的分支中,并且RoI pooling通常用于让分支共享视觉特征。然而,当采用识别器时,仍然有机会在模块之间建立更互补的连接,该识别器使用基于注意力的解码器和检测器来表示字符区域的空间信息。这是可能的,因为两个模块共享一个共同的子任务,该任务将查找字符区域的位置。基于这些见解,我们构建了紧密耦合的单管道模型。通过使用检测输出作为识别器输入,并在检测阶段传播识别损失来形成此结构。字符得分图的使用有助于识别器更好地关注字符中心点,并且识别损失传播到检测器模块会增强字符区域的定位。此外,增强的共享阶段允许对任意形状的文本区域进行特征校正和边界定位。大量实验证明了公开提供的直线和曲线基准数据集的最新性能。
场景文本定位,包括文本检测和识别,由于在即时翻译,图像检索和场景解析中的各种应用,最近引起了广泛的关注。尽管现有的文本检测器和识别器在水平文本上很有效,但是在场景图像中发现弯曲的文本实例时,仍然是一个挑战。
为了在图像中发现弯曲的文本,一种经典的方法是将现有的检测和识别模型进行级联,以管理每一侧的文本实例。检测器[32、31、2]尝试通过应用复杂的后处理技术来捕获弯曲文本的几何属性,而识别器则应用多向编码[6]或采用修正模块[37、46、11]来增强弯曲文本上识别器的准确性。
随着深度学习的发展,已经进行了将检测器和识别器组合成可共同训练的端到端网络的研究[14,29]。拥有统一的模型不仅可以提高模型的尺寸效率和速度,还可以帮助模型学习共享功能,从而提高整体性能。为了从该属性中受益,还尝试使用端到端模型[32、34、10、44]处理弯曲文本实例。但是,大多数现有的工作仅采用RoI pooling 在检测和识别分支之间共享底层特征。在训练阶段,不是训练整个网络,而是使用检测和识别损失来训练共享特征层。
如图1所示,我们提出了一种新颖的端到端字符区域注意文本定位模型,称为CRAFTS。而不是将检测和识别模块隔离在两个单独的分支中,我们通过在模块之间建立互补连接来建立一个单一的pipline。我们观察到,使用基于注意力的解码器的识别器[1]和封装字符空间信息的检测器[2]共享一个公用的子任务,该子任务用于定位字符区域。通过将两个模块紧密集成,检测级的输出可帮助识别器更好地识别字符中心点,并且从识别器传播到检测器级的损失会增强字符区域的定位。而且,网络能够使在公共子任务中使用的特征表示的质量最大化。据我们所知,这是构建紧密耦合损失的首个端到端工作。 我们的贡献总结如下: (1)我们提出了一种可以检测和识别任意形状的文本的端到端网络。 (2)通过利用来自修正和识别模块上检测器的空间字符信息,我们在模块之间构造互补关系。 (3)通过在整个网络的所有特征中传播识别损失来建立单个pipline。 (4)我们在包含大量水平,弯曲和多语言文本的IC13,IC15,IC19-MLT和TotalText [20、19、33、7]数据集中实现了最先进的性能。
文本检测和识别方法 检测网络使用基于回归的[16、24、25、48]或基于分割的[9、31、43、45]方法来生成文本边界框。诸如[17,26,47]之类的一些最新方法将Mask-RCNN [13]作为基础网络,并通过采用多任务学习从回归和分割方法中获得了优势。就文本检测的单元而言,所有方法还可以依赖单词级别或字符级别[16,2]预测的使用进行子分类。
文本识别器通常采用基于CNN的特征提取器和基于RNN的序列生成器,并按其序列生成器进行分类。连接主义的时间分类(CTC)[35]和基于注意力的顺序解码器[21、36]。 检测模型提供了文本区域的信息,但是对于识别器而言,要提取任意形状的文本中的有用信息仍然是一个挑战。 为了帮助识别网络处理不规则文本,一些研究[36、28、37]利用 空间变换器网络(STN) [18]。而且,论文[11,46]通过迭代执行修正方法进一步扩展了STN的使用。这些研究表明,递归运行STN有助于识别器提取极端弯曲文本中的有用特征。在[27]中,提出了循环RoIWarp层, 在识别单个字符之前对其进行裁剪。这项工作证明,找到字符区域的任务与基于注意力的解码器中使用的注意力机制密切相关。
构造文本定位模型的一种方法是依次放置检测和识别网络。众所周知的两阶段结构将TextBox ++ [24]检测器和CRNN [35]识别器耦合在一起。简单来说,该方法取得了良好的效果。
端到端的使用基于RNN的识别器 EAA [14]和FOTS [29]是基于EAST检测器[49]的端到端模型。这两个网络之间的区别在于识别器。 FOTS模型使用CTC解码器[35],而EAA模型使用注意力解码器[36]。两项工作都实现了仿射变换层来合并共享功能。提出的仿射变换在水平文本上效果很好,但在处理任意形状的文本时显示出局限性。 TextNet [42]提出了一种在特征池化层中具有透视RoI变换的空间感知文本识别器, 网络保留RNN层以识别2D特征图中的文本序列,但是由于缺乏表现力的四边形,在检测弯曲文本时,网络仍然显示出局限性。
Qin等[34]提出了一种基于Mask-RCNN [13]的端到端网络。给定box proposals,从共享层合并特征,并使用ROI遮罩层过滤掉背景杂波。提出的方法通过确保注意力仅在文本区域中来提高其性能。Busta等提出了Deep TextSpotter [3]网络,并在E2E-MLT [4]中扩展了他们的工作。该网络由基于FPN的检测器和基于CTC的识别器组成。该模型以端到端的方式预测多种语言。
端到端的使用基于CNN的识别器 在处理任意形状的文本时,大多数基于CNN的模型在识别字符级文本都具有优势。 MaskTextSpotter [32]是使用分割方法识别文本的模型。尽管它在检测和识别单个字符方面具有优势, 但由于通常不会在公共数据集中提供字符级别的注释,因此很难训练网络。 CharNet [44]是另一种基于分割的方法,可以进行字符级预测。该模型以弱监督的方式进行训练,以克服缺乏字符级注释的问题。在训练期间,该方法执行迭代字符检测以创建伪ground-truths。
尽管基于分割的识别器已经取得了巨大的成功,但是当目标字符的数量增加时,该方法会受到影响。随着字符集数量的增加,基于分割的模型需要更多的输出通道,这增加了内存需求。journal版本的MaskTextSpotter [23]扩展了字符集以处理多种语言,但是作者添加了基于RNN的解码器,而不是使用他们最初提出的基于CNN的识别器。 基于分割的识别器的另一个限制是识别分支中缺少上下文信息。 由于缺少像RNN这样的顺序建模,在嘈杂的图像下,模型的准确性下降。
TextDragon [10]是另一种基于分割的方法,用于定位和识别文本实例。但是, 不能保证预测的字符段会覆盖单个字符区域。为了解决该问题,该模型合并了CTC来删除重叠字符。 该网络显示出良好的检测性能,但是由于缺少顺序建模而在识别器中显示出局限性。
由于CRAFT检测器[2]具有表示字符区域语义信息的能力,因此被选作基础网络。 CRAFT网络的输出表示字符区域以及它们之间的连接的中心概率。由于两个模块的目标是定位字符的中心位置,我们设想此字符居中信息可用于支持识别器中的注意模块。 在这项工作中,我们对原始的CRAFT模型进行了三处更改;骨干替换,连接表示和方向估计。
骨干置换 最近的研究表明,使用ResNet50可以捕获检测器和识别器定义的明确的特征表示[30,1]。因此,我们将骨干网络由VGG-16 [40]换成ResNet50 [15]。
连接表示 垂直文本在拉丁文本中并不常见,但是在东亚语言(例如中文,日语和韩语)中经常出现。在这项工作中,使用二进制中心线连接顺序字符区域。进行此改变的原因是,在垂直文本上使用原始的亲和力图经常会产生不适定的透视变换,从而生成无效的框坐标。为了生成 ground truth连接图,在相邻字符之间绘制一条粗细为t的线段。这里,t = max((d 1 + d 2)/ 2 *α,1),其中d 1和d 2是相邻字符盒的对角线长度,α是缩放系数。使用该方程式可使中心线的宽度与字符的大小成比例。我们在实现中将α设置为。
方向估计 重要的是获取文本框的正确方向,因为识别阶段需要定义明确的框坐标才能正确识别文本。为此,我们在检测阶段增加了两个通道的输出,通道用于预测字符沿x轴和y轴的角度。为了生成定向图的 ground truth.
共享阶段包括两个模块:文本纠正模块和字符区域注意力( character region attention: CRA)模块。为了纠正任意形状的文本区域,使用了薄板样条(thin-plate spline:TPS)[37]转换。受[46]的启发,我们的纠正模块结合了迭代式TPS,以更好地表示文本区域。通过有吸引力地更新控制点,可以改善图像中文本的弯曲几何形状。 通过实证研究,我们发现三个TPS迭代足以校正。
典型的TPS模块将单词图像作为输入,但是我们提供了字符区域图和连接图,因为它们封装了文本区域的几何信息。我们使用二十个控制点来紧密覆盖弯曲的文本区域。为了将这些控制点用作检测结果,将它们转换为原始输入图像坐标。我们可以选择执行2D多项式拟合以平滑边界多边形。迭代TPS和最终平滑多边形输出的示例如图4所示。
识别阶段的模块是根据[1]中报告的结果形成的。 识别阶段包含三个组件:特征提取,序列建模和预测。 由于特征提取模块采用高级语义特征作为输入,因此它比单独的识别器更轻便。
表1中显示了特征提取模块的详细架构。提取特征后,将双向LSTM应用于序列建模,然后基于注意力的解码器进行最终文本预测。
在每个时间步,基于注意力的识别器都会通过屏蔽对特征的注意力输出来解码文本信息。 尽管注意力模块在大多数情况下都能很好地工作,但是当注意点未对齐或消失时,它无法预测字符[5,14]。 图5显示了使用CRA模块的效果。 适当放置的注意点可以进行可靠的文本预测。
用于训练的最终损失L由检测损失和识别损失组成,取L = Ldet + Lreg。 识别损失的总体流程如图6所示。损失在识别阶段流经权重,并通过字符区域注意模块传播到检测阶段。 另一方面,检测损失被用作中间损失,因此使用检测和识别损失来更新检测阶段之前的权重。
English datasets IC13 [20]数据集由高分辨率图像组成,229张图像用于训练和233张图像用于测试。 矩形框用于注释单词级文本实例。 IC15 [20]包含1000个训练图像和500个测试图像。 四边形框用于注释单词级文本实例。 TotalText [7] 拥有1255个训练图像和300张测试图像。与IC13和IC15数据集不同,它包含弯曲的文本实例,并使用多边形点进行注释。
Multi-language dataset IC19 [33]数据集包含10,000个训练和10,000个测试图像。 数据集包含7种不同语言的文本,并使用四边形点进行注释。
我们联合训练CRAFTS模型中的检测器和识别器。为了训练检测阶段,我们遵循[2]中描述的弱监督训练方法。通过在每个图像中进行批随机采样的裁剪单词特征来计算识别损失。每个图像的最大单词数设置为16,以防止出现内存不足错误。检测器中的数据增强应用了诸如裁剪,旋转和颜色变化之类的技术。对于识别器来说,ground truth框的角点在框的较短长度的0%到10%之间的范围内受到干扰。
该模型首先在SynthText数据集[12]上进行了50k迭代训练,然后我们进一步在目标数据集上训练了网络。使用Adam优化器,并应用在线困难样本挖掘On-line Hard Negative Mining(OHEM) [39]来在检测损失中强制使用正负像素的1:3比例。微调模型时,SynthText数据集以1:5的比例混合。我们采用94个字符来覆盖字母,数字和特殊字符,对于多语言数据集则采用4267个字符。
水平数据集(IC13,IC15) 为了达到IC13基准,我们采用在SynthText数据集上训练的模型,并在IC13和IC19数据集进行微调。在;推理过程中,我们将输入的较长边调整为1280。 结果表明,与以前的最新技术相比,性能显着提高。
然后在IC15数据集上对在IC13数据集上训练的模型进行微调。在评估过程中,模型的输入大小设置为2560x1440。请注意,我们在没有通用词汇集的情况下执行通用评估。表2中列出了IC13和IC15数据集的定量结果。
使用热图来说明字符区域图和连接图,并且在HSV颜色空间中可视化了加权的像素角度值。 如图所示,网络成功定位了多边形区域并识别了弯曲文本区域中的字符。左上角的两个图显示成功识别了完全旋转和高度弯曲的文本实例。
由字符区域注意辅助的注意力 在本节中,我们将通过训练没有CRA的单独网络来研究字符区域注意(CRA)如何影响识别器的性能。
表5显示了在基准数据集上使用CRA的效果。没有CRA,我们观察到在所有数据集上性能均下降。特别是在远景数据集(IC15)和弯曲数据集(TotalText)上,我们观察到与水平数据集(IC13)相比,差距更大。这意味着在处理不规则文本时,送入字符注意力信息可以提高识别器的性能。(?表格中的实验数据是对远景文本更有效,不知道这个结论如何得出来的?)
方向估计的重要性 方向估计很重要,因为场景文本图像中有许多多方向文本。我们的逐像素平均方案对于识别器接收定义良好的特征非常有用。当不使用方向信息时,我们比较模型的结果。在IC15数据集上,性能从%下降到%(%),在TotalText数据集上,h-mean值从%下降到%(%)。 结果表明,使用正确的角度信息可以提高旋转文本的性能。
推理速度 由于推理速度随输入图像大小而变化,因此我们在不同的输入分辨率下测量FPS,每个分辨率的较长边分别为960、1280、1600和2560。测试结果得出的FPS分别为、、和。对于所有实验,我们使用Nvidia P40 GPU和Intel®Xeon®CPU。与基于VGG的CRAFT检测器的 FPS [2]相比,基于ResNet的CRAFTS网络在相同大小的输入上可获得更高的FPS。而且,直接使用来自修正模块的控制点可以减轻对多边形生成进行后期处理的需要。
粒度差异问题 我们假设 ground-truth与预测框之间的粒度差异导致IC15数据集的检测性能相对较低。 字符级分割方法倾向于基于空间和颜色提示来概括字符连接性,而不是捕获单词实例的全部特征。 因此,输出不遵循基准测试要求的框的注释样式。图9显示了IC15数据集中的失败案例,这证明了当我们观察到可接受的定性结果时,检测结果被标记为不正确。
在本文中,我们提出了一种将检测和识别模块紧密耦合的端到端可训练单管道模型。 共享阶段中的字符区域注意力充分利用了字符区域图,以帮助识别器纠正和更好地参与文本区域。 此外,我们设计了识别损失通过在检测阶段传播并增强了检测器的字符定位能力。 此外,共享阶段的修正模块可以对弯曲的文本进行精细定位,并且无需开发手工后期处理。 实验结果验证了CRAFTS在各种数据集上的最新性能。
Meta-SR: A Magnification-Arbitrary Network for Super-Resolution Xuecai Hu, Haoyuan Mu, Xiangyu Zhang, Zilei Wang, Tieniu Tan, Jian Sun [ pdf ]
Blind Super-Resolution With Iterative Kernel Correction Jinjin Gu, Hannan Lu, Wangmeng Zuo, Chao Dong [ pdf ]
Camera Lens Super-Resolution Chang Chen, Zhiwei Xiong, Xinmei Tian, Zheng-Jun Zha, Feng Wu [ pdf ], [ supp ]
Deep Plug-And-Play Super-Resolution for Arbitrary Blur Kernels Kai Zhang, Wangmeng Zuo, Lei Zhang [ pdf ]
Towards Real Scene Super-Resolution With Raw Images Xiangyu Xu, Yongrui Ma, Wenxiu Sun [ pdf ]
ODE-Inspired Network Design for Single Image Super-Resolution Xiangyu He, Zitao Mo, Peisong Wang, Yang Liu, Mingyuan Yang, Jian Cheng [ pdf ], [ supp ]
Feedback Network for Image Super-Resolution Zhen Li, Jinglei Yang, Zheng Liu, Xiaomin Yang, Gwanggil Jeon, Wei Wu [ pdf ], [ supp ]
Recurrent Back-Projection Network for Video Super-Resolution Muhammad Haris, Gregory Shakhnarovich, Norimichi Ukita [ pdf ], [ supp ]
Image Super-Resolution by Neural Texture Transfer Zhifei Zhang, Zhaowen Wang, Zhe Lin, Hairong Qi [ pdf ]
Natural and Realistic Single Image Super-Resolution With Explicit Natural Manifold Discrimination Jae Woong Soh, Gu Yong Park, Junho Jo, Nam Ik Cho [ pdf ], [ supp ]
3D Appearance Super-Resolution With Deep Learning Yawei Li, Vagia Tsiminaki, Radu Timofte, Marc Pollefeys, Luc Van Gool [ pdf ], [ supp ]
Fast Spatio-Temporal Residual Network for Video Super-Resolution Sheng Li, Fengxiang He, Bo Du, Lefei Zhang, Yonghao Xu, Dacheng Tao [ pdf ], [ supp ]
Residual Networks for Light Field Image Super-Resolution Shuo Zhang, Youfang Lin, Hao Sheng [ pdf ]
Second-Order Attention Network for Single Image Super-Resolution Tao Dai, Jianrui Cai, Yongbing Zhang, Shu-Tao Xia, Lei Zhang [ pdf ], [ pdf ]
Hyperspectral Image Super-Resolution With Optimized RGB Guidance Ying Fu, Tao Zhang, Yinqiang Zheng, Debing Zhang, Hua Huang [ pdf ]
Learning Parallax Attention for Stereo Image Super-Resolution Longguang Wang, Yingqian Wang, Zhengfa Liang, Zaiping Lin, Jungang Yang, Wei An, Yulan Guo [ pdf ], [ supp ]
Face Super-resolution Guided by Facial Component Heatmaps Xin Yu, Basura Fernando, Bernard Ghanem, Fatih Porikli, Richard Hartley [ pdf ]
Image Super-Resolution Using Very Deep Residual Channel Attention Networks Yulun Zhang, Kunpeng Li, Kai Li, Lichen Wang, Bineng Zhong, Yun Fu [ pdf ]
Super-Resolution and Sparse View CT Reconstruction Guangming Zang, Mohamed Aly, Ramzi Idoughi, Peter Wonka, Wolfgang Heidrich [ pdf ]
Fast, Accurate, and Lightweight Super-Resolution with Cascading Residual Network Namhyuk Ahn, Byungkon Kang, Kyung-Ah Sohn [ pdf ]
SRFeat: Single Image Super-Resolution with Feature Discrimination Seong-Jin Park, Hyeongseok Son, Sunghyun Cho, Ki-Sang Hong, Seungyong Lee [ pdf ]
To learn image super-resolution, use a GAN to learn how to do image degradation first Adrian Bulat, Jing Yang, Georgios Tzimiropoulos [ pdf ]
Multi-scale Residual Network for Image Super-Resolution Juncheng Li, Faming Fang, Kangfu Mei, Guixu Zhang [ pdf ]
Super-FAN: Integrated Facial Landmark Localization and Super-Resolution of Real-World Low Resolution Faces in Arbitrary Poses With GANs Adrian Bulat, Georgios Tzimiropoulos [ pdf ] [ Supp ]
Fight Ill-Posedness With Ill-Posedness: Single-Shot Variational Depth Super-Resolution From Shading Bjoern Haefner, Yvain Quéau, Thomas Möllenhoff, Daniel Cremers [ pdf ] [ Supp ]
Recovering Realistic Texture in Image Super-Resolution by Deep Spatial Feature Transform Xintao Wang, Ke Yu, Chao Dong, Chen Change Loy [ pdf ]
Fast and Accurate Single Image Super-Resolution via Information Distillation Network Zheng Hui, Xiumei Wang, Xinbo Gao [ pdf ]
Image Super-Resolution via Dual-State Recurrent Networks Wei Han, Shiyu Chang, Ding Liu, Mo Yu, Michael Witbrock, Thomas S. Huang [ pdf ]
Deep Back-Projection Networks for Super-Resolution Muhammad Haris, Gregory Shakhnarovich, Norimichi Ukita [ pdf ] [ Supp ]
Residual Dense Network for Image Super-Resolution Yulun Zhang, Yapeng Tian, Yu Kong, Bineng Zhong, Yun Fu [ pdf ]
FSRNet: End-to-End Learning Face Super-Resolution With Facial Priors Yu Chen, Ying Tai, Xiaoming Liu, Chunhua Shen, Jian Yang [ pdf ]
Unsupervised Sparse Dirichlet-Net for Hyperspectral Image Super-Resolution Ying Qu, Hairong Qi, Chiman Kwan [ pdf ]
“Zero-Shot” Super-Resolution Using Deep Internal Learning Assaf Shocher, Nadav Cohen, Michal Irani [ pdf ]
Deep Video Super-Resolution Network Using Dynamic Upsampling Filters Without Explicit Motion Compensation Younghyun Jo, Seoung Wug Oh, Jaeyeon Kang, Seon Joo Kim [ pdf ] [ Supp ]
Learning a Single Convolutional Super-Resolution Network for Multiple Degradations Kai Zhang, Wangmeng Zuo, Lei Zhang [ pdf ]
Feature Super-Resolution: Make Machine See More Clearly Weimin Tan, Bo Yan, Bahetiyaer Bare [ pdf ]
Frame-Recurrent Video Super-Resolution Mehdi S. M. Sajjadi, Raviteja Vemulapalli, Matthew Brown [ pdf ]
Temporal Shape Super-Resolution by Intra-Frame Motion Encoding Using High-Fps Structured Light Yuki Shiba, Satoshi Ono, Ryo Furukawa, Shinsaku Hiura, Hiroshi Kawasaki [ pdf ] [ Supp ] [ video ]
Robust Video Super-Resolution With Learned Temporal Dynamics Ding Liu, Zhaowen Wang, Yuchen Fan, Xianming Liu, Zhangyang Wang, Shiyu Chang, Thomas Huang [ pdf ]
Detail-Revealing Deep Video Super-Resolution Xin Tao, Hongyun Gao, Renjie Liao, Jue Wang, Jiaya Jia [ pdf ] [ video ]
EnhanceNet: Single Image Super-Resolution Through Automated Texture Synthesis Mehdi S. M. Sajjadi, Bernhard Scholkopf, Michael Hirsch [ pdf ] [ Supp ][ video ]
Joint Estimation of Camera Pose, Depth, Deblurring, and Super-Resolution From a Blurred Image Sequence Haesol Park, Kyoung Mu Lee [ pdf ] [ Supp ]
Image Super-Resolution Using Dense Skip Connections Tong Tong, Gen Li, Xiejie Liu, Qinquan Gao [ pdf ]
Deep Laplacian Pyramid Networks for Fast and Accurate Super-Resolution Wei-Sheng Lai, Jia-Bin Huang, Narendra Ahuja, Ming-Hsuan Yang [ pdf ]
Image Super-Resolution via Deep Recursive Residual Network Ying Tai, Jian Yang, Xiaoming Liu [ pdf ]
Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network Christian Ledig, Lucas Theis, Ferenc Huszar, Jose Caballero, Andrew Cunningham, Alejandro Acosta, Andrew Aitken, Alykhan Tejani, Johannes Totz, Zehan Wang, Wenzhe Shi [ pdf ] [ poster ] [ video ]
Real-Time Video Super-Resolution With Spatio-Temporal Networks and Motion Compensation Jose Caballero, Christian Ledig, Andrew Aitken, Alejandro Acosta, Johannes Totz, Zehan Wang, Wenzhe Shi [ pdf ] [ poster ]
Hyperspectral Image Super-Resolution via Non-Local Sparse Tensor Factorization Renwei Dian, Leyuan Fang, Shutao Li [ pdf ] [ poster ]
Simultaneous Super-Resolution and Cross-Modality Synthesis of 3D Medical Images Using Weakly-Supervised Joint Convolutional Sparse Coding Yawen Huang, Ling Shao, Alejandro F. Frangi [ pdf ] [ poster ]
Reference Guided Deep Super-Resolution via Manifold Localized External Compensation Wenhan Yang, Sifeng Xia, Jiaying Liu, and Zongming Guo Accepted by IEEE Trans. on Circuit System for Video Technology (TCSVT), June 2018. [ project ]
Joint-Feature Guided Depth Map Super-Resolution With Face Priors Shuai Yang, Jiaying Liu, Yuming Fang, and Zongming Guo IEEE Trans. on Cybernetics (TCYB), , , , Jan. 2018. [ project ]
Deep Edge Guided Recurrent Residual Learning for Image Super-Resolution Wenhan Yang, Jiashi Feng, Jianchao Yang, Fang Zhao, Jiaying Liu, Zongming Guo and Shuicheng Yan IEEE Trans. on Image Processing (TIP), , , , Dec. 2017. [ project ]
Retrieval Compensated Group Structured Sparsity for Image Super-Resolution Jiaying Liu, Wenhan Yang, Xinfeng Zhang, and Zongming Guo IEEE Trans. on Multimedia (TMM), , , , Feb. 2017. [ project ]
ECCV2016 Accelerating the Super-Resolution Convolutional Neural Network Chao Dong, Chen Change Loy, Xiaoou Tang [ project ]
Perceptual Losses for Real-Time Style Transfer and Super-Resolution Justin Johnson, Alexandre Alahi, Li Fei-Fei [ pdf ]
End-to-End Image Super-Resolution via Deep and Shallow Convolutional Networks Yifan Wang, Lijun Wang, Hongyu Wang, Peihua Li [ pdf ]
Deeply-Recursive Convolutional Network for Image Super-Resolution Jiwon Kim, Jung Kwon Lee, Kyoung Mu Lee [ pdf ]
Accurate Image Super-Resolution Using Very Deep Convolutional Networks Jiwon Kim, Jung Kwon Lee, Kyoung Mu Lee [ pdf ]
Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network Wenzhe Shi, Jose Caballero, Ferenc Huszar, Johannes Totz, Andrew P. Aitken, Rob Bishop, Daniel Rueckert, Zehan Wang [ pdf ]
Image Super-Resolution Using Deep Convolutional Networks Chao Dong, Chen Change Loy, Kaiming He, Xiaoou Tang IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI) SRCNN [ project ] [ pdf ] [ supplementary material ]
Neighborhood Regression for Edge-Preserving Image Super-Resolution Yanghao Li, Jiaying Liu, Wenhan Yang and Zongming Guo IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP), Brisbane, Australia, Apr. 2015. [ project ]
Learning a Deep Convolutional Network for Image Super-Resolution Chao Dong, Chen Change Loy, Kaiming He, Xiaoou Tang ECCV 2014 SRCNN [ project ] [ pdf ]
Super-Resolution From a Single Image Daniel Glasner, Shai Bagon, Michal Irani ICCV 2009 [ project ] [ pdf ]
Video Super-Resolution Based on Spatial-Temporal Recurrent Neural Networks Wenhan Yang, Jiashi Feng, Guosen Xie, Jiaying Liu, Zongming Guo and Shuicheng Yan Computer Vision and Image Understanding (CVIU), , , March. 2018. [ project ]
Video Super-Resolution With Convolutional Neural Networks Armin Kappeler ; Seunghwan Yoo ; Qiqin Dai ; Aggelos K. Katsaggelos IEEE Transactions on Computational Imaging [ pdf ]
High Quality Remote Sensing Image Super-Resolution Using Deep Memory Connected Network Wenjia Xu; Guangluan XU; Yang Wang; Xian Sun; Daoyu Lin; Yirong WU IGARSS 2018 - 2018 IEEE International Geoscience and Remote SensingSymposium [ pdf ]
326 浏览 3 回答
247 浏览 3 回答
114 浏览 5 回答
299 浏览 2 回答
224 浏览 4 回答
257 浏览 1 回答
207 浏览 2 回答
187 浏览 6 回答
197 浏览 3 回答
188 浏览 3 回答
277 浏览 3 回答
317 浏览 3 回答
161 浏览 2 回答
296 浏览 4 回答
116 浏览 3 回答