点击上方“AI遇见机器学习”,选择“星标”公众号
重磅干货,第一时间送达
一、资源简介

今天分享一份来自MIT的Phillip Isola在2019CVPR上分享的图像转换(Image translation)的关键知识点和算法分析,包括配对的转换(Paired translation)和非配对的转换(Unpaired translation)相关的算法,如pix2pix,CycleGAN等。
官网:
https://phillipi.github.io/talks/im2im_tutorial_cvpr2019.pdf
作者介绍:
Phillip Isola:麻省理工学院EECS的助理教授,研究计算机视觉、机器学习和人工智能。在OpenAI做了一年的访问研究科学家,加州大学伯克利分校EECS系的Alyosha Efros的博士后学者,在麻省理工学院(MIT)完成了大脑与认知科学的博士学位,导师是特德•埃德森(Ted Adelson),在耶鲁大学获得了计算机科学的本科学位。
二、主要内容
这份资料主要讲述的是GAN模型在图像风格迁移上面的应用,具体来说:
生成对抗网络(Generative Adversarial Network,简称GAN)是非监督式学习的一种方法,通过让两个神经网络相互博弈的方式进行学习。于2014年提出,生成对抗网络由一个生成网络与一个判别网络组成。生成网络从潜在空间(latent space)中随机取样作为输入,其输出结果需要尽量模仿训练集中的真实样本。判别网络的输入则为真实样本或生成网络的输出,其目的是将生成网络的输出从真实样本中尽可能分辨出来。而生成网络则要尽可能地欺骗判别网络。两个网络相互对抗、不断调整参数,最终目的是使判别网络无法判断生成网络的输出结果是否真实
图像到图像的转换(image-to-image translation)是一类视觉和图形问题,其中的目标是使用一组对齐的图像对来学习输入图像和输出图像之间的映射。随着GAN技术的发展,GAN在图像转换任务上的方法越来越多。
三、资源分享
同时为了方便大家,我们把最新资料打包好了,可以直接下载哦~
获取方式:
1. 关注我们的公众号“AI遇见机器学习”
2. 后台回复“gan图像转换” 即可以获取资料哈~(建议复制,避免错字)
推荐阅读
欢迎关注我们,看通俗干货
继续阅读
阅读原文