WGAN与GAN的不同
- 去除sigmoid
- 使用具有动量的优化方法,比如使用RMSProp
- 要对Discriminator的权重做修整限制以确保lipschitz连续约
WGAN实战卷积生成动漫头像
import torch
import torch.nn as nn
import torchvision.transforms as transforms
from torch.utils.data import DataLoader
from torchvision.utils import save_image
import os
from anime_face_generator.dataset import ImageDataset
batch_size = 32
num_epoch = 100
z_dimension = 100
dir_path = './wgan_img'
# 创建文件夹
if not os.path.exists(dir_path):
os.mkdir(dir_path)
def to_img(x):
"""因为我们在生成器里面用了tanh"""
out = 0.5 * (x + 1)
return out
dataset = ImageDataset()
dataloader = DataLoader(dataset, batch_size=32, shuffle=False)
class Generator(nn.Module):
def __init__(self):
super().__init__()
self.gen = nn.Sequential(
# 输入是一个nz维度的噪声,我们可以认为它是一个1*1*nz的feature map
nn.ConvTranspose2d(100, 512, 4, 1, 0, bias=False),
nn.BatchNorm2d(512),
nn.ReLU(True),
# 上一步的输出形状:(512) x 4 x 4
nn.ConvTranspose2d(512, 256, 4, 2, 1, bias=False),
nn.BatchNorm2d(256),
nn.ReLU(True),
# 上一步的输出形状: (256) x 8 x 8
nn.ConvTranspose2d(256, 128, 4, 2, 1, bias=False),
nn.BatchNorm2d(128),
nn.ReLU(True),
# 上一步的输出形状: (256) x 16 x 16
nn.ConvTranspose2d(128, 64, 4, 2, 1, bias=False),
nn.BatchNorm2d(64),
nn.ReLU(True),
# 上一步的输出形状:(256) x 32 x 32
nn.ConvTranspose2d(64, 3, 5, 3, 1, bias=False),
nn.Tanh() # 输出范围 -1~1 故而采用Tanh
# nn.Sigmoid()
# 输出形状:3 x 96 x 96
)
def forward(self, x):
x = self.gen(x)
return x
def weight_init(m):
# weight_initialization: important for wgan
class_name = m.__class__.__name__
if class_name.find('Conv') != -1:
m.weight.data.normal_(0, 0.02)
elif class_name.find('Norm') != -1:
m.weight.data.normal_(1.0, 0.02)
class Discriminator(nn.Module):
def __init__(self):
super().__init__()
self.dis = nn.Sequential(
nn.Conv2d(3, 64, 5, 3, 1, bias=False),
nn.LeakyReLU(0.2, inplace=True),
# 输出 (64) x 32 x 32
nn.Conv2d(64, 128, 4, 2, 1, bias=False),
nn.BatchNorm2d(128),
nn.LeakyReLU(0.2, inplace=True),
# 输出 (128) x 16 x 16
nn.Conv2d(128, 256, 4, 2, 1, bias=False),
nn.BatchNorm2d(256),
nn.LeakyReLU(0.2, inplace=True),
# 输出 (256) x 8 x 8
nn.Conv2d(256, 512, 4, 2, 1, bias=False),
nn.BatchNorm2d(512),
nn.LeakyReLU(0.2, inplace=True),
# 输出 (512) x 4 x 4
nn.Conv2d(512, 1, 4, 1, 0, bias=False),
nn.Flatten(),
# nn.Sigmoid() # 输出一个数(概率)
)
def forward(self, x):
x = self.dis(x)
return x
def weight_init(m):
# weight_initialization: important for wgan
class_name = m.__class__.__name__
if class_name.find('Conv') != -1:
m.weight.data.normal_(0, 0.02)
elif class_name.find('Norm') != -1:
m.weight.data.normal_(1.0, 0.02)
def save(model, filename="model.pt", out_dir="out/"):
if model is not None:
if not os.path.exists(out_dir):
os.mkdir(out_dir)
torch.save({'model': model.state_dict()}, out_dir + filename)
else:
print("[ERROR]:Please build a model!!!")
import QuickModelBuilder as builder
if __name__ == '__main__':
one = torch.FloatTensor([1]).cuda()
mone = -1 * one
is_print = True
# 创建对象
D = Discriminator()
G = Generator()
D.weight_init()
G.weight_init()
if torch.cuda.is_available():
D = D.cuda()
G = G.cuda()
lr = 2e-4
d_optimizer = torch.optim.RMSprop(D.parameters(), lr=lr, )
g_optimizer = torch.optim.RMSprop(G.parameters(), lr=lr, )
d_scheduler = torch.optim.lr_scheduler.ExponentialLR(d_optimizer, gamma=0.99)
g_scheduler = torch.optim.lr_scheduler.ExponentialLR(g_optimizer, gamma=0.99)
fake_img = None
# ##########################进入训练##判别器的判断过程#####################
for epoch in range(num_epoch): # 进行多个epoch的训练
pbar = builder.MyTqdm(epoch=epoch, maxval=len(dataloader))
for i, img in enumerate(dataloader):
num_img = img.size(0)
real_img = img.cuda() # 将tensor变成Variable放入计算图中
# 这里的优化器是D的优化器
for param in D.parameters():
param.requires_grad = True
# ########判别器训练train#####################
# 分为两部分:1、真的图像判别为真;2、假的图像判别为假
# 计算真实图片的损失
d_optimizer.zero_grad() # 在反向传播之前,先将梯度归0
real_out = D(real_img) # 将真实图片放入判别器中
d_loss_real = real_out.mean(0).view(1)
d_loss_real.backward(one)
# 计算生成图片的损失
z = torch.randn(num_img, z_dimension).cuda() # 随机生成一些噪声
z = z.reshape(num_img, z_dimension, 1, 1)
fake_img = G(z).detach() # 随机噪声放入生成网络中,生成一张假的图片。 # 避免梯度传到G,因为G不用更新, detach分离
fake_out = D(fake_img) # 判别器判断假的图片,
d_loss_fake = fake_out.mean(0).view(1)
d_loss_fake.backward(mone)
d_loss = d_loss_fake - d_loss_real
d_optimizer.step() # 更新参数
# 每次更新判别器的参数之后把它们的绝对值截断到不超过一个固定常数c=0.01
for parm in D.parameters():
parm.data.clamp_(-0.01, 0.01)
# ==================训练生成器============================
# ###############################生成网络的训练###############################
for param in D.parameters():
param.requires_grad = False
# 这里的优化器是G的优化器,所以不需要冻结D的梯度,因为不是D的优化器,不会更新D
g_optimizer.zero_grad() # 梯度归0
z = torch.randn(num_img, z_dimension).cuda()
z = z.reshape(num_img, z_dimension, 1, 1)
fake_img = G(z) # 随机噪声输入到生成器中,得到一副假的图片
output = D(fake_img) # 经过判别器得到的结果
# g_loss = criterion(output, real_label) # 得到的假的图片与真实的图片的label的loss
g_loss = torch.mean(output).view(1)
# bp and optimize
g_loss.backward(one) # 进行反向传播
g_optimizer.step() # .step()一般用在反向传播后面,用于更新生成网络的参数
# 打印中间的损失
pbar.set_right_info(d_loss=d_loss.data.item(),
g_loss=g_loss.data.item(),
real_scores=real_out.data.mean().item(),
fake_scores=fake_out.data.mean().item(),
)
pbar.update()
try:
fake_images = to_img(fake_img.cpu())
save_image(fake_images, dir_path + '/fake_images-{}.png'.format(epoch + 1))
except:
pass
if is_print:
is_print = False
real_images = to_img(real_img.cpu())
save_image(real_images, dir_path + '/real_images.png')
pbar.finish()
d_scheduler.step()
g_scheduler.step()
save(D, "wgan_D.pt")
save(G, "wgan_G.pt")
相关推荐:
SEO就是:让你的品牌脱颖而出,获得更多曝光与流量,梅岭关键词排名优化
为什么做抖音seo,为什么做抖音推广 ,描边ai虚线
云推SEO:让您的网站在激烈竞争中脱颖而出,网站优化公司欢迎来电
自动写文章AI:高效创作工具,开启写作新纪元
ChatGPT打开后空白:如何解决这个困扰并高效使用AI助手,ai四声怎么写
SEO建站,开启网站优化的全新篇章!,网络营销推广合作方式
为什么选择老域名注册,打造品牌价值的秘密武器,网站建设服务费用多少
打造高效创作体验,写文章AI软件重塑内容生产力
SEO优化需要给网站做哪些优化工作?,ai捕捉火苗
SEO元素-提升网站排名的核心要素,推广分成网站有哪些
SEO可以帮助网站在搜索引擎中获得较高的排名-助力企业数字化转型的关键,赵立新AI换脸图片对比
SEO新人必读:从零开始SEO的核心技巧与实践指南,网站邮件推广设计
ChatGPT暂时不可用?如何高效应对并寻找最佳替代方案!,logo ai教程视频
SEO文案:如何通过巧妙布局提升网站排名,吸引更多流量,娄底网站建设工作文案
ChatGPT充值打不开?这几招教你轻松解决问题!,免费的ai写作绘图
ChatGPT不能打开EL?揭秘这一困扰背后的真相与解决方案,ai被动房
用AI创作的文章算原创吗?深度背后的逻辑与意义
优化投入,让企业更具竞争力,怎样推广营销方案
优排软件:高效管理新天地,轻松提升工作效率,长葛外贸网站建设
SEO中权重是什么意思?让你迅速网站排名的核心秘密!,长颈鹿智能AI点读机
SEO技巧提升网站流量:打造高效网站的关键策略,Ai测脸相
SEO网络营销:如何通过精准优化提升品牌价值,青州建设网站电话
SEO优化工具优势:提升网站排名,带来流量和转化的秘密武器,ai圆形造字
ChatGPT回答是空白的背后,究竟隐藏着什么秘密?,如何用ai写作来赚钱
企业SEO:如何通过搜索引擎优化提升企业网络竞争力,安阳网站优化布局设计
seo要懂些什么软件,seo常用软件 ,ai写作网站网址大全
从“官网扒下来”看企业数字化转型的未来,摄影营销策略推广文案
SEO差价如何用SEO优化帮助企业实现成本与效益的完美平衡,盐城seo收费贵吗
如何用AI写公众号文章?让创作更高效、更轻松
AI的两个主要发展阶段:从起步到突破,如何重塑未来,wps ai写作去哪里
互联网时代的“搜索截流”新玩法:如何抓住流量红利,甘孜做优化网站软件
为什么seo对企业重要,seo对企业进行网络营销的价值 ,ai李沁换脸鲍鱼
“收录量为1”,打造数字化时代的独特竞争力,网站建设页面制作流程
seo站内链接有什么作用,seo中网站内链的作用 ,781900ai
seo要懂些什么,seo主要做什么的 ,小艾艾AI
SEO动态:2025年SEO趋势与优化技巧解析,十堰外贸网站推广费用
SEO关键词是什么意思?全面解析SEO关键字的核心作用,华为ai音箱 百度ai音箱
ChatGPT画布打不开?如何解决这一常见问题?,Ai怎么储存为Ai格式在桌面
AI写作技巧,让创作事半功倍!
ChatGPT怎么打不开了?解决办法,轻松恢复畅通无阻!,ai订酒店ai对话
打造内容创作新时代:有言AI生成助力创作者释放灵感
一键创作,助你轻松实现创意梦想,最低价刷粉网站推广
文章AI指令提升写作效率的智能助手
产品seo什么意思,产品seo标题是什么 ,ai模仿张宇
好用的AI智能工具,让生活与工作更高效!
SEO努力:提升网站排名的关键策略,网站建设微企动力
AI工具汇总网站,让科技为您的工作加速
AI网页生成:轻松构建智能网站,提升品牌竞争力,杭州专业ai智能教育
为什么要seo排名,为什么要做seo推广 ,AI写作开启创意新世界
用AI写科普文章:科技改变写作的未来