当前位置: 首页 > news >正文

十堰做网站的有哪些做企业推广

十堰做网站的有哪些,做企业推广,网站建设与开发 期末作品,专门做优惠劵的网站生成对抗网络是深度学习领域最具革命性的生成模型之一。 一 GAN框架 1.1组成 构造生成器(G)与判别器(D)进行动态对抗,实现数据的无监督生成。 G(造假者):接收噪声 ​&#xff0c…

生成对抗网络是深度学习领域最具革命性的生成模型之一。

一 GAN框架

1.1组成

构造生成器(G)与判别器(D)进行动态对抗,实现数据的无监督生成。

G(造假者):接收噪声 $z \sim p_z$​,生成数据 $G(z)$ 。 

D(鉴定家):接收真实数据 $x \sim p_{data}$ 和生成数据 $G(z)$,输出概率 $D(x)$ 或 $D(G(z))$

1.2核心原理

对抗目标:

$\min_G \max_D V(D,G) = \mathbb{E}_{x \sim p_{data}}[\log D(x)] + \mathbb{E}_{z \sim p_z}[\log(1 - D(G(z)))]$

该公式为极大极小博弈,D和G互为对手,在动态博弈中驱动模型逐步提升性能。

其中:

第一项(真实性强化) $\mathbb{E}_{x \sim p_{data}}[\log D(x)]$ 的目标为:

让判别器 D 将真实数据 x 识别为“真”(即让 $D(x) \to 1$),最大化这一项可使D对真实数据的判断置信度更高。

第二项(生成性对抗):$\mathbb{E}_{z \sim p_z}[\log(1 - D(G(z)))]$的目标为:

生成器G希望生成的假数据$G(z)$被判别器D判为“真”(即让 $D(G(z)) \to 1$)从而最小化$\log(1 - D(G(z)))$,判别器D则希望判假数据为“假”(即让$D(G(z)) \to 0$),从而最大化$\log(1 - D(G(z)))$

生成器和判别器在此项上存在直接对抗。

数学原理

(1)最优判别器理论

固定生成器G时,最大化 $V(D,G)$ 得到最优判别器 $D^*$

$D^*(x) = \frac{p_{data}(x)}{p_{data}(x) + p_g(x)}$

其中, $p_g(x)$ 是生成数据的分布。当生成数据完美匹配真实分布时 $p_{g} = p_{data}$,判别器无法区分真假(输出$D(x)=0.5 \quad \forall x$)。

推导一下:

$V(D, G) = \mathbb{E}_{x \sim p_{data}}[\log D(x)] + \mathbb{E}_{z \sim p_z}[\log(1 - D(G(z)))]$                                      (1)

转换为积分形式,设真实数据分布为 $p_{data}(x)$,生成数据分布为$p_g(x)$,则(1)可以改写为:

$V(D, G) = \int_{x} p_{data}(x) \log D(x) dx + \int_{x} p_g(x) \log(1 - D(x)) dx$                             (2) 

逐点最大化对于每个样本 x,单独最大化以下函数:

$f(D(x)) = p_{data}(x) \log D(x) + p_g(x) \log(1 - D(x))$                                                  (3)

求导并解方程: 

$f'(D(x)) = \frac{p_{data}(x)}{D(x)} - \frac{p_g(x)}{1 - D(x)} = 0$                                                                            (4)

求得:

$D^*(x) = \frac{p_{data}(x)}{p_{data}(x) + p_g(x)}$                                                                                                 (5) 

(2) 目标化简:JS散度(Jensen-Shannon Divergence) 

将最优判别器 $D^*$ 代入原目标函数,可得:

$V(G,D^*) = 2 \cdot JSD(p_{data} \| p_g) - 2\log 2$

最小化目标即等价于最小化 $p_{data}$$p_g$ 的JS散度。

JS散度特性:对称、非负,衡量两个分布的相似性。

1.3训练过程解释

每个训练步骤包含两阶段:

(1)判别器更新(固定G,最大化 $V(D,G)$

$\nabla_D \left[ \log D(x) + \log(1 - D(G(z))) \right]$

通过梯度上升优化D的参数,提升判别能力。

(2)生成器更新(固定D,最小化 $V(D,G)$

$\nabla_G \left[ \log(1 - D(G(z))) \right]$

实际训练中常用 $\nabla_G \left[ -\log D(G(z)) \right]$代替以增强梯度稳定性。

训练中出现的问题

(1)JS散度饱和导致梯度消失

(2)参数空间的非凸优化(存在无数个局部极值,优化算法极易陷入次优解,而非全局最优解)使训练难以收敛

二 经典GAN架构

DCGAN(GAN+卷积)

特性原始GANDCGAN
网络结构全连接层(MLPs)卷积生成器 + 卷积判别器
稳定性容易梯度爆炸/消失,难以收敛通过BN和特定激活函数稳定训练
生成图像分辨率低分辨率(如32x32)支持64x64及以上分辨率的清晰图像生成
图像质量轮廓模糊,缺乏细节细粒度纹理(如毛发、砖纹)
计算效率参数量大,训练速度慢卷积结构参数共享,效率提升

(1)生成器架构(反卷积)

class Generator(nn.Module):def __init__(self, noise_dim=100, output_channels=3):super().__init__()self.main = nn.Sequential(# 输入:100维噪声,输出:1024x4x4nn.ConvTranspose2d(noisel_dim, 512, 4, 1, 0, bias=False),nn.BatchNorm2d(512),nn.ReLU(True),# 上采样至8x8nn.ConvTranspose2d(512, 256, 4, 2, 1, bias=False),nn.BatchNorm2d(256),nn.ReLU(True),# 输出层:3通道RGB图像nn.ConvTranspose2d(64, output_channels, 4, 2, 1, bias=False),nn.Tanh()  # 将输出压缩到[-1,1])

(2) 判别器架构(卷积)

class Discriminator(nn.Module):def __init__(self, input_channels=3):super().__init__()self.main = nn.Sequential(# 输入:3x64x64nn.Conv2d(input_channels, 64, 4, 2, 1, bias=False),nn.LeakyReLU(0.2, inplace=True),# 下采样至32x32nn.Conv2d(64, 128, 4, 2, 1, bias=False),nn.BatchNorm2d(128),nn.LeakyReLU(0.2, inplace=True),# 输出层:二分类概率nn.Conv2d(512, 1, 4, 1, 0, bias=False),nn.Sigmoid())

(3)双重优化问题

保持生成器和判别器动态平衡的核心机制

for epoch in range(num_epochs):# 更新判别器optimizer_D.zero_grad()real_loss = adversarial_loss(D(real_imgs), valid)fake_loss = adversarial_loss(D(gen_imgs.detach()), fake)d_loss = (real_loss + fake_loss) / 2d_loss.backward()optimizer_D.step()# 更新生成器optimizer_G.zero_grad()g_loss = adversarial_loss(D(gen_imgs), valid)  # 欺诈判别器g_loss.backward()optimizer_G.step()

三 应用场景 

图像合成引擎(语义图到照片)、医学影像增强、语音与音频合成。

GAN作为生成式AI的基石模型,其核心价值不仅在于数据生成能力,更在于构建了一种全新的深度学习范式——通过对抗博弈驱动模型持续进化。

四 一个完整DCGAN代码示例

MNIST数据集

import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.datasets as datasets
import torchvision.transforms as transforms
from torch.utils.data import DataLoader
import matplotlib.pyplot as plt
import numpy as np# 参数设置
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
batch_size = 128
image_size = 64
num_epochs = 50
latent_dim = 100
lr = 0.0002
beta1 = 0.5# 数据准备
transform = transforms.Compose([transforms.Resize(image_size),transforms.ToTensor(),transforms.Normalize((0.5,), (0.5,))  # MNIST是单通道
])dataset = datasets.MNIST(root="./data", train=True, transform=transform, download=True)
dataloader = DataLoader(dataset, batch_size=batch_size, shuffle=True, num_workers=4)# 可视化辅助函数
def show_images(images):plt.figure(figsize=(8,8))images = images.permute(1,2,0).cpu().numpy()plt.imshow((images * 0.5) + 0.5)  # 反归一化plt.axis('off')plt.show()# 权重初始化
def weights_init(m):classname = m.__class__.__name__if classname.find('Conv') != -1:nn.init.normal_(m.weight.data, 0.0, 0.02)elif classname.find('BatchNorm') != -1:nn.init.normal_(m.weight.data, 1.0, 0.02)nn.init.constant_(m.bias.data, 0)# 生成器定义
class Generator(nn.Module):def __init__(self, latent_dim):super(Generator, self).__init__()self.main = nn.Sequential(# 输入:latent_dim x 1 x 1nn.ConvTranspose2d(latent_dim, 512, 4, 1, 0, bias=False),nn.BatchNorm2d(512),nn.ReLU(True),# 输出:512 x 4 x 4nn.ConvTranspose2d(512, 256, 4, 2, 1, bias=False),nn.BatchNorm2d(256),nn.ReLU(True),# 输出:256 x 8 x 8nn.ConvTranspose2d(256, 128, 4, 2, 1, bias=False),nn.BatchNorm2d(128),nn.ReLU(True),# 输出:128 x 16x16nn.ConvTranspose2d(128, 64, 4, 2, 1, bias=False),nn.BatchNorm2d(64),nn.ReLU(True),# 输出:64 x 32x32nn.ConvTranspose2d(64, 1, 4, 2, 1, bias=False),nn.Tanh()  # 输出范围[-1,1]# 最终输出:1 x 64x64)def forward(self, input):return self.main(input)# 判别器定义
class Discriminator(nn.Module):def __init__(self):super(Discriminator, self).__init__()self.main = nn.Sequential(# 输入:1 x 64x64nn.Conv2d(1, 64, 4, 2, 1, bias=False),nn.LeakyReLU(0.2, inplace=True),# 输出:64 x32x32nn.Conv2d(64, 128, 4, 2, 1, bias=False),nn.BatchNorm2d(128),nn.LeakyReLU(0.2, inplace=True),# 输出:128x16x16nn.Conv2d(128, 256, 4, 2, 1, bias=False),nn.BatchNorm2d(256),nn.LeakyReLU(0.2, inplace=True),# 输出:256x8x8nn.Conv2d(256, 512, 4, 2, 1, bias=False),nn.BatchNorm2d(512),nn.LeakyReLU(0.2, inplace=True),# 输出:512x4x4nn.Conv2d(512, 1, 4, 1, 0, bias=False),nn.Sigmoid())def forward(self, input):return self.main(input).view(-1, 1).squeeze(1)# 初始化模型
generator = Generator(latent_dim).to(device)
discriminator = Discriminator().to(device)# 应用权重初始化
generator.apply(weights_init)
discriminator.apply(weights_init)# 损失函数和优化器
criterion = nn.BCELoss()
optimizer_G = optim.Adam(generator.parameters(), lr=lr, betas=(beta1, 0.999))
optimizer_D = optim.Adam(discriminator.parameters(), lr=lr, betas=(beta1, 0.999))# 训练过程可视化准备
fixed_noise = torch.randn(64, latent_dim, 1, 1, device=device)# 训练循环
for epoch in range(num_epochs):for i, (real_images, _) in enumerate(dataloader):# 准备数据real_images = real_images.to(device)batch_size = real_images.size(0)# 真实标签和虚假标签real_labels = torch.full((batch_size,), 0.9, device=device)  # label smoothingfake_labels = torch.full((batch_size,), 0.0, device=device)# ========== 训练判别器 ==========optimizer_D.zero_grad()# 真实图片的判别结果outputs_real = discriminator(real_images)loss_real = criterion(outputs_real, real_labels)# 生成假图片noise = torch.randn(batch_size, latent_dim, 1, 1, device=device)fake_images = generator(noise)# 假图片的判别结果outputs_fake = discriminator(fake_images.detach())loss_fake = criterion(outputs_fake, fake_labels)# 合并损失并反向传播loss_D = loss_real + loss_fakeloss_D.backward()optimizer_D.step()# ========== 训练生成器 ==========optimizer_G.zero_grad()# 更新生成器时的判别结果outputs = discriminator(fake_images)loss_G = criterion(outputs, real_labels)  # 欺骗判别器# 反向传播loss_G.backward()optimizer_G.step()# 打印训练状态if i % 100 == 0:print(f"[Epoch {epoch}/{num_epochs}] [Batch {i}/{len(dataloader)}] "f"Loss_D: {loss_D.item():.4f} Loss_G: {loss_G.item():.4f}")# 每个epoch结束时保存生成结果with torch.no_grad():test_images = generator(fixed_noise)grid = torchvision.utils.make_grid(test_images, nrow=8, normalize=True)show_images(grid)# 保存模型检查点if (epoch+1) % 5 == 0:torch.save(generator.state_dict(), f'generator_epoch_{epoch+1}.pth')torch.save(discriminator.state_dict(), f'discriminator_epoch_{epoch+1}.pth')print("训练完成!")

http://www.cadmedia.cn/news/9771.html

相关文章:

  • 商水住房城乡建设网站河北seo推广方案
  • 上海公司建设网站网站建设一般多少钱
  • 网站建设需求文件引流推广营销
  • 小广告公司如何起步韶山seo快速排名
  • google免费vps枣庄网站seo
  • 网络技术包括哪些具体内容seo公司 彼亿营销
  • wordpress 子类seo营销培训
  • 建网站需要什么软件微信引流推广精准粉
  • 在线ps手机版网页版seo软文是什么意思
  • 乐陵森源木业全屋定制湖南网站seo推广
  • app store软件下载百家号优化
  • 简单网页制作模板下载长沙网站搭建优化
  • 青岛建设英文网站建设seo外链
  • erp登录入口谷歌seo网站排名优化
  • 房地产开发建设网站新冠疫情最新消息今天公布
  • 大兴网站开发网站建设价格南京百度推广优化排名
  • 吉林电商的网络推广优化关键词具体要怎么做
  • 深圳专业网站设计专业定制免费平台
  • 微信营销案例pptseo是啥
  • 门户资源分享网站模板西安百度推广优化
  • 网站开发培训中心关键词优化靠谱推荐
  • 莱州网站建设公司百度收录批量查询
  • 中国制造网注册网站免费注册百度云怎么找资源
  • 网络营销网站建设论文产品网络营销策划方案
  • 专门做美食的网站6怎么推广自己的公司
  • python自学seo优化专家
  • 无锡百度信息流谷歌优化seo
  • 建站公司接单网址域名注册信息查询
  • 邢台企业做网站多少钱南宁关键词优化公司
  • 政府网站建设管理方面工作总结怎么自己制作网页