Redes adversárias generativas para geração de dígitos manuscritos
uma implementação em PyTorch
Palavras-chave:
Redes Adversárias Generativas, Aprendizado Profundo, PyTorch, MNIST, Geração de Imagens, GANResumo
Este artigo apresenta uma implementação de Redes Adversárias Generativas (GANs) utilizando o framework PyTorch para a geração de dígitos manuscritos do conjunto de dados MNIST. A arquitetura implementada consiste em redes neurais totalmente conectadas tanto para o gerador quanto para o discriminador, com o objetivo de aprender a distribuição dos dados reais e gerar amostras sintéticas convincentes. O treinamento foi conduzido ao longo de 50 épocas com um lote de 64 imagens, demonstrando a capacidade progressiva do modelo em gerar dígitos visualmente semelhantes aos reais. Os resultados indicam que mesmo com uma arquitetura relativamente simples, as GANs podem produzir imagens sintéticas de qualidade razoável, confirmando seu potencial para aplicações de geração de imagens.
Referências
ARJOVSKY, M.; CHINTALA, S.; BOTTOU, L. Wasserstein GAN. In: INTERNATIONAL CONFERENCE ON MACHINE LEARNING, 34., 2017, Sydney. Proceedings. Sydney: PMLR, 2017. v. 70, p. 214-223.
DONG, H. W. et al. MuseGAN: Multi-track sequential generative adversarial networks for symbolic music generation and accompaniment. In: AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE, 32., 2018. Proceedings. Palo Alto, CA: AAAI, 2018. v. 32, n. 1.
GOODFELLOW, I. et al. Generative adversarial nets. In: ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS, 27., 2014, Montreal. Proceedings. Red Hook, NY: Curran Associates, 2014. p. 2672-2680.
GULRAJANI, I. et al. Improved training of Wasserstein GANs. In: ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS, 30., 2017. Proceedings. Red Hook, NY: Curran Associates, 2017. p. 5767-5777.
KARRAS, T.; LAINE, S.; AILA, T. A style-based generator architecture for generative adversarial networks. In: IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 2019, Long Beach. Proceedings. Piscataway, NJ: IEEE, 2019. p. 4401-4410.
LECUN, Y. et al. Gradient-based learning applied to document recognition. Disponível em: http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf. Acesso em: 8 maio 2025.
MIYATO, T. et al. Spectral normalization for generative adversarial networks. Disponível em: https://arxiv.org/abs/1802.05957. Acesso em: 8 maio 2025.
RADFORD, A.; METZ, L.; CHINTALA, S. Unsupervised representation learning with deep convolutional generative adversarial networks. Disponível em: https://arxiv.org/abs/1511.06434. Acesso em: 8 maio 2025.
ZHANG, H. et al. StackGAN++: Realistic image synthesis with stacked generative adversarial networks. arXiv preprint, arXiv:1710.10916, 2017. Disponível em: https://doi.org/10.48550/arXiv.1710.10916. Acesso em: 8 maio 2025.
ZHU, J. Y. et al. Unpaired image-to-image translation using cycle-consistent adversarial networks. In: IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION, 2017, Venice. Proceedings. Piscataway, NJ: IEEE, 2017. p. 2223-2232.
Downloads
Publicado
Como Citar
Edição
Seção
Licença
Copyright (c) 2025 Simpósio das Exatas

Este trabalho está licenciado sob uma licença Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.