Modelos BERT aplicados à análise de sentimentos

Autores

Palavras-chave:

Análise de Sentimento, BERT, Processamento de Linguagem Natural, PLN, Transformers, Aprendizado de Máquina

Resumo

Este artigo apresenta a implementação e avaliação de uma solução de análise de sentimento para textos em português utilizando um modelo multilíngue baseado em BERT (Bidirectional Encoder Representations from Transformers). A metodologia empregada utiliza o pipeline de análise de sentimento da biblioteca Transformers da Hugging Face, com o modelo pré-treinado "nlptown/bert-base-multilingual-uncased-sentiment". Foram analisadas quatro frases em português com diferentes polaridades emocionais para demonstrar a eficácia do modelo. Os resultados obtidos evidenciam a capacidade do modelo em categorizar corretamente textos positivos, negativos e neutros, atribuindo scores de confiança condizentes com a intensidade do sentimento expresso. A pesquisa contribui para o avanço das aplicações de Processamento de Linguagem Natural (PLN) em língua portuguesa, especialmente no contexto de análise de opinião e mineração de sentimentos em textos.

Referências

DEVLIN, J.; CHANG, M.-W.; LEE, K.; TOUTANOVA, K. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In: PROCEEDINGS OF THE 2019 CONFERENCE OF THE NORTH AMERICAN CHAPTER OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS: HUMAN LANGUAGE TECHNOLOGIES, 1, 2019, Minneapolis. Anais [...]. Minneapolis: Association for Computational Linguistics, 2019. p. 4171-4186.

LIU, B. Sentiment Analysis: Mining Opinions, Sentiments, and Emotions. 2. ed. Cambridge: Cambridge University Press, 2020.

GUPTA, Sowmya; NANDY, Anuj; MENDES, Aayush. Practical Natural Language Processing: A Comprehensive Guide to Building Real-World NLP Systems. 1. ed. Sebastopol: O’Reilly Media, 2020.

PIRES, T.; SCHLINGER, E.; GARRETTE, D. How multilingual is Multilingual BERT? In: PROCEEDINGS OF THE 57TH ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS, 2019, Florence. Anais [...]. Florence: Association for Computational Linguistics, 2019. p. 4996-5001.

ROGERS, A.; KOVALEVA, O.; RUMSHISKY, A. A Primer in BERTology: What We Know About How BERT Works. Transactions of the Association for Computational Linguistics, v. 8, p. 842-866, 2020.

BRITTO, Larissa F. S.; PESSOA, Luis A. S.; AGOSTINHO, Silvania C. C. Cross-domain sentiment analysis in Portuguese using BERT. In: ENCONTRO NACIONAL DE INTELIGÊNCIA ARTIFICIAL E COMPUTACIONAL (ENIAC), 2022. Anais [...]. Porto Alegre: Sociedade Brasileira de Computação, 2022. Disponível em: https://sol.sbc.org.br/index.php/eniac/article/view/22770. Acesso em: 10 maio 2025.

SOUZA, F.; NOGUEIRA, R.; LOTUFO, R. BERTimbau: Pretrained BERT Models for Brazilian Portuguese. In: BRAZILIAN CONFERENCE ON INTELLIGENT SYSTEMS (BRACIS), 9., 2020, Rio Grande. Anais [...]. Cham: Springer, 2020. p. 403-417.

Downloads

Publicado

08-07-2025

Como Citar

Souza, V. A. (2025). Modelos BERT aplicados à análise de sentimentos. Simpósio Das Exatas, (1). Recuperado de https://conferencias.unifoa.edu.br/exatas/article/view/2115

Edição

Seção

Relato de Experiência