Arquiteturas profundas para processamento de linguagem natural

Autores

Rafael Teixeira Sousa
Universidade Federal do Mato Grosso
https://orcid.org/0000-0001-5998-046X
Manoel Veríssimo dos Santos Neto
http://lattes.cnpq.br/6897873343908346
Deborah Silva Alves Fernandes
Universidade Federal de Goiás
Taciana Novo Kudo
Universidade Federal de Goiás
https://orcid.org/0000-0002-7238-0562
Renata Dutra Braga
Universidade Federal de Goiás
https://orcid.org/0000-0002-3448-0343
Cristiane Bastos Rocha Ferreira
Universidade Federal de Goiás
Arlindo Rodrigues Galvão Filho
Universidade Federal de Goiás
https://orcid.org/0000-0003-2151-8039

Palavras-chave:

arquiteturas profundas em TI, Processamento de Linguagem Natural (NLP), evolução das arquiteturas neurais

Sinopse

Esta publicação refere-se ao microcurso Arquiteturas Profundas para Processamento de Linguagem Natural (PLN), que aborda, em detalhes, as diversas arquiteturas propostas, seus desdobramentos e aplicações, desde o PLN clássico, pautado no Machine Learning clássico, até o PLN contemporâneo, baseado em Deep Learning e o Aprendizado de Representações. Dessa forma, explora toda a evolução das arquiteturas neurais voltadas ao PLN, inicia com RNNs, discute as vantagens e defeitos das arquiteturas recorrentes, passa pelos Transformers e o mecanismo de atenção e, por fim, estuda as arquiteturas que surgiram nos anos recentes com base em Transformers, passando pelo BERT e GPT e refletindo sobre como essas arquiteturas revolucionaram a forma de se resolver problemas em NLP.

Downloads

Não há dados estatísticos.

Downloads

Publicado

4 April 2025

Licença

Creative Commons License

Este trabalho está licenciado sob uma licença Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

Detalhes sobre essa publicação

Co-publisher's ISBN-13 (24)

978-85-495-1079-2

Publication date (01)

04/04/2025