RoBERTaLexPT: um modelo RoBERTa jurídico pré-treinado com deduplicação para língua Portuguesa

  • Eduardo Garcia Universidade Federal de Goiás
  • Nádia Félix Felipe da Silva UNIVERSIDADE FEDERAL DE GOIÁS
  • Juliana Gomes Universidade Federal de Goiás
  • Hidelberg Albuquerque Universidade Federal Rural de Pernambuco
  • Ellen Souza Universidade Federal Rural de Pernambuco
  • Felipe Siqueira Universidade de São Paulo
  • Eliomar Lima Universidade Federal de Goiás
  • André Carvalho Universidade de São Paulo
Palavras-chave: modelo de linguagem, domínio jurídico, benchmark

Resumo

Este trabalho investiga a aplicação do Processamento de Linguagem Natural (PLN) no contexto jurídico para a língua portuguesa, enfatizando a importância de adaptar modelos pré-treinados, como o RoBERTa, a partir de corpora especializados no domínio jurídico. Compilamos e pré-processamos um corpus jurídico em português, o corpus "LegalPT", abordando os desafios da alta duplicação de documentos em corpora jurídicos e medindo o impacto dos hiperparâmetros e da inicialização de embeddings. Experimentos revelaram que o pré-treinamento em dados jurídicos e em dados gerais resultou em modelos mais eficazes para tarefas jurídicas, com o nosso modelo, intitulado RoBERTaLexPT, superando modelos maiores treinados em corpora genéricos e outros modelos jurídicos de trabalhos relacionados. Também agregamos um benchmark jurídico, o benchmark "PortuLex". Este estudo contribui para melhorar as soluções de PLN no contexto jurídico brasileiro, fornecendo modelos aprimorados, um corpus especializado e um conjunto de dados de referência. Para fins de reprodutibilidade, disponibilizaremos o código, os dados e os modelos relacionados.

Publicado
2024-12-31
Como Citar
Garcia, E., da Silva, N. F. F., Gomes, J., Albuquerque, H., Souza, E., Siqueira, F., Lima, E., & Carvalho, A. (2024). RoBERTaLexPT: um modelo RoBERTa jurídico pré-treinado com deduplicação para língua Portuguesa. Linguamática, 16(2), 183-200. https://doi.org/10.21814/lm.16.2.457
Edição
Secção
PROPOR 2024 | Artigos Convidados