Roberta é um modelo de linguagem natural pré-treinado criado pela equipe de pesquisa do Facebook AI. Ele é baseado na arquitetura do Transformer e treinado em uma grande quantidade de dados textuais (15 milhões de comentários), incluindo a Wikipedia e o Common Crawl, para aprender padrões na linguagem natural. Em geral, a acurácia da Roberta em análise de sentimento é alta e chega a valores acima de 90%. Para mais informações: https://huggingface.co/cardiffnlp/twitter-roberta-base-sentiment
Foram extraídos aproximadamente 50.000 tweets utilizando a API do Twitter, com a query "the last of us" em inglês e postados entre os dias 16/03/2023 e 20/03/2023. Esses comentários foram estruturados em um DataFrame e pré-processados através de tokenização, remoção de stop words e caracteres especiais. Em seguida, foi aplicado um filtro para selecionar os adjetivos mais mencionados, a fim de obter uma melhor compreensão do sentimento das pessoas em relação à marca.Após a geração da Word Cloud, foi realizado um pré-processamento adicional dos dados para aplicá-los ao modelo pré-treinado "Roberta". Isso envolveu a criação de uma nova coluna com os dados tratados, a tokenização, a vetorização e a aplicação dos dados no modelo. Os resultados foram colocados em um DataFrame, onde as previsões positivas representaram 20,78% dos comentários, as negativas 19% e as neutras 60%.
A Word Cloud gerada a partir dos dados mostrou que os adjetivos positivos foram os mais mencionados. Porém, com a análise de sentimentos realizada, podemos concluir que as opiniões sobre "The Last of Us" estão bastante divididas, com opiniões positivas(20,78%) e negativas (19%) em proporções quase iguais, e a maioria dos comentários sendo neutros (60%). Esta análise pode ser útil para entender melhor a percepção do público em relação à marca e, assim, tomar decisões mais informadas em futuras campanhas de marketing.