vitorandrade commited on
Commit
ce3dfd2
·
verified ·
1 Parent(s): c81d1b6

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +123 -3
README.md CHANGED
@@ -1,3 +1,123 @@
1
- ---
2
- license: unknown
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # Dataset Card para Wikipedia em Português
2
+
3
+ <h2 style='text-align: center;'> Time 1 - NLP </h2>
4
+
5
+
6
+
7
+ ## Dados Gerais
8
+
9
+ - **Nome:** portuguese_wikipedia_sentences
10
+ - **Página WEB:** [portuguese_wikipedia_sentences](https://huggingface.co/datasets/jvanz/portuguese_wikipedia_sentences)
11
+ - **Repositório:** [portuguese_wikipedia_sentences](https://huggingface.co/datasets/jvanz/portuguese_wikipedia_sentences/tree/main/data)
12
+
13
+
14
+ ## Resumo
15
+
16
+ Este dataset é adequado para o projeto devido à sua vasta coleção de frases em português extraídas da Wikipedia, oferecendo uma ampla gama de conhecimentos
17
+ gerais e específicos.
18
+ Contendo artigos limpos em português, cada exemplo, contém um artigo completo da Wikipedia com limpeza para remover marcações e seções indesejadas(referências, citações, etc)
19
+
20
+ Foi realizado uma [Análise Exploratória dos dados](https://github.com/CPqD/resid2023-nlp-1/blob/main/EDA_wikipedia_setences_pt.ipynb) dos arquivos, sendo eles:
21
+ > Conjunto de Treinamento: train-00000-of-00001.parquet (7.01MB);
22
+
23
+ > Conjunto de Validação: evaluation-00000-of-00001.parquet (1.17MB);
24
+
25
+ > Conjunto de Teste: test-00000-of-00001.parquet (1.18MB);
26
+
27
+ ## Utilização Pretendida
28
+
29
+ <!-- Indique quais as tarefas de NLP podem utilizar este dataset. Por exemplo,
30
+ classificação de texto, reconhecimento de entidades, etc.
31
+ Nesta seção, você pode detalhar e expandir o que foi apresentado no resumo. -->
32
+
33
+ O portuguese_wikipedia_sentences no projeto vai ajudar o modelo aprender o idioma português.
34
+
35
+
36
+
37
+ ## Idiomas
38
+
39
+ <!-- Indique os idiomas presentes no dataset. -->
40
+ Foi traduzida automáticamente para a Lingua Portuguesa.
41
+
42
+
43
+
44
+ ## Criação
45
+
46
+ <!-- Se o dataset foi construído por você, indique a fonte dos dados usados e
47
+ descreva o processo de coleta e processamento. Se foi usado um dataset já existente,
48
+ indique a URL do dataset original. Se o dataset existente foi modificado,
49
+ descreva a modificação realizada e as ferramentas usadas. -->
50
+
51
+ Na [Análise Exploratória dos dados](https://github.com/CPqD/resid2023-nlp-1/blob/main/EDA_wikipedia_setences_pt.ipynb) realizada, verificou-se que os 3 arquivos parquet, para treinamento, teste e validação, possuem, respectivamente, 63.387, 10.565 e 10.565 registros, totalizando assim: 84.517 dados.
52
+
53
+ Dataset [portuguese_wikipedia_sentences](https://huggingface.co/datasets/jvanz/portuguese_wikipedia_sentences)
54
+
55
+ ## Estrutura
56
+
57
+ ### Amostras
58
+
59
+ Os 3 arquivos disponibilizados de dados no formato [parquet](https://www.alura.com.br/artigos/arquivos-parquet), conforme apresentado abaixo:
60
+
61
+ ```parquet
62
+ text
63
+ 0 Estas atividades fizeram dela uma das mulheres...
64
+ 1 Ryan também anunciou que o nome da personagem ...
65
+ 2 O solo, é constituído por uma calçada em mosai...
66
+ 3 Em 1514, ele apelou a Roma e uma comissão foi ...
67
+ 4 O Los Angeles Clippers é um time de basquete d...
68
+ ```
69
+ <!-- Se achar importante, dê informações adicionais sobre os dados e que não estejam
70
+ em outras seções, por exemplo, estatísticas sobre as amostras do dataset,
71
+ distribuição dos dados coletados, etc. -->
72
+
73
+
74
+ ### Campos dos Dados
75
+
76
+ <!-- Indique e descreva os campos presentes no dataset. Informe o tipo do campo.
77
+ Se for um campo de categoria, informe os valores possíveis. -->
78
+
79
+ * **text**: campo que trata de um determinado assunto/tema relacionado.
80
+
81
+
82
+
83
+ ### Divisão dos Dados
84
+
85
+ <!-- Descreva as divisões existentes no dataset. Por exemplo, conjuntos de
86
+ treinamento, validação e teste. Forneça os tamanhos das divisões. Se achar
87
+ pertinente, forneça também estatísticas úteis de cada divisão. -->
88
+
89
+ Conforme apresentado anteriormente,o conjunto de dados está dividido em treinamento com 63.387 registros, validação com 10.565 registros e teste também com 10.565 registros.
90
+
91
+ Totalizando 84.517 registros.
92
+
93
+ Foram gerados 3 arquivos parquet, e carregados na plataforma [HungginFace](https://huggingface.co/datasets/jvanz/portuguese_wikipedia_sentences/tree/main/data), sendo eles:
94
+ > evaluation-00000-of-00001.parquet
95
+ > test-00000-of-00001.parquet
96
+ > train-00000-of-00001.parquet
97
+
98
+ Para carregar os datasets basta utilizar os seguintes comandos:
99
+
100
+ ```
101
+ # importar a biblioteca
102
+ from datasets import load_dataset
103
+ # carregar os datasets
104
+ dataset = load_dataset("jvanz/portuguese_wikipedia_sentences")
105
+ ```
106
+ Que devem gerar a seguinte saída:
107
+
108
+ ``` Saída comando
109
+ DatasetDict({
110
+ train: Dataset({
111
+ features: ['text'],
112
+ num_rows: 63387
113
+ })
114
+ test: Dataset({
115
+ features: ['text'],
116
+ num_rows: 10565
117
+ })
118
+ evaluation: Dataset({
119
+ features: ['text'],
120
+ num_rows: 10565
121
+ })
122
+ })
123
+ ```