Update README.md
Browse files
README.md
CHANGED
@@ -1,3 +1,123 @@
|
|
1 |
-
|
2 |
-
|
3 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
# Dataset Card para Wikipedia em Português
|
2 |
+
|
3 |
+
<h2 style='text-align: center;'> Time 1 - NLP </h2>
|
4 |
+
|
5 |
+
|
6 |
+
|
7 |
+
## Dados Gerais
|
8 |
+
|
9 |
+
- **Nome:** portuguese_wikipedia_sentences
|
10 |
+
- **Página WEB:** [portuguese_wikipedia_sentences](https://huggingface.co/datasets/jvanz/portuguese_wikipedia_sentences)
|
11 |
+
- **Repositório:** [portuguese_wikipedia_sentences](https://huggingface.co/datasets/jvanz/portuguese_wikipedia_sentences/tree/main/data)
|
12 |
+
|
13 |
+
|
14 |
+
## Resumo
|
15 |
+
|
16 |
+
Este dataset é adequado para o projeto devido à sua vasta coleção de frases em português extraídas da Wikipedia, oferecendo uma ampla gama de conhecimentos
|
17 |
+
gerais e específicos.
|
18 |
+
Contendo artigos limpos em português, cada exemplo, contém um artigo completo da Wikipedia com limpeza para remover marcações e seções indesejadas(referências, citações, etc)
|
19 |
+
|
20 |
+
Foi realizado uma [Análise Exploratória dos dados](https://github.com/CPqD/resid2023-nlp-1/blob/main/EDA_wikipedia_setences_pt.ipynb) dos arquivos, sendo eles:
|
21 |
+
> Conjunto de Treinamento: train-00000-of-00001.parquet (7.01MB);
|
22 |
+
|
23 |
+
> Conjunto de Validação: evaluation-00000-of-00001.parquet (1.17MB);
|
24 |
+
|
25 |
+
> Conjunto de Teste: test-00000-of-00001.parquet (1.18MB);
|
26 |
+
|
27 |
+
## Utilização Pretendida
|
28 |
+
|
29 |
+
<!-- Indique quais as tarefas de NLP podem utilizar este dataset. Por exemplo,
|
30 |
+
classificação de texto, reconhecimento de entidades, etc.
|
31 |
+
Nesta seção, você pode detalhar e expandir o que foi apresentado no resumo. -->
|
32 |
+
|
33 |
+
O portuguese_wikipedia_sentences no projeto vai ajudar o modelo aprender o idioma português.
|
34 |
+
|
35 |
+
|
36 |
+
|
37 |
+
## Idiomas
|
38 |
+
|
39 |
+
<!-- Indique os idiomas presentes no dataset. -->
|
40 |
+
Foi traduzida automáticamente para a Lingua Portuguesa.
|
41 |
+
|
42 |
+
|
43 |
+
|
44 |
+
## Criação
|
45 |
+
|
46 |
+
<!-- Se o dataset foi construído por você, indique a fonte dos dados usados e
|
47 |
+
descreva o processo de coleta e processamento. Se foi usado um dataset já existente,
|
48 |
+
indique a URL do dataset original. Se o dataset existente foi modificado,
|
49 |
+
descreva a modificação realizada e as ferramentas usadas. -->
|
50 |
+
|
51 |
+
Na [Análise Exploratória dos dados](https://github.com/CPqD/resid2023-nlp-1/blob/main/EDA_wikipedia_setences_pt.ipynb) realizada, verificou-se que os 3 arquivos parquet, para treinamento, teste e validação, possuem, respectivamente, 63.387, 10.565 e 10.565 registros, totalizando assim: 84.517 dados.
|
52 |
+
|
53 |
+
Dataset [portuguese_wikipedia_sentences](https://huggingface.co/datasets/jvanz/portuguese_wikipedia_sentences)
|
54 |
+
|
55 |
+
## Estrutura
|
56 |
+
|
57 |
+
### Amostras
|
58 |
+
|
59 |
+
Os 3 arquivos disponibilizados de dados no formato [parquet](https://www.alura.com.br/artigos/arquivos-parquet), conforme apresentado abaixo:
|
60 |
+
|
61 |
+
```parquet
|
62 |
+
text
|
63 |
+
0 Estas atividades fizeram dela uma das mulheres...
|
64 |
+
1 Ryan também anunciou que o nome da personagem ...
|
65 |
+
2 O solo, é constituído por uma calçada em mosai...
|
66 |
+
3 Em 1514, ele apelou a Roma e uma comissão foi ...
|
67 |
+
4 O Los Angeles Clippers é um time de basquete d...
|
68 |
+
```
|
69 |
+
<!-- Se achar importante, dê informações adicionais sobre os dados e que não estejam
|
70 |
+
em outras seções, por exemplo, estatísticas sobre as amostras do dataset,
|
71 |
+
distribuição dos dados coletados, etc. -->
|
72 |
+
|
73 |
+
|
74 |
+
### Campos dos Dados
|
75 |
+
|
76 |
+
<!-- Indique e descreva os campos presentes no dataset. Informe o tipo do campo.
|
77 |
+
Se for um campo de categoria, informe os valores possíveis. -->
|
78 |
+
|
79 |
+
* **text**: campo que trata de um determinado assunto/tema relacionado.
|
80 |
+
|
81 |
+
|
82 |
+
|
83 |
+
### Divisão dos Dados
|
84 |
+
|
85 |
+
<!-- Descreva as divisões existentes no dataset. Por exemplo, conjuntos de
|
86 |
+
treinamento, validação e teste. Forneça os tamanhos das divisões. Se achar
|
87 |
+
pertinente, forneça também estatísticas úteis de cada divisão. -->
|
88 |
+
|
89 |
+
Conforme apresentado anteriormente,o conjunto de dados está dividido em treinamento com 63.387 registros, validação com 10.565 registros e teste também com 10.565 registros.
|
90 |
+
|
91 |
+
Totalizando 84.517 registros.
|
92 |
+
|
93 |
+
Foram gerados 3 arquivos parquet, e carregados na plataforma [HungginFace](https://huggingface.co/datasets/jvanz/portuguese_wikipedia_sentences/tree/main/data), sendo eles:
|
94 |
+
> evaluation-00000-of-00001.parquet
|
95 |
+
> test-00000-of-00001.parquet
|
96 |
+
> train-00000-of-00001.parquet
|
97 |
+
|
98 |
+
Para carregar os datasets basta utilizar os seguintes comandos:
|
99 |
+
|
100 |
+
```
|
101 |
+
# importar a biblioteca
|
102 |
+
from datasets import load_dataset
|
103 |
+
# carregar os datasets
|
104 |
+
dataset = load_dataset("jvanz/portuguese_wikipedia_sentences")
|
105 |
+
```
|
106 |
+
Que devem gerar a seguinte saída:
|
107 |
+
|
108 |
+
``` Saída comando
|
109 |
+
DatasetDict({
|
110 |
+
train: Dataset({
|
111 |
+
features: ['text'],
|
112 |
+
num_rows: 63387
|
113 |
+
})
|
114 |
+
test: Dataset({
|
115 |
+
features: ['text'],
|
116 |
+
num_rows: 10565
|
117 |
+
})
|
118 |
+
evaluation: Dataset({
|
119 |
+
features: ['text'],
|
120 |
+
num_rows: 10565
|
121 |
+
})
|
122 |
+
})
|
123 |
+
```
|