Dataset Viewer
Full Screen
The dataset viewer is not available for this split.
Cannot extract the features (columns) for the split 'train' of the config 'default' of the dataset.
Error code:   FeaturesError
Exception:    ParserError
Message:      Error tokenizing data. C error: Expected 5 fields in line 3, saw 6

Traceback:    Traceback (most recent call last):
                File "/src/services/worker/src/worker/job_runners/split/first_rows.py", line 322, in compute
                  compute_first_rows_from_parquet_response(
                File "/src/services/worker/src/worker/job_runners/split/first_rows.py", line 88, in compute_first_rows_from_parquet_response
                  rows_index = indexer.get_rows_index(
                File "/src/libs/libcommon/src/libcommon/parquet_utils.py", line 640, in get_rows_index
                  return RowsIndex(
                File "/src/libs/libcommon/src/libcommon/parquet_utils.py", line 521, in __init__
                  self.parquet_index = self._init_parquet_index(
                File "/src/libs/libcommon/src/libcommon/parquet_utils.py", line 538, in _init_parquet_index
                  response = get_previous_step_or_raise(
                File "/src/libs/libcommon/src/libcommon/simple_cache.py", line 591, in get_previous_step_or_raise
                  raise CachedArtifactError(
              libcommon.simple_cache.CachedArtifactError: The previous step failed.
              
              During handling of the above exception, another exception occurred:
              
              Traceback (most recent call last):
                File "/src/services/worker/src/worker/job_runners/split/first_rows.py", line 240, in compute_first_rows_from_streaming_response
                  iterable_dataset = iterable_dataset._resolve_features()
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/iterable_dataset.py", line 2216, in _resolve_features
                  features = _infer_features_from_batch(self.with_format(None)._head())
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/iterable_dataset.py", line 1239, in _head
                  return _examples_to_batch(list(self.take(n)))
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/iterable_dataset.py", line 1389, in __iter__
                  for key, example in ex_iterable:
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/iterable_dataset.py", line 1044, in __iter__
                  yield from islice(self.ex_iterable, self.n)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/iterable_dataset.py", line 282, in __iter__
                  for key, pa_table in self.generate_tables_fn(**self.kwargs):
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/packaged_modules/csv/csv.py", line 195, in _generate_tables
                  for batch_idx, df in enumerate(csv_file_reader):
                File "/src/services/worker/.venv/lib/python3.9/site-packages/pandas/io/parsers/readers.py", line 1843, in __next__
                  return self.get_chunk()
                File "/src/services/worker/.venv/lib/python3.9/site-packages/pandas/io/parsers/readers.py", line 1985, in get_chunk
                  return self.read(nrows=size)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/pandas/io/parsers/readers.py", line 1923, in read
                  ) = self._engine.read(  # type: ignore[attr-defined]
                File "/src/services/worker/.venv/lib/python3.9/site-packages/pandas/io/parsers/c_parser_wrapper.py", line 234, in read
                  chunks = self._reader.read_low_memory(nrows)
                File "parsers.pyx", line 850, in pandas._libs.parsers.TextReader.read_low_memory
                File "parsers.pyx", line 905, in pandas._libs.parsers.TextReader._read_rows
                File "parsers.pyx", line 874, in pandas._libs.parsers.TextReader._tokenize_rows
                File "parsers.pyx", line 891, in pandas._libs.parsers.TextReader._check_tokenize_status
                File "parsers.pyx", line 2061, in pandas._libs.parsers.raise_parser_error
              pandas.errors.ParserError: Error tokenizing data. C error: Expected 5 fields in line 3, saw 6

Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.

YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/datasets-cards)

Dataset Card para [CSTNews_sumarization]

Descrição

Resumo

O dataset 'CSTNews_sumarizacao', é uma adaptação do dataset 'CSTNews 6.0", uma coletânia de textos jornalísticos com diversos tópicos no qual foi selecionado dois arquivos: 'Sumarios' e 'Textos_fonte segmentados'. O objetivo é aplicá-lo em Processamento de Linguagem Natural na tarefa de sumarização de texto no idioma Português.

Utilização Pretendida

Tarefa de sumarização de texto em Português usando algoritmo de Processamento de Linguagem Natural.

Idiomas

Português-BR

Estrutura

Amostras

Um exemplo de amostra do dataset:

{
  "id": "D4_C49_JB",
  "texto": "RIO - O presidente Luiz Inácio Lula da Silva classificou de reação do ser humano as vaias que recebeu, na última sexta-feira, dia 13, durante a abertura dos Jogos Pan-Americanos do Rio, no Maracanã. Lula admitiu que ficou chateado com a atitude do público, mas garantiu que sua relação com o povo do Rio não será alterada. Depois das vaias, Lula desistiu de declarar aberto os jogos, como estava planejado. A declaração foi feita pelo presidente do Comitê Olímpico Brasileiro (COB), Carlos Nuzman. - Na minha vida política, a vaia e o aplauso são dois momentos de reação do ser humano. A única coisa que eu, particularmente, fico triste é que eu fui preparado para uma festa. É como se eu fosse convidado para o aniversário de um amigo meu, chegasse lá e encontrasse um grupo de pessoas que não queria a minha presença lá. Eu tenho certeza de que não é esse o pensamento do Rio de Janeiro - disse Lula, no programa de rádio Café com o Presidente. - Depois que terminou o evento, várias pessoas vieram dizer que tinha sido organizado, que gente tinha recebido o convite. A mim, não me interessa o que aconteceu. O importante é que foi uma abertura extraordinária dos Jogos Pan-Americanos. O presidente afirmou que não haverá mudanças nos planos de investimento do governo federal para o Rio por conta do episódio. Nós vamos trabalhar, nós temos muitos projetos para trabalhar no Rio de Janeiro e vamos trabalhar no Rio. Isso não muda um milímetro do meu comportamento com o Rio de Janeiro. O Rio de Janeiro a gente poderia dizer continua lindo e merece que o governo federal faça o que for possível para o Rio de Janeiro.",
  "sumario_humano": "O presidente Lula foi vaiado na abertura dos jogos Pan-americano no Rio. Ele ficou chateado e decidiu não fazer a declaração de abertura dos jogos. No entanto, ele disse que as vaias não afetam sua relação com o povo carioca, pois classifica vaias e aplausos como reações naturais do ser humano. O motivo de ter ficado chateado deve-se ao sentimento de ser convidado para uma festa, na qual tinha gente que não quisesse sua presença. O presidente afirmou que não haverá mudanças nos planos de investimento do governo para o Rio devido ao episódio."
}

Campos dos Dados

  • id: Identificador da linha
  • texto: Texto fonte dos arquivos originais
  • sumario_humano: Resumos humano para o texto correspondente

Divisão dos Dados

  • train: (93, 3)
  • test: (14, 3)
  • validatation]: (33, 3)

Criação do Dataset

O data date CSTNews_samarization foi elaborado a partir do dataset publicado no huggingface. Foi baixado o arquivo e o tratamento do dado foi realizado no Colab. Foram selecionadas as colunas do dataset original que mais interessava para o trabalho de sumarização como, nome o ID, text, e summary. A última coluna no caso representa os sumários humanos, que sçao imporantes para a avaliação do modelo.

Licença

[Informe qual a licença associada a este dataset.]

Downloads last month
4