These datasets don't work as of datasets==2.11.0
#1
by
adivekar
- opened
Hi. Thanks for uploading these datasets, but it seems like they do not work?
Using datasets==2.11.0:
from datasets import load_dataset
load_dataset("zapsdcn/ag", split='test')
I get this error:
Downloading and preparing dataset json/zapsdcn--ag to /efs/users/adivekar/.cache/huggingface/datasets/zapsdcn___json/zapsdcn--ag-3d65abcb396ff733/0.0.0/fe5dd6ea2639a6df622901539cb550cf8797e5a6b2dd7af1cf934bed8e233e6e...
Downloading data files: 100%
3/3 [00:00<00:00, 298.10it/s]
Extracting data files: 100%
3/3 [00:00<00:00, 114.75it/s]
โญโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ Traceback (most recent call last) โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโฎ
โ /home/ec2-user/anaconda3/envs/llm-gen/lib/python3.10/site-packages/datasets/builder.py:1875 in โ
โ _prepare_split_single โ
โ โ
โ 1872 โ โ โ โ โ โ โ storage_options=self._fs.storage_options, โ
โ 1873 โ โ โ โ โ โ โ embed_local_files=embed_local_files, โ
โ 1874 โ โ โ โ โ โ ) โ
โ โฑ 1875 โ โ โ โ โ writer.write_table(table) โ
โ 1876 โ โ โ โ โ num_examples_progress_update += len(table) โ
โ 1877 โ โ โ โ โ if time.time() > _time + config.PBAR_REFRESH_TIME_INTERVAL: โ
โ 1878 โ โ โ โ โ โ _time = time.time() โ
โ โ
โ /home/ec2-user/anaconda3/envs/llm-gen/lib/python3.10/site-packages/datasets/arrow_writer.py:568 โ
โ in write_table โ
โ โ
โ 565 โ โ if self.pa_writer is None: โ
โ 566 โ โ โ self._build_writer(inferred_schema=pa_table.schema) โ
โ 567 โ โ pa_table = pa_table.combine_chunks() โ
โ โฑ 568 โ โ pa_table = table_cast(pa_table, self._schema) โ
โ 569 โ โ if self.embed_local_files: โ
โ 570 โ โ โ pa_table = embed_table_storage(pa_table) โ
โ 571 โ โ self._num_bytes += pa_table.nbytes โ
โ โ
โ /home/ec2-user/anaconda3/envs/llm-gen/lib/python3.10/site-packages/datasets/table.py:2290 in โ
โ table_cast โ
โ โ
โ 2287 โ โ table (`pyarrow.Table`): the casted table โ
โ 2288 โ """ โ
โ 2289 โ if table.schema != schema: โ
โ โฑ 2290 โ โ return cast_table_to_schema(table, schema) โ
โ 2291 โ elif table.schema.metadata != schema.metadata: โ
โ 2292 โ โ return table.replace_schema_metadata(schema.metadata) โ
โ 2293 โ else: โ
โ โ
โ /home/ec2-user/anaconda3/envs/llm-gen/lib/python3.10/site-packages/datasets/table.py:2248 in โ
โ cast_table_to_schema โ
โ โ
โ 2245 โ โ
โ 2246 โ features = Features.from_arrow_schema(schema) โ
โ 2247 โ if sorted(table.column_names) != sorted(features): โ
โ โฑ 2248 โ โ raise ValueError(f"Couldn't cast\n{table.schema}\nto\n{features}\nbecause column โ
โ 2249 โ arrays = [cast_array_to_feature(table[name], feature) for name, feature in features. โ
โ 2250 โ return pa.Table.from_arrays(arrays, schema=schema) โ
โ 2251 โ
โฐโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโฏ
ValueError: Couldn't cast
label: int64
text: string
headline: string
to
{'label': Value(dtype='int64', id=None), 'text': Value(dtype='string', id=None), 'headline': Value(dtype='string',
id=None), 'id': Value(dtype='string', id=None)}
because column names don't match
The above exception was the direct cause of the following exception:
โญโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ Traceback (most recent call last) โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโฎ
โ in <module>:1 โ
โ โ
โ โฑ 1 load_dataset("zapsdcn/ag", split='test') โ
โ 2 โ
โ โ
โ /home/ec2-user/anaconda3/envs/llm-gen/lib/python3.10/site-packages/datasets/load.py:1791 in โ
โ load_dataset โ
โ โ
โ 1788 โ try_from_hf_gcs = path not in _PACKAGED_DATASETS_MODULES โ
โ 1789 โ โ
โ 1790 โ # Download and prepare data โ
โ โฑ 1791 โ builder_instance.download_and_prepare( โ
โ 1792 โ โ download_config=download_config, โ
โ 1793 โ โ download_mode=download_mode, โ
โ 1794 โ โ verification_mode=verification_mode, โ
โ โ
โ /home/ec2-user/anaconda3/envs/llm-gen/lib/python3.10/site-packages/datasets/builder.py:891 in โ
โ download_and_prepare โ
โ โ
โ 888 โ โ โ โ โ โ โ prepare_split_kwargs["max_shard_size"] = max_shard_size โ
โ 889 โ โ โ โ โ โ if num_proc is not None: โ
โ 890 โ โ โ โ โ โ โ prepare_split_kwargs["num_proc"] = num_proc โ
โ โฑ 891 โ โ โ โ โ โ self._download_and_prepare( โ
โ 892 โ โ โ โ โ โ โ dl_manager=dl_manager, โ
โ 893 โ โ โ โ โ โ โ verification_mode=verification_mode, โ
โ 894 โ โ โ โ โ โ โ **prepare_split_kwargs, โ
โ โ
โ /home/ec2-user/anaconda3/envs/llm-gen/lib/python3.10/site-packages/datasets/builder.py:986 in โ
โ _download_and_prepare โ
โ โ
โ 983 โ โ โ โ
โ 984 โ โ โ try: โ
โ 985 โ โ โ โ # Prepare split will record examples associated to the split โ
โ โฑ 986 โ โ โ โ self._prepare_split(split_generator, **prepare_split_kwargs) โ
โ 987 โ โ โ except OSError as e: โ
โ 988 โ โ โ โ raise OSError( โ
โ 989 โ โ โ โ โ "Cannot find data file. " โ
โ โ
โ /home/ec2-user/anaconda3/envs/llm-gen/lib/python3.10/site-packages/datasets/builder.py:1748 in โ
โ _prepare_split โ
โ โ
โ 1745 โ โ โ gen_kwargs = split_generator.gen_kwargs โ
โ 1746 โ โ โ job_id = 0 โ
โ 1747 โ โ โ with pbar: โ
โ โฑ 1748 โ โ โ โ for job_id, done, content in self._prepare_split_single( โ
โ 1749 โ โ โ โ โ gen_kwargs=gen_kwargs, job_id=job_id, **_prepare_split_args โ
โ 1750 โ โ โ โ ): โ
โ 1751 โ โ โ โ โ if done: โ
โ โ
โ /home/ec2-user/anaconda3/envs/llm-gen/lib/python3.10/site-packages/datasets/builder.py:1893 in โ
โ _prepare_split_single โ
โ โ
โ 1890 โ โ โ # Ignore the writer's error for no examples written to the file if this erro โ
โ 1891 โ โ โ if isinstance(e, SchemaInferenceError) and e.__context__ is not None: โ
โ 1892 โ โ โ โ e = e.__context__ โ
โ โฑ 1893 โ โ โ raise DatasetGenerationError("An error occurred while generating the dataset โ
โ 1894 โ โ โ
โ 1895 โ โ yield job_id, True, (total_num_examples, total_num_bytes, writer._features, num_ โ
โ 1896 โ
โฐโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโฏ
DatasetGenerationError: An error occurred while generating the dataset
I think the error is that the uploaded test set does not have the "id" column.
Workaround: set features manually
import datasets as ds
load_dataset("zapsdcn/ag", features=ds.Features({
'label': ds.Value('int64'),
'text': ds.Value('string'),
'headline': ds.Value('string'),
'id': ds.Value('string'),
}))