Datasets:
Tasks:
Token Classification
Languages:
English
Multilinguality:
monolingual
Language Creators:
found
Source Datasets:
original
License:
mit
Dataset Preview
Go to dataset viewer
tokens (sequence) | start_index (int32) | end_index (int32) | label (class label) |
---|---|---|---|
[
"There",
"is",
"3500",
"...",
"and",
"since",
"you",
"'re",
"tapping",
"me",
",",
"I",
"believe",
"I",
"'d",
"better",
"add",
"this",
"."
] | 2 | 3 | 1
(pos) |
[
"Which",
"six",
"percent",
"?"
] | 1 | 2 | 0
(neg) |
[
"You",
"only",
"have",
"three",
"choices",
"-",
"leave",
"the",
"town",
",",
"stay",
"here",
"and",
"probably",
"get",
"killed",
"or",
"work",
"for",
"me",
"."
] | 3 | 4 | 0
(neg) |
[
"You",
"know",
"what",
",",
"I",
"'ve",
"got",
"two",
"words",
"for",
"that",
"guy",
":",
"you",
"'re",
"fired",
"."
] | 7 | 8 | 0
(neg) |
[
"188",
"channels",
"and",
"there",
"'s",
"nothing",
"on",
"TV",
"?"
] | 0 | 1 | 0
(neg) |
[
"In",
"the",
"year",
"2020",
",",
"you",
"and",
"your",
"wife",
",",
"Tess",
"Morgan",
",",
"successfully",
"launched",
"a",
"Particle",
"Accelerator",
"that",
"changed",
"the",
"course",
"of",
"history",
"."
] | 3 | 4 | 0
(neg) |
[
"And",
"now",
",",
"we",
"have",
"``",
"I",
"think",
"I",
"'m",
"Jewish",
"''",
",",
"which",
"is",
"a",
"new",
"one",
"for",
"the",
"class",
",",
"Oliver",
",",
"so",
"thanks",
"for",
"that",
"."
] | 17 | 18 | 1
(pos) |
[
"After",
"months",
"of",
"sweatin",
"'",
"yourself",
"dizzy",
",",
"and",
"growin",
"'",
"short",
"on",
"provisions",
",",
"and",
"findin",
"'",
"nothin",
"'",
",",
"you",
"finally",
"come",
"down",
"to",
"15,000",
",",
"then",
"ten",
"."
] | 26 | 27 | 1
(pos) |
[
"Well",
",",
"technically",
"there",
"are",
"eighty",
"five",
",",
"but",
"let",
"'s",
"just",
"focus",
"on",
"the",
"third",
"."
] | 5 | 7 | 1
(pos) |
[
"Perhaps",
",",
"one",
"day",
",",
"I",
"will",
"teach",
"you",
"how",
"to",
"make",
"an",
"audience",
"love",
"you",
",",
"but",
"right",
"now",
",",
"you",
"'re",
"next",
"to",
"hopeless",
"."
] | 2 | 3 | 0
(neg) |
[
"``",
"Caution",
":",
"The",
"surgeon",
"general",
"of",
"rock",
"warns",
"that",
"viewing",
"this",
"band",
"is",
"equal",
"to",
"29",
"orgasms",
".",
"''"
] | 16 | 17 | 0
(neg) |
[
"What",
",",
"so",
"that",
"I",
"can",
"pee",
"every",
"two",
"minutes",
"instead",
"of",
"every",
"ten",
"?"
] | 13 | 14 | 1
(pos) |
[
"Only",
"three",
"people",
"in",
"the",
"world",
"know",
"what",
"I",
"'m",
"about",
"to",
"tell",
"you",
"."
] | 1 | 2 | 0
(neg) |
[
"Uhh",
"...",
"Teletraan",
"1",
"calls",
"."
] | 3 | 4 | 0
(neg) |
[
"Do",
"you",
"not",
"...",
"does",
"any",
"one",
"here",
"not",
"believe",
"that",
"communism",
"is",
"our",
"mortal",
"enemy",
"?"
] | 6 | 7 | 1
(pos) |
[
"Goddamn",
",",
"which",
"one",
"of",
"you",
"motherfuckers",
"killed",
"my",
"future",
"ex-wife",
"?"
] | 3 | 4 | 1
(pos) |
[
"I",
"do",
"n't",
"know",
"what",
"a",
"homeless",
"person",
"would",
"do",
"with",
"one",
"."
] | 11 | 12 | 1
(pos) |
[
"But",
"one",
"thing",
"you",
"'re",
"not",
",",
"and",
"this",
"is",
"something",
"only",
"time",
"can",
"provide",
",",
"really",
",",
"is",
"wise",
"."
] | 1 | 2 | 0
(neg) |
[
"You",
"do",
"n't",
"care",
"that",
"he",
"'s",
"so",
"fat",
",",
"he",
"'s",
"one",
"of",
"these",
"guys",
"that",
"has",
"to",
"be",
"removed",
"from",
"his",
"house",
"by",
"a",
"crane",
"?"
] | 12 | 13 | 1
(pos) |
[
"It",
"sounds",
"more",
"impressive",
"at",
"29,000",
"feet",
"."
] | 5 | 6 | 0
(neg) |
[
"We",
"can",
"lend",
"you",
"the",
"money",
"under",
"two",
"conditions",
"."
] | 7 | 8 | 0
(neg) |
[
"Anyhow",
",",
"I",
"used",
"to",
"heard",
"it",
"said",
"you",
"boys",
"who",
"rode",
"with",
"Hood",
"drank",
"five",
"states",
"dry",
"."
] | 15 | 16 | 0
(neg) |
[
"When",
"two",
"live",
"in",
"two",
"separate",
"places",
"..."
] | 1 | 2 | 1
(pos) |
[
"Okay",
",",
"how",
"about",
"this",
"one",
"?"
] | 5 | 6 | 1
(pos) |
[
"That",
"last",
"one",
"'s",
"even",
"in",
"the",
"name",
"."
] | 2 | 3 | 1
(pos) |
[
"I",
"meant",
"that",
"for",
"ten",
"thousand",
"dollars",
",",
"I",
"might",
"try",
"my",
"hand",
"at",
"lyric",
"writing",
"."
] | 4 | 6 | 0
(neg) |
[
"You",
"'re",
"the",
"one",
"who",
"'s",
"always",
"saying",
",",
"``",
"Listen",
"to",
"Pierre",
"."
] | 3 | 4 | 1
(pos) |
[
"One",
"minute",
"he",
"'s",
"lying",
"in",
"the",
"bed",
",",
"smiling",
"and",
"happy",
",",
"ten",
"seconds",
"later",
"it",
"'s",
"over",
"."
] | 0 | 1 | 0
(neg) |
[
"I",
"know",
"one",
"thing",
",",
"Major",
",",
"I",
"drew",
"down",
"and",
"fired",
"straight",
"at",
"it",
"."
] | 2 | 3 | 0
(neg) |
[
"Two",
"syllables",
"every",
"homeowner",
"loves",
"to",
"hear",
"upon",
"entering",
"the",
"door",
"."
] | 0 | 1 | 0
(neg) |
[
"Well",
",",
"this-a",
"Mother",
"Seton-now",
"they",
"could",
"only",
"prove-a",
"three",
"miracles",
"."
] | 9 | 10 | 0
(neg) |
[
"In",
"ten",
"years",
",",
"I",
"will",
"make",
"her",
"one",
"of",
"my",
"wives",
"!"
] | 1 | 2 | 0
(neg) |
[
"I",
"bet",
"you",
"that",
"if",
"you",
"pull",
"the",
"first",
"five",
"cards",
"off",
"this",
"deck"
] | 9 | 10 | 0
(neg) |
[
"You",
"'ve",
"been",
"drunk",
"for",
"a",
"few",
"days",
",",
"I",
"was",
"drunk",
"for",
"years",
"and",
"I",
"know",
"you",
"'re",
"gon",
"na",
"need",
"at",
"least",
"one",
"friend",
"when",
"you",
"decide",
"to",
"come",
"out",
"of",
"that",
"hole",
"you",
"'re",
"digging",
"."
] | 24 | 25 | 0
(neg) |
[
"I",
"think",
"the",
"one",
"at",
"1",
"Wilton",
"malfunctioned",
"and",
"went",
"off",
"early",
"."
] | 3 | 4 | 1
(pos) |
[
"I",
"practically",
"raised",
"him",
"since",
"he",
"was",
"2",
"."
] | 7 | 8 | 0
(neg) |
[
"Which",
"gives",
"you",
"an",
"idea",
"how",
"pathetic",
"I",
"was",
"when",
"I",
"was",
"18",
"."
] | 12 | 13 | 1
(pos) |
[
"You",
"'ve",
"never",
"heard",
"of",
"one",
"?"
] | 5 | 6 | 1
(pos) |
[
"To",
"think",
"that",
"these",
"three-month-old",
"trees",
"will",
"reach",
"their",
"apex",
"in",
"400",
"years",
"."
] | 11 | 12 | 0
(neg) |
[
"About",
"3,000",
"years",
"ago",
"."
] | 1 | 2 | 0
(neg) |
[
"Oh",
",",
"well",
",",
"that",
"'s",
"a",
"sinch",
",",
"I",
"have",
"here",
"this",
"book",
":",
"`",
"How",
"to",
"act",
"like",
"a",
"feminine",
"female",
"in",
"three",
"easy",
"lessons",
"'",
"."
] | 24 | 25 | 0
(neg) |
[
"Because",
"if",
"I",
"take",
"it",
"to",
"small",
"claims",
"court",
",",
"it",
"will",
"just",
"drain",
"8",
"hours",
"out",
"of",
"my",
"life",
"and",
"you",
"probably",
"wo",
"n't",
"show",
"up",
"and",
"even",
"if",
"I",
"got",
"the",
"judgment",
"you",
"'d",
"just",
"stiff",
"me",
"anyway",
";",
"so",
"what",
"I",
"am",
"going",
"to",
"do",
"is",
"piss",
"and",
"moan",
"like",
"an",
"impotent",
"jerk",
",",
"and",
"then",
"bend",
"over",
"and",
"take",
"it",
"up",
"the",
"tailpipe",
"!"
] | 14 | 15 | 0
(neg) |
[
"I",
"'ve",
"got",
",",
"like",
",",
"four",
"``",
"Brown",
"County",
"''",
"ones",
"."
] | 6 | 7 | 0
(neg) |
[
"You",
"wanted",
"to",
"be",
"Krusty",
"'s",
"sidekick",
"since",
"you",
"were",
"five",
"."
] | 10 | 11 | 1
(pos) |
[
"Tell",
"you",
"what",
"...",
"five",
"years",
"from",
"this",
"moment",
"if",
"neither",
"of",
"us",
"is",
"in",
"a",
"relationship",
",",
"we",
"'ll",
"go",
"have",
"ourselves",
"a",
"kid",
"."
] | 4 | 5 | 0
(neg) |
[
"Mayonnaise",
"has",
"an",
"IQ",
"of",
"1",
",",
"and",
"Elmyra",
"has",
"no",
"discernible",
"IQ",
"!"
] | 5 | 6 | 1
(pos) |
[
"Wherever",
"you",
"go",
",",
"wherever",
"you",
"hide",
"a",
"thousand",
"ships",
"will",
"search",
"you",
"out",
"."
] | 8 | 9 | 0
(neg) |
[
"Yes",
",",
"but",
"this",
"house",
"is",
"a",
"benefit",
"of",
"my",
"job",
",",
"which",
"I",
"earned",
"after",
"five",
"years",
"of",
"college",
"and",
"we",
"do",
"have",
"a",
"car",
"."
] | 16 | 17 | 0
(neg) |
[
"Knowing",
"Lionel",
",",
"I",
"'m",
"sure",
"he",
"only",
"meant",
"it",
"one",
"way",
"."
] | 10 | 11 | 0
(neg) |
[
"In",
"these",
"twelve",
"years",
",",
"my",
"heart",
"has",
"never",
"felt",
"at",
"ease",
"."
] | 2 | 3 | 0
(neg) |
[
"I",
"have",
"come",
"six",
"thousand",
"miles",
",",
"looking",
"for",
"him",
"."
] | 3 | 5 | 0
(neg) |
[
"But",
"you",
"know",
",",
"Mr",
"Kent",
",",
"I",
"was",
"good",
"before",
"they",
"were",
"taken",
"from",
"me",
",",
"I",
"was",
"good",
"at",
"the",
"foster",
"home",
",",
"and",
"I",
"was",
"good",
"about",
"fifteen",
"minutes",
"ago",
"!"
] | 30 | 31 | 0
(neg) |
[
"What",
"kind",
"of",
"guarantee",
"is",
"there",
"you",
"'d",
"be",
"the",
"right",
"one",
"for",
"me",
"?"
] | 11 | 12 | 1
(pos) |
[
"Except",
",",
"instead",
"of",
"you",
"and",
"me",
",",
"let",
"'s",
"make",
"it",
"the",
"four",
"of",
"us",
"."
] | 13 | 14 | 1
(pos) |
[
"You",
"'ve",
"been",
"saying",
"that",
"for",
"the",
"last",
"30",
"years",
",",
"Dad",
"."
] | 8 | 9 | 0
(neg) |
[
"One",
"time",
",",
"he",
"beat",
"my",
"brother",
"half",
"to",
"death",
",",
"and",
"he",
"...",
"he",
"did",
"n't",
"remember",
"a",
"thing",
"."
] | 0 | 1 | 0
(neg) |
[
"You",
"know",
"Diane",
",",
"you",
"should",
"n't",
"be",
"investing",
"in",
"a",
"tanning",
"salon",
",",
"you",
"ought",
"to",
"be",
"using",
"one",
"."
] | 19 | 20 | 1
(pos) |
[
"You",
"know",
",",
"they",
"go",
"to",
"all",
"the",
"trouble",
"to",
"kidnap",
"somebody",
",",
"I",
"'d",
"have",
"kidnapped",
"that",
"Jake",
"character",
"from",
"Evil",
"Dead",
"2",
"."
] | 23 | 24 | 0
(neg) |
[
"I",
"was",
"in",
"the",
"office",
"two",
"years",
"before",
"he",
"even",
"looked",
"me",
"in",
"the",
"eye",
"."
] | 5 | 6 | 0
(neg) |
[
"-LSB-",
"Goes",
"to",
"the",
"courtroom",
"door",
"-RSB-",
"All",
"right",
",",
"this",
"is",
"50",
"feet",
",",
"that",
"'s",
"half",
"the",
"distance",
"."
] | 12 | 13 | 0
(neg) |
[
"It",
"'s",
"life",
"one",
"day",
"to",
"make",
"amends",
".",
"'"
] | 3 | 4 | 0
(neg) |
[
"Now",
"can",
"you",
"give",
"me",
"one",
"good",
"reason",
"why",
"I",
"should",
"n't",
"drop",
"you",
"to",
"the",
"ground",
"?"
] | 5 | 6 | 0
(neg) |
[
"It",
"takes",
"four",
"hundred",
"thirty",
"people",
"to",
"man",
"a",
"starship",
"."
] | 2 | 5 | 0
(neg) |
[
"You",
"'ve",
"been",
"on",
"four",
"dates",
"now",
"."
] | 4 | 5 | 0
(neg) |
[
"``",
"I",
"have",
"to",
"get",
"up",
"at",
"five",
"o'clock",
"in",
"the",
"morning",
"and",
"SPARKLE",
",",
"Neely",
",",
"SPARKLE",
"!",
"''"
] | 7 | 8 | 0
(neg) |
[
"If",
"I",
"were",
"to",
"bring",
"a",
"TV",
"dinner",
"to",
"school",
"tomorrow",
",",
"would",
"I",
"be",
"allowed",
"to",
"use",
"one",
"of",
"the",
"ovens",
"in",
"the",
"cafeteria",
"to",
"heat",
"it",
"up",
"?"
] | 18 | 19 | 1
(pos) |
[
"Attention",
"Could",
"9",
"shoppers",
":",
"the",
"store",
"has",
"been",
"closed",
"for",
"twnety",
"minutes",
";",
"many",
"of",
"us",
"would",
"like",
"to",
"leave",
",",
"so",
"if",
"you",
"'re",
"still",
"in",
"the",
"store",
"...",
"you",
"'re",
"being",
"a",
"dick",
"."
] | 2 | 3 | 0
(neg) |
[
"I",
"told",
"him",
"we",
"already",
"have",
"one",
"."
] | 6 | 7 | 1
(pos) |
[
"It",
"'s",
"2002",
",",
"I",
"am",
"flush",
",",
"I",
"am",
"feelin",
"'",
"good",
"!"
] | 2 | 3 | 1
(pos) |
[
"Lowest",
"point",
"in",
"the",
"wreckage",
"is",
"only",
"about",
"50",
"feet",
"up",
"from",
"here",
"."
] | 8 | 9 | 0
(neg) |
[
"Ya",
"know",
",",
"you",
"two",
"have",
"a",
"serious",
"attitude",
"problem",
"!"
] | 4 | 5 | 1
(pos) |
[
"I",
"'ve",
"never",
"been",
"out",
"with",
"one",
"."
] | 6 | 7 | 1
(pos) |
[
"That",
"'s",
"one",
"of",
"the",
"charms",
"of",
"Collinsport",
"."
] | 2 | 3 | 1
(pos) |
[
"Or",
"perhaps",
"she",
"knows",
"your",
"tie",
"collection",
",",
"and",
"she",
"'s",
"simply",
"glad",
"you",
"did",
"n't",
"choose",
"one",
"of",
"the",
"ties",
"she",
"dislikes",
"."
] | 17 | 18 | 1
(pos) |
[
"What",
"would",
"the",
"next",
"one",
"be",
"?"
] | 4 | 5 | 1
(pos) |
[
"You",
"'re",
"telling",
"me",
",",
"since",
"my",
"phonograph",
"broke",
",",
"I",
"'ve",
"got",
"400",
"records",
"and",
"nothing",
"to",
"play",
"them",
"on",
"."
] | 13 | 14 | 0
(neg) |
[
"A",
"hundred",
"and",
"fifty",
"years",
"too",
"old",
"."
] | 1 | 4 | 0
(neg) |
[
"Such",
"as",
"...",
"Once",
"you",
"let",
"one",
"undesirable",
"into",
"the",
"community",
",",
"do",
"you",
"realize",
"how",
"many",
"will",
"follow",
"?"
] | 6 | 7 | 0
(neg) |
[
"But",
"I",
"do",
"know",
"that",
"one",
"is",
"all",
"white",
",",
"and",
"one",
"is",
"pretty",
"much",
"white",
"."
] | 11 | 12 | 1
(pos) |
[
"Just",
"one",
"moment",
"!"
] | 1 | 2 | 0
(neg) |
[
"Theres",
"just",
"one",
"proplem",
"Im",
"er",
"..."
] | 2 | 3 | 0
(neg) |
[
"We",
"'ll",
"invite",
"him",
"to",
"one",
"of",
"my",
"concerts"
] | 5 | 6 | 1
(pos) |
[
"I",
"get",
"one",
"phone",
"call",
"."
] | 2 | 3 | 0
(neg) |
[
"The",
"good",
"stuff",
"-",
"all",
"the",
"lives",
"you",
"saved",
",",
"all",
"the",
"people",
"whose",
"lives",
"were",
"made",
"better",
",",
"their",
"lives",
"were",
"made",
"longer",
"because",
"you",
"were",
"there",
"for",
"those",
"20",
"minutes",
"!"
] | 30 | 31 | 0
(neg) |
[
"A",
"term",
"coined",
"in",
"the",
"late",
"1950",
"'s",
"to",
"describe",
"the",
"advertising",
"executives",
"of",
"Madison",
"Avenue",
"."
] | 6 | 7 | 1
(pos) |
[
"If",
"you",
"told",
"me",
"ten",
"years",
"ago",
"I",
"'d",
"be",
"drinking",
"with",
"you",
"and",
"the",
"rest",
"of",
"these",
"crooks",
"in",
"here",
",",
"I",
"'d",
"have",
"you",
"committed",
"."
] | 4 | 5 | 0
(neg) |
[
"If",
"you",
"had",
"even",
"answered",
"one",
",",
"just",
"one",
"!"
] | 8 | 9 | 1
(pos) |
[
"That",
"'ll",
"be",
"two",
"dollars",
"."
] | 3 | 4 | 0
(neg) |
[
"The",
"agony",
",",
"running",
"Faradiya",
"'s",
"slope",
",",
"and",
"carrying",
"two",
"children",
",",
"while",
"they",
"were",
"shooting",
"at",
"us",
"."
] | 10 | 11 | 0
(neg) |
[
"One",
"Englishman",
",",
"an",
"idiot",
"."
] | 0 | 1 | 0
(neg) |
[
"We",
"only",
"have",
"one",
"rodeo",
"a",
"year",
"."
] | 3 | 4 | 0
(neg) |
[
"``",
"So",
"you",
"would",
"n't",
"be",
"in",
"favor",
"of",
"our",
"plan",
"to",
"rename",
"our",
"magazine",
"to",
"Nintendo",
"Power",
"64",
"?",
"''"
] | 18 | 19 | 0
(neg) |
[
"Oh",
",",
"my",
"dear",
",",
"one",
"day",
"you",
"and",
"I",
"will",
"commit",
"a",
"great",
"folly",
"."
] | 5 | 6 | 0
(neg) |
[
"I",
"'ve",
"been",
"playing",
"for",
"two",
"years",
"."
] | 5 | 6 | 0
(neg) |
[
"You",
"know",
",",
"there",
"are",
"two",
"kinds",
"of",
"people",
"out",
"there",
"with",
"a",
"special",
"gift",
"-",
"the",
"ones",
"who",
"really",
"think",
"they",
"have",
"some",
"kind",
"of",
"power",
",",
"and",
"the",
"other",
"guys",
"who",
"think",
"we",
"ca",
"n't",
"figure",
"them",
"out",
"."
] | 5 | 6 | 0
(neg) |
[
"We",
"got",
"enough",
"trouble",
"with",
"just",
"one",
"of",
"'em",
"."
] | 6 | 7 | 1
(pos) |
[
"I",
"love",
"spending",
"public",
"money",
";",
"so",
"much",
"more",
"satisfying",
"than",
"spending",
"one",
"'s",
"own",
"."
] | 12 | 13 | 1
(pos) |
[
"Uh",
",",
"five",
"years",
"."
] | 2 | 3 | 0
(neg) |
[
"A",
"man",
"came",
";",
"gave",
"me",
"two",
"thousand",
"dollars",
"and",
"a",
"deposit",
"slip",
"made",
"out",
"to",
"your",
"account",
"."
] | 6 | 8 | 0
(neg) |
[
"I",
"will",
"be",
"suspended",
"20",
"feet",
"above",
"the",
"street",
"in",
"a",
"clear",
"Lucite",
"box",
"with",
"no",
"food",
"or",
"water",
"."
] | 4 | 5 | 0
(neg) |
End of preview (truncated to 100
rows)
Dataset Card for Numeric Fused Heads
Dataset Summary
[More Information Needed]
Supported Tasks and Leaderboards
- Numeric Fused Head Identification
- Numeric Fused Head Resolution
Languages
English
Dataset Structure
Data Instances
Identification
{
"tokens": ["It", "’s", "a", "curious", "thing", ",", "the", "death", "of", "a", "loved", "one", "."]
"start_index": 11
"end_index": 12
"label": 1
}
Resolution
{
"tokens": ["I", "'m", "eighty", "tomorrow", ".", "Are", "you", "sure", "?"],
"line_indices": [0, 0, 0, 0, 0, 1, 1, 1, 1],
"head": ["AGE"],
"speakers": ["John Doe", "John Doe", "John Doe", "John Doe", "John Doe", "Joe Bloggs", "Joe Bloggs", "Joe Bloggs", "Joe Bloggs"],
"anchors_indices": [2]
}
Data Fields
Identification
tokens
- List of token strings as tokenized with Spacy.start_index
- Start index of the anchor.end_index
- End index of the anchor.label
- "pos" or "neg" depending on whether this example contains a numeric fused head.
Resolution
tokens
- List of token strings as tokenized with Spacyline_indices
- List of indices indicating line number (one for each token)head
- Reference to the missing head. If the head exists elsewhere in the sentence this is given as a token index.speakers
- List of speaker names (one for each token)anchors_indices
- Index to indicate which token is the anchor (the visible number)
Data Splits
Train, Test, Dev
[More Information Needed]
Dataset Creation
Curation Rationale
[More Information Needed]
Source Data
Initial Data Collection and Normalization
[More Information Needed]
Who are the source language producers?
[More Information Needed]
Annotations
Annotation process
[More Information Needed]
Who are the annotators?
[More Information Needed]
Personal and Sensitive Information
[More Information Needed]
Considerations for Using the Data
Social Impact of Dataset
[More Information Needed]
Discussion of Biases
[More Information Needed]
Other Known Limitations
[More Information Needed]
Additional Information
Dataset Curators
[More Information Needed]
Licensing Information
MIT License
Citation Information
@article{doi:10.1162/tacl\_a\_00280,
author = {Elazar, Yanai and Goldberg, Yoav},
title = {Where’s My Head? Definition, Data Set, and Models for Numeric Fused-Head Identification and Resolution},
journal = {Transactions of the Association for Computational Linguistics},
volume = {7},
number = {},
pages = {519-535},
year = {2019},
doi = {10.1162/tacl\_a\_00280},
}
Contributions
Thanks to @ghomasHudson for adding this dataset.
- Downloads last month
- 280