Dataset Preview
Go to dataset viewer
intent_pair1 (string)intent_pair2 (string)label (class label)
"최근 한 달 동안 학교에서 메일이 온 적이 있는지 확인해줘"
"한달동안 학교에서 메일 온 적 있는지"
0 (yes/no)
"다리미 전원 켜져있는지 확인해줄 수 있니"
"다리미 전원 켜져있는지"
0 (yes/no)
"오늘 체감온도가 어느 정도이니"
"오늘 체감온도"
2 (wh- questions)
"오늘 하루 에어컨 컨센트를 꺼 줘"
"오늘 하루 에어컨 컨센트 끄기"
4 (requirements)
"오늘 남은 약속들 전부 취소해줘"
"오늘 남은 약속들 전부 취소하기"
4 (requirements)
"내일 무슨 수업 있는지 알려줘"
"내일 있는 수업"
2 (wh- questions)
"전송실패 된 메일이 있는지 찾아봤니"
"전송실패 메일 있는지"
0 (yes/no)
"오늘 오전에 눈이 언제오는지 알려줘"
"오늘 오전 눈 오는 시간"
2 (wh- questions)
"방학동안 컴퓨터 수업일정 모두 취소 했니 "
"방학 컴퓨터 수업일정 취소 여부"
0 (yes/no)
"다음주 플레이스테이션 신작 게임을 예약이 되어 있니"
"다음주 플레이스테이션 신작 게임 예약 여부"
0 (yes/no)
"나중에 방송국에서 보면 웃으면서 서로 잘 지냈냐 어떠냐 안부도 묻고 그렇게 지내자 "
"웃으면서 안부도 묻고 지내기"
4 (requirements)
"첨부파일 있는 메일 빼고 모두 삭제해줘"
"첨부파일 있는 메일 빼고 모두 삭제하기"
4 (requirements)
"이번주 금요일에 눈이 오는지 알려줘봐"
"이번주 금요일 눈 오는지"
0 (yes/no)
"한강에 유람선 타러 가자"
"한강에 유람선 타러 가기"
4 (requirements)
"내가 보낸 메일함에 있는 이메일 모두 지워줘"
"내가 보낸 메일함에 있는 이메일 모두 지우기"
4 (requirements)
"화장실 비데 켜 놔주겠니"
"화장실 비데 켜 놓기"
4 (requirements)
"무교동 주변의 낙지전문점은 어디지"
"무교동 주변 낙지전문점"
2 (wh- questions)
"어제 온 메일이 뭐였는지 알려줄래"
"어제 온 메일"
2 (wh- questions)
"오늘 온 메일 모두 확인하고 지워줘"
"오늘 온 메일 모두 확인하고 지워줄 수 있는지"
0 (yes/no)
"예약문의 메일 검색해"
"예약문의 메일 검색하기"
4 (requirements)
"읽은 편지함에 있는 메일들 다 지울 수 있니"
"읽은 편지함에 있는 메일 다 지우기"
4 (requirements)
"다음달 십일에서 십육일 여행일정 추가해줘"
"다음달 십일에서 십육일 여행일정 추가하기"
4 (requirements)
"내일 오후 다섯시 조별과제 일정 추가해줘"
"내일 오후 다섯시 조별과제 일정 추가하기"
4 (requirements)
"서울대 근처 많이 가는 맥주집은 어떻게 갈까"
"서울대 근처 많이 가는 맥주집 가는 방법"
2 (wh- questions)
"나 아침에 화장실 불을 안끈 것 같은데 확인좀"
"화장실 불 꺼져있는지"
0 (yes/no)
"사업에 따른 제반 여건을 조사해 봅시다"
"사업에 따른 제반 여건 조사하기"
4 (requirements)
"스팸 메일함 열어봐"
"스팸 메일함 열기"
4 (requirements)
"내일 오존주의보 발령있는지 알려줘"
"내일 오존주의보 발령 여부"
0 (yes/no)
"오전에 있는 일정 전부 취소해줄 수 있니"
"오전 일정 전부 취소하기"
4 (requirements)
"이번 주 토요일에 만나기로 한 사람이 누구지"
"이번 주 토요일 만나기로 한 사람"
2 (wh- questions)
"티브이 음소거 해줘"
"티브이 음소거하기"
4 (requirements)
"오늘 몇시에 친구와 점심약속이 잡혔니"
"오늘 친구와 점심약속 시간"
2 (wh- questions)
"강남구청 가려면 버스와 지하철 중 어느 쪽이 더 나은가요"
"강남구청 갈 때 버스 지하철 중 나은 것"
1 (alternative)
"메가박스에서 보낸 예매 확인 메일을 확인해줄 수 있니"
"메가박스에서 보낸 예매 확인 메일 확인하기"
4 (requirements)
"그 외에 다른 물품은 없나요"
"다른 물품 여부"
0 (yes/no)
"수업 끝나고 학교 뒷산으로 나와"
"수업 끝나고 학교 뒷산으로 나오기"
4 (requirements)
"의사 선생님 소견서 열어줘"
"의사 선생님 소견서 열기"
4 (requirements)
"난방 설정 온도 얼마정도 니"
"난방 설정 온도"
2 (wh- questions)
"삐면 한의원에 가서 침을 맞아 봐"
"삐면 한의원 가서 침 맞기"
4 (requirements)
"오늘 일정 좀 내일로 미뤄줄 수 있어"
"오늘 일정 내일로 미루기"
4 (requirements)
"백일이 며칠인지좀 알려줄래"
"백일 날짜"
2 (wh- questions)
"십일번가에서 온 메일 다 삭제해줘"
"십일번가에서 온 메일 다 삭제하기"
4 (requirements)
"내가 외출한 후 모든 전기를 꺼 줄래"
"외출 후 모든 전기 끄기"
4 (requirements)
"증권거래소의 위치는 어디입니까"
"증권거래소 위치"
2 (wh- questions)
"부부에게 갈등이 생기는 요인 원인이 무엇일까요"
"부부 갈등 요인"
2 (wh- questions)
"가장 오래 누군가를 기다려 본 적은 언제이며 그때 어떻게 행동했나요"
"가장 오래 누군가를 기다려 본 때와 행동"
2 (wh- questions)
"현관문 잠겨있니"
"현관문 잠겼는지"
0 (yes/no)
"내일 불쾌지수는 얼마니"
"내일 불쾌지수"
2 (wh- questions)
"정말 아프니"
"정말 아픈지"
0 (yes/no)
"임시보관함에 메일 몇 개 있어"
"임시보관함 메일 수"
2 (wh- questions)
"다음주 월요일 날씨 알려줘"
"다음주 월요일 날씨"
2 (wh- questions)
"내일 눈이 오는지 알려줘"
"내일 눈 오는지"
0 (yes/no)
"현재 인기 채널 틀어 줄수 있어"
"현재 인기 채널 틀기"
4 (requirements)
"작년 이맘때 강수량 아니"
"작년 이맘때 강수량"
2 (wh- questions)
"주식 배당금 탄 걸로 뭐할 거야"
"주식 배당금 사용 계획"
2 (wh- questions)
"오늘 바람 세기는 얼마나 되니"
"오늘 바람 세기"
2 (wh- questions)
"오늘 온 메일 중 회사에서 온 메일있니"
"오늘 온 메일 중 회사에서 온 메일 있는지"
0 (yes/no)
"왜 전화 안해"
"전화 안하는 이유"
2 (wh- questions)
"현관 씨씨티비 보여줘"
"현관 씨씨티비 보여주기"
4 (requirements)
"내일 최저기온이 몇도니"
"내일 최저기온"
2 (wh- questions)
"오늘 미세먼지농도는 어떤지 말해"
"오늘 미세먼지농도"
2 (wh- questions)
"아빠한테 답장해줄 수 있니"
"아빠한테 답장하기"
4 (requirements)
"꼬망스 미니세탁기 스피드워시 기능을 켜 줄래"
"꼬망스 미니세탁기 스피드워시 기능 켜기"
4 (requirements)
"지금부터 내일까지 오는 메일 중요보관함에 보관해줘"
"지금부터 내일까지 오는 메일 중요보관함에 보관하기"
4 (requirements)
"이번주 전체적인 일기예보가 어떻게 되니"
"이번주 일기예보"
2 (wh- questions)
"택시를 타는 것이 빠를까 지하철을 타는 것이 빠를까"
"택시와 지하철 중 빠른 것"
1 (alternative)
"쇼핑몰에서 온 메일이 있니"
"쇼핑몰 메일 여부"
0 (yes/no)
"지운편지함 삭제했는지 확인 부탁해도 되겠니"
"지운 편지함 삭제했는지"
0 (yes/no)
"지금도 충분히 예쁘니까 다이어트 너무 무리해서 하지마"
"다이어트 무리해서 하지 않기"
3 (prohibitions)
"너 적금통장 가지고 있어"
"적금통장 가지고 있는지"
0 (yes/no)
"비슷한 토픽끼리 묶어줘"
"비슷한 토픽끼리 묶기"
4 (requirements)
"이번주에 학교에서 온 메일 전부 읽은 것으로 처리해줄래"
"이번주 학교에서 온 메일 전부 읽은 것으로 처리하기"
4 (requirements)
"오늘 전송한 메일들 전부 휴지통으로 넣어줘"
"오늘 전송한 메일들 전부 휴지통으로 넣기"
4 (requirements)
"산책로 내에 자전거나 애완견을 데리고 들어올 수 없습니다"
"산책로 내에 자전거나 애완견 데리고 들어오지 않기"
3 (prohibitions)
"엄마 가방에 있던 돈 돌려줘야 할까 아님 그냥 넘어갈까 "
"엄마 가방 돈 돌려줄지 그냥 넘어갈지"
1 (alternative)
"작은방 에어컨 켜줘"
"작은방 에어컨 켜기"
4 (requirements)
"개강일이 언제니"
"개강일"
2 (wh- questions)
"모델 데뷔했다면서 언제 텔레비전에 나와 "
"청자가 텔레비전 나오는 시기"
2 (wh- questions)
"우리 딸이 호주여행에서 돌아올 날짜가 몇 일이니"
"우리 딸 호주여행에서 돌아올 날짜"
2 (wh- questions)
"내일 스터디 몇시에 참석하기로 했니"
"내일 스터디 참석 시각"
2 (wh- questions)
"다음주 스케쥴 다 취소해줄 수 있니"
"다음주 스케쥴 다 취소하기"
4 (requirements)
"추석 때는 조상님께 차례를 지내야 해"
"추석 때 조상님께 차례 지내기"
4 (requirements)
"프로농구 삼 점슛 일 위 관련 기사는"
"프로농구 삼 점슛 일 위 관련 기사"
2 (wh- questions)
"암기능력 향상하는 방법이 없을까"
"암기능력 향상 방법"
2 (wh- questions)
"그 곳 날씨는 어때 여기는 매우 안 좋아"
"그 곳 날씨"
2 (wh- questions)
"지난주에 등록한 일정이 뭐뭐였지"
"지난주 등록 일정"
2 (wh- questions)
"보낸 메일 중 되돌아 온 메일은 몇 통일까"
"보낸 메일 중 되돌아 온 메일 수"
0 (yes/no)
"지은 씨 편한 데서 만나요"
"편한 데서 만나기"
4 (requirements)
"오늘 오전 일정이 어떻게 되는지 알려줘"
"오늘 오전 일정"
2 (wh- questions)
"오늘 온 메일중 회사와 관련된 메일의 목록을 만들어줘"
"오늘 온 메일중 회사 관련 메일 목록 만들기"
4 (requirements)
"휴지통에 남은 메일이 있니"
"휴지통에 남은 메일 있는지"
0 (yes/no)
"증권 정보 사이트 어디가 좋은가요"
"좋은 증권 정보 사이트"
2 (wh- questions)
"노란 등을 켜줘"
"노란 등 켜기"
4 (requirements)
"다음 달 초에 안목에 요트타러 갈 일정을 입력해줄래"
"다음 달 초 안목에 요트타러 갈 일정 입력하기"
4 (requirements)
"지난번 교통사고 나신 후에 휴유증은 없으시고요 "
"지난번 교통사고 후유증 여부"
0 (yes/no)
"서울대 인근 당구장 어딘데"
"서울대 인근 당구장 위치"
2 (wh- questions)
"국제유가 상승과 원자재 가격 상승이 어떤 의미야"
"국제유가 상승 원자재 가격 상승 의미"
2 (wh- questions)
"한국행 비행기를 팔월 십오일로 저장해줘"
"한국행 비행기 팔월 십오일로 저장하기"
4 (requirements)
"이번달 결혼기념일 언제니"
"이번달 결혼기념일 날짜"
2 (wh- questions)
"카드 값 어떻게 막지"
"카드 값 막는 방법"
2 (wh- questions)
End of preview (truncated to 100 rows)

Dataset Card for Structured Argument Extraction for Korean

Dataset Summary

The Structured Argument Extraction for Korean dataset is a set of question-argument and command-argument pairs with their respective question type label and negativeness label. Often times, agents like Alexa or Siri, encounter conversations without a clear objective from the user. The goal of this dataset is to extract the intent argument of a given utterance pair without a clear directive. This may yield a more robust agent capable of parsing more non-canonical forms of speech.

Supported Tasks and Leaderboards

  • intent_classification: The dataset can be trained with a Transformer like BERT to classify the intent argument or a question/command pair in Korean, and it's performance can be measured by it's BERTScore.

Languages

The text in the dataset is in Korean and the associated is BCP-47 code is ko-KR.

Dataset Structure

Data Instances

An example data instance contains a question or command pair and its label:

{
  "intent_pair1": "내일 오후 다섯시 조별과제 일정 추가해줘"
  "intent_pair2": "내일 오후 다섯시 조별과제 일정 추가하기"
  "label": 4
}

Data Fields

  • intent_pair1: a question/command pair
  • intent_pair2: a corresponding question/command pair
  • label: determines the intent argument of the pair and can be one of yes/no (0), alternative (1), wh- questions (2), prohibitions (3), requirements (4) and strong requirements (5)

Data Splits

The corpus contains 30,837 examples.

Dataset Creation

Curation Rationale

The Structured Argument Extraction for Korean dataset was curated to help train models extract intent arguments from utterances without a clear objective or when the user uses non-canonical forms of speech. This is especially helpful in Korean because in English, the Who, what, where, when and why usually comes in the beginning, but this isn't necessarily the case in the Korean language. So for low-resource languages, this lack of data can be a bottleneck for comprehension performance.

Source Data

Initial Data Collection and Normalization

The corpus was taken from the one constructed by Cho et al., a Korean single utterance corpus for identifying directives/non-directives that contains a wide variety of non-canonical directives.

Who are the source language producers?

Korean speakers are the source language producers.

Annotations

Annotation process

Utterances were categorized as question or command arguments and then further classified according to their intent argument.

Who are the annotators?

The annotation was done by three Korean natives with a background in computational linguistics.

Personal and Sensitive Information

[More Information Needed]

Considerations for Using the Data

Social Impact of Dataset

[More Information Needed]

Discussion of Biases

[More Information Needed]

Other Known Limitations

[More Information Needed]

Additional Information

Dataset Curators

The dataset is curated by Won Ik Cho, Young Ki Moon, Sangwhan Moon, Seok Min Kim and Nam Soo Kim.

Licensing Information

The dataset is licensed under the CC BY-SA-4.0.

Citation Information

@article{cho2019machines,
  title={Machines Getting with the Program: Understanding Intent Arguments of Non-Canonical Directives},
  author={Cho, Won Ik and Moon, Young Ki and Moon, Sangwhan and Kim, Seok Min and Kim, Nam Soo},
  journal={arXiv preprint arXiv:1912.00342},
  year={2019}
}

Contributions

Thanks to @stevhliu for adding this dataset.

Edit dataset card
Evaluate models HF Leaderboard