Datasets:
Update README.md
Browse files
README.md
CHANGED
@@ -67,7 +67,7 @@ SNSにおける誹謗中傷検出のためのデータセットです.
|
|
67 |
| B1(1) | 生命を脅かす,精神的・身体的な危害を加える | 私生活の平穏 | • 殺害予告などの脅迫発言<br>• ◯◯なんていなくなればいいのにな
|
68 |
| B2(2) | 容姿,人格などをけなしている | 名誉感情| • 太っているくせにカッコいいと勘違いしている<br>• 田舎育ちだからファッション感覚がない
|
69 |
| B3(3) | 社会から客観的に受ける価値を低下させる | 名誉権| • ◯◯さんは過去に事件を起こして逮捕されたことがある<br>• ◯◯さんは会社の同僚と不倫をしている
|
70 |
-
| B4(4) | B1-
|
71 |
| C(0) | 文として成立しておらず意味が取れない |
|
72 |
|
73 |
## Data Fields
|
@@ -77,6 +77,7 @@ SNSにおける誹謗中傷検出のためのデータセットです.
|
|
77 |
- `user_id_list`: 匿名化された回答者のID
|
78 |
|
79 |
## Example Using Twitter API
|
|
|
80 |
```python
|
81 |
# sample code from https://github.com/twitterdev/Twitter-API-v2-sample-code/blob/main/Tweet-Lookup/get_tweets_with_bearer_token.py
|
82 |
import requests
|
@@ -90,7 +91,7 @@ bearer_token = os.environ.get("BEARER_TOKEN")
|
|
90 |
|
91 |
|
92 |
def create_url(ids: list):
|
93 |
-
tweet_fields = "tweet.fields=
|
94 |
ids = f"ids={','.join(ids)}"
|
95 |
url = "https://api.twitter.com/2/tweets?{}&{}".format(ids, tweet_fields)
|
96 |
return url
|
@@ -120,12 +121,18 @@ def connect_to_endpoint(url):
|
|
120 |
def get_text_data(examples):
|
121 |
url = create_url(examples["id"])
|
122 |
json_response = connect_to_endpoint(url)
|
123 |
-
|
124 |
-
|
|
|
|
|
|
|
|
|
|
|
125 |
|
126 |
|
127 |
dataset = load_dataset("kubota/defamation-japanese-twitter")
|
128 |
dataset = dataset.map(get_text_data, batched=True, batch_size=100)
|
|
|
129 |
|
130 |
```
|
131 |
|
|
|
67 |
| B1(1) | 生命を脅かす,精神的・身体的な危害を加える | 私生活の平穏 | • 殺害予告などの脅迫発言<br>• ◯◯なんていなくなればいいのにな
|
68 |
| B2(2) | 容姿,人格などをけなしている | 名誉感情| • 太っているくせにカッコいいと勘違いしている<br>• 田舎育ちだからファッション感覚がない
|
69 |
| B3(3) | 社会から客観的に受ける価値を低下させる | 名誉権| • ◯◯さんは過去に事件を起こして逮捕されたことがある<br>• ◯◯さんは会社の同僚と不倫をしている
|
70 |
+
| B4(4) | B1-B3のどれにも当てはまらず中傷性がない | |
|
71 |
| C(0) | 文として成立しておらず意味が取れない |
|
72 |
|
73 |
## Data Fields
|
|
|
77 |
- `user_id_list`: 匿名化された回答者のID
|
78 |
|
79 |
## Example Using Twitter API
|
80 |
+
[![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/kubotaissei/defamation_japanese_twitter/blob/master/notebooks/get_dataset_example.ipynb)
|
81 |
```python
|
82 |
# sample code from https://github.com/twitterdev/Twitter-API-v2-sample-code/blob/main/Tweet-Lookup/get_tweets_with_bearer_token.py
|
83 |
import requests
|
|
|
91 |
|
92 |
|
93 |
def create_url(ids: list):
|
94 |
+
tweet_fields = "tweet.fields=created_at"
|
95 |
ids = f"ids={','.join(ids)}"
|
96 |
url = "https://api.twitter.com/2/tweets?{}&{}".format(ids, tweet_fields)
|
97 |
return url
|
|
|
121 |
def get_text_data(examples):
|
122 |
url = create_url(examples["id"])
|
123 |
json_response = connect_to_endpoint(url)
|
124 |
+
# print(json_response["data"])
|
125 |
+
text_dict = {data["id"]: data["text"] for data in json_response["data"]}
|
126 |
+
time_dict = {data["id"]: data["created_at"] for data in json_response["data"]}
|
127 |
+
return {
|
128 |
+
"text": [text_dict.get(id) for id in examples["id"]],
|
129 |
+
"created_at": [time_dict.get(id) for id in examples["id"]],
|
130 |
+
}
|
131 |
|
132 |
|
133 |
dataset = load_dataset("kubota/defamation-japanese-twitter")
|
134 |
dataset = dataset.map(get_text_data, batched=True, batch_size=100)
|
135 |
+
dataset["train"].to_pandas().head()
|
136 |
|
137 |
```
|
138 |
|