kaisugi commited on
Commit
210c6db
1 Parent(s): 189900f
Files changed (7) hide show
  1. README.md +1 -1
  2. anlp2023.csv +580 -0
  3. anlp_title_embeddings.npz +3 -0
  4. app.py +79 -0
  5. poetry.lock +1006 -0
  6. pyproject.toml +21 -0
  7. requirements.txt +6 -0
README.md CHANGED
@@ -1,6 +1,6 @@
1
  ---
2
  title: NLP2023 Title Search
3
- emoji: 👀
4
  colorFrom: indigo
5
  colorTo: blue
6
  sdk: streamlit
 
1
  ---
2
  title: NLP2023 Title Search
3
+ emoji: 🗻
4
  colorFrom: indigo
5
  colorTo: blue
6
  sdk: streamlit
anlp2023.csv ADDED
@@ -0,0 +1,580 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ pid,title
2
+ A1-1,ニューラル機械翻訳におけるIterative Back-Translationを利用したコンパラブルコーパスの活用
3
+ A1-2,Understanding Why Polysemous Words Translate Poorly from a Calibration Analysis Perspective
4
+ A1-3,日英翻訳を対象としたイディオム表現の評価指標の提案
5
+ A1-4,双方向翻訳モデルの相互学習による対訳語彙の教師なし獲得過程の調査
6
+ A1-5,ニューラル分類器の予測の解釈に基づく翻訳が難しい表現の検出
7
+ C1-1,木構造自己注意機構による教師あり統語構造解析
8
+ C1-2,Recurrent Neural Network CCG構文解析器の実装
9
+ C1-3,BERTの教師なし分野適応による数学問題テキスト構文解析の精度向上要因の分析
10
+ C1-4,実世界の文書に対する構文解析器の疑似評価
11
+ C1-5,平仮名BERTを用いた平仮名文の分割
12
+ H1-1,日本語日常対話コーパスの構築
13
+ H1-2,知識グラフと Wikipedia を用いた雑談対話モデルの構築
14
+ H1-3,情報源のアノテーションによる外部知識に基づいた応答の魅力度の分析
15
+ H1-4,対話に基づく常識知識グラフの構築と対話応答生成に対する適用
16
+ H1-5,感想付きニュース雑談対話コーパスの構築
17
+ Q1-1,文法項目を指定した第二言語学習用応答生成
18
+ Q1-2,和文英訳問題自動添削システムにおける意味内容の添削
19
+ Q1-3,エッセイ自動採点における文法特徴と学習者レベルの関係
20
+ Q1-4,問題タイプを考慮した英単語穴埋め問題の不正解選択肢の自動生成
21
+ Q1-5,多次元項目反応理論と深層学習に基づく複数観点同時自動採点手法の精度改善
22
+ Q1-6,Cono: A Word Emotion Lexicon Built On Movie Scripts
23
+ Q1-7,Explain to Me What Is Wrong With My Arguments: A Survey about Explanations in Argumentation
24
+ Q1-8,外国語検定の面接試験において生成する質問の難易度選定
25
+ Q1-9,訂正文の流暢性向上を目的とした系列タグ付け文法誤り訂正器の強化学習手法
26
+ Q1-10,対訳コーパスへの擬似文法誤りの挿入による翻訳誤り訂正データの構築
27
+ Q1-11,多重対応分析とアスペクトベース感情分析を組み合わせた受講者満足度調査データの分析手法の開発
28
+ Q1-12,あいまい文献検索と文章クラスタリングによる学術研究データベース検索機能の提案
29
+ Q1-13💻,テキストをグラフで置換する可能性と教育現場での実証
30
+ B2-1,系列ラベリングタスクのための単純なデータ水増し
31
+ B2-2,BERTを用いたData Augmentation手法の改善とJGLUEによる評価
32
+ B2-3,トラブル報告書に特有のフィールド情報を用いたBERTの追加学習
33
+ B2-4,トピックエントロピーに基づく学習データ選択による事前学習言語モデルの訓練安定性向上
34
+ B2-5,人間と言語モデルに対するプロンプトを用いたゼロからのイベント常識知識グラフ構築
35
+ D2-1,JCommonsenseMorality: 常識道徳の理解度評価用日本語データセット
36
+ D2-2,権利侵害と不快さの間:日本語人権侵害表現データセット
37
+ D2-3,程度を考慮したフォーマリティ変換のためのデータセットの収集と分析
38
+ D2-4,逆接の推論関係に着目した日本語談話関係アノテーション
39
+ D2-5,Automatic Classification of Japanese Formality
40
+ P2-1,単語の階層関係に基づくデータ拡張を利用した画像キャプション生成の検討
41
+ P2-2,画像キャプション生成におけるJPEG圧縮への頑健性の改善
42
+ P2-3,マルチモーダルOCR特徴を用いたDynamic Pointer Networkによるテキスト付き画像説明文生成
43
+ P2-4,ゲート付き相互注意を用いたエンコーダ・デコーダによる感情に基づく絵画説明文生成
44
+ P2-5,画像キャプション生成及び物体認識を用いた駄洒落文ランキング手法の評価
45
+ P2-6,クロスモーダル類似度に基づくカリキュラム学習による画像キャプション生成
46
+ P2-7,事前学習モデルを活用したEnd-to-end型動画キーフレーム物語生成法
47
+ P2-8,大規模言語モデルからの知識抽出に基づく画像からのスクリプト予測の検討
48
+ P2-9,Knowledge-Augmented Figure Caption Generation
49
+ P2-10,動画キャプションモデルを用いた字幕翻訳の検討
50
+ P2-11,マルチモーダル機械翻訳における画像・入力文間類似度と翻訳品質の相関の分析
51
+ P2-12,視覚翻訳言語モデルを用いた英日マルチモーダル機械翻訳
52
+ P2-13,潜在拡散モデルによる変換画像を用いるマルチモーダルニューラル機械翻訳
53
+ P2-14,視覚と言語の融合モデルにおける知識の振る舞いを調査するための表と画像の生成タスクの提案及びその調査結果
54
+ A3-1,近傍事例を用いた対話における感情認識
55
+ A3-2,補助文自動生成を用いたBERTによる日本語アスペクトベース感情分析におけるアスペクトカテゴリ検出の��度向上
56
+ A3-3,機械学習を用いた川柳の面白さの予測
57
+ A3-4,不適切投稿自動検出システムの構築と放送禁止用語による検証
58
+ A3-5,検索モチベーションクラスタリングにおける価値のあるクラスタとその応用としての適用条件および検索モチベーション分析システム
59
+ C3-1,埋め込み表現の意味適応による知識ベース語義曖昧性解消
60
+ C3-2,文書の分散表現を用いたトピック分析手法の提案
61
+ C3-3,自己注意機構における注意の集中が相対位置に依存する仕組み
62
+ C3-4,BERTを用いた文埋め込みモデルの単語の暗黙的な重み付け
63
+ C3-5,Transformer言語モデルの予測ヘッド内バイアスによる頻度補正効果
64
+ H3-1,修辞構造と語彙難易度を制御可能なテキスト生成手法に向けて
65
+ H3-2,テキスト生成におけるキーワード位置の制御
66
+ H3-3,周期表タスクにおける言語モデルの創発的能力と言語モデルが持つ記憶について
67
+ H3-4,Controlling Text Generation with Fiction-Writing Modes
68
+ H3-5,Decoding Sentence Representation for Text Generation
69
+ Q3-1,事前学習済みTransformerモデルのための注意教師付きFew-shotデータの蒸留
70
+ Q3-2,敵対的学習を用いた知識蒸留への中間層蒸留と対照学習の導入
71
+ Q3-3,入力の分割単位について頑健な言語モデルの構築
72
+ Q3-4,Learning Representations of Natural Language Edits via Levenshtein Prediction
73
+ Q3-5,ByT5のAttentionを用いたトークン結合
74
+ Q3-6,SentencePieceの重複語入れ替えによる日本語T5への言語モデル追加
75
+ Q3-7,Large Pre-trained Language Models with Multilingual Prompt for Japanese Natural Language Tasks
76
+ Q3-8,ヒト脳における時間認識時の脳内状態の推定
77
+ Q3-9,一般性を考慮した言語処理モデルのShortcut Reasoningの自動検出
78
+ Q3-10,対訳データを使わないマルチリンガル表現学習に必要な分布構造とは何か
79
+ Q3-11,マルチラベル分類のための重みつき非対称損失関数
80
+ Q3-12,スケール不変な木構造棒折り過程に基づく無限階層トピックモデル
81
+ Q3-13,日本語の分類タスクにおけるカリキュラム学習とマルチタスク学習の効果検証
82
+ B4-1,文頭・文末予測の組み合わせによる文特定
83
+ B4-2,深層学習を用いた階層的テキストセグメンテーションモデル
84
+ B4-3,Sequence-to-sequenceモデルを用いた一対多関係知識の記憶とその取り出し
85
+ B4-4,異なる単語分割システムによる日本語事前学習言語モデルの性能評価
86
+ B4-5,Decoding single-trial EEGs during silent Japanese words by the Transformation-like model
87
+ D4-1,日本語有害表現スキーマの提案と評価
88
+ D4-2,地方議会における議案への賛否に関する発言の分析 ―NTCIR-17 QA Lab-PoliInfo4 Stance Classification-2タスクに向けて―
89
+ D4-3,チャットボットとの雑談対話に対する印象評価と評価者の性格特性・コミュニケーションスキルとの関連
90
+ D4-4,回答者の生年に基づく語の意味変化の検出
91
+ D4-5,極小主義に動機づけられた統語的教示に基づく言語モデル
92
+ P4-1,共通の係り先文節を持つ文節組を利用して言い直し表現を検出・修正するシステム
93
+ P4-2,低資源な法ドメイン含意タスクにおけるデータ拡張
94
+ P4-3,動的時間伸縮法を用いた複数翻訳文書からの対応関係の自動抽出
95
+ P4-4,名詞役割入れ替えに頑健な日本語含意関係認識
96
+ P4-5,単語の難易度埋め込みを用いた日本語のテキスト平易化
97
+ P4-6,擬似データを用いた教師あり学習による語彙平易化
98
+ P4-7,単語単位で評価が可能な機械翻訳向け自動評価
99
+ P4-8,深層距離学習を用いた日本語動詞の意味フレーム推定
100
+ P4-9,否定スコープ認識における構文構造利用の再検証
101
+ P4-10,日本語歴史コーパスのAll-words WSD
102
+ P4-11,WordNet Lexicographerカテゴリ推定による語義サイズ縮約を用いた語義曖昧性解消
103
+ P4-12💻,折り返し翻訳を利用した言い換え生成
104
+ A5-1,抑揚による疑問表現を考慮した音声対話システムの提案
105
+ A5-2,異言語話者の対話を仲介する音声対話翻訳
106
+ A5-3,ReazonSpeech: A Free and Massive Corpus for Japanese ASR
107
+ A5-4,ニューラル記号推論における推論過程の教示方法
108
+ A5-5,XAIにおける忠実性評価手法の考察
109
+ C5-1,リフレーミングに基づいた言い換え生成のための単言語パラレルコーパスの構築とその分析
110
+ C5-2,テキスト平易化事例を説明する最小編集操作列の自動生成
111
+ C5-3,柔らかいジャンプ付き編集距離に向けて
112
+ C5-4,疑似データを用いたGPT-2による日本語文章の多段階平易化
113
+ C5-5,事実検証モデルのためのラウンドトリップ翻訳を利用した疑似フェイクデータ生成
114
+ H5-1,忠実性向上のためにn-gramの抽出性を報酬とする強化学��を用いる抽象型要約
115
+ H5-2,クエリ指向要約におけるクエリと要約の統合的な生成
116
+ H5-3,対話形式の対話要約の提案とその特徴の明確化
117
+ H5-4,InstructSum: 自然言語の指示による要約の生成制御
118
+ H5-5,物語の時系列要約法
119
+ B6-1,ラベル内容のエンコードとラベル間の制約に基づく補助コーパスを用いた固有表現抽出
120
+ B6-2,森羅タスクと森羅公開データ
121
+ B6-3,症例テキスト間の論理推論における病名知識補完の試み
122
+ B6-4,事前学習済み言語モデルによるエンティティの概念化
123
+ B6-5,理論言語学の知見を応用した多言語クラスタリング
124
+ D6-1,Test-time Augmentation for Factual Probing
125
+ D6-2,共想法による話し言葉・書き言葉における修辞機能の特徴—テーマとの関係に着目して—
126
+ D6-3,"A Statistical Analysis of English in Contemporary J-pop: Time Series of Lyrics and Identity, 2012-2021"
127
+ D6-4,新型コロナウイルスに関する新聞報道の時系列変化の日中米比較
128
+ D6-5,ニューラル分類器の予測の解釈に基づく集団に特徴的なテキスト表現の抽出:アメリカ人を例に
129
+ P6-1,GCP同時通訳コーパスの構築
130
+ P6-2,Average Token Delay: 同時翻訳の遅延評価尺度
131
+ P6-3,TED英語講演の音声認識・音声翻訳・音声要約の検討
132
+ P6-4,非流暢性タグを用いた目的言語テキストによる自由発話の音声翻訳
133
+ P6-5,音声機械翻訳の時間効率と精度を改善するための連続音声分割
134
+ P6-6,文脈情報を考慮した高速な英日文アラインメント
135
+ P6-7,音声の離散特徴量を活用したEnd-to-End音声翻訳における音声系列長の削減
136
+ P6-8,Filtering of a Web-Crawled Corpus to Achieve a Strong MT Model: a Case Study on the Japanese-Bulgarian Language Pair
137
+ P6-9,事前学習モデルによる分割統治ニューラル機械翻訳
138
+ P6-10,ニューラル機械翻訳における単語分割器のドメイン適応
139
+ P6-11,質問応答を用いた翻訳評価における GPT-3 の利用
140
+ P6-12,バイリンガルサブワード分割のためのEMアルゴリズム
141
+ P6-13,多言語事前学習モデルのためのSentencePieceトークナイザーへのサブワード追加
142
+ A7-1,テキスト・画像による情報消化効率のメディア別構成因子抽出
143
+ A7-2,参照例を使わないキャッチコピーの自動評価
144
+ A7-3,下流タスクでの日本語事前学習モデルの性別バイアスの評価
145
+ A7-4,学習者作文評価システム「jWriter」による習熟度と論理性の自動評価
146
+ C7-1,"Development, Evaluation, and Further Research of Voice-enabled Chatbot for English as a Foreign Language"
147
+ C7-2,BERT による系列ラベリングを用いた文法誤り検出
148
+ C7-3,テキストマイニングで知る語学教師の発話嗜癖
149
+ C7-4,日本語BERTモデルによる近代文の誤り訂正
150
+ C7-5,Towards Creating Analytic Dimensions for Evaluating the Quality of Debate Counter-Arguments
151
+ H7-1,対話行為の分布を利用した雑談対話システムの評価指標
152
+ H7-2,フォローアップ発話を用いた日本語対話の自動評価
153
+ H7-3,基盤モデルを用いたフェイスアクト分類
154
+ H7-4,A Frustratingly Simple Conditional Likelihood-based Method for Dialogue Orientation Estimation
155
+ H7-5,ゼロ照応解析に基づく項省略補完を取り入れた対話応答生成
156
+ Q7-1,テキストマイニングによる PubMed・PubMed Central からの遺伝子ネットワークの抽出
157
+ Q7-2,ソーシャルメディアを用いた一般用医薬品のファーマコビジランス
158
+ Q7-3,災害ツイートを対象とした場所参照表現の抽出における過去事例の利用とその災害種が及ぼす影響調査
159
+ Q7-4,クラウドソーシングと自然言語処理による安価なUX評価の実現
160
+ Q7-5,BERTを用いた孤独体験テキストからの孤独感推定
161
+ Q7-6,新たな価値観ラベルの発見に対する支援方法の検討
162
+ Q7-7,不完全情報ゲームCodenamesにおけるプレイヤー間の親密度とゲームへの習熟度がゲームパフォーマンスに与える影響の分析
163
+ Q7-8,医療文書における数値表現のトークン化によるICDコード予測と医療タスクへの応用検証
164
+ Q7-9,地方自治体の子育て支援事業比較表作成ツールの開発
165
+ Q7-10,妊娠・出産・育児に関する情報サイトにおける母親の検索行動の予備的分析
166
+ Q7-11,ユーザ意図を考慮したEコマースにおける商品検索クエリの調査と分析
167
+ Q7-12,Eコマースにおける商品用途表現の抽出とグルーピング
168
+ B8-1,指示文からの画像生成における配置指定能力の調査
169
+ B8-2,画像キャプションを介した脳活動からの視覚体験再構成
170
+ B8-3,JaSPICE: 日本語における述語項構造に基づく画像キャプション生成モデルの自動評価尺度
171
+ B8-4,画像キャプションを利用したIconQAタスクへのアプローチ
172
+ B8-5,複数動画に対する抽象��キャプション生成のための基本モデルの検討
173
+ D8-1,データ拡張手法を用いたスペイン語文法誤り訂正
174
+ D8-2,組合せ範疇文法を用いたドイツ語文の漸進的解析
175
+ D8-3,組合せ範疇文法によるドイツ語文の原因・結果関係の意味表示
176
+ D8-4,RNNはラテン語からロマンス語への活用変化を再現するか?
177
+ D8-5,ルールベースG2Pによる多言語固有表現の国際音声記号表記付きデータセットの構築
178
+ P8-1,経験に基づく知識の想起・深化を行う対話システムの開発に向けたコーパスの構築
179
+ P8-2,雑談対話における会話継続予測に基づくユーザ適応的応答評価
180
+ P8-3,エントレインメントスコアを用いた応答リランキングとその自動評価
181
+ P8-4,生成・分類言語モデルに基づく対話システムの構築
182
+ P8-5,対話システムは疑問符なしで適切な応答生成できる? −音声対話を目的とした,疑問文に対する応答生成の調査−
183
+ P8-6,積極的・消極的な性格を持つ自由対話システムの構築に向けて
184
+ P8-7,共通基盤の構築における名付けの有用性の分析
185
+ P8-8,Transformer対話モデルによる未来の展開の予測と感情の誘導の検証
186
+ P8-9,BCCWJを対象としたパターンマッチによるEnd-to-End発話者分類
187
+ P8-10,音声対話システムの対話破綻に対するユーザの反応と個人特性との関連
188
+ P8-11,知識グラフに基づく応答文生成における記号化されたエンティティの利用
189
+ P8-12,発話とレビューに対する解釈文生成とトピック分類
190
+ A9-1,マルチヘッドニューラル N-gram による自己注意機構の代替
191
+ A9-2,訓練データ中の頻度バイアスを解消する前処理の提案
192
+ A9-3,自然言語生成タスクの自動評価指標のためのドメイン外検出
193
+ A9-4,サプライザルを利用した日本語の流暢性フィルタリングの試み
194
+ A9-5,異言語間対話を支援する日英雑談対話誤訳検出
195
+ C9-1,DRS意味解析における出現位置を利用した語彙数削減
196
+ C9-2,二つの動作を含む重文型命令文を受理するためのサービス指向発話文解析の拡張
197
+ C9-3,Neural DTSに対する型検査アルゴリズムの実装の試み
198
+ C9-4,子育て支援QAサイトにおける潜在嗜好変化の時系列推定
199
+ C9-5,複数の手がかりを利用した小説発話の話者推定
200
+ H9-1,大規模言語モデルにおける文生成方向に関する依存性の検証
201
+ H9-2,画像キャプショニングのための制約語の抽出法
202
+ H9-3,因果的プロンプトによる NLI の敵対的ロバスト性の強化
203
+ H9-4,日本語に特化した60億パラメータ規模のGPTモデルの構築と評価
204
+ H9-5,日本語の大規模な基盤モデルに対するLoRAチューニング
205
+ Q9-1,ホッピングマスクを利用したStable Diffusion Model による連続画像生成
206
+ Q9-2,個々の役割を指示可能な入力言語に応じた 2 人のインタラクションの動作生成の検討
207
+ Q9-3,On the Bias of CLIP for Object-Attribute Recognition
208
+ Q9-4,エッジプロービングを用いた事前学習済みの視覚と言語に基づくモデルにおける言語知識の分析
209
+ Q9-5,VideoCLIPを用いた実験動画からのプロトコル生成
210
+ Q9-6,会議発話間の関係性推定におけるマルチモーダル情報活用方法の初期検討
211
+ Q9-7,音声言語処理のための注意機構を用いた音声認識システム統合
212
+ Q9-8,電話音声認識における特定の文脈へのドメイン適応のための合成音声によるデータ拡張
213
+ Q9-9,Next Sentence Predictionに基づく文脈を考慮したASR N-bestのリランキング
214
+ Q9-10,確率生成モデルに基づく連続音声からの教師なし音素・単語・文法獲得
215
+ Q9-11,モバイルマニピュレーションタスクにおける曖昧な指示文からの対象物体選択
216
+ Q9-12,Masked Image Modelingを利用した情景画像中のテキスト認識
217
+ Q9-13,コードネームピクチャ―ズにおけるヒント決定アルゴリズムの提案と実装
218
+ B10-1,What Food Do We Tweet about on a Rainy Day?
219
+ B10-2,単語音素のベクトル化による言語地図作成
220
+ B10-3,建物分布の変化を考慮したGPT-2を用いた人流予測のための一検討
221
+ B10-4,Towards Unsupervised Remote Sensing Image Captioning and Retrieval with Pre-Trained Language Models
222
+ B10-5,ツイート発言の座標またはグリッドの予測基盤の開発
223
+ D10-1,議会会議録と予算表を紐づけるMinutes-to-Budget Linkingタスクの提案
224
+ D10-2,金融文書の抽象型要約による投資家向け支援システムの提案
225
+ D10-3,株式市場の出来事の長期的視野での理解を支援するニュース記事抽出によるストーリー可視化
226
+ D10-4,中央銀行の要人発言に対するタカ・ハト極性付与タスクの検討
227
+ D10-5,監査上の主要な検討事項 (KAM) の前例踏襲の程度に関する業種別及び監査法人別の傾向分析
228
+ P10-1,多言語事前学習モデルを前提とした非英語間ピボット翻訳の特徴調査
229
+ P10-2,TED講演の英日翻訳と日英翻訳の検討
230
+ P10-3,Decoderのみを用いた機械翻訳モデルの分析
231
+ P10-4,複数の参照訳を考慮したニューラル機械翻訳モデルの学習手法
232
+ P10-5,漸進的アプローチでの編集量を制御するニューラル機械翻訳
233
+ P10-6,ニューラル機械翻訳のためのノイズ寛容なアンカー学習
234
+ P10-7,言い換えによる機械翻訳のドメイン不適合の緩和
235
+ P10-8,T5を用いた古文から現代文への翻訳
236
+ P10-9,事前学習モデルと固有名詞の事後置き換えを用いた日本語から手話への機械翻訳
237
+ P10-10💻,JParaCrawlを用いた単文翻訳におけるドメイン適応
238
+ P10-11💻,翻訳における文パターンの利用
239
+ P10-12💻,NMTによる複文翻訳における単文対訳学習文の利用
240
+ A11-1,複数文書の読解を要する質問の自動生成と質問応答システムへの応用
241
+ A11-2,T5を用いた日本語の複雑な質問文に対する質問分解
242
+ A11-3,専門性の高いオープンブック質疑応答システムの構築と専門家添削による誤答抑制
243
+ A11-4,SlideVQA: 複数の文書画像に対する質問応答
244
+ A11-5,対話型質問応答における質問書き換えのためのターン強調
245
+ C11-1,論文執筆支援を目的とした引用要否判定タスクのドメイン間比較
246
+ C11-2,引用文脈の類似度に基づく局所的引用論文推薦
247
+ C11-3,文書外の書誌情報と用語情報を組み込んだ文書分類
248
+ C11-4,サーベイ論文自動生成に向けた大規模ベンチマークデータセットの構築
249
+ C11-5,Construction of English Resume Corpus and Test with Pre-trained Language Models
250
+ H11-1,ホライゾン・スキャニングの自動化のための言語処理応用
251
+ H11-2,所望の患者データを作る:Variational Auto-Encoderによる症例報告生成
252
+ H11-3,食感の物性と言語表現の対応の推定
253
+ H11-4,広告文生成タスクの規定とベンチマーク構築
254
+ H11-5,大規模言語モデルによる脚本データの解析: プロダクト・プレイスメント挿入箇所の探索と評価
255
+ Q11-1,単語埋め込みのバイアス評価におけるRNSBとWinoBiasとの相関関係の分析
256
+ Q11-2,Efficiently Learning Multilingual Sentence Representation for Cross-lingual Sentence Classification
257
+ Q11-3,白色化が単語埋め込みに及ぼす効果の検証
258
+ Q11-4,学術ドメインに特化した日本語事前訓練モデルの構築
259
+ Q11-5,トリプレットの Better Negative Sampling による Text Embedding の学習とテキスト分類
260
+ Q11-6,単語ベクトルの平行四辺形を特徴づける図形距離
261
+ Q11-7,Transformerによる中国古典詩歌の解釈生成ネットワークの構築
262
+ Q11-8,BERT-CRF を用いた日本語機能表現意味ラベル付与
263
+ Q11-9,オープンドメインの手順書のフローグラフ予測とデータセットの構築
264
+ Q11-10,並列構造を含む日本語文の構文解析と単文分解
265
+ Q11-11,分散表現を用いたブランド名の語義曖昧性解消と小規模学習データへの応用
266
+ Q11-12,特定のドメインに特化した日本語同義語獲得の検討
267
+ B12-1,地球の歩き方旅行記データセット
268
+ B12-2,旅行記中の場所に対する訪問状態の予測
269
+ B12-3,震災アーカイブと震災アーカイブwebに関する概念モデルの作成
270
+ D12-1,比較文の意味解析のための「深い」係り受け関係の解析
271
+ D12-2,日本語CCGBankは言語学的に妥当か
272
+ D12-3,チョムスキー階層とニューラル言語モデル
273
+ D12-4,証明支援系Coqを用いた依存型意味論の照応解析と推論の実装の試み
274
+ D12-5,CCGによる日本語文処理のモデリング
275
+ P12-1,情報付加型生成による表現の推敲支援システム
276
+ P12-2,指定要約長に応じたソフトな内容選択による要約長操作可能なEnd-to-End要約
277
+ P12-3,言語モデルを用いた漢文の返り点付与と書き下し文生成
278
+ P12-4,球体表面を利用した位置符号化
279
+ P12-5,語彙制約を間接的に用いた平易な要約の生成
280
+ P12-6,事前学習済みモデルT5における近傍分布の有効性の調査
281
+ P12-7,ユーザーの操作性を考慮した論文要約スライドの半自動生成
282
+ P12-8,BiomedCurator:医学・生物学文献からの構造化データ 抽出のためのデータキュレーションシステムの開発
283
+ P12-9,校歌のための歌詞作成支援システムの開発
284
+ P12-10,トポロジカルソートとBERTを用いた日本語文の語順整序
285
+ P12-11,部分木の類似性に基づく言語生成技術の自動評価
286
+ P12-12,異なる難易度の参照文を用いる多段階難易度制御翻訳
287
+ P12-13,Generate it. A Trivial Method for End-to-End Relation Extraction
288
+ B1-1,計算資源が限られた複数組織での出力選択による協働の検討
289
+ B1-2,形式論理学に基づく演繹コーパスによる言語モデルに対する演繹推論能力の付与
290
+ B1-3,ExDistilBERT:辞書拡張できるモデル蒸留によるドメインに特化した言語モデル
291
+ B1-4,分散文章データ統合解析のためのデータコラボレーション文章解析
292
+ B1-5,破滅的忘却を防ぐ最適化関数を用いた構文情報の事前学習
293
+ D1-1,常識推論を支援するための辞書(あるいはオントロジー)の構築方法
294
+ D1-2,対訳文を用いた同義語・類義語・対義語の抽出
295
+ D1-3,日本語話者の項省略判断に関するアノテーションとモデリング
296
+ D1-4,汎用言語モデルは日本語の助数辞を理解しているか
297
+ D1-5,A resource of sentence analogies on the level form extracted from corpora in various languages
298
+ P1-1,文分類問題における精度と解釈性向上のための近傍事例の活用
299
+ P1-2,RoBERTaを用いた経済不確実性のテキスト分類
300
+ P1-3,ラベル依存の注視機構を用いた医薬系文献に対する統制索引語付与
301
+ P1-4,文書間の類似度近似と数理最適化を用いた検索結果多様化
302
+ P1-5,中間タスクの挿入による学術論文における URL 引用の分類
303
+ P1-6,Character-level Data Augmentation on Code Mixed Sentences for Low-Resource Settings
304
+ P1-7,BERTを用いた多言語同時学習による疾患分類
305
+ P1-8,介護事例データベースを用いた介護支援提示モデルの構築
306
+ P1-9,事前学習済みモデルに基づく検索モデルにおけるドメイン適応手法の比較と相乗効果の検証
307
+ P1-10,Doc2VecとBERTを用いた比較法研究における類似条項の対応付け
308
+ P1-11,Fusion-in-Decoder を用いた論文分類手法の検討
309
+ P1-12💻,大規模言語モデルを用いた情報検索のための coarse-tuning 手法の提案
310
+ A2-1,摂動を加えたkNN機械翻訳による多様な翻訳候補の生成
311
+ A2-2,文単位のNbest候補制約に基づく文書翻訳
312
+ A2-3,近傍文検索を用いたサブセットkNNニューラル機械翻訳
313
+ A2-4,ユーザ定義の翻訳ルールにより語彙と構文が制御可能なニューラル機械翻訳
314
+ A2-5,中間言語を介した2つの対訳コーパスを用いた対訳文のない言語対のNMTの検討
315
+ C2-1,CRFに基づく形態素解析器のスコア計算の分割によるモデルサイズと解析速度の調整
316
+ C2-2,事前学習モデルに基づく日本語形態素解析器における辞書の利用
317
+ C2-3,テキスト生成モデルによる日本語形態素解析
318
+ C2-4,最小コスト法に基づく形態素解析におけるCPUキャッシュの効率化
319
+ C2-5,最長一致パターンに基づく高速・高精度な日本語形態素解析
320
+ H2-1,Follow-up質問による矛盾応答収集の提案
321
+ H2-2,ペルソナ更新型対話システムにおける効果的なペルソナ選択手法の分析
322
+ H2-3,対話システムにおけるペルソナの自動生成による更新
323
+ H2-4,インタビュー対話における問い返し文の生成に関する検討
324
+ H2-5,人間同士の雑談における話題遷移モデリング
325
+ Q2-1,手がかり表現に基づく非論理的な言語推論の学習
326
+ Q2-2,事前学習済み言語モデルからの訓練データ抽出:新聞記事の特性を用いた評価セットの構築と分析
327
+ Q2-3,レシピに含まれる不使用な材料等に関する記述の抽出
328
+ Q2-4,新規用途探索を目的とした技術文書からの材料情報抽出
329
+ Q2-5,舶用ディーゼル機関に関する問い合わせ対応用チャットボットのための類義語辞書の自動生成
330
+ Q2-6,BERTを利用したチャットボットのQ&Aデータ自動作成
331
+ Q2-7,日本語情報抽出タスクのためのLayoutLMモデルの評価
332
+ Q2-8,日本語T5を用いたEntity辞書のメンション候補自動獲得手法の提案と評価
333
+ Q2-9,投稿レシピの材料表における文字の隣接強度をもとにした助数詞および計量器の抽出
334
+ Q2-10,テキスト情報の表現を利用した文献グラフの表現学習
335
+ Q2-11,Entity Position Matters - Towards Improving a Generative End-to-End Relation Extraction Model
336
+ Q2-12,Improving Evidence Detection with Domain-specific Implicit Reasonings
337
+ Q2-13,近傍知識グラフからの埋め込みを統合利用する文書からの遠距離教師あり関係抽出
338
+ Q2-14💻,テキスト情報を用いた表構造の修正
339
+ B3-1,事前学習済み言語モデルの知識に基づく演繹推論能力の調査
340
+ B3-2,Cross-stitching Text and Knowledge Graph Encoders for Distantly Supervised Relation Extraction
341
+ B3-3,文書レベル関係抽出における根拠認識の統合
342
+ B3-4,NTCIR-17 QA Lab-PoliInfo-4 のタスク設計
343
+ B3-5,疑似訓練データを用いたone-shot設定における同形異音語の読み推定
344
+ D3-1,言語モデルの第二言語獲得
345
+ D3-2,範疇文法導出を用いた創発言語の構成性の評価
346
+ D3-3,対話型擬人化エージェントの言語的配慮に対する受容性の6か国異文化比較に関する研究 -クラウドソーシング���よる大規模印象調査3-
347
+ D3-4,創発言語はなぜZipf短縮に従わないのか?暗黙の事前分布に基づく再解釈
348
+ D3-5,統語的構成や自己注意を持つ言語モデルは「人間らしい」のか?
349
+ P3-1,JMedRoBERTa: 日本語の医学論文にもとづいた事前学習済み言語モデルの構築と評価
350
+ P3-2,接尾辞を持つ単語の語義定義文とその分散表現の分析
351
+ P3-3,Investigating parallelograms inside word embedding space using various analogy test sets in various languages
352
+ P3-4,『万葉集』漢字本文における漢字の使用頻度集計
353
+ P3-5,人間と機械学習のモデルそれぞれに扱いやすいトークン分割に関する実験と考察
354
+ P3-6,形態論情報付き日本語Universal Dependencies
355
+ P3-7,DAG Conversion for Penn Treebank
356
+ P3-8,沖縄語のUniversal Dependenciesツリーバンクコーパスの構築
357
+ P3-9,UD Japanese-CEJC とその評価
358
+ P3-10💻,日本語の若者言葉における助詞•助動詞短縮形の使用とエネルギーの節約
359
+ P3-11💻,医療縮約表現 ― 医療記録に含まれる句や節に相当する合成語 ―
360
+ P3-12💻,『日本語歴史コーパス』への形容詞の語義・用法情報の追加
361
+ P3-13💻,要素の重複と不連続性を扱える抽出型の語構成要素解析: 並列分散型形態素解析の提案
362
+ A4-1,Contrastive Learningを利用した類似特許検索
363
+ A4-2,FAQ検索における言い換え生成を利用したデータ拡張手法
364
+ A4-3,説明可能な検索ベースの文書分類手法の提案
365
+ A4-4,分類タスクにおける不確実性の高い文章の傾向調査
366
+ A4-5,検索結果整理のためのラベルセット選出計算高速化とWikipedia カテゴリからのラベルセット選出
367
+ C4-1,正準角および部分空間に基づく BERTScore の拡張
368
+ C4-2,知識グラフ補完のためのモデル予測に基づくサブサンプリング
369
+ C4-3,時間関係タスクを対象にしたマルチタスク学習におけるデータの親和性の解析
370
+ C4-4,ガウス埋め込みに基づく文表現生成
371
+ C4-5,ニューラル数式ソルバーにおける途中結果の追跡と操作
372
+ H4-1,服飾の色情報に基づいたポエティックな商品名の作成支援システム
373
+ H4-2,入力文章の内容に沿った新たな歌詞を生成する作詞支援システムと剽窃リスクを下げる歌詞生成手法
374
+ H4-3,学習データの珍しさを考慮した多様な広告文生成
375
+ H4-4,敵対的生成ネットワークを用いて抽出した画像の構造情報に基づく画像キャプション生成
376
+ H4-5,人間とシステムの議論に基づく NLP タスクの問題に対する予測
377
+ Q4-1,地方議会議事録を対象としたスタンス分類データセットの自動構築とベースライン分類器の評価
378
+ Q4-2,NTCIR-17 QA Lab-PoliInfo-4 Answer VerificationにおけるGDADCの利用に向けての考察
379
+ Q4-3,オノマトペの語義決定に寄与するコロケーションの分析
380
+ Q4-4,駄洒落を含む対話における可読性と面白さの相関分析
381
+ Q4-5,類似データセット発見課題における詳細なデータセット分類に基づいた有効性の評価
382
+ Q4-6,事故事例構造化コーパスの構築
383
+ Q4-7,英語初学者エッセイの議論マイニングコーパスの作成と分析
384
+ Q4-8,Wikipediaにおける文の品質推定のための大規模データセット
385
+ Q4-9,化学工学分野の論文に含まれる命名法に基づく変数記号および定義の解析
386
+ Q4-10,社会的状況に基づいた日本語ビジネスメールコーパスの構築
387
+ Q4-11,ニュースのライティングスタイルの差分を考慮した日英機械翻訳のテストセットの開発
388
+ Q4-12,広告データセットに内在する幻覚の分析
389
+ Q4-13,文書単位の日本語テキスト平易化コーパスの構築に向けて
390
+ Q4-14💻,漫才対話の収集及び自動アノテーションのパイプラインの検討
391
+ B5-1,主題化における人間と言語モデルの対照
392
+ B5-2,人間の脳と人工知能における短歌の鑑賞に関する神経活動の比較
393
+ B5-3,脳内状態推定のための汎用言語モデル構築への取り組み
394
+ B5-4,言語モデルの学習における知識ニューロンの形成過程について
395
+ B5-5,オンライン会議の雰囲気予測における困難な事例のサンプリングによる精度向上
396
+ D5-1,環境税をめぐる言説空間に関する一検討 ー 国会議事録を活用した関連用語の分析 ー
397
+ D5-2,自己相互情報量と単語群一致度を組み合わせた臨床研究関連法規の類似性評価の検討
398
+ D5-3,マスク言語モデルにおける重点的なマスク選択での追加的学習を用いた法律文書による人物役割語の推測
399
+ D5-4,AdGLUE: 広告言語理解ベンチマーク
400
+ D5-5,要件に対する効果の生成を経由した法律分野の自然言語推論
401
+ A6-1,自然言語生成におけるタスク横断自動評価のメタ分析
402
+ A6-2,編集操作によるデ��タ拡張を用いたテキスト平易化の自動評価
403
+ A6-3,同時通訳品質評価方法検討のための同時通訳者と翻訳者の評価比較分析
404
+ A6-4,疑似訓練データに基づく機械翻訳の教師なし品質推定
405
+ A6-5,入力文と自然言語処理モデルの相性判定
406
+ C6-1,共創支援を目的とした技術文書からの技術-価値表現の抽出
407
+ C6-2,文法誤りにおける一般誤りの分離可能性と解説文生成への応用
408
+ C6-3,文章構造グラフを用いた国語記述式答案への自動フィードバック生成
409
+ C6-4,Towards grammatically-informed feedback comments
410
+ C6-5,英単語学習支援に向けた語義曖昧性解消モデルの性能分析
411
+ H6-1,観測した周囲の状況を曖昧な発話に統合した対話ロボットによる気の利いた行動選択
412
+ H6-2,マルチエージェント強化学習に基づく共同作業を自律的に行う対話システムの最適化
413
+ H6-3,魅力的な対話応答生成のための複数教師による知識蒸留
414
+ H6-4,自律移動型ロボットにおける経験由来の情報量からの発話内容選択
415
+ H6-5,発話者分離学習を用いた対話モデルによる小学校の授業発話の分析
416
+ Q6-1,日本語Tokenizerの違いは下流タスク性能に影響を与えるか?
417
+ Q6-2,空所化情報を考慮した句構造から依存構造への変換
418
+ Q6-3,対称的な系列集合を用いた教師なし構文解析モデルの分岐バイアスの検証
419
+ Q6-4,転移学習における強化学習を用いた効率的なトークナイザとモデルの同時学習
420
+ Q6-5,語彙制約付きニューラル単語分割器を用いた後処理としての単語分割の後段タスクへの最適化
421
+ Q6-6,条件記述の解釈に基づく確率・期待値問題の自動解答
422
+ Q6-7,エンティティの階層的分類体系を用いた遠距離教師あり固有表現抽出
423
+ Q6-8,CrossWeigh の日本語 NER データセットへの適用とラベルノイズの調査
424
+ Q6-9,Majority or Minority: 固有表現抽出におけるデータの不均衡性に着目した損失関数の提案
425
+ Q6-10,検索クエリにおける共起情報を活用した非曖昧ドメイン固有語辞書の構築: ランドマークの事例
426
+ Q6-11,逆翻訳を利用したデータ拡張による文間の修辞構造解析の改善
427
+ Q6-12,含意関係と感情極性は対立的談話関係を捉えられるか
428
+ Q6-13💻,Building a Name Masking System: From Dataset to Model
429
+ B7-1,DAS-VQA: Dual Awareness Systems for Improving Generalization in Visual Question Answering
430
+ B7-2,Multimodal Encoder with Gated Cross-attention for Text-VQA Tasks
431
+ B7-3,DueT: 視覚・言語のDual-adapter Tuningによる基盤モデル
432
+ B7-4,Free Donut: E2E文書理解モデルにおけるAttentionを用いた文字領域アノテーション不要なテキスト検出手法の提案
433
+ B7-5,文脈理解に着目した対照学習に基づく弱教師ありPhrase Grounding
434
+ D7-1,深層学習モデルを用いた双方向形態屈折の検証
435
+ D7-2,情報ボトルネック法を用いた視線・脳情報デコード手法の提案
436
+ D7-3,百聞は一見に如かず?視覚情報は言語モデルに文の階層構造を教示するか
437
+ D7-4,日本語WiCデータセットの構築と読みづらさ検出への応用
438
+ D7-5,抽象図形への命名を介したコモングラウンド形成モデルの構想
439
+ P7-1,感情カテゴリを考慮した単語極性の推定
440
+ P7-2,日本語レビューに対するレーティング予測の精度比較
441
+ P7-3,属性に対する極性判定を対象とした領域適応
442
+ P7-4,Subspace representation for text classification with limited training data
443
+ P7-5,Prompt-based Fine-tuning for Emotion Recognition in Conversation
444
+ P7-6,公的なメールに対するBERTを用いたセンチメント分析
445
+ P7-7,zero-shot cross-lingual transferにおける言語の多様性の効果
446
+ P7-8,発話の交換を考慮した対話システムにおけるユーザ感情推定手法の検討
447
+ P7-9,A Study on Subjectivity-oriented Polarity Classification
448
+ P7-10,論文の階層構造を活用した被引用数予測
449
+ P7-11,Improving Peer-Review Score Prediction with Semi-Supervised Learning and Denoising Networks
450
+ P7-12💻,日本語意見分析コーパスの構築に向けたアスペクト情報の特徴分析
451
+ P7-13💻,「エモい」という感情に関する考察
452
+ A8-1,An Analysis on Automated Metrics for Evaluating Japanese-English Chat Translation
453
+ A8-2,Preordering based Low Resource Translation Using Pretrained Multilingual Model
454
+ A8-3,JParaCrawlにおける分割学習の提案
455
+ A8-4,Improving Example-based Machine Translation by Analogy Using Parse Trees
456
+ A8-5,言語横断検索とリランキングを用いる翻訳メモリ利用型NMT
457
+ C8-1,記述式答案採点モデルの採点基準に対する整合性の検証
458
+ C8-2,What can Short Answer Scoring Models Learn from Cross-prompt Training Data?
459
+ C8-3,論述構造解析技術を用いたニューラル小論文自動採点手法
460
+ C8-4,学習者回答予測モデルから���設問の正答者数予測分布推定
461
+ C8-5,項目反応理論に基づく難易度調節可能な読解問題自動生成手法
462
+ H8-1,語彙と品質を考慮したデータ水増しの言語教育支援への適用
463
+ H8-2,Utilizing Pseudo Dialogue in Conversational Semantic Frame Analysis
464
+ H8-3,BERTを用いた日本語文のボトムアップ語順整序とその評価
465
+ H8-4,Decoderベースの大規模言語モデルに基づくテキスト生成の自動評価指標
466
+ H8-5,ライトノベルからショートショートへの変換法
467
+ Q8-1,記憶装置付きニューラルネットワークモデルによる構造化知識と演算処理を用いた質問応答
468
+ Q8-2,FAQチャットボットの誤りタイプの類型化と自動分類の検討
469
+ Q8-3,技術ナレッジ活用に向けたRetriever-Readerモデルの検証
470
+ Q8-4,コンテキストの量が質問応答モデルのショートカット推論に与える影響について
471
+ Q8-5,意味的類似度計算システムによるチャットボットFAQシステムの性能向上
472
+ Q8-6,視覚的質問応答における視線情報を利用した曖昧性解消に向けて
473
+ Q8-7,頑健なFAQ検索に向けたPrompt-Tuningを用いた関連知識の生成
474
+ Q8-8,日本語の Math Word Problems に対する深層学習モデルの適用とデータ拡張の検証
475
+ Q8-9,MixLinkBERT: A Language Model pretrained with Multiple Types of Linked Documents for Multi-hop Question Answering
476
+ Q8-10,大規模言語モデルに基づく複数の外部ツールを利用した推論フレームワーク
477
+ Q8-11,オープンドメイン質問応答における文集合と位置情報を用いた抽出精度向上に関する検証
478
+ Q8-12,答弁の種類に着目した抽象型要約に基づく議会会議録質問応答
479
+ Q8-13,算術問題におけるニューラルモデルの構成的推論能力
480
+ Q8-14💻,根拠を説明可能な質問応答システムのための日本語マルチホップQAデータセット構築
481
+ B9-1,大規模言語モデルによって構築された常識知識グラフの拡大と低コストフィルタリング
482
+ B9-2,日本語の時間的常識を理解する言語モデルの構築を目的としたマルチタスク学習における検証
483
+ B9-3,常識的知識グラフ及び単語埋め込みを用いた重畳型駄洒落ユーモア認識
484
+ B9-4,日本語大規模言語モデルにおける知識グラフを活用した意味理解性能の向上
485
+ B9-5,時系列構造化ニューラルトピックモデル
486
+ D9-1,銘柄特徴と投資家特性を考慮した株式銘柄推薦の個別化
487
+ D9-2,連続時間フラクショナル・トピックモデル
488
+ D9-3,決算説明会のテキスト特徴と株主資本コストの関連性
489
+ D9-4,トピックモデルによる市場変動要因の抽出
490
+ D9-5,株主提案の要領におけるトピック別の文書特徴量と賛成率
491
+ P9-1,「否定するわけじゃないんだけど」: 日本語日常会話におけるヘッジ表現にみられる「否定」の使用
492
+ P9-2,日本語歌謡曲の歌詞における性差と時代変化のテキスト分類を用いた検討
493
+ P9-3,コーパス分析によって明らかにする 新語によるコミュニケーションを可能にする複合名詞の語形成
494
+ P9-4,Pronoun substitute annotation in seven Asian languages
495
+ P9-5,簡素なモデルでの創発言語の接触によるクレオール単純化の再現
496
+ P9-6,BERTの学習済みモデルを用いた語義定義文の類義判定に有効な日本語辞書の変更方法
497
+ P9-7,専門家と非専門家によるアノテーション検証の割当の自動化
498
+ P9-8💻,人間とBERTによる文間接続関係の同定の比較と性能検証
499
+ P9-9💻,New Chinese Network Jargons
500
+ P9-10💻,日本語の言い直し表現に対するアノテーション基準
501
+ P9-11💻,『現代日本語書き言葉均衡コーパス』に見る語表記の量的分布―品詞,レジスタ-,頻度との関係―
502
+ A10-1,日本語の大規模Twitterデータからみる新型コロナワクチン接種に関する人々の関心の推移
503
+ A10-2,ツイートテキストデータによるリツイート数予測とその要因分析
504
+ A10-3,誰に向けた発言か?:ツイートの指向性推定
505
+ A10-4,コロナ禍前後におけるTwitterユーザの性格別感情変化の分析
506
+ A10-5,多様な特徴量を考慮したTwitterユーザの性別推定
507
+ C10-1,思考連鎖指示における大規模言語モデルの否定表現理解
508
+ C10-2,Classification of Polysemous and Homograph Word Usages using Semi-Supervised Learning
509
+ C10-3,単語に対して複数の表現を使用した上位概念の発見
510
+ C10-4,深層学習を利用した PropBank 形式の日本語意味役割付与モデル
511
+ C10-5,深層距離学習を用いた動詞の意味フレーム推定
512
+ H10-1,ディスプレイ操作記録ツールの提案と有効性の検証
513
+ H10-2,大規模言語モデルの活用による効率的なロボット制御の学習
514
+ H10-3,ARKitSceneRefer: 3D屋内シーンでの参照表現による小物の位置特定
515
+ H10-4,短歌を読む際の情動に関する脳活動の解析
516
+ H10-5,分散的ベイズ推論としてのマルチエージェント強化学習と記号創発
517
+ Q10-1,年少者向け日本語会話アセスメントにおける評価者側の「はい」「うん」「そう」の使用傾向と生徒の日本語能力との関わり
518
+ Q10-2,Developing a Typology for Language Learning Feedback
519
+ Q10-3,単語分散表現を用いた性格特性用語の構造抽出
520
+ Q10-4,日中同形同義語のコロケーションに見られる両言語間での非対称性
521
+ Q10-5,表情の閾下呈示が事象における視点取得に与える影響
522
+ Q10-6,漢字の音読みにおける象徴素のデータ駆動的探索の試み
523
+ Q10-7,木置換文法による語彙と文法の教師なし同時学習に関する検討
524
+ Q10-8,第二言語としての日本語学習者が産出する文法的誤りに対する生成文法理論からのアプローチ:生成誤り分析
525
+ Q10-9,人間の多次元的な心的表象に基づく幼児語彙獲得モデルの構築
526
+ Q10-10,左隅型再帰的ニューラルネットワーク文法による日本語 fMRI データのモデリング
527
+ Q10-11,The effect of subliminal facial expression on perspective adoption during language comprehension in Japanese
528
+ Q10-12,"Vertical motions in the learning of spatial, emotion, and social words"
529
+ Q10-13💻,VO Word Order and Monotheism
530
+ B11-1,場所参照表現と位置情報を紐付けるジオコーディングの概観と発展に向けての考察
531
+ B11-2,文化財報告書データベースにおけるテキスト可視化と地理情報
532
+ B11-3,Double cross model による位置情報フレームアノテーション
533
+ B11-4,位置属性を有しない事物に対する地理的特定性の分析
534
+ B11-5,テキスト中の場所表現認識と係り受けに基づく緯度経度推定ツールの開発
535
+ D11-1,金融テキストからの類似文の自動収集
536
+ D11-2,極性と重要度を考慮した決算短信からの業績要因文の抽出
537
+ D11-3,BERTとGATを用いた金融テキストにおける因果関係を含む文の判定
538
+ D11-4,BERTと因果抽出を用いた気候変動ナラティブの可視化/指数化
539
+ D11-5,自己回帰型言語モデルを活用した Sentiment Interpretable Neural Network の構築
540
+ P11-1,トレースからユーザの意図を反映した画像キャプション生成
541
+ P11-2,日本語 CommonGen における入力キーワード群のハブ単語の自動追加による生成文の改善
542
+ P11-3,MCL による広告文生成の Expert 選択バランス性向上手法: EMA に基づく Expert 選択
543
+ P11-4,拡散過程を用いたキャプション生成への取り組み
544
+ P11-5,二つの時系列データの関係を記述する自然言語文生成への取り組み
545
+ P11-6,短歌における言語モデルの実応用 –歌人の視点を通した生成と作歌支援の実践から–
546
+ P11-7,テキストアナリティクスツールの操作ログからの実験設定の説明文生成
547
+ P11-8,"Retrieval, Masking, and Generation:マスクされた解説文を活用した文法誤り解説文生成"
548
+ P11-9,原文の書き換えによる広告文生成
549
+ P11-10,会議議事録を対象とした議論構造解析と議題生成による議会レポートの自動生成
550
+ P11-11,表の段階的な縮小によるbiography生成
551
+ P11-12,Language Understanding with Non-Autoregressive BERT-to-BERT Autoencoder
552
+ P11-13,Disentangling Meaning and Style for Positive Text Reframing
553
+ A12-1,人間らしい予測処理機構を取り入れた質問応答モデルの提案: 早押しクイズのパラレル問題を題材として
554
+ A12-2,早押しクイズ解答システムの構築と各時点における正答率推定
555
+ A12-3,利用規約における QA データセットの作成及び検証
556
+ A12-4,JCommonsenseQA 2.0: 計算機と人の協働による常識推論データセットの改良
557
+ A12-5,読解問題における論理推論の一貫性評価
558
+ C12-1,自然言語で書かれた複数の情報リソースの時系列解析による市場探索手法の提案
559
+ C12-2,数学的表現の構造的情報のトークン化手法によるProcessBERT の性能改善
560
+ C12-3,Wikipedia協調フィルタリング法
561
+ C12-4,複数の質問形式を利用した分類型の質問応答による薬物タンパク質間関係抽出
562
+ C12-5,二段階のファインチューニングを行ったBERTによる変数定義抽出
563
+ H12-1,実世界における総合的参照解析を目的としたマルチモーダル対話データセットの構築
564
+ H12-2,実世界のマルチモーダル情報に基づく指示語を含んだ言語指示の外部照応解析
565
+ H12-3,深層強化学習モデルの内部挙動の言語化を通じた制御手法の構築
566
+ H12-4,構文解析と画像生成の統合による機能語の言語理解
567
+ H12-5,QuIC-360◦: 360◦ 画像に対するクエリ指向画像説明文生成のためのデータセット構築
568
+ Q12-1,JMultiWOZ: 日本語タスク指向型対話データセットの構築
569
+ Q12-2,思考を喚起するロボットと人間の対話の印象に関する研究
570
+ Q12-3,常識推論に基づく気の利いた家庭内ロボットの行動選択
571
+ Q12-4,メタ学習を用いた少量データからの中国古代思想家のパーソナライズド対話システムの構築
572
+ Q12-5,タスク指向対話における強化学習を用いた対話方策学習への敵対的学習の役割の解明
573
+ Q12-6,タスク指向対話システムの方策学習へのDecision Transformerの適用
574
+ Q12-7,視覚情報を用いたタスク指向型対話における人間の応答に対する間違い指摘の検討
575
+ Q12-8,対話システムのための対話状況を制約とした応答変換の検討
576
+ Q12-9,Monadic Chat:テキスト補完APIで文脈を保持するためのフレームワーク
577
+ Q12-10,知的対話アシスタントにおける意図が曖昧な発話の検出
578
+ Q12-11,生成モデルによる傾聴応答タイミングの推定と動的Prompt-Tuneを用いた応答スタイルのパラメーター制御
579
+ Q12-12,語りの傾聴において不同意される発話とその検出
580
+ Q12-13💻,文章形式の出力によるクロスドメインスロットフィリングの改善
anlp_title_embeddings.npz ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:19bb78dbf7da1348bfc9a74f6dc7492b36c79e5d8ee573bf1f4ef58806a95a79
3
+ size 1652777
app.py ADDED
@@ -0,0 +1,79 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import faiss
2
+ import numpy as np
3
+ import pandas as pd
4
+ import streamlit as st
5
+ import torch
6
+ from transformers import AutoModel, AutoTokenizer
7
+
8
+ import os
9
+
10
+ os.environ['KMP_DUPLICATE_LIB_OK']='True'
11
+
12
+
13
+ @st.cache(allow_output_mutation=True)
14
+ def load_model_and_tokenizer():
15
+ tokenizer = AutoTokenizer.from_pretrained("cl-tohoku/bert-base-japanese-v2")
16
+ model = AutoModel.from_pretrained("kaisugi/anlp_embedding_model")
17
+ model.eval()
18
+
19
+ return model, tokenizer
20
+
21
+
22
+ @st.cache(allow_output_mutation=True)
23
+ def load_title_data():
24
+ title_df = pd.read_csv("anlp2023.csv")
25
+
26
+ return title_df
27
+
28
+
29
+ @st.cache(allow_output_mutation=True)
30
+ def load_title_embeddings():
31
+ npz_comp = np.load("anlp_title_embeddings.npz")
32
+ title_embeddings = npz_comp["arr_0"]
33
+
34
+ return title_embeddings
35
+
36
+
37
+ @st.cache
38
+ def get_retrieval_results(index, input_text, top_k, tokenizer, title_df):
39
+ with torch.no_grad():
40
+ inputs = tokenizer.encode_plus(
41
+ input_text,
42
+ padding=True,
43
+ truncation="only_second",
44
+ return_tensors="pt",
45
+ max_length=512,
46
+ )
47
+ outputs = model(**inputs)
48
+ query_embeddings = outputs.last_hidden_state[:, 0, :][0]
49
+ query_embeddings = query_embeddings.detach().cpu().numpy()
50
+
51
+ _, ids = index.search(x=np.array([query_embeddings]), k=top_k)
52
+ retrieved_titles = []
53
+ retrieved_pids = []
54
+
55
+ for id in ids[0]:
56
+ retrieved_titles.append(title_df.loc[id, "title"])
57
+ retrieved_pids.append(title_df.loc[id, "pid"])
58
+
59
+ df = pd.DataFrame({"pids": retrieved_pids, "paper": retrieved_titles})
60
+
61
+ return df
62
+
63
+
64
+ if __name__ == "__main__":
65
+ model, tokenizer = load_model_and_tokenizer()
66
+ title_df = load_title_data()
67
+ title_embeddings = load_title_embeddings()
68
+
69
+ index = faiss.IndexFlatL2(768)
70
+ index.add(title_embeddings)
71
+
72
+ st.markdown("## NLP2023 論文検索")
73
+ input_text = st.text_input('input', '', placeholder='ここに論文のタイトルを入力してください')
74
+ top_k = st.number_input('top_k', min_value=1, value=10, step=1)
75
+
76
+ if st.button('検索'):
77
+ stripped_input_text = input_text.strip()
78
+ df = get_retrieval_results(index, stripped_input_text, top_k, tokenizer, title_df)
79
+ st.table(df)
poetry.lock ADDED
@@ -0,0 +1,1006 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [[package]]
2
+ name = "altair"
3
+ version = "4.2.2"
4
+ description = "Altair: A declarative statistical visualization library for Python."
5
+ category = "main"
6
+ optional = false
7
+ python-versions = ">=3.7"
8
+
9
+ [package.dependencies]
10
+ entrypoints = "*"
11
+ jinja2 = "*"
12
+ jsonschema = ">=3.0"
13
+ numpy = "*"
14
+ pandas = ">=0.18"
15
+ toolz = "*"
16
+
17
+ [package.extras]
18
+ dev = ["black", "docutils", "ipython", "flake8", "pytest", "sphinx", "mistune (<2.0.0)", "m2r", "vega-datasets", "recommonmark"]
19
+
20
+ [[package]]
21
+ name = "attrs"
22
+ version = "22.2.0"
23
+ description = "Classes Without Boilerplate"
24
+ category = "main"
25
+ optional = false
26
+ python-versions = ">=3.6"
27
+
28
+ [package.extras]
29
+ cov = ["attrs", "coverage-enable-subprocess", "coverage[toml] (>=5.3)"]
30
+ dev = ["attrs"]
31
+ docs = ["furo", "sphinx", "myst-parser", "zope.interface", "sphinx-notfound-page", "sphinxcontrib-towncrier", "towncrier"]
32
+ tests = ["attrs", "zope.interface"]
33
+ tests-no-zope = ["hypothesis", "pympler", "pytest (>=4.3.0)", "pytest-xdist", "cloudpickle", "mypy (>=0.971,<0.990)", "pytest-mypy-plugins"]
34
+ tests_no_zope = ["hypothesis", "pympler", "pytest (>=4.3.0)", "pytest-xdist", "cloudpickle", "mypy (>=0.971,<0.990)", "pytest-mypy-plugins"]
35
+
36
+ [[package]]
37
+ name = "backports.zoneinfo"
38
+ version = "0.2.1"
39
+ description = "Backport of the standard library zoneinfo module"
40
+ category = "main"
41
+ optional = false
42
+ python-versions = ">=3.6"
43
+
44
+ [package.extras]
45
+ tzdata = ["tzdata"]
46
+
47
+ [[package]]
48
+ name = "blinker"
49
+ version = "1.5"
50
+ description = "Fast, simple object-to-object and broadcast signaling"
51
+ category = "main"
52
+ optional = false
53
+ python-versions = ">=2.7, !=3.0.*, !=3.1.*, !=3.2.*, !=3.3.*, !=3.4.*"
54
+
55
+ [[package]]
56
+ name = "cachetools"
57
+ version = "5.3.0"
58
+ description = "Extensible memoizing collections and decorators"
59
+ category = "main"
60
+ optional = false
61
+ python-versions = "~=3.7"
62
+
63
+ [[package]]
64
+ name = "certifi"
65
+ version = "2022.12.7"
66
+ description = "Python package for providing Mozilla's CA Bundle."
67
+ category = "main"
68
+ optional = false
69
+ python-versions = ">=3.6"
70
+
71
+ [[package]]
72
+ name = "charset-normalizer"
73
+ version = "3.0.1"
74
+ description = "The Real First Universal Charset Detector. Open, modern and actively maintained alternative to Chardet."
75
+ category = "main"
76
+ optional = false
77
+ python-versions = "*"
78
+
79
+ [[package]]
80
+ name = "click"
81
+ version = "8.1.3"
82
+ description = "Composable command line interface toolkit"
83
+ category = "main"
84
+ optional = false
85
+ python-versions = ">=3.7"
86
+
87
+ [package.dependencies]
88
+ colorama = {version = "*", markers = "platform_system == \"Windows\""}
89
+
90
+ [[package]]
91
+ name = "colorama"
92
+ version = "0.4.6"
93
+ description = "Cross-platform colored terminal text."
94
+ category = "main"
95
+ optional = false
96
+ python-versions = "!=3.0.*,!=3.1.*,!=3.2.*,!=3.3.*,!=3.4.*,!=3.5.*,!=3.6.*,>=2.7"
97
+
98
+ [[package]]
99
+ name = "decorator"
100
+ version = "5.1.1"
101
+ description = "Decorators for Humans"
102
+ category = "main"
103
+ optional = false
104
+ python-versions = ">=3.5"
105
+
106
+ [[package]]
107
+ name = "entrypoints"
108
+ version = "0.4"
109
+ description = "Discover and load entry points from installed packages."
110
+ category = "main"
111
+ optional = false
112
+ python-versions = ">=3.6"
113
+
114
+ [[package]]
115
+ name = "faiss-cpu"
116
+ version = "1.7.3"
117
+ description = "A library for efficient similarity search and clustering of dense vectors."
118
+ category = "main"
119
+ optional = false
120
+ python-versions = "*"
121
+
122
+ [[package]]
123
+ name = "filelock"
124
+ version = "3.9.0"
125
+ description = "A platform independent file lock."
126
+ category = "main"
127
+ optional = false
128
+ python-versions = ">=3.7"
129
+
130
+ [package.extras]
131
+ docs = ["furo (>=2022.12.7)", "sphinx-autodoc-typehints (>=1.19.5)", "sphinx (>=5.3)"]
132
+ testing = ["covdefaults (>=2.2.2)", "coverage (>=7.0.1)", "pytest-cov (>=4)", "pytest-timeout (>=2.1)", "pytest (>=7.2)"]
133
+
134
+ [[package]]
135
+ name = "fugashi"
136
+ version = "1.2.1"
137
+ description = "A Cython MeCab wrapper for fast, pythonic Japanese tokenization."
138
+ category = "main"
139
+ optional = false
140
+ python-versions = ">=3.7"
141
+
142
+ [package.extras]
143
+ unidic = ["unidic"]
144
+ unidic-lite = ["unidic-lite"]
145
+
146
+ [[package]]
147
+ name = "gitdb"
148
+ version = "4.0.10"
149
+ description = "Git Object Database"
150
+ category = "main"
151
+ optional = false
152
+ python-versions = ">=3.7"
153
+
154
+ [package.dependencies]
155
+ smmap = ">=3.0.1,<6"
156
+
157
+ [[package]]
158
+ name = "gitpython"
159
+ version = "3.1.30"
160
+ description = "GitPython is a python library used to interact with Git repositories"
161
+ category = "main"
162
+ optional = false
163
+ python-versions = ">=3.7"
164
+
165
+ [package.dependencies]
166
+ gitdb = ">=4.0.1,<5"
167
+
168
+ [[package]]
169
+ name = "huggingface-hub"
170
+ version = "0.12.0"
171
+ description = "Client library to download and publish models, datasets and other repos on the huggingface.co hub"
172
+ category = "main"
173
+ optional = false
174
+ python-versions = ">=3.7.0"
175
+
176
+ [package.dependencies]
177
+ filelock = "*"
178
+ packaging = ">=20.9"
179
+ pyyaml = ">=5.1"
180
+ requests = "*"
181
+ tqdm = ">=4.42.1"
182
+ typing-extensions = ">=3.7.4.3"
183
+
184
+ [package.extras]
185
+ all = ["InquirerPy (0.3.4)", "isort (>=5.5.4)", "jedi", "jinja2", "pytest", "pytest-cov", "pytest-env", "pytest-xdist", "soundfile", "pillow", "black (22.3)", "flake8 (>=3.8.3)", "flake8-bugbear", "mypy (0.982)", "types-pyyaml", "types-requests", "types-simplejson", "types-toml", "types-tqdm", "types-urllib3"]
186
+ cli = ["InquirerPy (0.3.4)"]
187
+ dev = ["InquirerPy (0.3.4)", "isort (>=5.5.4)", "jedi", "jinja2", "pytest", "pytest-cov", "pytest-env", "pytest-xdist", "soundfile", "pillow", "black (22.3)", "flake8 (>=3.8.3)", "flake8-bugbear", "mypy (0.982)", "types-pyyaml", "types-requests", "types-simplejson", "types-toml", "types-tqdm", "types-urllib3"]
188
+ fastai = ["toml", "fastai (>=2.4)", "fastcore (>=1.3.27)"]
189
+ quality = ["black (22.3)", "flake8 (>=3.8.3)", "flake8-bugbear", "isort (>=5.5.4)", "mypy (0.982)"]
190
+ tensorflow = ["tensorflow", "pydot", "graphviz"]
191
+ testing = ["InquirerPy (0.3.4)", "isort (>=5.5.4)", "jedi", "jinja2", "pytest", "pytest-cov", "pytest-env", "pytest-xdist", "soundfile", "pillow"]
192
+ torch = ["torch"]
193
+ typing = ["types-pyyaml", "types-requests", "types-simplejson", "types-toml", "types-tqdm", "types-urllib3"]
194
+
195
+ [[package]]
196
+ name = "idna"
197
+ version = "3.4"
198
+ description = "Internationalized Domain Names in Applications (IDNA)"
199
+ category = "main"
200
+ optional = false
201
+ python-versions = ">=3.5"
202
+
203
+ [[package]]
204
+ name = "importlib-metadata"
205
+ version = "6.0.0"
206
+ description = "Read metadata from Python packages"
207
+ category = "main"
208
+ optional = false
209
+ python-versions = ">=3.7"
210
+
211
+ [package.dependencies]
212
+ zipp = ">=0.5"
213
+
214
+ [package.extras]
215
+ docs = ["sphinx (>=3.5)", "jaraco.packaging (>=9)", "rst.linker (>=1.9)", "furo", "sphinx-lint", "jaraco.tidelift (>=1.4)"]
216
+ perf = ["ipython"]
217
+ testing = ["pytest (>=6)", "pytest-checkdocs (>=2.4)", "flake8 (<5)", "pytest-cov", "pytest-enabler (>=1.3)", "packaging", "pyfakefs", "flufl.flake8", "pytest-perf (>=0.9.2)", "pytest-black (>=0.3.7)", "pytest-mypy (>=0.9.1)", "pytest-flake8", "importlib-resources (>=1.3)"]
218
+
219
+ [[package]]
220
+ name = "importlib-resources"
221
+ version = "5.10.2"
222
+ description = "Read resources from Python packages"
223
+ category = "main"
224
+ optional = false
225
+ python-versions = ">=3.7"
226
+
227
+ [package.dependencies]
228
+ zipp = {version = ">=3.1.0", markers = "python_version < \"3.10\""}
229
+
230
+ [package.extras]
231
+ docs = ["sphinx (>=3.5)", "jaraco.packaging (>=9)", "rst.linker (>=1.9)", "furo", "sphinx-lint", "jaraco.tidelift (>=1.4)"]
232
+ testing = ["pytest (>=6)", "pytest-checkdocs (>=2.4)", "flake8 (<5)", "pytest-cov", "pytest-enabler (>=1.3)", "pytest-black (>=0.3.7)", "pytest-mypy (>=0.9.1)", "pytest-flake8"]
233
+
234
+ [[package]]
235
+ name = "ipadic"
236
+ version = "1.0.0"
237
+ description = "IPAdic packaged for Python"
238
+ category = "main"
239
+ optional = false
240
+ python-versions = "*"
241
+
242
+ [[package]]
243
+ name = "jinja2"
244
+ version = "3.1.2"
245
+ description = "A very fast and expressive template engine."
246
+ category = "main"
247
+ optional = false
248
+ python-versions = ">=3.7"
249
+
250
+ [package.dependencies]
251
+ MarkupSafe = ">=2.0"
252
+
253
+ [package.extras]
254
+ i18n = ["Babel (>=2.7)"]
255
+
256
+ [[package]]
257
+ name = "jsonschema"
258
+ version = "4.17.3"
259
+ description = "An implementation of JSON Schema validation for Python"
260
+ category = "main"
261
+ optional = false
262
+ python-versions = ">=3.7"
263
+
264
+ [package.dependencies]
265
+ attrs = ">=17.4.0"
266
+ importlib-resources = {version = ">=1.4.0", markers = "python_version < \"3.9\""}
267
+ pkgutil-resolve-name = {version = ">=1.3.10", markers = "python_version < \"3.9\""}
268
+ pyrsistent = ">=0.14.0,<0.17.0 || >0.17.0,<0.17.1 || >0.17.1,<0.17.2 || >0.17.2"
269
+
270
+ [package.extras]
271
+ format = ["fqdn", "idna", "isoduration", "jsonpointer (>1.13)", "rfc3339-validator", "rfc3987", "uri-template", "webcolors (>=1.11)"]
272
+ format-nongpl = ["fqdn", "idna", "isoduration", "jsonpointer (>1.13)", "rfc3339-validator", "rfc3986-validator (>0.1.0)", "uri-template", "webcolors (>=1.11)"]
273
+
274
+ [[package]]
275
+ name = "markdown-it-py"
276
+ version = "2.1.0"
277
+ description = "Python port of markdown-it. Markdown parsing, done right!"
278
+ category = "main"
279
+ optional = false
280
+ python-versions = ">=3.7"
281
+
282
+ [package.dependencies]
283
+ mdurl = ">=0.1,<1.0"
284
+
285
+ [package.extras]
286
+ benchmarking = ["psutil", "pytest", "pytest-benchmark (>=3.2,<4.0)"]
287
+ code_style = ["pre-commit (2.6)"]
288
+ compare = ["commonmark (>=0.9.1,<0.10.0)", "markdown (>=3.3.6,<3.4.0)", "mistletoe (>=0.8.1,<0.9.0)", "mistune (>=2.0.2,<2.1.0)", "panflute (>=2.1.3,<2.2.0)"]
289
+ linkify = ["linkify-it-py (>=1.0,<2.0)"]
290
+ plugins = ["mdit-py-plugins"]
291
+ profiling = ["gprof2dot"]
292
+ rtd = ["attrs", "myst-parser", "pyyaml", "sphinx", "sphinx-copybutton", "sphinx-design", "sphinx-book-theme"]
293
+ testing = ["coverage", "pytest", "pytest-cov", "pytest-regressions"]
294
+
295
+ [[package]]
296
+ name = "markupsafe"
297
+ version = "2.1.2"
298
+ description = "Safely add untrusted strings to HTML/XML markup."
299
+ category = "main"
300
+ optional = false
301
+ python-versions = ">=3.7"
302
+
303
+ [[package]]
304
+ name = "mdurl"
305
+ version = "0.1.2"
306
+ description = "Markdown URL utilities"
307
+ category = "main"
308
+ optional = false
309
+ python-versions = ">=3.7"
310
+
311
+ [[package]]
312
+ name = "numpy"
313
+ version = "1.24.2"
314
+ description = "Fundamental package for array computing in Python"
315
+ category = "main"
316
+ optional = false
317
+ python-versions = ">=3.8"
318
+
319
+ [[package]]
320
+ name = "nvidia-cublas-cu11"
321
+ version = "11.10.3.66"
322
+ description = "CUBLAS native runtime libraries"
323
+ category = "main"
324
+ optional = false
325
+ python-versions = ">=3"
326
+
327
+ [[package]]
328
+ name = "nvidia-cuda-nvrtc-cu11"
329
+ version = "11.7.99"
330
+ description = "NVRTC native runtime libraries"
331
+ category = "main"
332
+ optional = false
333
+ python-versions = ">=3"
334
+
335
+ [[package]]
336
+ name = "nvidia-cuda-runtime-cu11"
337
+ version = "11.7.99"
338
+ description = "CUDA Runtime native Libraries"
339
+ category = "main"
340
+ optional = false
341
+ python-versions = ">=3"
342
+
343
+ [[package]]
344
+ name = "nvidia-cudnn-cu11"
345
+ version = "8.5.0.96"
346
+ description = "cuDNN runtime libraries"
347
+ category = "main"
348
+ optional = false
349
+ python-versions = ">=3"
350
+
351
+ [[package]]
352
+ name = "packaging"
353
+ version = "23.0"
354
+ description = "Core utilities for Python packages"
355
+ category = "main"
356
+ optional = false
357
+ python-versions = ">=3.7"
358
+
359
+ [[package]]
360
+ name = "pandas"
361
+ version = "1.5.3"
362
+ description = "Powerful data structures for data analysis, time series, and statistics"
363
+ category = "main"
364
+ optional = false
365
+ python-versions = ">=3.8"
366
+
367
+ [package.dependencies]
368
+ numpy = [
369
+ {version = ">=1.20.3", markers = "python_version < \"3.10\""},
370
+ {version = ">=1.21.0", markers = "python_version >= \"3.10\""},
371
+ {version = ">=1.23.2", markers = "python_version >= \"3.11\""},
372
+ ]
373
+ python-dateutil = ">=2.8.1"
374
+ pytz = ">=2020.1"
375
+
376
+ [package.extras]
377
+ test = ["hypothesis (>=5.5.3)", "pytest (>=6.0)", "pytest-xdist (>=1.31)"]
378
+
379
+ [[package]]
380
+ name = "pillow"
381
+ version = "9.4.0"
382
+ description = "Python Imaging Library (Fork)"
383
+ category = "main"
384
+ optional = false
385
+ python-versions = ">=3.7"
386
+
387
+ [package.extras]
388
+ docs = ["furo", "olefile", "sphinx (>=2.4)", "sphinx-copybutton", "sphinx-inline-tabs", "sphinx-issues (>=3.0.1)", "sphinx-removed-in", "sphinxext-opengraph"]
389
+ tests = ["check-manifest", "coverage", "defusedxml", "markdown2", "olefile", "packaging", "pyroma", "pytest", "pytest-cov", "pytest-timeout"]
390
+
391
+ [[package]]
392
+ name = "pkgutil-resolve-name"
393
+ version = "1.3.10"
394
+ description = "Resolve a name to an object."
395
+ category = "main"
396
+ optional = false
397
+ python-versions = ">=3.6"
398
+
399
+ [[package]]
400
+ name = "protobuf"
401
+ version = "3.20.3"
402
+ description = "Protocol Buffers"
403
+ category = "main"
404
+ optional = false
405
+ python-versions = ">=3.7"
406
+
407
+ [[package]]
408
+ name = "pyarrow"
409
+ version = "11.0.0"
410
+ description = "Python library for Apache Arrow"
411
+ category = "main"
412
+ optional = false
413
+ python-versions = ">=3.7"
414
+
415
+ [package.dependencies]
416
+ numpy = ">=1.16.6"
417
+
418
+ [[package]]
419
+ name = "pydeck"
420
+ version = "0.8.0"
421
+ description = "Widget for deck.gl maps"
422
+ category = "main"
423
+ optional = false
424
+ python-versions = ">=3.7"
425
+
426
+ [package.dependencies]
427
+ jinja2 = ">=2.10.1"
428
+ numpy = ">=1.16.4"
429
+
430
+ [package.extras]
431
+ carto = ["pydeck-carto"]
432
+ jupyter = ["ipywidgets (>=7,<8)", "traitlets (>=4.3.2)", "ipython (>=5.8.0)", "ipykernel (>=5.1.2)"]
433
+
434
+ [[package]]
435
+ name = "pygments"
436
+ version = "2.14.0"
437
+ description = "Pygments is a syntax highlighting package written in Python."
438
+ category = "main"
439
+ optional = false
440
+ python-versions = ">=3.6"
441
+
442
+ [package.extras]
443
+ plugins = ["importlib-metadata"]
444
+
445
+ [[package]]
446
+ name = "pympler"
447
+ version = "1.0.1"
448
+ description = "A development tool to measure, monitor and analyze the memory behavior of Python objects."
449
+ category = "main"
450
+ optional = false
451
+ python-versions = ">=3.6"
452
+
453
+ [[package]]
454
+ name = "pyrsistent"
455
+ version = "0.19.3"
456
+ description = "Persistent/Functional/Immutable data structures"
457
+ category = "main"
458
+ optional = false
459
+ python-versions = ">=3.7"
460
+
461
+ [[package]]
462
+ name = "python-dateutil"
463
+ version = "2.8.2"
464
+ description = "Extensions to the standard Python datetime module"
465
+ category = "main"
466
+ optional = false
467
+ python-versions = "!=3.0.*,!=3.1.*,!=3.2.*,>=2.7"
468
+
469
+ [package.dependencies]
470
+ six = ">=1.5"
471
+
472
+ [[package]]
473
+ name = "pytz"
474
+ version = "2022.7.1"
475
+ description = "World timezone definitions, modern and historical"
476
+ category = "main"
477
+ optional = false
478
+ python-versions = "*"
479
+
480
+ [[package]]
481
+ name = "pytz-deprecation-shim"
482
+ version = "0.1.0.post0"
483
+ description = "Shims to make deprecation of pytz easier"
484
+ category = "main"
485
+ optional = false
486
+ python-versions = "!=3.0.*,!=3.1.*,!=3.2.*,!=3.3.*,!=3.4.*,!=3.5.*,>=2.7"
487
+
488
+ [package.dependencies]
489
+ "backports.zoneinfo" = {version = "*", markers = "python_version >= \"3.6\" and python_version < \"3.9\""}
490
+ tzdata = {version = "*", markers = "python_version >= \"3.6\""}
491
+
492
+ [[package]]
493
+ name = "pyyaml"
494
+ version = "6.0"
495
+ description = "YAML parser and emitter for Python"
496
+ category = "main"
497
+ optional = false
498
+ python-versions = ">=3.6"
499
+
500
+ [[package]]
501
+ name = "regex"
502
+ version = "2022.10.31"
503
+ description = "Alternative regular expression module, to replace re."
504
+ category = "main"
505
+ optional = false
506
+ python-versions = ">=3.6"
507
+
508
+ [[package]]
509
+ name = "requests"
510
+ version = "2.28.2"
511
+ description = "Python HTTP for Humans."
512
+ category = "main"
513
+ optional = false
514
+ python-versions = ">=3.7, <4"
515
+
516
+ [package.dependencies]
517
+ certifi = ">=2017.4.17"
518
+ charset-normalizer = ">=2,<4"
519
+ idna = ">=2.5,<4"
520
+ urllib3 = ">=1.21.1,<1.27"
521
+
522
+ [package.extras]
523
+ socks = ["PySocks (>=1.5.6,<1.5.7 || >1.5.7)"]
524
+ use_chardet_on_py3 = ["chardet (>=3.0.2,<6)"]
525
+
526
+ [[package]]
527
+ name = "rich"
528
+ version = "13.3.1"
529
+ description = "Render rich text, tables, progress bars, syntax highlighting, markdown and more to the terminal"
530
+ category = "main"
531
+ optional = false
532
+ python-versions = ">=3.7.0"
533
+
534
+ [package.dependencies]
535
+ markdown-it-py = ">=2.1.0,<3.0.0"
536
+ pygments = ">=2.14.0,<3.0.0"
537
+ typing-extensions = {version = ">=4.0.0,<5.0", markers = "python_version < \"3.9\""}
538
+
539
+ [package.extras]
540
+ jupyter = ["ipywidgets (>=7.5.1,<9)"]
541
+
542
+ [[package]]
543
+ name = "semver"
544
+ version = "2.13.0"
545
+ description = "Python helper for Semantic Versioning (http://semver.org/)"
546
+ category = "main"
547
+ optional = false
548
+ python-versions = ">=2.7, !=3.0.*, !=3.1.*, !=3.2.*, !=3.3.*"
549
+
550
+ [[package]]
551
+ name = "six"
552
+ version = "1.16.0"
553
+ description = "Python 2 and 3 compatibility utilities"
554
+ category = "main"
555
+ optional = false
556
+ python-versions = ">=2.7, !=3.0.*, !=3.1.*, !=3.2.*"
557
+
558
+ [[package]]
559
+ name = "smmap"
560
+ version = "5.0.0"
561
+ description = "A pure Python implementation of a sliding window memory map manager"
562
+ category = "main"
563
+ optional = false
564
+ python-versions = ">=3.6"
565
+
566
+ [[package]]
567
+ name = "streamlit"
568
+ version = "1.17.0"
569
+ description = "The fastest way to build data apps in Python"
570
+ category = "main"
571
+ optional = false
572
+ python-versions = ">=3.7, !=3.9.7"
573
+
574
+ [package.dependencies]
575
+ altair = ">=3.2.0"
576
+ blinker = ">=1.0.0"
577
+ cachetools = ">=4.0"
578
+ click = ">=7.0"
579
+ gitpython = "!=3.1.19"
580
+ importlib-metadata = ">=1.4"
581
+ numpy = "*"
582
+ packaging = ">=14.1"
583
+ pandas = ">=0.21.0"
584
+ pillow = ">=6.2.0"
585
+ protobuf = ">=3.12,<4"
586
+ pyarrow = ">=4.0"
587
+ pydeck = ">=0.1.dev5"
588
+ pympler = ">=0.9"
589
+ python-dateutil = "*"
590
+ requests = ">=2.4"
591
+ rich = ">=10.11.0"
592
+ semver = "*"
593
+ toml = "*"
594
+ tornado = ">=5.0"
595
+ typing-extensions = ">=3.10.0.0"
596
+ tzlocal = ">=1.1"
597
+ validators = ">=0.2"
598
+ watchdog = {version = "*", markers = "platform_system != \"Darwin\""}
599
+
600
+ [package.extras]
601
+ snowflake = ["snowflake-snowpark-python"]
602
+
603
+ [[package]]
604
+ name = "tokenizers"
605
+ version = "0.13.2"
606
+ description = "Fast and Customizable Tokenizers"
607
+ category = "main"
608
+ optional = false
609
+ python-versions = "*"
610
+
611
+ [package.extras]
612
+ dev = ["pytest", "requests", "numpy", "datasets", "black (22.3)"]
613
+ docs = ["sphinx", "sphinx-rtd-theme", "setuptools-rust"]
614
+ testing = ["pytest", "requests", "numpy", "datasets", "black (22.3)"]
615
+
616
+ [[package]]
617
+ name = "toml"
618
+ version = "0.10.2"
619
+ description = "Python Library for Tom's Obvious, Minimal Language"
620
+ category = "main"
621
+ optional = false
622
+ python-versions = ">=2.6, !=3.0.*, !=3.1.*, !=3.2.*"
623
+
624
+ [[package]]
625
+ name = "toolz"
626
+ version = "0.12.0"
627
+ description = "List processing tools and functional utilities"
628
+ category = "main"
629
+ optional = false
630
+ python-versions = ">=3.5"
631
+
632
+ [[package]]
633
+ name = "torch"
634
+ version = "1.13.1"
635
+ description = "Tensors and Dynamic neural networks in Python with strong GPU acceleration"
636
+ category = "main"
637
+ optional = false
638
+ python-versions = ">=3.7.0"
639
+
640
+ [package.dependencies]
641
+ nvidia-cublas-cu11 = {version = "11.10.3.66", markers = "platform_system == \"Linux\""}
642
+ nvidia-cuda-nvrtc-cu11 = {version = "11.7.99", markers = "platform_system == \"Linux\""}
643
+ nvidia-cuda-runtime-cu11 = {version = "11.7.99", markers = "platform_system == \"Linux\""}
644
+ nvidia-cudnn-cu11 = {version = "8.5.0.96", markers = "platform_system == \"Linux\""}
645
+ typing-extensions = "*"
646
+
647
+ [package.extras]
648
+ opt-einsum = ["opt-einsum (>=3.3)"]
649
+
650
+ [[package]]
651
+ name = "tornado"
652
+ version = "6.2"
653
+ description = "Tornado is a Python web framework and asynchronous networking library, originally developed at FriendFeed."
654
+ category = "main"
655
+ optional = false
656
+ python-versions = ">= 3.7"
657
+
658
+ [[package]]
659
+ name = "tqdm"
660
+ version = "4.64.1"
661
+ description = "Fast, Extensible Progress Meter"
662
+ category = "main"
663
+ optional = false
664
+ python-versions = "!=3.0.*,!=3.1.*,!=3.2.*,!=3.3.*,>=2.7"
665
+
666
+ [package.dependencies]
667
+ colorama = {version = "*", markers = "platform_system == \"Windows\""}
668
+
669
+ [package.extras]
670
+ dev = ["py-make (>=0.1.0)", "twine", "wheel"]
671
+ notebook = ["ipywidgets (>=6)"]
672
+ slack = ["slack-sdk"]
673
+ telegram = ["requests"]
674
+
675
+ [[package]]
676
+ name = "transformers"
677
+ version = "4.26.0"
678
+ description = "State-of-the-art Machine Learning for JAX, PyTorch and TensorFlow"
679
+ category = "main"
680
+ optional = false
681
+ python-versions = ">=3.7.0"
682
+
683
+ [package.dependencies]
684
+ filelock = "*"
685
+ huggingface-hub = ">=0.11.0,<1.0"
686
+ numpy = ">=1.17"
687
+ packaging = ">=20.0"
688
+ pyyaml = ">=5.1"
689
+ regex = "!=2019.12.17"
690
+ requests = "*"
691
+ tokenizers = ">=0.11.1,<0.11.3 || >0.11.3,<0.14"
692
+ tqdm = ">=4.27"
693
+
694
+ [package.extras]
695
+ accelerate = ["accelerate (>=0.10.0)"]
696
+ all = ["tensorflow (>=2.4,<2.12)", "onnxconverter-common", "tf2onnx", "tensorflow-text", "keras-nlp (>=0.3.1)", "torch (>=1.7,<1.12.0 || >1.12.0)", "jax (>=0.2.8,<0.3.2 || >0.3.2,<=0.3.6)", "jaxlib (>=0.1.65,<=0.3.6)", "flax (>=0.4.1)", "optax (>=0.0.8)", "sentencepiece (>=0.1.91,<0.1.92 || >0.1.92)", "protobuf (<=3.20.2)", "tokenizers (>=0.11.1,<0.11.3 || >0.11.3,<0.14)", "torchaudio", "librosa", "pyctcdecode (>=0.4.0)", "phonemizer", "kenlm", "pillow", "optuna", "ray", "sigopt", "timm", "codecarbon (1.2.0)", "accelerate (>=0.10.0)", "decord (0.6.0)"]
697
+ audio = ["librosa", "pyctcdecode (>=0.4.0)", "phonemizer", "kenlm"]
698
+ codecarbon = ["codecarbon (1.2.0)"]
699
+ deepspeed = ["deepspeed (>=0.6.5)", "accelerate (>=0.10.0)"]
700
+ deepspeed-testing = ["deepspeed (>=0.6.5)", "accelerate (>=0.10.0)", "pytest", "pytest-xdist", "timeout-decorator", "parameterized", "psutil", "datasets (!=2.5.0)", "dill (<0.3.5)", "evaluate (>=0.2.0)", "pytest-timeout", "black (22.3)", "sacrebleu (>=1.4.12,<2.0.0)", "rouge-score (<0.0.7 || >0.0.7,<0.0.8 || >0.0.8,<0.1 || >0.1,<0.1.1 || >0.1.1)", "nltk", "GitPython (<3.1.19)", "hf-doc-builder (>=0.3.0)", "protobuf (<=3.20.2)", "sacremoses", "rjieba", "safetensors (>=0.2.1)", "beautifulsoup4", "faiss-cpu", "cookiecutter (1.7.3)", "optuna", "sentencepiece (>=0.1.91,<0.1.92 || >0.1.92)"]
701
+ dev = ["tensorflow (>=2.4,<2.12)", "onnxconverter-common", "tf2onnx", "tensorflow-text", "keras-nlp (>=0.3.1)", "torch (>=1.7,<1.12.0 || >1.12.0)", "jax (>=0.2.8,<0.3.2 || >0.3.2,<=0.3.6)", "jaxlib (>=0.1.65,<=0.3.6)", "flax (>=0.4.1)", "optax (>=0.0.8)", "sentencepiece (>=0.1.91,<0.1.92 || >0.1.92)", "protobuf (<=3.20.2)", "tokenizers (>=0.11.1,<0.11.3 || >0.11.3,<0.14)", "torchaudio", "librosa", "pyctcdecode (>=0.4.0)", "phonemizer", "kenlm", "pillow", "optuna", "ray", "sigopt", "timm", "codecarbon (1.2.0)", "accelerate (>=0.10.0)", "decord (0.6.0)", "pytest", "pytest-xdist", "timeout-decorator", "parameterized", "psutil", "datasets (!=2.5.0)", "dill (<0.3.5)", "evaluate (>=0.2.0)", "pytest-timeout", "black (22.3)", "sacrebleu (>=1.4.12,<2.0.0)", "rouge-score (<0.0.7 || >0.0.7,<0.0.8 || >0.0.8,<0.1 || >0.1,<0.1.1 || >0.1.1)", "nltk", "GitPython (<3.1.19)", "hf-doc-builder (>=0.3.0)", "sacremoses", "rjieba", "safetensors (>=0.2.1)", "beautifulsoup4", "faiss-cpu", "cookiecutter (1.7.3)", "isort (>=5.5.4)", "flake8 (>=3.8.3)", "fugashi (>=1.0)", "ipadic (>=1.0.0,<2.0)", "unidic-lite (>=1.0.7)", "unidic (>=1.0.2)", "sudachipy (>=0.6.6)", "sudachidict-core (>=20220729)", "rhoknp (>=1.1.0)", "hf-doc-builder", "scikit-learn"]
702
+ dev-tensorflow = ["pytest", "pytest-xdist", "timeout-decorator", "parameterized", "psutil", "datasets (!=2.5.0)", "dill (<0.3.5)", "evaluate (>=0.2.0)", "pytest-timeout", "black (22.3)", "sacrebleu (>=1.4.12,<2.0.0)", "rouge-score (<0.0.7 || >0.0.7,<0.0.8 || >0.0.8,<0.1 || >0.1,<0.1.1 || >0.1.1)", "nltk", "GitPython (<3.1.19)", "hf-doc-builder (>=0.3.0)", "protobuf (<=3.20.2)", "sacremoses", "rjieba", "safetensors (>=0.2.1)", "beautifulsoup4", "faiss-cpu", "cookiecutter (1.7.3)", "tensorflow (>=2.4,<2.12)", "onnxconverter-common", "tf2onnx", "tensorflow-text", "keras-nlp (>=0.3.1)", "sentencepiece (>=0.1.91,<0.1.92 || >0.1.92)", "tokenizers (>=0.11.1,<0.11.3 || >0.11.3,<0.14)", "pillow", "isort (>=5.5.4)", "flake8 (>=3.8.3)", "hf-doc-builder", "scikit-learn", "onnxruntime (>=1.4.0)", "onnxruntime-tools (>=1.4.2)", "librosa", "pyctcdecode (>=0.4.0)", "phonemizer", "kenlm"]
703
+ dev-torch = ["pytest", "pytest-xdist", "timeout-decorator", "parameterized", "psutil", "datasets (!=2.5.0)", "dill (<0.3.5)", "evaluate (>=0.2.0)", "pytest-timeout", "black (22.3)", "sacrebleu (>=1.4.12,<2.0.0)", "rouge-score (<0.0.7 || >0.0.7,<0.0.8 || >0.0.8,<0.1 || >0.1,<0.1.1 || >0.1.1)", "nltk", "GitPython (<3.1.19)", "hf-doc-builder (>=0.3.0)", "protobuf (<=3.20.2)", "sacremoses", "rjieba", "safetensors (>=0.2.1)", "beautifulsoup4", "faiss-cpu", "cookiecutter (1.7.3)", "torch (>=1.7,<1.12.0 || >1.12.0)", "sentencepiece (>=0.1.91,<0.1.92 || >0.1.92)", "tokenizers (>=0.11.1,<0.11.3 || >0.11.3,<0.14)", "torchaudio", "librosa", "pyctcdecode (>=0.4.0)", "phonemizer", "kenlm", "pillow", "optuna", "ray", "sigopt", "timm", "codecarbon (1.2.0)", "isort (>=5.5.4)", "flake8 (>=3.8.3)", "fugashi (>=1.0)", "ipadic (>=1.0.0,<2.0)", "unidic-lite (>=1.0.7)", "unidic (>=1.0.2)", "sudachipy (>=0.6.6)", "sudachidict-core (>=20220729)", "rhoknp (>=1.1.0)", "hf-doc-builder", "scikit-learn", "onnxruntime (>=1.4.0)", "onnxruntime-tools (>=1.4.2)"]
704
+ docs = ["tensorflow (>=2.4,<2.12)", "onnxconverter-common", "tf2onnx", "tensorflow-text", "keras-nlp (>=0.3.1)", "torch (>=1.7,<1.12.0 || >1.12.0)", "jax (>=0.2.8,<0.3.2 || >0.3.2,<=0.3.6)", "jaxlib (>=0.1.65,<=0.3.6)", "flax (>=0.4.1)", "optax (>=0.0.8)", "sentencepiece (>=0.1.91,<0.1.92 || >0.1.92)", "protobuf (<=3.20.2)", "tokenizers (>=0.11.1,<0.11.3 || >0.11.3,<0.14)", "torchaudio", "librosa", "pyctcdecode (>=0.4.0)", "phonemizer", "kenlm", "pillow", "optuna", "ray", "sigopt", "timm", "codecarbon (1.2.0)", "accelerate (>=0.10.0)", "decord (0.6.0)", "hf-doc-builder"]
705
+ docs_specific = ["hf-doc-builder"]
706
+ fairscale = ["fairscale (>0.3)"]
707
+ flax = ["jax (>=0.2.8,<0.3.2 || >0.3.2,<=0.3.6)", "jaxlib (>=0.1.65,<=0.3.6)", "flax (>=0.4.1)", "optax (>=0.0.8)"]
708
+ flax-speech = ["librosa", "pyctcdecode (>=0.4.0)", "phonemizer", "kenlm"]
709
+ ftfy = ["ftfy"]
710
+ integrations = ["optuna", "ray", "sigopt"]
711
+ ja = ["fugashi (>=1.0)", "ipadic (>=1.0.0,<2.0)", "unidic-lite (>=1.0.7)", "unidic (>=1.0.2)", "sudachipy (>=0.6.6)", "sudachidict-core (>=20220729)", "rhoknp (>=1.1.0)"]
712
+ modelcreation = ["cookiecutter (1.7.3)"]
713
+ natten = ["natten (>=0.14.4)"]
714
+ onnx = ["onnxconverter-common", "tf2onnx", "onnxruntime (>=1.4.0)", "onnxruntime-tools (>=1.4.2)"]
715
+ onnxruntime = ["onnxruntime (>=1.4.0)", "onnxruntime-tools (>=1.4.2)"]
716
+ optuna = ["optuna"]
717
+ quality = ["black (22.3)", "datasets (!=2.5.0)", "isort (>=5.5.4)", "flake8 (>=3.8.3)", "GitPython (<3.1.19)", "hf-doc-builder (>=0.3.0)"]
718
+ ray = ["ray"]
719
+ retrieval = ["faiss-cpu", "datasets (!=2.5.0)"]
720
+ sagemaker = ["sagemaker (>=2.31.0)"]
721
+ sentencepiece = ["sentencepiece (>=0.1.91,<0.1.92 || >0.1.92)", "protobuf (<=3.20.2)"]
722
+ serving = ["pydantic", "uvicorn", "fastapi", "starlette"]
723
+ sigopt = ["sigopt"]
724
+ sklearn = ["scikit-learn"]
725
+ speech = ["torchaudio", "librosa", "pyctcdecode (>=0.4.0)", "phonemizer", "kenlm"]
726
+ testing = ["pytest", "pytest-xdist", "timeout-decorator", "parameterized", "psutil", "datasets (!=2.5.0)", "dill (<0.3.5)", "evaluate (>=0.2.0)", "pytest-timeout", "black (22.3)", "sacrebleu (>=1.4.12,<2.0.0)", "rouge-score (<0.0.7 || >0.0.7,<0.0.8 || >0.0.8,<0.1 || >0.1,<0.1.1 || >0.1.1)", "nltk", "GitPython (<3.1.19)", "hf-doc-builder (>=0.3.0)", "protobuf (<=3.20.2)", "sacremoses", "rjieba", "safetensors (>=0.2.1)", "beautifulsoup4", "faiss-cpu", "cookiecutter (1.7.3)"]
727
+ tf = ["tensorflow (>=2.4,<2.12)", "onnxconverter-common", "tf2onnx", "tensorflow-text", "keras-nlp (>=0.3.1)"]
728
+ tf-cpu = ["tensorflow-cpu (>=2.4,<2.12)", "onnxconverter-common", "tf2onnx", "tensorflow-text", "keras-nlp (>=0.3.1)"]
729
+ tf-speech = ["librosa", "pyctcdecode (>=0.4.0)", "phonemizer", "kenlm"]
730
+ timm = ["timm"]
731
+ tokenizers = ["tokenizers (>=0.11.1,<0.11.3 || >0.11.3,<0.14)"]
732
+ torch = ["torch (>=1.7,<1.12.0 || >1.12.0)"]
733
+ torch-speech = ["torchaudio", "librosa", "pyctcdecode (>=0.4.0)", "phonemizer", "kenlm"]
734
+ torchhub = ["filelock", "huggingface-hub (>=0.11.0,<1.0)", "importlib-metadata", "numpy (>=1.17)", "packaging (>=20.0)", "protobuf (<=3.20.2)", "regex (!=2019.12.17)", "requests", "sentencepiece (>=0.1.91,<0.1.92 || >0.1.92)", "torch (>=1.7,<1.12.0 || >1.12.0)", "tokenizers (>=0.11.1,<0.11.3 || >0.11.3,<0.14)", "tqdm (>=4.27)"]
735
+ video = ["decord (0.6.0)"]
736
+ vision = ["pillow"]
737
+
738
+ [[package]]
739
+ name = "typing-extensions"
740
+ version = "4.4.0"
741
+ description = "Backported and Experimental Type Hints for Python 3.7+"
742
+ category = "main"
743
+ optional = false
744
+ python-versions = ">=3.7"
745
+
746
+ [[package]]
747
+ name = "tzdata"
748
+ version = "2022.7"
749
+ description = "Provider of IANA time zone data"
750
+ category = "main"
751
+ optional = false
752
+ python-versions = ">=2"
753
+
754
+ [[package]]
755
+ name = "tzlocal"
756
+ version = "4.2"
757
+ description = "tzinfo object for the local timezone"
758
+ category = "main"
759
+ optional = false
760
+ python-versions = ">=3.6"
761
+
762
+ [package.dependencies]
763
+ "backports.zoneinfo" = {version = "*", markers = "python_version < \"3.9\""}
764
+ pytz-deprecation-shim = "*"
765
+ tzdata = {version = "*", markers = "platform_system == \"Windows\""}
766
+
767
+ [package.extras]
768
+ devenv = ["black", "pyroma", "pytest-cov", "zest.releaser"]
769
+ test = ["pytest-mock (>=3.3)", "pytest (>=4.3)"]
770
+
771
+ [[package]]
772
+ name = "unidic-lite"
773
+ version = "1.0.8"
774
+ description = "A small version of UniDic packaged for Python"
775
+ category = "main"
776
+ optional = false
777
+ python-versions = "*"
778
+
779
+ [[package]]
780
+ name = "urllib3"
781
+ version = "1.26.14"
782
+ description = "HTTP library with thread-safe connection pooling, file post, and more."
783
+ category = "main"
784
+ optional = false
785
+ python-versions = ">=2.7, !=3.0.*, !=3.1.*, !=3.2.*, !=3.3.*, !=3.4.*, !=3.5.*"
786
+
787
+ [package.extras]
788
+ brotli = ["brotlicffi (>=0.8.0)", "brotli (>=1.0.9)", "brotlipy (>=0.6.0)"]
789
+ secure = ["pyOpenSSL (>=0.14)", "cryptography (>=1.3.4)", "idna (>=2.0.0)", "certifi", "urllib3-secure-extra", "ipaddress"]
790
+ socks = ["PySocks (>=1.5.6,<1.5.7 || >1.5.7,<2.0)"]
791
+
792
+ [[package]]
793
+ name = "validators"
794
+ version = "0.20.0"
795
+ description = "Python Data Validation for Humans™."
796
+ category = "main"
797
+ optional = false
798
+ python-versions = ">=3.4"
799
+
800
+ [package.dependencies]
801
+ decorator = ">=3.4.0"
802
+
803
+ [package.extras]
804
+ test = ["pytest (>=2.2.3)", "flake8 (>=2.4.0)", "isort (>=4.2.2)"]
805
+
806
+ [[package]]
807
+ name = "watchdog"
808
+ version = "2.2.1"
809
+ description = "Filesystem events monitoring"
810
+ category = "main"
811
+ optional = false
812
+ python-versions = ">=3.6"
813
+
814
+ [package.extras]
815
+ watchmedo = ["PyYAML (>=3.10)"]
816
+
817
+ [[package]]
818
+ name = "zipp"
819
+ version = "3.12.1"
820
+ description = "Backport of pathlib-compatible object wrapper for zip files"
821
+ category = "main"
822
+ optional = false
823
+ python-versions = ">=3.7"
824
+
825
+ [package.extras]
826
+ docs = ["sphinx (>=3.5)", "jaraco.packaging (>=9)", "rst.linker (>=1.9)", "furo", "sphinx-lint", "jaraco.tidelift (>=1.4)"]
827
+ testing = ["pytest (>=6)", "pytest-checkdocs (>=2.4)", "flake8 (<5)", "pytest-cov", "pytest-enabler (>=1.3)", "jaraco.itertools", "func-timeout", "jaraco.functools", "more-itertools", "pytest-black (>=0.3.7)", "pytest-mypy (>=0.9.1)", "pytest-flake8"]
828
+
829
+ [metadata]
830
+ lock-version = "1.1"
831
+ python-versions = ">=3.8,<3.9.7 || >3.9.7,<4.0"
832
+ content-hash = "4660d05b84b501843a9c274f153a98cb8183d0bea37bbff580bd3b74fdaf0873"
833
+
834
+ [metadata.files]
835
+ altair = []
836
+ attrs = []
837
+ "backports.zoneinfo" = [
838
+ {file = "backports.zoneinfo-0.2.1-cp36-cp36m-macosx_10_14_x86_64.whl", hash = "sha256:da6013fd84a690242c310d77ddb8441a559e9cb3d3d59ebac9aca1a57b2e18bc"},
839
+ {file = "backports.zoneinfo-0.2.1-cp36-cp36m-manylinux1_i686.whl", hash = "sha256:89a48c0d158a3cc3f654da4c2de1ceba85263fafb861b98b59040a5086259722"},
840
+ {file = "backports.zoneinfo-0.2.1-cp36-cp36m-manylinux1_x86_64.whl", hash = "sha256:1c5742112073a563c81f786e77514969acb58649bcdf6cdf0b4ed31a348d4546"},
841
+ {file = "backports.zoneinfo-0.2.1-cp36-cp36m-win32.whl", hash = "sha256:e8236383a20872c0cdf5a62b554b27538db7fa1bbec52429d8d106effbaeca08"},
842
+ {file = "backports.zoneinfo-0.2.1-cp36-cp36m-win_amd64.whl", hash = "sha256:8439c030a11780786a2002261569bdf362264f605dfa4d65090b64b05c9f79a7"},
843
+ {file = "backports.zoneinfo-0.2.1-cp37-cp37m-macosx_10_14_x86_64.whl", hash = "sha256:f04e857b59d9d1ccc39ce2da1021d196e47234873820cbeaad210724b1ee28ac"},
844
+ {file = "backports.zoneinfo-0.2.1-cp37-cp37m-manylinux1_i686.whl", hash = "sha256:17746bd546106fa389c51dbea67c8b7c8f0d14b5526a579ca6ccf5ed72c526cf"},
845
+ {file = "backports.zoneinfo-0.2.1-cp37-cp37m-manylinux1_x86_64.whl", hash = "sha256:5c144945a7752ca544b4b78c8c41544cdfaf9786f25fe5ffb10e838e19a27570"},
846
+ {file = "backports.zoneinfo-0.2.1-cp37-cp37m-win32.whl", hash = "sha256:e55b384612d93be96506932a786bbcde5a2db7a9e6a4bb4bffe8b733f5b9036b"},
847
+ {file = "backports.zoneinfo-0.2.1-cp37-cp37m-win_amd64.whl", hash = "sha256:a76b38c52400b762e48131494ba26be363491ac4f9a04c1b7e92483d169f6582"},
848
+ {file = "backports.zoneinfo-0.2.1-cp38-cp38-macosx_10_14_x86_64.whl", hash = "sha256:8961c0f32cd0336fb8e8ead11a1f8cd99ec07145ec2931122faaac1c8f7fd987"},
849
+ {file = "backports.zoneinfo-0.2.1-cp38-cp38-manylinux1_i686.whl", hash = "sha256:e81b76cace8eda1fca50e345242ba977f9be6ae3945af8d46326d776b4cf78d1"},
850
+ {file = "backports.zoneinfo-0.2.1-cp38-cp38-manylinux1_x86_64.whl", hash = "sha256:7b0a64cda4145548fed9efc10322770f929b944ce5cee6c0dfe0c87bf4c0c8c9"},
851
+ {file = "backports.zoneinfo-0.2.1-cp38-cp38-win32.whl", hash = "sha256:1b13e654a55cd45672cb54ed12148cd33628f672548f373963b0bff67b217328"},
852
+ {file = "backports.zoneinfo-0.2.1-cp38-cp38-win_amd64.whl", hash = "sha256:4a0f800587060bf8880f954dbef70de6c11bbe59c673c3d818921f042f9954a6"},
853
+ {file = "backports.zoneinfo-0.2.1.tar.gz", hash = "sha256:fadbfe37f74051d024037f223b8e001611eac868b5c5b06144ef4d8b799862f2"},
854
+ ]
855
+ blinker = []
856
+ cachetools = []
857
+ certifi = []
858
+ charset-normalizer = []
859
+ click = [
860
+ {file = "click-8.1.3-py3-none-any.whl", hash = "sha256:bb4d8133cb15a609f44e8213d9b391b0809795062913b383c62be0ee95b1db48"},
861
+ {file = "click-8.1.3.tar.gz", hash = "sha256:7682dc8afb30297001674575ea00d1814d808d6a36af415a82bd481d37ba7b8e"},
862
+ ]
863
+ colorama = []
864
+ decorator = [
865
+ {file = "decorator-5.1.1-py3-none-any.whl", hash = "sha256:b8c3f85900b9dc423225913c5aace94729fe1fa9763b38939a95226f02d37186"},
866
+ {file = "decorator-5.1.1.tar.gz", hash = "sha256:637996211036b6385ef91435e4fae22989472f9d571faba8927ba8253acbc330"},
867
+ ]
868
+ entrypoints = [
869
+ {file = "entrypoints-0.4-py3-none-any.whl", hash = "sha256:f174b5ff827504fd3cd97cc3f8649f3693f51538c7e4bdf3ef002c8429d42f9f"},
870
+ {file = "entrypoints-0.4.tar.gz", hash = "sha256:b706eddaa9218a19ebcd67b56818f05bb27589b1ca9e8d797b74affad4ccacd4"},
871
+ ]
872
+ faiss-cpu = []
873
+ filelock = []
874
+ fugashi = []
875
+ gitdb = []
876
+ gitpython = []
877
+ huggingface-hub = []
878
+ idna = []
879
+ importlib-metadata = []
880
+ importlib-resources = []
881
+ ipadic = [
882
+ {file = "ipadic-1.0.0.tar.gz", hash = "sha256:f5923d31eca6131acaaf18ed28d8998665b1347b640d3a6476f64650e9a71c07"},
883
+ ]
884
+ jinja2 = [
885
+ {file = "Jinja2-3.1.2-py3-none-any.whl", hash = "sha256:6088930bfe239f0e6710546ab9c19c9ef35e29792895fed6e6e31a023a182a61"},
886
+ {file = "Jinja2-3.1.2.tar.gz", hash = "sha256:31351a702a408a9e7595a8fc6150fc3f43bb6bf7e319770cbc0db9df9437e852"},
887
+ ]
888
+ jsonschema = []
889
+ markdown-it-py = []
890
+ markupsafe = []
891
+ mdurl = []
892
+ numpy = []
893
+ nvidia-cublas-cu11 = []
894
+ nvidia-cuda-nvrtc-cu11 = []
895
+ nvidia-cuda-runtime-cu11 = []
896
+ nvidia-cudnn-cu11 = []
897
+ packaging = []
898
+ pandas = []
899
+ pillow = []
900
+ pkgutil-resolve-name = []
901
+ protobuf = []
902
+ pyarrow = []
903
+ pydeck = []
904
+ pygments = []
905
+ pympler = [
906
+ {file = "Pympler-1.0.1-py3-none-any.whl", hash = "sha256:d260dda9ae781e1eab6ea15bacb84015849833ba5555f141d2d9b7b7473b307d"},
907
+ {file = "Pympler-1.0.1.tar.gz", hash = "sha256:993f1a3599ca3f4fcd7160c7545ad06310c9e12f70174ae7ae8d4e25f6c5d3fa"},
908
+ ]
909
+ pyrsistent = []
910
+ python-dateutil = [
911
+ {file = "python-dateutil-2.8.2.tar.gz", hash = "sha256:0123cacc1627ae19ddf3c27a5de5bd67ee4586fbdd6440d9748f8abb483d3e86"},
912
+ {file = "python_dateutil-2.8.2-py2.py3-none-any.whl", hash = "sha256:961d03dc3453ebbc59dbdea9e4e11c5651520a876d0f4db161e8674aae935da9"},
913
+ ]
914
+ pytz = []
915
+ pytz-deprecation-shim = [
916
+ {file = "pytz_deprecation_shim-0.1.0.post0-py2.py3-none-any.whl", hash = "sha256:8314c9692a636c8eb3bda879b9f119e350e93223ae83e70e80c31675a0fdc1a6"},
917
+ {file = "pytz_deprecation_shim-0.1.0.post0.tar.gz", hash = "sha256:af097bae1b616dde5c5744441e2ddc69e74dfdcb0c263129610d85b87445a59d"},
918
+ ]
919
+ pyyaml = [
920
+ {file = "PyYAML-6.0-cp310-cp310-macosx_10_9_x86_64.whl", hash = "sha256:d4db7c7aef085872ef65a8fd7d6d09a14ae91f691dec3e87ee5ee0539d516f53"},
921
+ {file = "PyYAML-6.0-cp310-cp310-macosx_11_0_arm64.whl", hash = "sha256:9df7ed3b3d2e0ecfe09e14741b857df43adb5a3ddadc919a2d94fbdf78fea53c"},
922
+ {file = "PyYAML-6.0-cp310-cp310-manylinux_2_17_aarch64.manylinux2014_aarch64.whl", hash = "sha256:77f396e6ef4c73fdc33a9157446466f1cff553d979bd00ecb64385760c6babdc"},
923
+ {file = "PyYAML-6.0-cp310-cp310-manylinux_2_17_s390x.manylinux2014_s390x.whl", hash = "sha256:a80a78046a72361de73f8f395f1f1e49f956c6be882eed58505a15f3e430962b"},
924
+ {file = "PyYAML-6.0-cp310-cp310-manylinux_2_5_x86_64.manylinux1_x86_64.manylinux_2_12_x86_64.manylinux2010_x86_64.whl", hash = "sha256:f84fbc98b019fef2ee9a1cb3ce93e3187a6df0b2538a651bfb890254ba9f90b5"},
925
+ {file = "PyYAML-6.0-cp310-cp310-win32.whl", hash = "sha256:2cd5df3de48857ed0544b34e2d40e9fac445930039f3cfe4bcc592a1f836d513"},
926
+ {file = "PyYAML-6.0-cp310-cp310-win_amd64.whl", hash = "sha256:daf496c58a8c52083df09b80c860005194014c3698698d1a57cbcfa182142a3a"},
927
+ {file = "PyYAML-6.0-cp36-cp36m-macosx_10_9_x86_64.whl", hash = "sha256:897b80890765f037df3403d22bab41627ca8811ae55e9a722fd0392850ec4d86"},
928
+ {file = "PyYAML-6.0-cp36-cp36m-manylinux_2_17_aarch64.manylinux2014_aarch64.whl", hash = "sha256:50602afada6d6cbfad699b0c7bb50d5ccffa7e46a3d738092afddc1f9758427f"},
929
+ {file = "PyYAML-6.0-cp36-cp36m-manylinux_2_17_s390x.manylinux2014_s390x.whl", hash = "sha256:48c346915c114f5fdb3ead70312bd042a953a8ce5c7106d5bfb1a5254e47da92"},
930
+ {file = "PyYAML-6.0-cp36-cp36m-manylinux_2_5_x86_64.manylinux1_x86_64.manylinux_2_12_x86_64.manylinux2010_x86_64.whl", hash = "sha256:98c4d36e99714e55cfbaaee6dd5badbc9a1ec339ebfc3b1f52e293aee6bb71a4"},
931
+ {file = "PyYAML-6.0-cp36-cp36m-win32.whl", hash = "sha256:0283c35a6a9fbf047493e3a0ce8d79ef5030852c51e9d911a27badfde0605293"},
932
+ {file = "PyYAML-6.0-cp36-cp36m-win_amd64.whl", hash = "sha256:07751360502caac1c067a8132d150cf3d61339af5691fe9e87803040dbc5db57"},
933
+ {file = "PyYAML-6.0-cp37-cp37m-macosx_10_9_x86_64.whl", hash = "sha256:819b3830a1543db06c4d4b865e70ded25be52a2e0631ccd2f6a47a2822f2fd7c"},
934
+ {file = "PyYAML-6.0-cp37-cp37m-manylinux_2_17_aarch64.manylinux2014_aarch64.whl", hash = "sha256:473f9edb243cb1935ab5a084eb238d842fb8f404ed2193a915d1784b5a6b5fc0"},
935
+ {file = "PyYAML-6.0-cp37-cp37m-manylinux_2_17_s390x.manylinux2014_s390x.whl", hash = "sha256:0ce82d761c532fe4ec3f87fc45688bdd3a4c1dc5e0b4a19814b9009a29baefd4"},
936
+ {file = "PyYAML-6.0-cp37-cp37m-manylinux_2_5_x86_64.manylinux1_x86_64.manylinux_2_12_x86_64.manylinux2010_x86_64.whl", hash = "sha256:231710d57adfd809ef5d34183b8ed1eeae3f76459c18fb4a0b373ad56bedcdd9"},
937
+ {file = "PyYAML-6.0-cp37-cp37m-win32.whl", hash = "sha256:c5687b8d43cf58545ade1fe3e055f70eac7a5a1a0bf42824308d868289a95737"},
938
+ {file = "PyYAML-6.0-cp37-cp37m-win_amd64.whl", hash = "sha256:d15a181d1ecd0d4270dc32edb46f7cb7733c7c508857278d3d378d14d606db2d"},
939
+ {file = "PyYAML-6.0-cp38-cp38-macosx_10_9_x86_64.whl", hash = "sha256:0b4624f379dab24d3725ffde76559cff63d9ec94e1736b556dacdfebe5ab6d4b"},
940
+ {file = "PyYAML-6.0-cp38-cp38-manylinux_2_17_aarch64.manylinux2014_aarch64.whl", hash = "sha256:213c60cd50106436cc818accf5baa1aba61c0189ff610f64f4a3e8c6726218ba"},
941
+ {file = "PyYAML-6.0-cp38-cp38-manylinux_2_17_s390x.manylinux2014_s390x.whl", hash = "sha256:9fa600030013c4de8165339db93d182b9431076eb98eb40ee068700c9c813e34"},
942
+ {file = "PyYAML-6.0-cp38-cp38-manylinux_2_5_x86_64.manylinux1_x86_64.manylinux_2_12_x86_64.manylinux2010_x86_64.whl", hash = "sha256:277a0ef2981ca40581a47093e9e2d13b3f1fbbeffae064c1d21bfceba2030287"},
943
+ {file = "PyYAML-6.0-cp38-cp38-win32.whl", hash = "sha256:d4eccecf9adf6fbcc6861a38015c2a64f38b9d94838ac1810a9023a0609e1b78"},
944
+ {file = "PyYAML-6.0-cp38-cp38-win_amd64.whl", hash = "sha256:1e4747bc279b4f613a09eb64bba2ba602d8a6664c6ce6396a4d0cd413a50ce07"},
945
+ {file = "PyYAML-6.0-cp39-cp39-macosx_10_9_x86_64.whl", hash = "sha256:055d937d65826939cb044fc8c9b08889e8c743fdc6a32b33e2390f66013e449b"},
946
+ {file = "PyYAML-6.0-cp39-cp39-macosx_11_0_arm64.whl", hash = "sha256:e61ceaab6f49fb8bdfaa0f92c4b57bcfbea54c09277b1b4f7ac376bfb7a7c174"},
947
+ {file = "PyYAML-6.0-cp39-cp39-manylinux_2_17_aarch64.manylinux2014_aarch64.whl", hash = "sha256:d67d839ede4ed1b28a4e8909735fc992a923cdb84e618544973d7dfc71540803"},
948
+ {file = "PyYAML-6.0-cp39-cp39-manylinux_2_17_s390x.manylinux2014_s390x.whl", hash = "sha256:cba8c411ef271aa037d7357a2bc8f9ee8b58b9965831d9e51baf703280dc73d3"},
949
+ {file = "PyYAML-6.0-cp39-cp39-manylinux_2_5_x86_64.manylinux1_x86_64.manylinux_2_12_x86_64.manylinux2010_x86_64.whl", hash = "sha256:40527857252b61eacd1d9af500c3337ba8deb8fc298940291486c465c8b46ec0"},
950
+ {file = "PyYAML-6.0-cp39-cp39-win32.whl", hash = "sha256:b5b9eccad747aabaaffbc6064800670f0c297e52c12754eb1d976c57e4f74dcb"},
951
+ {file = "PyYAML-6.0-cp39-cp39-win_amd64.whl", hash = "sha256:b3d267842bf12586ba6c734f89d1f5b871df0273157918b0ccefa29deb05c21c"},
952
+ {file = "PyYAML-6.0.tar.gz", hash = "sha256:68fb519c14306fec9720a2a5b45bc9f0c8d1b9c72adf45c37baedfcd949c35a2"},
953
+ ]
954
+ regex = []
955
+ requests = []
956
+ rich = []
957
+ semver = [
958
+ {file = "semver-2.13.0-py2.py3-none-any.whl", hash = "sha256:ced8b23dceb22134307c1b8abfa523da14198793d9787ac838e70e29e77458d4"},
959
+ {file = "semver-2.13.0.tar.gz", hash = "sha256:fa0fe2722ee1c3f57eac478820c3a5ae2f624af8264cbdf9000c980ff7f75e3f"},
960
+ ]
961
+ six = [
962
+ {file = "six-1.16.0-py2.py3-none-any.whl", hash = "sha256:8abb2f1d86890a2dfb989f9a77cfcfd3e47c2a354b01111771326f8aa26e0254"},
963
+ {file = "six-1.16.0.tar.gz", hash = "sha256:1e61c37477a1626458e36f7b1d82aa5c9b094fa4802892072e49de9c60c4c926"},
964
+ ]
965
+ smmap = [
966
+ {file = "smmap-5.0.0-py3-none-any.whl", hash = "sha256:2aba19d6a040e78d8b09de5c57e96207b09ed71d8e55ce0959eeee6c8e190d94"},
967
+ {file = "smmap-5.0.0.tar.gz", hash = "sha256:c840e62059cd3be204b0c9c9f74be2c09d5648eddd4580d9314c3ecde0b30936"},
968
+ ]
969
+ streamlit = []
970
+ tokenizers = []
971
+ toml = [
972
+ {file = "toml-0.10.2-py2.py3-none-any.whl", hash = "sha256:806143ae5bfb6a3c6e736a764057db0e6a0e05e338b5630894a5f779cabb4f9b"},
973
+ {file = "toml-0.10.2.tar.gz", hash = "sha256:b3bda1d108d5dd99f4a20d24d9c348e91c4db7ab1b749200bded2f839ccbe68f"},
974
+ ]
975
+ toolz = []
976
+ torch = []
977
+ tornado = [
978
+ {file = "tornado-6.2-cp37-abi3-macosx_10_9_universal2.whl", hash = "sha256:20f638fd8cc85f3cbae3c732326e96addff0a15e22d80f049e00121651e82e72"},
979
+ {file = "tornado-6.2-cp37-abi3-macosx_10_9_x86_64.whl", hash = "sha256:87dcafae3e884462f90c90ecc200defe5e580a7fbbb4365eda7c7c1eb809ebc9"},
980
+ {file = "tornado-6.2-cp37-abi3-manylinux_2_17_aarch64.manylinux2014_aarch64.whl", hash = "sha256:ba09ef14ca9893954244fd872798b4ccb2367c165946ce2dd7376aebdde8e3ac"},
981
+ {file = "tornado-6.2-cp37-abi3-manylinux_2_5_i686.manylinux1_i686.manylinux_2_17_i686.manylinux2014_i686.whl", hash = "sha256:b8150f721c101abdef99073bf66d3903e292d851bee51910839831caba341a75"},
982
+ {file = "tornado-6.2-cp37-abi3-manylinux_2_5_x86_64.manylinux1_x86_64.manylinux_2_17_x86_64.manylinux2014_x86_64.whl", hash = "sha256:d3a2f5999215a3a06a4fc218026cd84c61b8b2b40ac5296a6db1f1451ef04c1e"},
983
+ {file = "tornado-6.2-cp37-abi3-musllinux_1_1_aarch64.whl", hash = "sha256:5f8c52d219d4995388119af7ccaa0bcec289535747620116a58d830e7c25d8a8"},
984
+ {file = "tornado-6.2-cp37-abi3-musllinux_1_1_i686.whl", hash = "sha256:6fdfabffd8dfcb6cf887428849d30cf19a3ea34c2c248461e1f7d718ad30b66b"},
985
+ {file = "tornado-6.2-cp37-abi3-musllinux_1_1_x86_64.whl", hash = "sha256:1d54d13ab8414ed44de07efecb97d4ef7c39f7438cf5e976ccd356bebb1b5fca"},
986
+ {file = "tornado-6.2-cp37-abi3-win32.whl", hash = "sha256:5c87076709343557ef8032934ce5f637dbb552efa7b21d08e89ae7619ed0eb23"},
987
+ {file = "tornado-6.2-cp37-abi3-win_amd64.whl", hash = "sha256:e5f923aa6a47e133d1cf87d60700889d7eae68988704e20c75fb2d65677a8e4b"},
988
+ {file = "tornado-6.2.tar.gz", hash = "sha256:9b630419bde84ec666bfd7ea0a4cb2a8a651c2d5cccdbdd1972a0c859dfc3c13"},
989
+ ]
990
+ tqdm = []
991
+ transformers = []
992
+ typing-extensions = []
993
+ tzdata = []
994
+ tzlocal = [
995
+ {file = "tzlocal-4.2-py3-none-any.whl", hash = "sha256:89885494684c929d9191c57aa27502afc87a579be5cdd3225c77c463ea043745"},
996
+ {file = "tzlocal-4.2.tar.gz", hash = "sha256:ee5842fa3a795f023514ac2d801c4a81d1743bbe642e3940143326b3a00addd7"},
997
+ ]
998
+ unidic-lite = [
999
+ {file = "unidic-lite-1.0.8.tar.gz", hash = "sha256:db9d4572d9fdd4d00a97949d4b0741ec480ee05a7e7e2e32f547500dae27b245"},
1000
+ ]
1001
+ urllib3 = []
1002
+ validators = [
1003
+ {file = "validators-0.20.0.tar.gz", hash = "sha256:24148ce4e64100a2d5e267233e23e7afeb55316b47d30faae7eb6e7292bc226a"},
1004
+ ]
1005
+ watchdog = []
1006
+ zipp = []
pyproject.toml ADDED
@@ -0,0 +1,21 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [tool.poetry]
2
+ name = "nlp2023_title_search"
3
+ version = "0.1.0"
4
+ description = ""
5
+ authors = ["HelloRusk <hellorusk1998@gmail.com>"]
6
+
7
+ [tool.poetry.dependencies]
8
+ python = ">=3.8,<3.9.7 || >3.9.7,<4.0"
9
+ faiss-cpu = "^1.7.3"
10
+ transformers = "^4.26.0"
11
+ torch = "^1.13.1"
12
+ fugashi = "^1.2.1"
13
+ ipadic = "^1.0.0"
14
+ streamlit = "^1.17.0"
15
+ unidic-lite = "^1.0.8"
16
+
17
+ [tool.poetry.dev-dependencies]
18
+
19
+ [build-system]
20
+ requires = ["poetry-core>=1.0.0"]
21
+ build-backend = "poetry.core.masonry.api"
requirements.txt ADDED
@@ -0,0 +1,6 @@
 
 
 
 
 
 
 
1
+ faiss-cpu==1.7.3
2
+ transformers==4.26.0
3
+ torch==1.13.1
4
+ fugashi==1.2.1
5
+ ipadic==1.0.0
6
+ unidic-lite==1.0.8