en
sequencelengths
2
2
ms
sequencelengths
2
2
[ "A pun is a form of Wordplay in which one sign (E.G ., a word or phrase) suggests two or more meanings by exploiting Polysemy, Homonymy, or Phonological similarity to another sign, for an intended humorous or Rhetorical effect (Aarons , 2017; Hempelmann and Miller , 2017).", "A pun is a form of Wordplay, which is often Profiled by exploiting Polysemy of a word or by replacing a Phonetically similar sounding word for an intended humorous effect." ]
[ "A pun adalah bentuk Wordplay di mana satu tanda (E.G., perkataan atau frasa) mencadangkan dua atau lebih makna dengan mengeksploitasi Polysemy, Homonymy, atau persamaan Phonologi dengan tanda lain, untuk kesan humor atau Rhetorical yang dimaksudkan (Aarons, 2017; Hempelmann dan Miller, 2017).", "A pun adalah satu bentuk Wordplay, yang sering Diprofilkan dengan mengeksploitasi Polysemy perkataan atau dengan menggantikan perkataan yang serupa Phonetically untuk kesan lucu yang dimaksudkan." ]
[ "Previous work has shown that Unlabeled text can be used to induce Unsupervised word clusters which can improve the performance of many supervised Nlp tasks.", "Previous work has shown that Unlabeled text can be used to induce Unsupervised word clusters that can improve performance of many supervised Nlp tasks." ]
[ "Kerja terdahulu telah menunjukkan bahawa teks Unlabeled boleh digunakan untuk mendorong kluster perkataan Unsupervised yang boleh meningkatkan prestasi banyak tugas Nlp yang diawasi.", "Kerja terdahulu telah menunjukkan bahawa teks Unlabeled boleh digunakan untuk mendorong kluster perkataan Unsupervised yang boleh meningkatkan prestasi banyak tugas Nlp yang diawasi." ]
[ "This paper has described an Unsupervised topic identification method integrating linguistic and visual information based on hidden Markov models.", "This paper presents an Unsupervised topic identification method integrating linguistic and visual information based on hidden Markov models." ]
[ "Kertas ini telah menerangkan kaedah pengenalan topik yang tidak diawasi yang mengintegrasikan maklumat linguistik dan visual berdasarkan model Markov tersembunyi.", "Kertas ini membentangkan kaedah pengenalan topik yang tidak diawasi yang mengintegrasikan maklumat linguistik dan visual berdasarkan model Markov tersembunyi." ]
[ "We use a Fourgram language model with modified Kneser-Ney smoothing as implemented in the Srilm Toolkit.", "For the language model, we used Srilm with modified Kneser-Ney smoothing." ]
[ "Kami menggunakan model bahasa Fourgram dengan smoothing Kneser-Ney yang diubahsuai seperti yang dilaksanakan dalam Srilm Toolkit.", "Untuk model bahasa, kami menggunakan Srilm dengan smoothing Kneser-Ney yang diubahsuai." ]
[ "In this paper we present a learning algorithm and an architecture with properties suitable for this domain.", "In this paper we describe an architecture that utilizes this Mistake-Driven algorithm for Multi-Class prediction." ]
[ "Dalam makalah ini kami membentangkan algoritma pembelajaran dan seni bina dengan sifat yang sesuai untuk domain ini.", "Dalam makalah ini kita menerangkan seni bina yang menggunakan algoritma Kesalahan-Driven ini untuk ramalan Multi-Class." ]
[ "In this paper, we presented a novel corpus of comparable texts that provides full discourse contexts for alternative Verbalizations.", "In this novel corpus, we identify common events across texts and investigate the argument structures that were realized in each context." ]
[ "Dalam makalah ini, kami membentangkan korpus novel teks setanding yang menyediakan konteks wacana penuh untuk Verbalisasi alternatif.", "Dalam korpus novel ini, kami mengenal pasti peristiwa umum merentasi teks dan menyiasat struktur hujah yang direalisasikan dalam setiap konteks." ]
[ "Experimental results show that our method achieves the best performance.", "Experimental results demonstrate that our approach Outperforms the state-of-the-art methods." ]
[ "Hasil eksperimen menunjukkan bahawa kaedah kami mencapai prestasi terbaik.", "Hasil eksperimen menunjukkan bahawa pendekatan kami Melaksanakan kaedah canggih." ]
[ "We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit.", "We build an Open-Vocabulary language model with Kneser-Ney smoothing using the Srilm Toolkit." ]
[ "Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit.", "Kami membina model bahasa Open-Vocabulary dengan smoothing Kneser-Ney menggunakan Srilm Toolkit." ]
[ "The model Simulates language processing as a collective phenomenon that emerges from a myriad of microscopic and diverse activities.", "This paper proposes that the process of language understanding can be modeled as a collective phenomenon that emerges from a myriad of microscopic and diverse activities." ]
[ "Model Simulasi pemprosesan bahasa sebagai fenomena kolektif yang muncul dari pelbagai aktiviti mikroskopik dan pelbagai.", "Kertas kerja ini mencadangkan bahawa proses pemahaman bahasa boleh dimodelkan sebagai fenomena kolektif yang muncul dari pelbagai aktiviti mikroskopik dan pelbagai." ]
[ "We compared our system to Pharaoh, a leading Phrasal Smt Decoder, and our Treelet system.", "As a baseline we compared our results with the publicly available Phrase-Based system Pharaoh, using the default feature set." ]
[ "Kami membandingkan sistem kami dengan Firaun, seorang Penyahkod Phrasal Smt terkemuka, dan sistem Treelet kami.", "Sebagai asas kami membandingkan hasil kami dengan sistem Berasaskan Frasa yang tersedia secara terbuka, Firaun, menggunakan set ciri lalai." ]
[ "Text simplification (ts) is a Monolingual Text-To-Text transformation task where an original (complex) text is transformed into a target (simpler) text.", "Text simplification (ts) is generally defined as the conversion of a sentence into one or more simpler sentences." ]
[ "Permudahan teks (ts) adalah tugas transformasi Teks-Ke-Teks Monolingual di mana teks asal (kompleks) diubah menjadi teks sasaran (penyimpan).", "Permudahan teks (ts) secara amnya ditakrifkan sebagai penukaran ayat kepada satu atau lebih ayat yang lebih mudah." ]
[ "Experiments on word similarity and text classification demonstrate the effectiveness of our method.", "Analysis of word Embeddings demonstrate the effectiveness of our method." ]
[ "Eksperimen mengenai persamaan perkataan dan klasifikasi teks menunjukkan keberkesanan kaedah kami.", "Analisis Embedding perkataan menunjukkan keberkesanan kaedah kami." ]
[ "We make use of the English dependency Treebank, developed on the computational Paninian grammar model, for this work.", "We have modeled the simple Parser on the Paninian grammatical model which provides a dependency grammar framework." ]
[ "Kami menggunakan Treebank dependensi bahasa Inggeris, yang dibangunkan berdasarkan model tatabahasa Paninian pengiraan, untuk kerja ini.", "Kami telah memodelkan Parser mudah pada model tatabahasa Paninian yang menyediakan rangka kerja tatabahasa dependensi." ]
[ "We train a Word2Vec Cbow model on raw 517 , 400 Emails from the En-Ron Email Dataset to obtain the word Embeddings.", "To get a dictionary of word Embeddings, we use the Word2Vec tool 2 and train it on the Chinese Gigaword corpus." ]
[ "Kami melatih model Word2Vec Cbow pada mentah 517, 400 E-mel dari En-Ron Email Dataset untuk mendapatkan perkataan Embeddings.", "Untuk mendapatkan kamus Embedding kata, kami menggunakan alat Word2Vec 2 dan melatihnya di korpus Gigaword Cina." ]
[ "Li et al , 2004, hybrid, or based on phonetic, Eg.", "Li et al , 2004, or a combination of them, or based on phonetic, Eg." ]
[ "Li et al, 2004, hibrid, atau berdasarkan fonetik, Eg.", "Li et al, 2004, atau gabungan mereka, atau berdasarkan fonetik, Eg." ]
[ "Our baseline is an in-house Phrase-Based statistical machine translation system very similar to Moses.", "For our experiments, we use a Phrase-Based translation system similar to Moses." ]
[ "Asas kami adalah sistem terjemahan mesin statistik berasaskan frasa dalaman yang sangat serupa dengan Musa.", "Untuk eksperimen kami, kami menggunakan sistem terjemahan Berasaskan Frasa yang serupa dengan Musa." ]
[ "We apply Srilm to train the 3-Gram language model of target side.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing." ]
[ "Kami menggunakan Srilm untuk melatih model bahasa 3-Gram dari sisi sasaran.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai." ]
[ "In particular, we use a set of Analysis-Level style markers, I.E ., measures that represent the way in which the text has been processed by the tool.", "We also use Analysis-Dependent style markers, that is, measures that represent the way in which the text has been processed." ]
[ "Khususnya, kami menggunakan satu set penanda gaya Analisis-Tahap, I.E., langkah-langkah yang mewakili cara di mana teks telah diproses oleh alat.", "Kami juga menggunakan penanda gaya Analisis-Pendek, iaitu langkah-langkah yang mewakili cara teks telah diproses." ]
[ "Part-Of-Speech (Pos) tagging is a well studied problem in these fields.", "Part-Of-Speech (Pos) tagging is a job to assign a proper Pos tag to each linguistic unit such as word for a given sentence." ]
[ "Penandaan Part-Of-Speech (Pos) adalah masalah yang dikaji dengan baik dalam bidang ini.", "Penandaan Part-Of-Speech (Pos) adalah tugas untuk menetapkan tag Pos yang betul untuk setiap unit linguistik seperti perkataan untuk ayat yang diberikan." ]
[ "We also compare our results to those obtained by running the system of Durrett and Denero on the same training and test data.", "We also compare our results to those obtained using the system of Durrett and Denero on the same test data." ]
[ "Kami juga membandingkan hasil kami dengan yang diperolehi dengan menjalankan sistem Durrett dan Denero pada data latihan dan ujian yang sama.", "Kami juga membandingkan hasil kami dengan yang diperoleh menggunakan sistem Durrett dan Denero pada data ujian yang sama." ]
[ "Coreference resolution is the task of determining whether two or more noun phrases refer to the same entity in a text.", "Although Coreference resolution is a Subproblem of natural language understanding, Coreference resolution evaluation Metrics have predominately been discussed in terms of abstract entities and hypothetical system errors." ]
[ "Resolusi spatial adalah tugas menentukan sama ada dua atau lebih frasa kata nama merujuk kepada entiti yang sama dalam teks.", "Walaupun resolusi Coreference adalah Submasalah pemahaman bahasa semula jadi, Metrik penilaian resolusi Coreference telah banyak dibincangkan dari segi entiti abstrak dan kesilapan sistem hipotesis." ]
[ "Nlp tasks that could benefit from composition models include paraphrase identification and Context-Dependent language modeling (Cite-P-8-1-4).", "Vector-Based models have been successful in Simulating semantic priming (Cite-P-8-1-20, Cite-P-8-1-18) and text comprehension." ]
[ "Tugas Nlp yang boleh mendapat manfaat daripada model komposisi termasuk pengenalan parafrasa dan pemodelan bahasa Konteks-Dependen (Cite-P-8-1-4).", "Model berasaskan Vektor telah berjaya dalam Simulasi priming semantik (Cite-P-8-1-20, Cite-P-8-1-18) dan pemahaman teks." ]
[ "Venugopal et al propose a method to Watermark the output of machine translation systems to aid this distinction.", "Venugopal et al propose a method to Watermark the output of machine translation systems to aid this distinction, with a negligible loss of quality." ]
[ "Venugopal et al mencadangkan kaedah untuk Watermark output sistem terjemahan mesin untuk membantu perbezaan ini.", "Venugopal et al mencadangkan kaedah untuk Watermark output sistem terjemahan mesin untuk membantu perbezaan ini, dengan kehilangan kualiti yang boleh diabaikan." ]
[ "Chen et al reports a very high performance using Subtree features from Auto-Parsed data.", "Chen et al shows that the source Subtree features significantly improve performance." ]
[ "Chen et al melaporkan prestasi yang sangat tinggi menggunakan ciri Subtree dari data Auto-Parsed.", "Chen et al menunjukkan bahawa ciri Subtree sumber dengan ketara meningkatkan prestasi." ]
[ "We use the Stanford Parser for syntactic and dependency Parsing.", "We implement some of these features using the Stanford Parser." ]
[ "Kami menggunakan Stanford Parser untuk penghuraian sintaksis dan kebergantungan.", "Kami melaksanakan beberapa ciri ini menggunakan Stanford Parser." ]
[ "To address this challenge, we present a new task: given a sentence with a target entity mention, predict Free-Form noun phrases that describe appropriate types for the role the target entity plays in the sentence.", "Task: given a sentence with an entity mention, the goal is to predict a set of Free-Form phrases (E . G . skyscraper, Songwriter, or criminal) that describe appropriate types for the target entity." ]
[ "Untuk menangani cabaran ini, kami membentangkan tugas baru: diberikan ayat dengan sebutan entiti sasaran, meramalkan frasa kata nama Free-Form yang menggambarkan jenis yang sesuai untuk peranan yang dimainkan oleh entiti sasaran dalam ayat.", "Tugas: diberikan ayat dengan sebutan entiti, matlamatnya adalah untuk meramalkan satu set frasa Free-Form (E. G. pencakar langit, Penulis Lagu, atau penjenayah) yang menggambarkan jenis yang sesuai untuk entiti sasaran." ]
[ "Relation extraction is the task of finding semantic relations between two entities from text.", "Relation extraction is the task of predicting semantic relations over entities expressed in structured or Semi-Structured text." ]
[ "Pengekstrakan hubungan adalah tugas mencari hubungan semantik antara dua entiti dari teks.", "Pengekstrakan hubungan adalah tugas meramalkan hubungan semantik ke atas entiti yang dinyatakan dalam teks berstruktur atau Semi-Structured." ]
[ "We model the Acoustic-Prosodic stream with two different models, one a maximum entropy model and the other a traditional Hmm.", "We model the Acoustic-Prosodic stream with two different models, a maximum entropy model." ]
[ "Kami memodelkan aliran Acoustic-Prosodic dengan dua model yang berbeza, satu model entropi maksimum dan yang lain Hmm tradisional.", "Kami memodelkan aliran Acoustic-Prosodic dengan dua model yang berbeza, model entropi maksimum." ]
[ "This method Outperforms the best published method we are aware of on English and a recently published method on Chinese.", "We tested it on: for English, it Outperforms the best published method we are aware of." ]
[ "Kaedah ini Melaksanakan kaedah yang diterbitkan terbaik yang kita sedar tentang bahasa Inggeris dan kaedah yang baru diterbitkan pada bahasa Cina.", "Kami mengujinya pada: untuk bahasa Inggeris, ia Outperforms kaedah terbaik yang diterbitkan yang kita sedar." ]
[ "Semantic role labeling (SRL) is the process of assigning semantic roles to strings of words in a sentence according to their relationship to the semantic Predicates expressed in the sentence.", "Semantic role labeling (SRL) is a kind of shallow semantic Parsing task and its goal is to recognize some related phrases and assign a joint structure (who did what to whom, when, where, why, how) to each Predicate of a sentence (Cite-P-24-3-4)." ]
[ "Pelabelan peranan semantik (SRL) adalah proses menetapkan peranan semantik kepada rentetan perkataan dalam ayat mengikut hubungan mereka dengan semantik Predicates yang dinyatakan dalam ayat.", "Pelabelan peranan semantik (SRL) adalah sejenis tugas Parsing semantik cetek dan tujuannya adalah untuk mengenali beberapa frasa yang berkaitan dan menetapkan struktur bersama (yang melakukan apa kepada siapa, kapan, di mana, mengapa, bagaimana) untuk setiap Predikat ayat (Cite-P-24-3-4)." ]
[ "As discussed in section 3, this indicates the bias P Arg (V con) in score works better than the bias P Arg (N, V con) in score Cooc.", "As discussed in section 3, this indicates the bias P Arg (V con) in score works better than the bias P Arg (N, V con) in score." ]
[ "Seperti yang dibincangkan dalam seksyen 3, ini menunjukkan bias P Arg (V con) dalam skor berfungsi lebih baik daripada bias P Arg (N, V con) dalam skor Cooc.", "Seperti yang dibincangkan dalam seksyen 3, ini menunjukkan bias P Arg (V con) dalam skor berfungsi lebih baik daripada bias P Arg (N, V con) dalam skor." ]
[ "A Knsmoothed 5-Gram language model is trained on the target side of the parallel data with Srilm.", "A 5-Gram language model with Kneser-Ney smoothing is trained using S-Rilm on the target language." ]
[ "Model bahasa 5-Gram Knsmoothed dilatih pada sisi sasaran data selari dengan Srilm.", "Model bahasa 5-Gram dengan smoothing Kneser-Ney dilatih menggunakan S-Rilm pada bahasa sasaran." ]
[ "In this paper, we use machine learning in a prediction task as our approach to this.", "In this paper, we use machine learning in a prediction task." ]
[ "Dalam makalah ini, kami menggunakan pembelajaran mesin dalam tugas ramalan sebagai pendekatan kami untuk ini.", "Dalam kertas ini, kita menggunakan pembelajaran mesin dalam tugas ramalan." ]
[ "We argue that the effective strategy is to learn from both explicit and implicit supervision signals jointly.", "In our experiments, learning from implicit supervision alone is not a viable strategy for algebra word problems." ]
[ "Kami berpendapat bahawa strategi yang berkesan adalah untuk belajar dari kedua-dua isyarat pengawasan yang eksplisit dan tersirat bersama.", "Dalam eksperimen kami, pembelajaran dari pengawasan tersirat sahaja bukanlah strategi yang sesuai untuk masalah perkataan aljabar." ]
[ "Prettenhofer and Stein use the structural correspondence learning algorithm to learn a map between the source language and the target language.", "Prettenhofer and Stein proposed a Cross-Language structural correspondence learning method to induce Language-Independent features by using word translation oracles." ]
[ "Prettenhofer dan Stein menggunakan algoritma pembelajaran menyurat struktur untuk mempelajari peta antara bahasa sumber dan bahasa sasaran.", "Prettenhofer dan Stein mencadangkan kaedah pembelajaran korespondensi struktur Cross-Language untuk mendorong ciri-ciri Bahasa-Independent dengan menggunakan orakles terjemahan perkataan." ]
[ "Models were trained using the Liblinear classification library.", "Training and testing was done with a Log-Linear model via Liblinear." ]
[ "Model dilatih menggunakan perpustakaan klasifikasi Liblinear.", "Latihan dan ujian dilakukan dengan model Log-Linear melalui Liblinear." ]
[ "The attention strategies have been widely used in machine translation and question answering.", "Further uses of the attention mechanism include Parsing, natural language question answering, and image question answering." ]
[ "Strategi perhatian telah digunakan secara meluas dalam terjemahan mesin dan menjawab soalan.", "Penggunaan lanjut mekanisme perhatian termasuk Penghuraian, jawapan soalan bahasa semula jadi, dan jawapan soalan imej." ]
[ "Li et al , 2004) proposed a joint Source-Channel model to allow direct Orthographical mapping between two different languages.", "Li et al suggested a Grapheme-Based joint Source-Channel model within the direct orthographic mapping framework." ]
[ "Li et al, 2004) mencadangkan model Sumber-Saluran bersama untuk membenarkan pemetaan Ortograf secara langsung antara dua bahasa yang berbeza.", "Li et al mencadangkan model Sumber-Saluran bersama Berasaskan Grafeme dalam rangka pemetaan ortografi langsung." ]
[ "In real settings, this can be useful when receiving a text message or when looking at anonymous posts in forums.", "In real settings, this can be useful when receiving a text message or when looking at anonymous posts." ]
[ "Dalam tetapan sebenar, ini boleh berguna apabila menerima mesej teks atau ketika melihat catatan tanpa nama di forum.", "Dalam tetapan sebenar, ini boleh berguna apabila menerima mesej teks atau ketika melihat catatan tanpa nama." ]
[ "A 4-Grams language model is trained by the Srilm Toolkit.", "The language models were built using Srilm Toolkits." ]
[ "Model bahasa 4-Gram dilatih oleh Srilm Toolkit.", "Model bahasa dibina menggunakan Srilm Toolkits." ]
[ "We use Adagrad to learn the parameters of our models.", "We use Adagrad to maximize this objective function." ]
[ "Kami menggunakan Adagrad untuk mempelajari parameter model kami.", "Kami menggunakan Adagrad untuk memaksimumkan fungsi objektif ini." ]
[ "We applied a 5-Gram mixture language model with each Sub-Model trained on one fifth of the Monolingual corpus with Kneser-Ney smoothing using Srilm Toolkit.", "For this language model, we built a Trigram language model with Kneser-Ney smoothing using Srilm from the same automatically Segmented corpus." ]
[ "Kami menggunakan model bahasa campuran 5-Gram dengan setiap Sub-Model dilatih pada seperlima korpus Monolingual dengan smoothing Kneser-Ney menggunakan Srilm Toolkit.", "Untuk model bahasa ini, kami membina model bahasa Trigram dengan smoothing Kneser-Ney menggunakan Srilm dari korpus Segmen yang sama secara automatik." ]
[ "More importantly, as terms are defined Vis-¨¤-Vis a specific domain with a restricted register, it is expected that the quality rather than the quantity of the corpus matters more in terminology mining.", "Vis-a-vis a specific domain with a restricted register, it is expected that the quality rather than the quantity of the corpus matters more in terminology mining." ]
[ "Lebih penting lagi, kerana istilah ditakrifkan Vis--Vis domain tertentu dengan daftar terhad, diharapkan kualiti dan bukannya kuantiti korpus lebih penting dalam perlombongan terminologi.", "Vis-a-vis domain tertentu dengan daftar terhad, diharapkan kualiti dan bukannya kuantiti korpus lebih penting dalam perlombongan terminologi." ]
[ "In particular, we use the Neural-Network based models from, also referred as word Embeddings.", "In addition, we can use Pre-Trained neural word Embeddings on large scale corpus for neural network Initialization." ]
[ "Khususnya, kami menggunakan model berasaskan Neural-Network dari, juga dirujuk sebagai Embedding perkataan.", "Di samping itu, kita boleh menggunakan Embedding perkataan neural Pra-Trained pada korpus skala besar untuk permulaan rangkaian neural." ]
[ "Furthermore, we show that a weighted ensemble of the classifiers enhances the Cross-Domain classification performance.", "Classifiers are then combined in a weighted ensemble to further enhance the Cross-Domain classification performance." ]
[ "Tambahan pula, kami menunjukkan bahawa ensemble berwajaran pengelas meningkatkan prestasi klasifikasi Cross-Domain.", "Pengelas kemudiannya digabungkan dalam ensemble berwajaran untuk meningkatkan lagi prestasi klasifikasi Cross-Domain." ]
[ "Mturk has been adopted for a variety of uses both in industry and academia, ranging from user studies to image labeling.", "Mturk has been adopted for a variety of uses both in in Dustry and academia from user studies to image labeling." ]
[ "Mturk telah diterima pakai untuk pelbagai kegunaan dalam industri dan akademik, dari kajian pengguna kepada pelabelan imej.", "Mturk telah diterima pakai untuk pelbagai kegunaan di Dustry dan akademik dari kajian pengguna ke pelabelan imej." ]
[ "For the disorder mention Normalization (task B), variations of disorder mentions were considered whenever exact matches were not found in the training data or in the Umls.", "Variations of the disorder mentions were generated based on the commonly used variations of disorder mentions learned from the training data as well as from the Umls." ]
[ "Untuk sebutan gangguan Normalisasi (tugas B), variasi sebutan gangguan dipertimbangkan apabila perlawanan yang tepat tidak dijumpai dalam data latihan atau di Umls.", "Variasi sebutan gangguan dihasilkan berdasarkan variasi sebutan gangguan yang biasa digunakan yang dipelajari dari data latihan dan juga dari Umls." ]
[ "This paper presents a system that uses word Embeddings (Cite-P-9-1-11) and recurrent Convolutional networks to this end.", "In this paper, we present a system that uses word Embeddings and recurrent Convolutional networks." ]
[ "Kertas ini membentangkan sistem yang menggunakan perkataan Embeddings (Cite-P-9-1-11) dan rangkaian Konvolutional berulang untuk tujuan ini.", "Dalam makalah ini, kami membentangkan sistem yang menggunakan Embedding perkataan dan rangkaian Konvolutional berulang." ]
[ "In section 2 we introduce the acoustic and prosodic features that we investigate for word fragment detection.", "In the acoustic model, in this paper, we investigate the problem of word fragment identification." ]
[ "Dalam seksyen 2 kami memperkenalkan ciri akustik dan prosodik yang kami siasat untuk pengesanan serpihan perkataan.", "Dalam model akustik, dalam kertas ini, kita menyiasat masalah pengenalan serpihan perkataan." ]
[ "Cross-Lingual textual Entailment has been proposed as an extension of textual Entailment.", "Cross-Lingual textual Entailment is an extension of textual Entailment." ]
[ "Entailment teks Cross-Lingual telah dicadangkan sebagai lanjutan Entailment teks.", "Entailment teks Cross-Lingual adalah lanjutan Entailment teks." ]
[ "Our second Dataset was presented by Silfverberg and Hulden.", "This Dataset was originally presented by Silfverberg and Hulden." ]
[ "Dataset kedua kami telah dibentangkan oleh Silfverberg dan Hulden.", "Dataset ini pada asalnya dibentangkan oleh Silfverberg dan Hulden." ]
[ "Nevertheless, examination of Parser output shows the Parse features can be extracted reliably from Esl data.", "Analysis of the Parser output indicates that it is robust enough in the face of noisy Non-Native writing." ]
[ "Walau bagaimanapun, pemeriksaan output Parser menunjukkan ciri Parse boleh diekstrak dengan pasti dari data Esl.", "Analisis output Parser menunjukkan bahawa ia cukup kuat dalam menghadapi penulisan Non-Native yang bising." ]
[ "The feature weights 位 I are trained in concert with the LM weight via minimum error rate training.", "The Mod- Els H M are weighted by the weights 位 M which are tuned using minimum error rate training." ]
[ "Berat ciri Saya dilatih secara konsert dengan berat LM melalui latihan kadar ralat minimum.", "Mod- Els H M ditimbang oleh berat M yang ditala menggunakan latihan kadar ralat minimum." ]
[ "The alignment aspect of our model is similar to the Hmm model for word alignment.", "Inspired by Hmm word alignment, our second distance measure is based on jump width." ]
[ "Aspek penjajaran model kami adalah sama dengan model Hmm untuk penjajaran perkataan.", "Diilhamkan oleh penjajaran perkataan Hmm, ukuran jarak kedua kami adalah berdasarkan lebar lompat." ]
[ "These features are computed and presented for each sentence in a data file format used by the Weka suite.", "The output files generated by the system for the Dataset are classified using the Weka tool." ]
[ "Ciri-ciri ini dikira dan dibentangkan untuk setiap ayat dalam format fail data yang digunakan oleh suite Weka.", "Fail output yang dihasilkan oleh sistem untuk Dataset dikelaskan menggunakan alat Weka." ]
[ "The translation quality is evaluated by Case-Insensitive BLEU and Ter metric.", "The evaluation metric for the overall translation quality was Case-Insensitive Bleu4." ]
[ "Kualiti terjemahan dinilai oleh Case-Insensitive BLEU dan Ter metrik.", "Metrik penilaian untuk kualiti terjemahan keseluruhan adalah Case-Insensitive Bleu4." ]
[ "The Tempeval shared tasks have, since 2007, provided a focus for research on temporal information extraction.", "The Tempeval shared tasks have been one of the key Venues for researchers to compare methods for temporal information extraction." ]
[ "Tugas-tugas bersama Tempeval telah, sejak 2007, memberikan tumpuan untuk penyelidikan mengenai pengekstrakan maklumat temporal.", "Tugas dikongsi Tempeval telah menjadi salah satu tempat utama bagi penyelidik untuk membandingkan kaedah untuk pengekstrakan maklumat temporal." ]
[ "Therefore, we can learn Embeddings for all languages in Wikipedia without any additional Annotation or supervision.", "Similar to our proposed approach, this model can also be applied to all languages in Wikipedia." ]
[ "Oleh itu, kita boleh mempelajari Embeddings untuk semua bahasa di Wikipedia tanpa sebarang Annotasi atau penyeliaan tambahan.", "Sama seperti pendekatan yang dicadangkan, model ini juga boleh digunakan untuk semua bahasa di Wikipedia." ]
[ "In this work, we address this problem of drift in tag distribution owing to adding training data from a supporting language.", "In this paper, we address the problem of divergence in tag distribution between primary and assisting languages." ]
[ "Dalam kerja ini, kami menangani masalah ini hanyut dalam pengedaran tag kerana menambah data latihan dari bahasa sokongan.", "Dalam makalah ini, kami menangani masalah perbezaan dalam pengedaran tag antara bahasa utama dan membantu." ]
[ "We proposed to allow data generators to be “ weakly ” specified, leaving the undetermined coefficients to be learned from data.", "While defining generic data generators is difficult, we propose to allow generators to be “ weakly ” specified." ]
[ "Kami mencadangkan untuk membenarkan penjana data untuk menjadi lemah ditentukan, meninggalkan pekali yang tidak ditentukan untuk dipelajari daripada data.", "Walaupun menentukan penjana data generik adalah sukar, kami mencadangkan untuk membenarkan penjana menjadi lemah ditentukan." ]
[ "We used the Moses Toolkit to build mt systems using various alignments.", "We used a standard Pbmt system built using Moses Toolkit." ]
[ "Kami menggunakan Musa Toolkit untuk membina sistem mt menggunakan pelbagai penjajaran.", "Kami menggunakan sistem Pbmt standard yang dibina menggunakan Musa Toolkit." ]
[ "The process of creating AMR ’ s for sentences is called AMR Parsing.", "Amr Parsing is a much harder task in that the target vocabulary size is much larger, while the size of the Dataset is much smaller." ]
[ "Proses mencipta AMR s untuk ayat dipanggil AMR Parsing.", "Amr Parsing adalah tugas yang lebih sukar kerana saiz perbendaharaan kata sasaran jauh lebih besar, sementara saiz Dataset jauh lebih kecil." ]
[ "Feature weights were set with minimum error rate training on a tuning set using BLEU as the objective function.", "The feature weights are tuned to optimize BLEU using the minimum error rate training algorithm." ]
[ "Berat ciri ditetapkan dengan latihan kadar ralat minimum pada set penalaan menggunakan BLEU sebagai fungsi objektif.", "Berat ciri ditala untuk mengoptimumkan BLEU menggunakan algoritma latihan kadar ralat minimum." ]
[ "In this paper we present and evaluate a new model for Nlg in spoken dialogue systems as planning under uncertainty.", "In this paper we present and evaluate a new model for Nlg in spoken dialogue systems." ]
[ "Dalam makalah ini kami membentangkan dan menilai model baru untuk Nlg dalam sistem dialog lisan sebagai perancangan di bawah ketidakpastian.", "Dalam makalah ini kami membentangkan dan menilai model baru untuk Nlg dalam sistem dialog lisan." ]
[ "In all cases, we used the Implementations from the Scikitlearn machine learning library.", "For this task, we used the SVM implementation provided with the python Scikit-Learn Module." ]
[ "Dalam semua kes, kami menggunakan Pelaksanaan dari perpustakaan pembelajaran mesin Scikitlearn.", "Untuk tugas ini, kami menggunakan pelaksanaan SVM yang disediakan dengan Modul Scikit-Learn python." ]
[ "Sentiment analysis is the computational analysis of people ’ s feelings or beliefs expressed in texts such as emotions, opinions, attitudes, appraisals, etc . (Cite-P-11-3-3).", "Sentiment analysis is a recent attempt to deal with evaluative aspects of text." ]
[ "Analisis sentimen adalah analisis pengiraan perasaan atau kepercayaan orang yang dinyatakan dalam teks seperti emosi, pendapat, sikap, penilaian, dan lain-lain (Cite-P-11-3-3).", "Analisis sentimen adalah percubaan baru-baru ini untuk menangani aspek penilaian teks." ]
[ "If the Anaphor is a pronoun, the cache is searched for a plausible referent.", "If the Anaphor is a pronoun but no referent is found in the cache, it is then necessary to Operatingsearch memory." ]
[ "Jika Anaphor adalah kata ganti, cache dicari untuk rujukan yang munasabah.", "Jika Anaphor adalah kata ganti tetapi tiada rujukan ditemui dalam cache, maka ia adalah perlu untuk ingatan Operatingsearch." ]
[ "Turian et al learned a Crf model using word Embeddings as input features for NER and Chunking tasks.", "Their method uses word Embeddings from Turian et al as input, along with a Binarized Phrase-Structure Parse from the Stanford Parser." ]
[ "Turian et al mempelajari model Crf menggunakan Embedding perkataan sebagai ciri input untuk tugas NER dan Chunking.", "Kaedah mereka menggunakan perkataan Embeddings dari Turian et al sebagai input, bersama dengan Parse Frasa-Structure Binarized dari Stanford Parser." ]
[ "For the Tree-Based system, we applied a 4-Gram language model with Kneserney smoothing using Srilm Toolkit trained on the whole Monolingual corpus.", "Our Trigram word language model was trained on the target side of the training corpus using the Srilm Toolkit with modified Kneser-Ney smoothing." ]
[ "Untuk sistem Berasaskan Pokok, kami menggunakan model bahasa 4-Gram dengan smoothing Kneserney menggunakan Srilm Toolkit yang dilatih pada keseluruhan korpus Monolingual.", "Model bahasa perkataan Trigram kami dilatih di sisi sasaran korpus latihan menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai." ]
[ "Subsequent efforts produced Thrax, the Extensible Hadoop-Based extraction tool for synchronous Context-Free Grammars, later extended to support Pivoting-Based paraphrase extraction.", "More recent efforts introduced the Thrax Module, an Extensible Hadoop-Based extraction Toolkit for synchronous context free Grammars." ]
[ "Usaha berikutnya menghasilkan Thrax, alat pengekstrakan Berasaskan Hadoop yang Berlanjut untuk Grammar Bebas Konteks yang diselaraskan, kemudian dilanjutkan untuk menyokong pengekstrakan parafrasa Berasaskan Pivoting.", "Usaha yang lebih baru-baru ini memperkenalkan Modul Thrax, Toolkit Pengekstrakan Berasaskan Hadoop yang Boleh Diperluas untuk Grammar bebas konteks segerak." ]
[ "Sentiment analysis is the task of identifying the polarity (positive, negative or neutral) of review.", "Sentiment analysis is a collection of methods and Algorithms used to infer and measure affection expressed by a writer." ]
[ "Analisis kepekaan adalah tugas mengenal pasti polariti (positif, negatif atau neutral) kajian semula.", "Analisis sentimen adalah koleksi kaedah dan Algoritma yang digunakan untuk menyimpulkan dan mengukur kasih sayang yang dinyatakan oleh seorang penulis." ]
[ "Chen et al , 2012) proposed the lexical syntactic feature architecture to detect offensive content and identify the potential offensive users in social media.", "Chen et al , 2012) used lexical and Parser features, for detecting comments from Youtube that are offensive." ]
[ "Chen et al, 2012) mencadangkan seni bina ciri sintaksis leksikal untuk mengesan kandungan yang menyinggung perasaan dan mengenal pasti pengguna yang berpotensi menyinggung perasaan di media sosial.", "Chen et al, 2012) menggunakan ciri-ciri leksikal dan Parser, untuk mengesan komen dari Youtube yang menyinggung perasaan." ]
[ "However, Kim and Hovy and Andreevskaia and Bergler show that subjectivity recognition might be the harder problem with lower human agreement and automatic performance.", "In addition, Andreevskaia and Bergler show that the performance of automatic Annotation of subjectivity at the word level can be hurt by the presence of Subjectivity-Ambiguous words in the training SETS they use." ]
[ "Walau bagaimanapun, Kim dan Hovy dan Andreevskaia dan Bergler menunjukkan bahawa pengiktirafan subjektiviti mungkin menjadi masalah yang lebih sukar dengan persetujuan manusia yang lebih rendah dan prestasi automatik.", "Di samping itu, Andreevskaia dan Bergler menunjukkan bahawa prestasi Annotasi subjektiviti automatik pada tahap perkataan boleh disakiti oleh kehadiran kata-kata Subjektiviti-Ambiguous dalam latihan SETS yang mereka gunakan." ]
[ "Li and Li proposed a bilingual Bootstrapping approach for the more specific task of word translation Disambiguation as opposed to the more general task of Wsd.", "Li and Li have shown that word translation and bilingual Bootstrapping is a good combination for Disambiguation." ]
[ "Li dan Li mencadangkan pendekatan Bootstrapping dwibahasa untuk tugas terjemahan perkataan yang lebih spesifik Disambiguasi berbanding dengan tugas yang lebih umum Wsd.", "Li dan Li telah menunjukkan bahawa terjemahan perkataan dan Bootstrapping dwibahasa adalah gabungan yang baik untuk Disambiguasi." ]
[ "We evaluate the translation quality using the Case-Insensitive Bleu-4 metric.", "We evaluate the performance of different translation models using both BLEU and Ter Metrics." ]
[ "Kami menilai kualiti terjemahan menggunakan metrik Case-Insensitive Bleu-4.", "Kami menilai prestasi model terjemahan yang berbeza menggunakan kedua-dua BLEU dan Ter Metrics." ]
[ "The summarization technique of Barzilay and Lee captures topic transitions in the text span by a hidden Markov model, referred to as a content model.", "Barzilay and Lee proposed a Domain-Dependent Hmm model to capture topic shift in a text, where topics are represented by hidden States and sentences are observations." ]
[ "Teknik ringkasan Barzilay dan Lee menangkap peralihan topik dalam span teks oleh model Markov tersembunyi, yang disebut sebagai model kandungan.", "Barzilay dan Lee mencadangkan model Hmm Domain-Dependen untuk menangkap peralihan topik dalam teks, di mana topik diwakili oleh Negeri tersembunyi dan ayat adalah pemerhatian." ]
[ "The Stts tags are automatically added using Treetagger.", "The rules were extracted using the Pos tags generated by the Treetagger." ]
[ "Tag Stts ditambahkan secara automatik menggunakan Treetagger.", "Peraturan-peraturan itu diekstrak menggunakan tag Pos yang dihasilkan oleh Treetagger." ]
[ "Relation extraction is a Subtask of information extraction that finds various predefined semantic relations, such as location, affiliation, rival, etc ., between pairs of entities in text.", "Relation extraction (re) is the task of extracting instances of semantic relations between entities in unstructured data such as natural language text." ]
[ "Pengekstrakan hubungan adalah Subtugas pengekstrakan maklumat yang menemui pelbagai hubungan semantik yang telah ditentukan, seperti lokasi, gabungan, saingan, dll., Antara pasangan entiti dalam teks.", "Pengekstrakan hubungan (re) adalah tugas mengekstrak contoh hubungan semantik antara entiti dalam data yang tidak tersusun seperti teks bahasa semula jadi." ]
[ "Furthermore, if a document is attached to a topic Math-W-5-1-0-138, we assume that all the ancestor topics of Math-W-5-1-0-149 are also relevant for that document.", "Such that, if a label Math-W-3-3-0-39 is inferred as relevant to a document, then all the labels from Math-W-3-3-0-54 to the root of the tree are also inferred as relevant to the document." ]
[ "Tambahan pula, jika dokumen dilampirkan pada topik Math-W-5-1-0-138, kita menganggap bahawa semua topik nenek moyang Math-W-5-1-0-149 juga relevan untuk dokumen itu.", "Oleh itu, jika label Math-W-3-3-0-39 disimpulkan sebagai relevan dengan dokumen, maka semua label dari Math-W-3-3-0-54 ke akar pokok juga disimpulkan sebagai relevan dengan dokumen." ]
[ "Neelakantan et al proposed the Mssg model which extends the Skip-Gram model to learn Multi-Prototype word Embeddings by clustering the word Embeddings of context words around each word.", "Neelakantan et al proposed an extension of the Skip-Gram model combined with context clustering to estimate the number of senses for each word as well as learn sense Embedding vectors." ]
[ "Neelakantan et al mencadangkan model Mssg yang memanjangkan model Skip-Gram untuk mempelajari Embedding kata Multi-Prototaip dengan mengelompokkan perkataan Embeddings perkataan konteks di sekeliling setiap perkataan.", "Neelakantan et al mencadangkan lanjutan model Skip-Gram digabungkan dengan pengelompokan konteks untuk menganggarkan bilangan deria bagi setiap perkataan serta mempelajari vektor Embedding deria." ]
[ "Relation extraction (re) is the task of identifying instances of relations, such as nationality (person, country) or place of birth (person, location), in passages of natural text.", "Relation extraction is the task of automatically detecting occurrences of expressed relations between entities in a text and structuring the detected information in a Tabularized form." ]
[ "Pengekstrakan hubungan (re) adalah tugas mengenal pasti contoh hubungan, seperti kewarganegaraan (orang, negara) atau tempat kelahiran (orang, lokasi), dalam petikan teks semula jadi.", "Pengekstrakan hubungan adalah tugas mengesan kejadian hubungan yang dinyatakan secara automatik antara entiti dalam teks dan menyusun maklumat yang dikesan dalam bentuk Tabularized." ]
[ "Sentence compression is the task of compressing long sentences into short and concise ones by deleting words.", "Sentence compression is the task of producing a summary at the sentence level." ]
[ "Pemampatan ayat adalah tugas memampatkan ayat panjang menjadi pendek dan ringkas dengan menghapus kata-kata.", "Pemampatan ayat adalah tugas menghasilkan ringkasan pada tahap ayat." ]
[ "Then, for the sake of comparison, we also built several other classifiers including Multinomial Na茂Ve Bayes, Svms, Knn, and decision trees using the Weka Toolkit.", "For the sake of comparison, we also built several other classifiers, including Multinomial Na茂Ve Bayes, Svms, Knn, and decision trees using the Weka Toolkit." ]
[ "Kemudian, demi perbandingan, kami juga membina beberapa pengelas lain termasuk Multinomial NaVe Bayes, Svms, Knn, dan pokok keputusan menggunakan Weka Toolkit.", "Demi perbandingan, kami juga membina beberapa pengelas lain, termasuk Multinomial NaVe Bayes, Svms, Knn, dan pokok keputusan menggunakan Weka Toolkit." ]
[ "Finally, based on recent results in text classification, we also experiment with a neural network approach which uses a Long-Short term memory network.", "Like recent work, we use the Lstm variant of recurrent neural networks as language modeling architecture." ]
[ "Akhirnya, berdasarkan keputusan terkini dalam klasifikasi teks, kami juga bereksperimen dengan pendekatan rangkaian saraf yang menggunakan rangkaian memori jangka pendek.", "Seperti kerja baru-baru ini, kami menggunakan varian Lstm rangkaian saraf berulang sebagai seni bina pemodelan bahasa." ]
[ "Our research is inspired by the recent work in learning vector representations of words using deep learning strategy.", "Our model is inspired by recent work in learning distributed representations of words." ]
[ "Penyelidikan kami diilhamkan oleh kerja baru-baru ini dalam pembelajaran perwakilan vektor perkataan menggunakan strategi pembelajaran mendalam.", "Model kami diilhamkan oleh kerja baru-baru ini dalam pembelajaran perwakilan perkataan yang diedarkan." ]
[ "Waseem et al proposed a typology for various Sub-Types of abusive language.", "Waseem et al , 2017) proposed a typology of abusive language Sub-Tasks." ]
[ "Waseem et al mengusulkan tipologi untuk berbagai Sub-Jenis bahasa kasar.", "Waseem et al, 2017) mengusulkan tipologi bahasa kasar Sub-Tasks." ]
[ "Contrary to these previous approaches, we Conceptualize role induction in a novel way, as a graph partitioning problem.", "We present a method for Unsupervised semantic role induction which we formalize as a graph partitioning problem." ]
[ "Bertentangan dengan pendekatan terdahulu, kita Konsepkan induksi peranan dengan cara yang baru, sebagai masalah pembahagian grafik.", "Kami membentangkan kaedah untuk induksi peranan semantik yang tidak diawasi yang kami formalkan sebagai masalah pembahagian grafik." ]
[ "Lexical chains provide a representation of the lexical cohesion structure of a text.", "Lexical chains provide a representation of the lexical cohesion structure of the target document that is to be generated." ]
[ "Rantaian leksikal memberikan perwakilan struktur kohesi leksikal teks.", "Rantaian leksikal memberikan perwakilan struktur kohesi leksikal dokumen sasaran yang akan dihasilkan." ]
[ "We use Scikitlearn as machine learning library.", "For data preparation and processing we use Scikit-Learn." ]
[ "Kami menggunakan Scikitlearn sebagai perpustakaan pembelajaran mesin.", "Untuk penyediaan dan pemprosesan data, kami menggunakan Scikit-Learn." ]
[ "Therefore, we research interactive Computer-Assisted approaches in order to produce personalized summaries.", "As we have shown that interactive methods help to create User-Desired personalized summaries." ]
[ "Oleh itu, kami meneliti pendekatan interaktif Computer-Assisted untuk menghasilkan ringkasan peribadi.", "Seperti yang telah kami buktikan bahawa kaedah interaktif membantu untuk mencipta ringkasan peribadi yang dikehendaki oleh Pengguna." ]
[ "We presented a novel sentence fusion method which Formulates the fusion task as an optimization problem.", "To this end, we present a novel sentence fusion method based on dependency structure alignment." ]
[ "Kami membentangkan kaedah gabungan ayat novel yang merumuskan tugas gabungan sebagai masalah pengoptimuman.", "Untuk tujuan ini, kami membentangkan kaedah gabungan ayat novel berdasarkan penjajaran struktur dependensi." ]
[ "We construct a sense similarity Wmfvec from the latent Semantics of sense definitions.", "Wmfvec is the first sense similarity measure based on latent Semantics of sense definitions." ]
[ "Kami membina persamaan rasa Wmfvec dari Semantik laten definisi deria.", "Wmfvec adalah ukuran persamaan deria pertama berdasarkan Semantik laten definisi deria." ]
[ "We use the Moses statistical mt Toolkit to perform the translation.", "We Tokenize and Frequent-Case the data with the standard scripts from the Moses Toolkit." ]
[ "Kami menggunakan Musa statistik mt Toolkit untuk melaksanakan terjemahan.", "Kami Tokenize dan Frequent-Case data dengan skrip standard dari Moses Toolkit." ]
[ "We used the well-known Bikel Parser in its original version and the one used by Collins.", "For English, we used the Dan Bikel implementation of the Collins Parser." ]
[ "Kami menggunakan Bikel Parser yang terkenal dalam versi asalnya dan yang digunakan oleh Collins.", "Untuk bahasa Inggeris, kami menggunakan pelaksanaan Dan Bikel Collins Parser." ]
[ "Semeval is a yearly event in which teams compete in natural language processing tasks.", "Semeval is the International workshop on semantic evaluation, formerly Senseval." ]
[ "Semeval adalah acara tahunan di mana pasukan bersaing dalam tugas pemprosesan bahasa semula jadi.", "Semeval adalah bengkel Antarabangsa mengenai penilaian semantik, dahulu Senseval." ]
[ "However, Tsunakawa and Tsujii studied the issue of identifying synonymous bilingual technical terms only within manually compiled bilingual technical term lexicon and thus are quite limited in its applicability.", "However, Tsunakawa and Tsujii studied the issue of identifying bilingual synonymous technical terms only within manually compiled bilingual technical term lexicon and thus are quite limited in its applicability." ]
[ "Walau bagaimanapun, Tsunakawa dan Tsujii mengkaji isu mengenal pasti istilah teknikal dwibahasa sinonim hanya dalam leksikon istilah teknikal dwibahasa yang disusun secara manual dan dengan itu agak terhad dalam kesesuaiannya.", "Walau bagaimanapun, Tsunakawa dan Tsujii mengkaji isu mengenal pasti istilah teknikal sinonim dwibahasa hanya dalam leksikon istilah teknikal dwibahasa yang disusun secara manual dan dengan itu agak terhad dalam kesesuaiannya." ]
[ "The statistical Phrase-Based systems were trained using the Moses Toolkit with Mert tuning.", "It was trained on the Webnlg Dataset using the Moses Toolkit." ]
[ "Sistem Berasaskan Frasa statistik dilatih menggunakan Musa Toolkit dengan penalaan Mert.", "Ia dilatih pada Webnlg Dataset menggunakan Musa Toolkit." ]
[ "Increasing the context length at the input layer thus only causes a linear growth in complexity in the worst case.", "With Nnlm however, the increase in context length at the input layer results in only a linear growth in complexity in the worst case." ]
[ "Meningkatkan panjang konteks pada lapisan input dengan itu hanya menyebabkan pertumbuhan linear dalam kerumitan dalam kes yang paling teruk.", "Dengan Nnlm bagaimanapun, peningkatan panjang konteks pada lapisan input menghasilkan hanya pertumbuhan linear dalam kerumitan dalam kes terburuk." ]
[ "In addition, we obtained similarity lists learned by LIN and Pantel, and Replicated 3 similarity measures learned by Szpektor and Dagan, over the Rcv1 corpus 7.", "In addition, we obtained the original template similarity lists learned by LIN and Pantel, and had available three Distributional similarity measures learned by Szpektor and Dagan, over the Rcv1 corpus , 7 as detailed in Table 2." ]
[ "Di samping itu, kami memperoleh senarai persamaan yang dipelajari oleh LIN dan Pantel, dan Replicated 3 langkah persamaan yang dipelajari oleh Szpektor dan Dagan, melalui korpus Rcv1 7.", "Di samping itu, kami memperoleh senarai persamaan templat asal yang dipelajari oleh LIN dan Pantel, dan mempunyai tiga langkah kesamaan Distributional yang dipelajari oleh Szpektor dan Dagan, melalui korpus Rcv1, 7 seperti yang diperincikan dalam Jadual 2." ]
[ "Hu et al also Annotated Emails with speech acts and trained a structured prediction Classifier.", "Hu et al presented a dialog act Tagger and link Predictor which could be used to extract Dap and Dlc." ]
[ "Hu et al juga Annotated Emails dengan ucapan bertindak dan melatih pengelas ramalan berstruktur.", "Hu et al menyampaikan dialog act Tagger dan link Predictor yang boleh digunakan untuk mengekstrak Dap dan Dlc." ]