en
sequencelengths
2
2
ms
sequencelengths
2
2
[ "Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-3-0) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B).", "Sentiment analysis is the task of identifying positive and negative opinions, sentiments, emotions and attitudes expressed in text." ]
[ "Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-3-0) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B).", "Analisis sentimen adalah tugas mengenal pasti pendapat, sentimen, emosi dan sikap positif dan negatif yang dinyatakan dalam teks." ]
[ "We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit.", "We used Srilm -Sri language modeling Toolkit to train several character models." ]
[ "Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit.", "Kami menggunakan alat pemodelan bahasa Srilm -Sri untuk melatih beberapa model watak." ]
[ "Relation extraction is the key component for building relation knowledge graphs, and it is of crucial significance to natural language processing applications such as structured search, sentiment analysis, question answering, and summarization.", "Relation extraction is a fundamental step in many natural language processing applications such as learning Ontologies from texts (Cite-P-12-1-0) and question answering (Cite-P-12-3-6)." ]
[ "Pengekstrakan hubungan adalah komponen utama untuk membina graf pengetahuan hubungan, dan ia sangat penting untuk aplikasi pemprosesan bahasa semula jadi seperti carian berstruktur, analisis sentimen, jawapan soalan, dan ringkasan.", "Pengekstrakan hubungan adalah langkah asas dalam banyak aplikasi pemprosesan bahasa semula jadi seperti pembelajaran Ontologi dari teks (Cite-P-12-1-0) dan jawapan soalan (Cite-P-12-3-6)." ]
[ "Table 2 gives the results measured by Caseinsensitive Bleu-4.", "Table 2 shows the blind test results using Bleu-4, meteor and Ter." ]
[ "Jadual 2 memberikan keputusan yang diukur oleh Caseinsensitive Bleu-4.", "Jadual 2 menunjukkan keputusan ujian buta menggunakan Bleu-4, meteor dan Ter." ]
[ "Typically, Shen et al propose a String-Todependency model, which integrates the Targetside Well-Formed dependency structure into translation rules.", "To overcome this problem, Shen et al proposed a dependency language model to exploit Longdistance word relations for Smt." ]
[ "Biasanya, Shen et al mencadangkan model String-Todependency, yang menggabungkan struktur dependensi Targetside Well-Formed ke dalam peraturan terjemahan.", "Untuk mengatasi masalah ini, Shen et al mencadangkan model bahasa kebergantungan untuk mengeksploitasi hubungan perkataan Longdistance untuk Smt." ]
[ "Semantic role labeling (SRL) is a major Nlp task, providing a shallow Sentence-Level semantic analysis.", "Semantic role labeling (SRL) is a kind of shallow Sentence-Level semantic analysis and is becoming a hot task in natural language processing." ]
[ "Pelabelan peranan semantik (SRL) adalah tugas utama Nlp, menyediakan analisis semantik Tahap Sentence cetek.", "Pelabelan peranan semantik (SRL) adalah sejenis analisis semantik Tahap Sentence cetek dan menjadi tugas panas dalam pemprosesan bahasa semula jadi." ]
[ "For the textual sources, we populate word Embeddings from the Google Word2Vec Embeddings trained on roughly 100 billion words from Google news.", "We train a Word2Vec Cbow model on raw 517 , 400 Emails from the En-Ron Email Dataset to obtain the word Embeddings." ]
[ "Untuk sumber teks, kami mengisi Embedding perkataan dari Embeddings Google Word2Vec yang dilatih pada kira-kira 100 bilion perkataan dari berita Google.", "Kami melatih model Word2Vec Cbow pada mentah 517, 400 E-mel dari En-Ron Email Dataset untuk mendapatkan perkataan Embeddings." ]
[ "Tuning is performed to maximize BLEU score using minimum error rate training.", "The model weights are automatically tuned using minimum error rate training." ]
[ "Tuning dilakukan untuk memaksimumkan skor BLEU menggunakan latihan kadar ralat minimum.", "Berat model ditala secara automatik menggunakan latihan kadar ralat minimum." ]
[ "The feature weights for each system were tuned on development SETS using the Moses implementation of minimum error rate training.", "Finally, the ape system was tuned on the development set, optimizing Ter with minimum error rate training." ]
[ "Berat ciri bagi setiap sistem ditala pada pembangunan SETS menggunakan pelaksanaan Musa latihan kadar ralat minimum.", "Akhirnya, sistem kera telah ditala pada set pembangunan, mengoptimumkan Ter dengan latihan kadar ralat minimum." ]
[ "Furthermore, they do not take semantic reasoning into account.", "And they do not include a mechanism to also take Semantics into account." ]
[ "Tambahan pula, mereka tidak mengambil kira penalaran semantik.", "Dan mereka tidak termasuk mekanisme untuk mengambil kira Semantik." ]
[ "We Preinitialize the word Embeddings by running the Word2Vec tool on the English Wikipedia dump.", "We use the 300-Dimensional Skip-Gram word Embeddings built on the Google-News corpus." ]
[ "Kami Preinitialize perkataan Embeddings dengan menjalankan alat Word2Vec di dump Wikipedia Bahasa Inggeris.", "Kami menggunakan Embedding perkataan Skip-Gram 300-Dimensional yang dibina di korpus Google-News." ]
[ "The present paper is the first to use a Reranking Parser and the first to address the adaptation scenario for this problem.", "The present paper is a contribution towards this goal: it presents the results of a large-scale evaluation of Window-Based Dsms on a wide variety of semantic tasks." ]
[ "Kertas masa kini adalah yang pertama menggunakan Parser Reranking dan yang pertama untuk menangani senario penyesuaian untuk masalah ini.", "Kertas masa kini adalah sumbangan ke arah matlamat ini: ia membentangkan hasil penilaian berskala besar Dsm Berasaskan Tetingkap pada pelbagai tugas semantik." ]
[ "Furthermore, we train a 5-Gram language model using the Sri language Toolkit.", "Our 5-Gram language model was trained by Srilm Toolkit." ]
[ "Tambahan pula, kami melatih model bahasa 5-Gram menggunakan Toolkit bahasa Sri.", "Model bahasa 5-Gram kami dilatih oleh Srilm Toolkit." ]
[ "We use minimal error rate training to maximize BLEU on the complete development data.", "In general, we could get the Optimized parameters though minimum error rate training on the development set." ]
[ "Kami menggunakan latihan kadar ralat minimum untuk memaksimumkan BLEU pada data pembangunan lengkap.", "Secara umum, kita boleh mendapatkan parameter Optimized walaupun latihan kadar ralat minimum pada set pembangunan." ]
[ "In this paper, we extend the popular Chain-Structured Lstm to directed Acyclic graph (Dag) structures, with the aim to endow conventional Lstm with the capability of considering Compositionality and Non-Compositionality together.", "In this paper, we extend Chain-Structured Lstm to a directed Acyclic graph (Dag) structure, with the aim to provide the popular chain Lstm with the capability of considering both Compositionality and Non-Compositionality." ]
[ "Dalam makalah ini, kami memperluas Lstm Chain-Structured yang popular ke struktur grafik Acyclic (Dag) yang diarahkan, dengan tujuan untuk memberikan Lstm konvensional dengan kemampuan mempertimbangkan Komposisi dan Non-Compositionality bersama.", "Dalam makalah ini, kami memperluas Lstm Chain-Structured ke struktur grafik Acyclic (Dag) yang diarahkan, dengan tujuan untuk menyediakan rangkaian Lstm yang popular dengan kemampuan untuk mempertimbangkan Komposisi dan Non-Compositionality." ]
[ "For our experiments, we create a manually labeled Dataset of dialogues from TV series ¡®Friends¡¯.", "We create a Manually-Labeled Dataset of dialogue from TV series ¡® friends ¡¯." ]
[ "Untuk eksperimen kami, kami mencipta Dataset dialog berlabel manual dari siri TV Friends.", "Kami mencipta Manually Labeled Dataset dialog dari siri TV dan rakan-rakan." ]
[ "We have proposed an Rnn-Based Seq2Seq model to automatically solve math word problems.", "Learning based approaches are proposed to solve the math word problems." ]
[ "Kami telah mencadangkan model Seq2Seq berasaskan Rnn untuk menyelesaikan masalah perkataan matematik secara automatik.", "Pendekatan berasaskan pembelajaran dicadangkan untuk menyelesaikan masalah perkataan matematik." ]
[ "The feature weights for each system were tuned on development SETS using the Moses implementation of minimum error rate training.", "Feature weights were trained with minimum Error-Rate training on the News-Test2008 development set using the Dp beam search Decoder and the Mert implementation of the Moses Toolkit." ]
[ "Berat ciri bagi setiap sistem ditala pada pembangunan SETS menggunakan pelaksanaan Musa latihan kadar ralat minimum.", "Berat ciri dilatih dengan latihan Ralat-Rate minimum pada set pembangunan News-Test2008 menggunakan Decoder carian rasuk Dp dan pelaksanaan Mert Musa Toolkit." ]
[ "We trained a 5-Gram language model on the English side of each training corpus using the Sri language modeling Toolkit.", "We trained Kneser-Ney discounted 5-Gram language models on each available corpus using the Srilm Toolkit." ]
[ "Kami melatih model bahasa 5-Gram di sisi bahasa Inggeris setiap korpus latihan menggunakan Toolkit pemodelan bahasa Sri.", "Kami melatih model bahasa 5-Gram Kneser-Ney didiskaun pada setiap korpus yang tersedia menggunakan Srilm Toolkit." ]
[ "In this paper, we propose Discriminative Reranking of concept Annotation to jointly exploit Generative and Discriminative models.", "In this paper, we show that better feature representations serve the above purpose and that structure." ]
[ "Dalam makalah ini, kami mencadangkan Penerapan Diskriminatif konsep Annotasi untuk bersama-sama mengeksploitasi model Generatif dan Diskriminatif.", "Dalam makalah ini, kami menunjukkan bahawa perwakilan ciri yang lebih baik berfungsi dengan tujuan di atas dan struktur itu." ]
[ "We used the Pre-Trained word Embeddings that were learned using the Word2Vec Toolkit on Google news Dataset.", "We used the Pre-Trained word Embeddings that are learned using the Word2Vec Toolkit on Google news Dataset." ]
[ "Kami menggunakan Embedding perkataan Pra-Latih yang dipelajari menggunakan Word2Vec Toolkit pada Dataset berita Google.", "Kami menggunakan Embedding perkataan Pra-Latih yang dipelajari menggunakan Word2Vec Toolkit pada Dataset berita Google." ]
[ "Generative topic models widely used for Ir include Plsa and Lda.", "Examples of topic models include Plsi and Lda." ]
[ "Model topik generatif yang banyak digunakan untuk Ir termasuk Plsa dan Lda.", "Contoh model topik termasuk Plsi dan Lda." ]
[ "Our Phrase-Based mt system is trained by Moses with standard parameters settings.", "Our baseline system is Phrase-Based Moses with feature weights trained using Mert." ]
[ "Sistem mt Berasaskan Frasa kami dilatih oleh Musa dengan tetapan parameter standard.", "Sistem asas kami adalah Musa Berasaskan Frasa dengan berat ciri yang dilatih menggunakan Mert." ]
[ "Our machine translation system is a Phrase-Based system using the Moses Toolkit.", "Our mt Decoder is a proprietary engine similar to Moses." ]
[ "Sistem terjemahan mesin kami adalah sistem berasaskan frasa menggunakan Musa Toolkit.", "Decoder mt kami adalah enjin proprietari yang serupa dengan Musa." ]
[ "A lot of work has gone into developing powerful optimization methods for solving these Combinatorial problems.", "Work on Parsing has focused on solving these problems using powerful optimization techniques." ]
[ "Banyak kerja telah berkembang dalam membangunkan kaedah pengoptimuman yang kuat untuk menyelesaikan masalah-masalah ini.", "Kerja Parsing telah memberi tumpuan kepada menyelesaikan masalah ini menggunakan teknik pengoptimuman yang kuat." ]
[ "Current Metrics to automatically evaluate machine translations, such as the popular BLEU, are heavily based on string matching.", "String-Based automatic evaluation Metrics such as BLEU have led directly to quality improvements in machine translation." ]
[ "Metrik semasa untuk menilai terjemahan mesin secara automatik, seperti BLEU yang popular, sangat berdasarkan pada padanan rentetan.", "Metrik penilaian automatik berasaskan rentetan seperti BLEU telah membawa secara langsung kepada peningkatan kualiti dalam terjemahan mesin." ]
[ "We propose the joint Parsing models by the Feed-Forward and Bi-Lstm neural networks.", "We propose the first Embedding-Based fully joint Parsing model, (2)." ]
[ "Kami mencadangkan model Parsing bersama oleh rangkaian saraf Feed-Forward dan Bi-Lstm.", "Kami mencadangkan model Penguraian Bersama Berasaskan Embedding pertama, (2)." ]
[ "With the connective Donc, Causality is imposed by the connective, but in its turn it brings new constraints (§ 3.2).", "With the connective Donc, Causality is imposed by the connective, but in its turn." ]
[ "Dengan Donc penyambung, Causality dikenakan oleh penyambung, tetapi pada gilirannya ia membawa kekangan baru ( 3.2).", "Dengan Donc penyambung, Causality dikenakan oleh penyambung, tetapi sebaliknya." ]
[ "In the supervised ranking aggregation method, we apply ranking SVM.", "We use ranking Svms to learn a ranking function from preference constraints." ]
[ "Dalam kaedah agregasi ranking yang diawasi, kami menggunakan SVM ranking.", "Kami menggunakan Svms ranking untuk mempelajari fungsi ranking daripada kekangan keutamaan." ]
[ "We estimate a 5-Gram language model using interpolated Kneser-Ney discounting with Srilm.", "We estimated 5-Gram language models using the Sri Toolkit with modified Kneser-Ney smoothing." ]
[ "Kami menganggarkan model bahasa 5-Gram menggunakan diskaun Kneser-Ney yang saling berkaitan dengan Srilm.", "Kami menganggarkan model bahasa 5-Gram menggunakan Sri Toolkit dengan smoothing Kneser-Ney yang diubahsuai." ]
[ "Pantel and Pennacchiotti developed Espresso, a Weakly-Supervised system that exploits patterns in large-scale web data to distinguish between five Noun-Noun relations.", "Pantel and Pennacchiotti proposed Espresso, a relation extraction method based on the Co-Training Bootstrapping algorithm with entities and attributes." ]
[ "Pantel dan Pennacchiotti membangunkan Espresso, sistem yang lemah diselia yang mengeksploitasi corak dalam data web berskala besar untuk membezakan antara lima hubungan Noun-Noun.", "Pantel dan Pennacchiotti mencadangkan Espresso, kaedah pengekstrakan hubungan berdasarkan algoritma Bootstrapping Latihan Bersama dengan entiti dan atribut." ]
[ "We use the Stanford Pos-Tagger and name entity Recognizer.", "We tag the source language with the Stanford Pos Tagger." ]
[ "Kami menggunakan Stanford Pos-Tagger dan nama entiti Pengiktirafan.", "Kami tag bahasa sumber dengan Stanford Pos Tagger." ]
[ "In this paper we have presented a combined model of lexical and relational similarity for relational reasoning tasks.", "In this paper can also be applied successfully to other relational reasoning tasks." ]
[ "Dalam makalah ini kita telah membentangkan model gabungan persamaan leksikal dan hubungan untuk tugas penalaran hubungan.", "Dalam kertas ini juga boleh digunakan dengan jayanya untuk tugas-tugas penalaran hubungan yang lain." ]
[ "We show that the information we learn cannot be equally derived from a large Dataset with labeled Microposts.", "Information we learn cannot be equally derived from a large Dataset of Annotated Microposts." ]
[ "Kami menunjukkan bahawa maklumat yang kami pelajari tidak boleh sama-sama diperoleh dari Dataset yang besar dengan Micropost berlabel.", "Maklumat yang kita pelajari tidak boleh sama-sama diperolehi daripada Dataset besar Microposts Annotated." ]
[ "For the N-Gram LM, we use Srilm Toolkits to train a 4-Gram LM on the Xinhua portion of the Gigaword corpus.", "We train a 4-Gram language model on the Xinhua portion of the Gigaword corpus using the Sri language Toolkit with modified Kneser-Ney smoothing." ]
[ "Untuk N-Gram LM, kami menggunakan Srilm Toolkits untuk melatih LM 4-Gram di bahagian Xinhua dari korpus Gigaword.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword menggunakan Toolkit bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai." ]
[ "We used the logistic regression implemented in the Scikit-Learn library with the default settings.", "We used SVM Classifier that implements Linearsvc from the Scikit-Learn library." ]
[ "Kami menggunakan regresi logistik yang dilaksanakan dalam perpustakaan Scikit-Learn dengan tetapan lalai.", "Kami menggunakan SVM Classifier yang melaksanakan Linearsvc dari perpustakaan Scikit-Learn." ]
[ "We employ support vector machines to perform the classification.", "As a Classifier, we employ support vector machines as implemented in SVM light." ]
[ "Kami menggunakan mesin vektor sokongan untuk melaksanakan klasifikasi.", "Sebagai Classifier, kami menggunakan mesin vektor sokongan seperti yang dilaksanakan dalam cahaya SVM." ]
[ "Lexical functional grammar is a Constraint-Based theory of grammar.", "Lexical functional grammar is a member of the family of Constraint-Based Grammars." ]
[ "Tatabahasa fungsian leksikal ialah teori tatabahasa berasaskan kekangan.", "Tatabahasa fungsional leksikal adalah ahli keluarga Grammar Berasaskan Kekangan." ]
[ "The dependency grammar formalism, used for Hindi is computational Paninian framework.", "Dependency Annotation for Hindi is based on Paninian framework for building the Treebank." ]
[ "Formalisme tatabahasa dependensi, yang digunakan untuk bahasa Hindi adalah kerangka Paninian komputasi.", "Anotasi Dependensi untuk Hindi didasarkan pada kerangka Paninian untuk membangun Treebank." ]
[ "Kalchbrenner et al proposed to extend Cnns Max-Over-Time pooling to K-Max pooling for sentence modeling.", "Kalchbrenner et al introduced a dynamic K-Max pooling to handle variable length sequences." ]
[ "Kalchbrenner et al dicadangkan untuk memanjangkan Cnns Max-Over-Time pooling ke K-Max pooling untuk pemodelan ayat.", "Kalchbrenner et al memperkenalkan kumpulan K-Max dinamik untuk mengendalikan urutan panjang berubah-ubah." ]
[ "For all three classifiers, we used the Word2Vec 300D Pre-Trained Embeddings as features.", "To Encode the original sentences we used Word2Vec Embeddings Pre-Trained on Google news." ]
[ "Untuk ketiga-tiga pengelas, kami menggunakan Embedding Pra-Trained 300D Word2Vec sebagai ciri.", "Untuk Mengenal pasti ayat asal yang kami gunakan Embedding Word2Vec Pra-Trained pada berita Google." ]
[ "Unidir refers to the regular Rnns presented in section 2.1.1, and Bidir refers to Bidirectional Rnns introduced in (Cite-P-14-5-4).", "In section 2 . 1 . 1, and Bidir refers to Bidirectional Rnns introduced in (Cite-P-14-5-4)." ]
[ "Unidir merujuk kepada Rnn biasa yang dibentangkan dalam seksyen 2.1.1, dan Bidir merujuk kepada Rnn Bidirectional yang diperkenalkan dalam (Cite-P-14-5-4).", "Dalam seksyen 2.1.1, dan Bidir merujuk kepada Rnn Bidirectional yang diperkenalkan dalam (Cite-P-14-5-4)." ]
[ "These results were corroborated by Lembersky et al , 2012A Lembersky et al , 2013, who further demonstrated that translation models can be adapted to Translationese, thereby improving the quality of Smt even further.", "These results were corroborated by Lembersky et al , 2012A Lembersky et al , 2013, who showed that translation models can be adapted to Translationese, thereby improving the quality of Smt even further." ]
[ "Keputusan ini disokong oleh Lembersky et al, 2012A Lembersky et al, 2013, yang selanjutnya menunjukkan bahawa model terjemahan dapat disesuaikan dengan Terjemahan, sehingga meningkatkan kualitas Smt lebih jauh.", "Keputusan ini disokong oleh Lembersky et al, 2012A Lembersky et al, 2013, yang menunjukkan bahawa model terjemahan boleh disesuaikan dengan Terjemahan, dengan itu meningkatkan kualiti Smt lebih jauh." ]
[ "As a result, an argument model is needed to identify linguistically plausible spanning trees.", "And an argument model finds trees that are linguistically more plausible." ]
[ "Akibatnya, model hujah diperlukan untuk mengenal pasti pokok yang merangkumi linguistik.", "Dan model hujah mendapati pokok yang linguistik lebih masuk akal." ]
[ "Sentiment analysis is a growing research field, especially on web social networks.", "Sentiment analysis is a fundamental problem aiming to give a machine the ability to understand the emotions and opinions expressed in a written text." ]
[ "Analisis sentimen adalah bidang penyelidikan yang semakin meningkat, terutamanya di rangkaian sosial web.", "Analisis sentimen adalah masalah asas yang bertujuan untuk memberi mesin keupayaan untuk memahami emosi dan pendapat yang dinyatakan dalam teks bertulis." ]
[ "The Anaphor is a pronoun and the referent is in the cache (in focus).", "If the Anaphor is a pronoun but no referent is found in the cache, it is then necessary to Operatingsearch memory." ]
[ "Anafor adalah kata ganti dan rujuk berada dalam cache (dalam fokus).", "Jika Anaphor adalah kata ganti tetapi tiada rujukan ditemui dalam cache, maka ia adalah perlu untuk ingatan Operatingsearch." ]
[ "Sentiment analysis is a research area in the field of natural language processing.", "Sentiment analysis is the process of identifying and extracting subjective information using natural language processing (Nlp)." ]
[ "Analisis kepekaan adalah bidang penyelidikan dalam bidang pemprosesan bahasa semula jadi.", "Analisis kepekaan adalah proses mengenal pasti dan mengekstrak maklumat subjektif menggunakan pemprosesan bahasa semula jadi (Nlp)." ]
[ "We used the Mstparser as the basic dependency Parsing model.", "We built a global Reranking Parser model using multiple Decoders from Mstparser." ]
[ "Kami menggunakan Mstparser sebagai model penghuraian dependensi asas.", "Kami membina model Reranking Parser global menggunakan pelbagai Decoders dari Mstparser." ]
[ "Twitter is a rich resource for information about everyday events – people post their Tweets to Twitter publicly in real-time as they conduct their activities throughout the day, resulting in a significant amount of mundane information about common events.", "Twitter is a Microblogging site where people express themselves and react to content in real-time." ]
[ "Twitter adalah sumber yang kaya untuk maklumat mengenai peristiwa sehari-hari - orang menghantar Tweet mereka ke Twitter secara terbuka dalam masa nyata kerana mereka menjalankan aktiviti mereka sepanjang hari, menghasilkan sejumlah besar maklumat biasa mengenai peristiwa biasa.", "Twitter adalah laman Microblogging di mana orang menyatakan diri mereka dan bertindak balas terhadap kandungan dalam masa nyata." ]
[ "We use the Mallet implementation of conditional random fields.", "We rely on conditional random fields 1 for predicting one label per reference." ]
[ "Kami menggunakan pelaksanaan Mallet medan rawak bersyarat.", "Kami bergantung pada medan rawak bersyarat 1 untuk meramalkan satu label setiap rujukan." ]
[ "Word Segmentation policy for these languages are described in the previous paper.", "The word based Japanese Segmenters are described in the previous paper." ]
[ "Dasar Segmentasi Perkataan untuk bahasa-bahasa ini dijelaskan dalam kertas kerja sebelumnya.", "Perkataan Segmenters Jepun berasaskan diterangkan dalam kertas sebelumnya." ]
[ "Each task is based on a Database schema which defines the domain of interest.", "Since each task involves a separate schema and Database of entities." ]
[ "Setiap tugas adalah berdasarkan skema Pangkalan Data yang mentakrifkan domain kepentingan.", "Oleh kerana setiap tugas melibatkan skema dan pangkalan data entiti yang berasingan." ]
[ "Our word Embeddings are trained by predicting words between noun pairs using lexical Relation-Specific features on a large Unlabeled corpus.", "We train word Embeddings by predicting each of the words between noun pairs using lexical Relation-Specific features on a large Unlabeled corpus." ]
[ "Embedding perkataan kami dilatih dengan meramalkan perkataan antara pasangan kata nama menggunakan ciri-ciri Relasi-Specific leksikal pada korpus Unlabeled yang besar.", "Kami melatih Embedding perkataan dengan meramalkan setiap perkataan antara pasangan kata nama menggunakan ciri-ciri Relasi-Specific leksikal pada korpus Unlabeled yang besar." ]
[ "Lda is a Generative model that learns a set of latent topics for a document collection.", "Lda is a topic model that generates topics based on word frequency from a set of documents." ]
[ "Lda adalah model Generatif yang mempelajari satu set topik laten untuk koleksi dokumen.", "Lda adalah model topik yang menghasilkan topik berdasarkan frekuensi perkataan dari satu set dokumen." ]
[ "In this study we discuss Real-World applications of confidence scoring in a customer service scenario.", "In this study, we focus on improving the confidence measurement to maintain the accuracy." ]
[ "Dalam kajian ini, kami membincangkan aplikasi Real-World mengenai pemarkahan keyakinan dalam senario perkhidmatan pelanggan.", "Dalam kajian ini, kami memberi tumpuan kepada meningkatkan pengukuran keyakinan untuk mengekalkan ketepatan." ]
[ "We propose a neural architecture which learns a Distributional semantic representation that Leverages a greater amount of semantic context – both document and sentence level information – than prior work.", "We propose a neural architecture which learns a Distributional semantic representation that leverage both document and sentence level information." ]
[ "Kami mencadangkan seni bina neural yang mempelajari perwakilan semantik Pengagihan yang Mengukur jumlah konteks semantik yang lebih besar - kedua-dua dokumen dan maklumat tahap ayat - daripada kerja sebelumnya.", "Kami mencadangkan seni bina saraf yang mempelajari perwakilan semantik Pengagihan yang memanfaatkan kedua-dua dokumen dan maklumat tahap ayat." ]
[ "In related work on modeling Arabic syntax and morphology, Habash et al demonstrated that given good syntactic representations, case prediction can be done with a high degree of accuracy.", "In related work on modeling Arabic case and syntax, Habash et al compared Rule-Based and machine learning approaches to capture the complexity of Arabic case assignment and agreement." ]
[ "Dalam kerja berkaitan pemodelan sintaks Arab dan morfologi, Habash et al menunjukkan bahawa diberikan perwakilan sintaksis yang baik, ramalan kes boleh dilakukan dengan ketepatan yang tinggi.", "Dalam kerja berkaitan pemodelan kes dan sintaks Arab, Habash et al membandingkan pendekatan berasaskan peraturan dan pembelajaran mesin untuk menangkap kerumitan tugasan dan perjanjian kes Arab." ]
[ "The need for automatic document summarization that can be used for practical applications is increasing rapidly.", "Both Online and Offline, the need for automatic document summarization that can be implement in practical scenarios is increasing." ]
[ "Keperluan untuk meringkaskan dokumen automatik yang boleh digunakan untuk aplikasi praktikal semakin meningkat dengan pesat.", "Dalam talian dan luar talian, keperluan untuk meringkaskan dokumen automatik yang boleh dilaksanakan dalam senario praktikal semakin meningkat." ]
[ "This maximum weighted Bipartite matching problem can be solved in Otime using the Kuhnmunkres algorithm.", "This Combinatorial optimization can be solved in polynomial time by modifying the Hungarian assignment algorithm." ]
[ "Masalah pemadanan Bipartite berwajaran maksimum ini boleh diselesaikan dalam Otime menggunakan algoritma Kuhnmunkres.", "Pengoptimuman Kompbinatorial ini boleh diselesaikan dalam masa polinomial dengan mengubah suai algoritma penugasan Hungary." ]
[ "In this paper, we investigate the question of transferring a semantic Parser from a source language (E.G . English) to a target language (E.G . German).", "In this paper, we investigate ways to transfer information from one (source) language to another (target) language in a single semantic Parsing." ]
[ "Dalam makalah ini, kita menyiasat persoalan memindahkan Parser semantik dari bahasa sumber (E.G. Bahasa Inggeris) ke bahasa sasaran (E.G. Jerman).", "Dalam makalah ini, kami menyiasat cara untuk memindahkan maklumat dari satu (sumber) bahasa ke bahasa lain (sasaran) dalam satu Parsing semantik tunggal." ]
[ "Our baseline Discriminative model uses First-And second-order features provided in.", "The First-Stage model we use is a first-order dependency model, with labeled Dependencies, as described in." ]
[ "Model Diskriminatif asas kami menggunakan ciri-ciri First-And second-order yang disediakan dalam.", "Model Stage Pertama yang kami gunakan adalah model dependensi pesanan pertama, dengan Dependensi berlabel, seperti yang dijelaskan dalam." ]
[ "In this paper, we focused on the task of response selection.", "In this paper, we study the task of response selection." ]
[ "Dalam kertas ini, kami memberi tumpuan kepada tugas pemilihan tindak balas.", "Dalam makalah ini, kami mengkaji tugas pemilihan respons." ]
[ "The Annotation was performed using the Brat 2 tool.", "The Annotation was performed manually using the Brat Annotation tool." ]
[ "Anotasi dilakukan menggunakan alat Brat 2.", "Anotasi dilakukan secara manual menggunakan alat Anotasi Brat." ]
[ "We assume familiarity with theories of unification grammar, as formulated by, for example, carpenter and Penn.", "We assume familiarity with theories of unification Grammars, as formulated by, Eg, carpenter and Penn." ]
[ "Kami menganggap keakraban dengan teori tatabahasa penyatuan, seperti yang dirumuskan oleh, sebagai contoh, tukang kayu dan Penn.", "Kami menganggap keakraban dengan teori penyatuan Grammars, seperti yang dirumuskan oleh, Eg, tukang kayu dan Penn." ]
[ "We also introduce a novel task that combines Hypernym detection and Directionality, significantly outperforming a competitive Frequency-Based baseline.", "We introduced a novel, more difficult task combining Hypernym detection and Directionality, and showed that our methods outperform a frequency baseline." ]
[ "Kami juga memperkenalkan tugas baru yang menggabungkan pengesanan Hypernym dan Directionality, dengan ketara mengatasi asas berasaskan Frekuensi yang kompetitif.", "Kami memperkenalkan tugas yang lebih sukar menggabungkan pengesanan Hypernym dan Directionality, dan menunjukkan bahawa kaedah kami mengatasi garis asas frekuensi." ]
[ "In this paper, we present a method for learning the basic patterns contained within a plan and the ordering among them.", "In this paper we presented a technique for extracting order constraints among plan elements." ]
[ "Dalam kertas ini, kami membentangkan kaedah untuk mempelajari corak asas yang terkandung dalam pelan dan pesanan di antara mereka.", "Dalam kertas ini kami membentangkan teknik untuk mengekstrak kekangan pesanan di antara elemen pelan." ]
[ "Iyyer et al applied a recursive neural network framework to detect political positions.", "Iyyer et al , 2014) addresses political ideology detection using recursive neural networks." ]
[ "Iyyer et al menerapkan kerangka jaringan neural rekursif untuk mendeteksi posisi politik.", "Iyyer et al, 2014) membahas deteksi ideologi politik menggunakan jaringan neural rekursif." ]
[ "Knowledge bases such as Freebase and Yago play a pivotal role in many Nlp related applications.", "Knowledge bases like Freebase, Dbpedia, and Nell are extremely useful resources for many Nlp tasks." ]
[ "Pangkalan pengetahuan seperti Freebase dan Yago memainkan peranan penting dalam banyak aplikasi berkaitan Nlp.", "Pangkalan pengetahuan seperti Freebase, Dbpedia, dan Nell adalah sumber yang sangat berguna untuk banyak tugas Nlp." ]
[ "Random indexing is an approach which Incrementally builds word vectors in a Dimensionally-Reduced space.", "Random indexing is a method for building a compressed Wsm with a fixed Dimensionality, done in an incremental fashion." ]
[ "Pengindeksan rawak adalah pendekatan yang secara Incrementally membina vektor perkataan dalam ruang Dimensionally-Reduced.", "Pengindeksan rawak adalah kaedah untuk membina Wsm yang dimampatkan dengan Dimensi tetap, dilakukan dengan cara tambahan." ]
[ "Nevertheless, we can apply long short-term memory structure for source and target words Embedding.", "We use long Shortterm memory networks to build another Semanticsbased sentence representation." ]
[ "Walau bagaimanapun, kita boleh menggunakan struktur memori jangka pendek yang panjang untuk perkataan sumber dan sasaran Embedding.", "Kami menggunakan rangkaian memori jangka pendek yang panjang untuk membina perwakilan ayat berasaskan Semantik yang lain." ]
[ "However, we argue that effective concept normalisation requires a system to take into account the Semantics of social media messages and medical concepts.", "As social media messages are typically ambiguous, we argue that effective concept normalisation should deal with them." ]
[ "Walau bagaimanapun, kami berpendapat bahawa normalisasi konsep yang berkesan memerlukan sistem untuk mengambil kira Semantik mesej media sosial dan konsep perubatan.", "Oleh kerana mesej media sosial biasanya samar-samar, kami berpendapat bahawa normalisasi konsep yang berkesan harus menanganinya." ]
[ "The minimum error rate training was used to tune the feature weights.", "The model weights are automatically tuned using minimum error rate training." ]
[ "Latihan kadar ralat minimum digunakan untuk menyesuaikan berat ciri.", "Berat model ditala secara automatik menggunakan latihan kadar ralat minimum." ]
[ "We use Opennmt, which is an implementation of the popular Nmt approach that uses an Attentional Encoder-Decoder network.", "We use a Pointer-Generator network, which is a combination of a Seq2Seq model with attention and a pointer network." ]
[ "Kami menggunakan Opennmt, yang merupakan pelaksanaan pendekatan Nmt yang popular yang menggunakan rangkaian Encoder-Decoder Perhatian.", "Kami menggunakan rangkaian Penukar Penuding, yang merupakan gabungan model Seq2Seq dengan perhatian dan rangkaian penuding." ]
[ "For probabilistic Parsing, we can cite LFG, Head-Driven phrase structure grammar and probabilistic Context-Free Grammars.", "We can cite Lexical-Functional grammar, Head-Driven phrase structure grammar and probabilistic Context-Free Grammars." ]
[ "Untuk Penghuraian probabilistik, kita boleh memetik LFG, struktur frasa Head-Driven tatabahasa dan probabilistik Grammar Bebas Konteks.", "Kita boleh memetik tatabahasa Leksi-Fungsional, tatabahasa struktur frasa Kepala-Driven dan Grammar Bebas Konteks probabilistik." ]
[ "Lda is a probabilistic Generative model that can be used to uncover the underlying semantic structure of a document collection.", "Lda is a topic model that generates topics based on word frequency from a set of documents." ]
[ "Lda adalah model Generatif probabilistik yang boleh digunakan untuk mengungkap struktur semantik yang mendasari koleksi dokumen.", "Lda adalah model topik yang menghasilkan topik berdasarkan frekuensi perkataan dari satu set dokumen." ]
[ "Our translation model is implemented as an N-Gram model of operations using the Srilm Toolkit with Kneser-Ney smoothing.", "We also use a 4-Gram language model trained using Srilm with Kneser-Ney smoothing." ]
[ "Model terjemahan kami dilaksanakan sebagai model operasi N-Gram menggunakan Srilm Toolkit dengan smoothing Kneser-Ney.", "Kami juga menggunakan model bahasa 4-Gram yang dilatih menggunakan Srilm dengan smoothing Kneser-Ney." ]
[ "The circles denote fixations, and the lines are Saccades.", "Circles denote variable nodes, and squares denote factor nodes." ]
[ "Bulatan menandakan penetapan, dan garis-garisnya adalah Saccades.", "Bulatan menandakan nod pemboleh ubah, dan kuasa dua menandakan nod faktor." ]
[ "Concretely, a Context-Free grammar can be read off from discontinuous trees that have been transformed to Context-Free trees by the procedure introduced by Boyd.", "More concretely, a Context-Free grammar can be read off from discontinuous trees that have been transformed to Context-Free trees by the procedure introduced in Boyd." ]
[ "Secara konkrit, tatabahasa Bebas Konteks boleh dibaca dari pokok yang tidak berterusan yang telah diubah menjadi pokok Bebas Konteks oleh prosedur yang diperkenalkan oleh Boyd.", "Lebih konkrit, tatabahasa Bebas Konteks boleh dibaca dari pokok yang tidak berterusan yang telah diubah menjadi pokok Bebas Konteks oleh prosedur yang diperkenalkan di Boyd." ]
[ "The empirical results illustrated that the proposed method can significantly accelerate the Nmt training and improve the Nmt performances.", "Englishto-German tasks show that the proposed method can significantly accelerate the Nmt training and improve the Nmt performance." ]
[ "Hasil empirikal menggambarkan bahawa kaedah yang dicadangkan dapat mempercepat latihan Nmt dengan ketara dan meningkatkan persembahan Nmt.", "Tugas-tugas bahasa Inggeris ke Jerman menunjukkan bahawa kaedah yang dicadangkan dapat mempercepat latihan Nmt dengan ketara dan meningkatkan prestasi Nmt." ]
[ "This study has experimentally investigated the impact of Contextual information selection, by extracting three kinds of word relationships from Corpora: dependency, sentence Co-Occurrence, and proximity.", "In this study, we experimentally investigated the impact of Contextual information selection, by extracting three kinds of Contextual information ¡ª dependency, sentence Co-Occurrence, and proximity." ]
[ "Kajian ini telah menyiasat secara eksperimen kesan pemilihan maklumat Kontekstual, dengan mengekstrak tiga jenis hubungan perkataan dari Corpora: kebergantungan, ayat Co-Occurrence, dan jarak.", "Dalam kajian ini, kami secara eksperimen menyiasat kesan pemilihan maklumat Kontekstual, dengan mengekstrak tiga jenis maklumat Kontekstual a kebergantungan, ayat Co-Occurrence, dan jarak." ]
[ "Zhao et al further increase the utility of this combination approach by incorporating application specific constraints on the Pivoted paraphrases.", "Zhao et al enrich this approach by adding multiple resources and further extend the method by generating different paraphrase in different applications." ]
[ "Zhao et al selanjutnya meningkatkan utiliti pendekatan gabungan ini dengan memasukkan kekangan khusus aplikasi pada parafrasa Pivoted.", "Zhao et al memperkaya pendekatan ini dengan menambah pelbagai sumber dan melanjutkan lagi kaedah dengan menghasilkan parafrasa yang berbeza dalam aplikasi yang berbeza." ]
[ "Word sense Disambiguation (Wsd) is formally defined as the task of Computationally identifying senses of a word in a context.", "Word sense Disambiguation (Wsd) is the task of determining the meaning of an ambiguous word in its context." ]
[ "Disambiguasi erti kata (Wsd) secara rasmi ditakrifkan sebagai tugas Mengenal pasti deria perkataan secara komputasi dalam konteks.", "Kemusykilan erti kata Kemusykilan (Wsd) ialah tugas menentukan makna perkataan yang samar-samar dalam konteksnya." ]
[ "We definitely need some method to control the quality of the acquired Scfs.", "In the future, I need to evaluate the quality of the resulting Scfs by manual analysis." ]
[ "Kami pasti memerlukan beberapa kaedah untuk mengawal kualiti Scfs yang diperoleh.", "Pada masa akan datang, saya perlu menilai kualiti Scfs yang dihasilkan oleh analisis manual." ]
[ "Sarcasm is a form of speech in which speakers say the opposite of what they truly mean in order to convey a strong sentiment.", "Since sarcasm is a refined and indirect form of speech, its interpretation may be challenging for certain populations." ]
[ "Sarcasm adalah satu bentuk ucapan di mana penceramah mengatakan sebaliknya daripada apa yang mereka benar-benar bermakna untuk menyampaikan sentimen yang kuat.", "Oleh kerana sindiran adalah bentuk ucapan yang halus dan tidak langsung, tafsirannya mungkin mencabar bagi populasi tertentu." ]
[ "Models were built and interpolated using Srilm with modified Kneser-Ney smoothing and the default pruning settings.", "These language models were built up to an order of 5 with Kneser-Ney smoothing using the Srilm Toolkit." ]
[ "Model dibina dan diinterpolasi menggunakan Srilm dengan smoothing Kneser-Ney yang diubahsuai dan tetapan pemangkasan lalai.", "Model bahasa ini dibina sehingga urutan 5 dengan smoothing Kneser-Ney menggunakan Srilm Toolkit." ]
[ "We obtain the Pre-Tokenized Dataset from the Open-Nmt project.", "We use an Nmt-Small model from the Opennmt framework for the neural translation." ]
[ "Kami memperoleh Set Data Pra-Tokenized dari projek Open-Nmt.", "Kami menggunakan model Nmt-Small dari kerangka Opennmt untuk terjemahan neural." ]
[ "We used 200 dimensional glove word representations, which were Pre-Trained on 6 billion Tweets.", "We used the 300-Dimensional glove word Embeddings learned from 840 billion tokens in the web crawl data, as general word Embeddings." ]
[ "Kami menggunakan perwakilan perkataan sarung tangan 200 dimensi, yang telah Dilatih pada 6 bilion Tweet.", "Kami menggunakan perkataan sarung tangan 300-Dimensional Embeddings yang dipelajari dari 840 bilion token dalam data merangkak web, sebagai perkataan umum Embeddings." ]
[ "Senseclusters is a freely available system that identifies similar contexts in text.", "Senseclusters is a Freely–Available Open– source system that served as the University of Minnesota, Duluth entry in the s Enseval -4 sense induction task." ]
[ "Senseclusters adalah sistem yang tersedia secara bebas yang mengenal pasti konteks yang serupa dalam teks.", "Senseclusters adalah sistem sumber Open-Available Open-Available yang berfungsi sebagai Universiti Minnesota, Duluth masuk dalam tugas induksi s Enseval -4." ]
[ "Pcfg Parsing features were generated on the output of the Berkeley Parser, with the default Grammars based on an English and a German Treebank.", "Pcfg Parsing features were generated on the output of the Berkeley Parser, trained over an English and a Spanish Treebank." ]
[ "Ciri-ciri Pcfg Parsing dihasilkan pada output Berkeley Parser, dengan Grammar lalai berdasarkan bahasa Inggeris dan Treebank Jerman.", "Ciri-ciri Pcfg Parsing dihasilkan pada output Berkeley Parser, dilatih melalui Treebank Bahasa Inggeris dan Sepanyol." ]
[ "It has attracted the attention of people both inside and outside the Nlp community.", "Corpus has attracted people both inside and outside the Nlp community." ]
[ "Ia telah menarik perhatian orang ramai di dalam dan di luar komuniti Nlp.", "Corpus telah menarik orang di dalam dan di luar komuniti Nlp." ]
[ "Besides Phrase-Based machine translation systems, Syntax-Based systems have become widely used because of their ability to handle Non-Local reordering.", "Phrase-Based models have been widely used in practical machine translation systems due to their effectiveness, simplicity, and applicability." ]
[ "Selain sistem terjemahan mesin Berfiksyen, sistem Berasaskan Sintaks telah digunakan secara meluas kerana keupayaan mereka untuk mengendalikan penyusunan semula Bukan Tempatan.", "Model berasaskan frasa telah digunakan secara meluas dalam sistem terjemahan mesin praktikal kerana keberkesanan, kesederhanaan, dan kebolehgunaannya." ]
[ "We used Moses with the default configuration for Phrase-Based translation.", "For all submissions, we used the Phrase-Based variant of the Moses Decoder." ]
[ "Kami menggunakan Musa dengan konfigurasi lalai untuk terjemahan Berasaskan Frasa.", "Untuk semua penyerahan, kami menggunakan varian Phrase-Based dari Moses Decoder." ]
[ "For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided.", "We used 5-Gram models, estimated using the Sri language modeling Toolkit with modified Kneser-Ney smoothing." ]
[ "Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan.", "Kami menggunakan model 5-Gram, dianggarkan menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai." ]
[ "We use 300D glove vectors trained on 840B tokens as the word Embedding input to the Lstm.", "We represent terms using Pre-Trained glove Wikipedia 6B word Embeddings." ]
[ "Kami menggunakan vektor sarung tangan 300D yang dilatih pada token 840B sebagai input Embedding perkataan ke Lstm.", "Kami mewakili istilah menggunakan sarung tangan Pra-Trained Wikipedia 6B Embedding perkataan." ]
[ "Sentence completion is a challenging semantic modeling task in which models must choose the most appropriate word from a given set to complete a sentence.", "Sentence completion is a challenging semantic Modelling problem." ]
[ "Penyempurnaan ayat adalah tugas pemodelan semantik yang mencabar di mana model mesti memilih perkataan yang paling sesuai dari set yang diberikan untuk menyelesaikan ayat.", "Penyelesaian pendengaran adalah masalah pemodelan semantik yang mencabar." ]
[ "The model was built using the Srilm Toolkit with Backoff and Good-Turing smoothing.", "The Srilm Toolkit was used to build the 5-Gram language model." ]
[ "Model ini dibina menggunakan Srilm Toolkit dengan Backoff dan smoothing Good-Turing.", "Srilm Toolkit digunakan untuk membina model bahasa 5-Gram." ]
[ "Our word Embeddings is Initialized with 100-Dimensional glove word Embeddings.", "We use Pre-Trained 50-Dimensional word Embeddings vector from glove." ]
[ "Perkataan Embeddings kami Dimulakan dengan perkataan sarung tangan 100-Dimensional Embeddings.", "Kami menggunakan perkataan Pra-Trained 50-Dimensional Embeddings vektor dari sarung tangan." ]
[ "This paper further analyzes aspects of learning that impact performance.", "In this paper, we have demonstrated the viability of a regression approach to learning." ]
[ "Kertas ini seterusnya menganalisis aspek pembelajaran yang memberi kesan kepada prestasi.", "Dalam makalah ini, kami telah menunjukkan daya maju pendekatan regresi untuk pembelajaran." ]
[ "Chen et al used Lstm to capture long distance Dependencies.", "Chen et al used long short-term Memoryto capture long term dependency." ]
[ "Chen et al menggunakan Lstm untuk menangkap Dependensi jarak jauh.", "Chen et al menggunakan Memori jangka pendek panjang untuk menangkap kebergantungan jangka panjang." ]
[ "The semantic textual similarity task examines semantic similarity at a Sentence-Level.", "The task of semantic textual similarity measures the degree of semantic equivalence between two sentences." ]
[ "Tugas kesamaan teks semantik mengkaji persamaan semantik pada Tahap Sentence.", "Tugas persamaan teks semantik mengukur tahap kesetaraan semantik antara dua ayat." ]