[{"en": ["We run Mecab on Hadoop 11, an open source software that implemented the Map-Reduce framework, for word Segmenting and Pos tagging the data.", "We run Mecab 4 with Ipa dictionary 5 on Hadoop 6, an open source software that implemented the Map-Reduce framework, for parallel word Segmenting, Part-Of-Speech tagging, and Kana Pronunciation Annotating."], "ms": ["Kami menjalankan Mecab pada Hadoop 11, perisian sumber terbuka yang melaksanakan rangka kerja Map-Reduce, untuk Segmen perkataan dan Pos penandaan data.", "Kami menjalankan Mecab 4 dengan kamus Ipa 5 pada Hadoop 6, perisian sumber terbuka yang melaksanakan rangka kerja Map-Reduce, untuk Segmenting perkataan selari, penandaan Part-Of-Speech, dan Kana Pronunciation Annotating."]}, {"en": ["To minimize such confusion, a system must separately represent noun phrases, the underlying concepts to which they can refer, and the Many-To-Many \u00a1\u00b0Can refer To\u00a1\u00b1 relation between them.", "To accurately represent knowledge, they must represent noun phrases, concepts, and the Many-To-Many mapping from noun phrases to concepts."], "ms": ["Untuk meminimumkan kekeliruan tersebut, sistem mesti secara berasingan mewakili frasa kata nama, konsep asas yang boleh dirujuk, dan Banyak-To-Many Boleh merujuk hubungan To antara mereka.", "Untuk mewakili pengetahuan dengan tepat, mereka mesti mewakili frasa kata nama, konsep, dan pemetaan Banyak-Ke-Banyak dari frasa kata nama ke konsep."]}, {"en": ["We improved the system combination by adding a 5-Grams language model with modified Kneser-Ney smoothing.", "For all systems, we trained a 6-Gram language model smoothed with modified Kneser-Ney smoothing using Kenlm."], "ms": ["Kami meningkatkan kombinasi sistem dengan menambah model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai.", "Untuk semua sistem, kami melatih model bahasa 6-Gram yang dilicinkan dengan Kneser-Ney yang diubahsuai dengan menggunakan Kenlm."]}, {"en": ["For our experiments we use the Unlexicalised Berkeley Parser and the Lexicalised form of the Stanford Parser.", "In our experiments, we obtain this information from the Stanford Parser but any other broadly similar Parser could be used instead."], "ms": ["Untuk eksperimen kami, kami menggunakan Berkeley Parser yang tidak boleh dilexicalized dan bentuk Lexicalized Stanford Parser.", "Dalam eksperimen kami, kami mendapat maklumat ini dari Stanford Parser tetapi mana-mana Parser lain yang serupa boleh digunakan sebagai gantinya."]}, {"en": ["Wedekind achieves the reordering by first generating nodes that are connected, that is, whose Semantics is Instantiated.", "Wedekind achieves this goal by expanding first nodes that are connected, that is, whose Semantics is Instantiated."], "ms": ["Wedekind mencapai penyusunan semula dengan menghasilkan nod pertama yang disambungkan, iaitu, yang Semantiknya dibuktikan.", "Wedekind mencapai matlamat ini dengan mengembangkan nod pertama yang disambungkan, iaitu, yang Semantiknya dibuktikan."]}, {"en": ["Our method is based on a theoretically clear statistical model that integrates linguistic, acoustic and Situational information.", "And so our statistical model integrates linguistic, acoustic and Situational information."], "ms": ["Kaedah kami adalah berdasarkan model statistik yang jelas secara teori yang mengintegrasikan maklumat linguistik, akustik dan Situasi.", "Oleh itu, model statistik kami mengintegrasikan maklumat linguistik, akustik dan Situasi."]}, {"en": ["A key aspect of our approach is the representation of content by phrases rather than entire sentences.", "In our approach is to formulate summarization as a phrase rather than sentence."], "ms": ["Aspek utama pendekatan kami adalah perwakilan kandungan dengan frasa dan bukannya keseluruhan ayat.", "Dalam pendekatan kita adalah merumuskan ringkasan sebagai frasa dan bukannya ayat."]}, {"en": ["Using a similar corpus, tang et al induced sentiment specific word Embeddings, for the Twitter domain.", "Tang et al use enriched Task-Specific word Embeddings and show improvement in a Twitter sentiment classification task."], "ms": ["Menggunakan korpus yang sama, tang et al mendorong sentimen perkataan tertentu Embeddings, untuk domain Twitter.", "Tang et al menggunakan Embedding kata Task-Specific diperkaya dan menunjukkan peningkatan dalam tugas pengelasan sentimen Twitter."]}, {"en": ["More specifically, we focus on a case study of analyzing annoying behaviors.", "In this paper, we have presented a case study of the annoying behaviors."], "ms": ["Lebih khusus lagi, kami memberi tumpuan kepada kajian kes menganalisis tingkah laku yang menjengkelkan.", "Dalam makalah ini, kami telah membentangkan kajian kes mengenai tingkah laku yang menjengkelkan."]}, {"en": ["To predict labels, we train conditional random fields, which are directly Optimized for splitting.", "For simplicity, we use the well-known conditional random fields for sequential labeling."], "ms": ["Untuk meramalkan label, kami melatih medan rawak bersyarat, yang secara langsung Dioptimumkan untuk pemisahan.", "Untuk kesederhanaan, kami menggunakan medan rawak bersyarat yang terkenal untuk pelabelan berurutan."]}, {"en": ["This paper describes the largest scale Annotation project involving the Enron Email corpus to date.", "This paper describes the process of having humans Annotate a corpus of Emails."], "ms": ["Kertas ini menerangkan projek Annotasi skala terbesar yang melibatkan Enron Email corpus setakat ini.", "Kertas kerja ini menerangkan proses mempunyai manusia Annotate corpus Emails."]}, {"en": ["Figure 1 shows the sequence structured Lstm of Hochreiter and Schmidhuber and the Treestructured Lstm of, illustrating the input, cell and hidden nodes at a certain time step T.", "Figure 1 shows the Topologies of the conventional Chain-Structured Lstm and the Treelstm, illustrating the input, cell and hidden Node at a time step T."], "ms": ["Rajah 1 menunjukkan jujukan berstruktur Lstm Hochreiter dan Schmidhuber dan Tree berstruktur Lstm, menggambarkan input, sel dan nod tersembunyi pada langkah masa tertentu T.", "Rajah 1 menunjukkan Topologi Lstm Chain-Structured konvensional dan Treelstm, menggambarkan input, sel dan Nod tersembunyi pada langkah masa T."]}, {"en": ["In our work, we focus on supervised domain adaptation.", "In this work, we investigate the effectiveness of using domain adaptation."], "ms": ["Dalam kerja kami, kami memberi tumpuan kepada penyesuaian domain yang diawasi.", "Dalam kerja ini, kami menyiasat keberkesanan menggunakan penyesuaian domain."]}, {"en": ["We then looked at the argument made by Shimoyama and her E-Type analysis of Ihrc.", "We then review the observation made by Shimoyama and her E-Type analysis of Ihrc."], "ms": ["Kami kemudian melihat hujah yang dibuat oleh Shimoyama dan analisis E-Type beliau Ihrc.", "Kami kemudian mengkaji pemerhatian yang dibuat oleh Shimoyama dan analisis E-Type beliau Ihrc."]}, {"en": ["The verb choice highly depends on its usage context which is not consistently captured by local features.", "Because verb usage highly depends on the usage context, which is hard to capture and represent."], "ms": ["Pilihan kata kerja sangat bergantung pada konteks penggunaannya yang tidak secara konsisten ditangkap oleh ciri tempatan.", "Kerana penggunaan kata kerja sangat bergantung pada konteks penggunaan, yang sukar ditangkap dan diwakili."]}, {"en": ["Davidov et al , 2007) introduce the use of term frequency patterns for relationship discovery.", "Davidov et al , 2007) proposed a method for Unsupervised discovery of concept specific relations, requiring initial word seeds."], "ms": ["Davidov et al, 2007) memperkenalkan penggunaan corak frekuensi istilah untuk penemuan hubungan.", "Davidov et al, 2007) mencadangkan kaedah untuk penemuan hubungan konsep yang tidak diawasi, yang memerlukan benih kata awal."]}, {"en": ["In addition to the joint optimization framework using Ilp, we explore Pool-Based active learning to further reduce the required feedback.", "In this paper, we investigate Pool-Based active learning and joint optimization techniques to collect user feedback for identifying important concepts."], "ms": ["Sebagai tambahan kepada rangka kerja pengoptimuman bersama menggunakan Ilp, kami meneroka pembelajaran aktif berasaskan Pool untuk mengurangkan lagi maklum balas yang diperlukan.", "Dalam makalah ini, kami menyiasat teknik pembelajaran aktif dan pengoptimuman bersama berasaskan Pool untuk mengumpulkan maklum balas pengguna untuk mengenal pasti konsep penting."]}, {"en": ["Second, we cluster the extracted patterns to identify the semantically related patterns.", "By clustering the semantically related patterns into groups, we can both overcome the data."], "ms": ["Kedua, kita mengelompokkan pola yang diekstrak untuk mengenal pasti pola yang berkaitan secara semantikal.", "Dengan mengelompokkan corak yang berkaitan dengan semantik ke dalam kumpulan, kita boleh mengatasi kedua-dua data."]}, {"en": ["In addition, we constructed a Chinese Dataset to evaluate the generality of the method performance on humor recognition against different languages.", "In this study, we have extended the techniques of automatic humor recognition to different types of humor as well as different languages."], "ms": ["Di samping itu, kami membina Dataset Cina untuk menilai kegeneralitian prestasi kaedah mengenai pengiktirafan humor terhadap bahasa yang berbeza.", "Dalam kajian ini, kami telah memperluaskan teknik pengiktirafan humor automatik kepada pelbagai jenis humor serta bahasa yang berbeza."]}, {"en": ["Galley et al describe an algorithm for inducing a String-To-Tree grammar using a parallel corpus with syntax trees on target side.", "Galley et al proposed an mt model which produces target Parse trees for string inputs in order to exploit the syntactic structure of the target language."], "ms": ["Galley et al menggambarkan algoritma untuk mendorong tatabahasa String-To-Tree menggunakan korpus selari dengan pokok sintaks di sisi sasaran.", "Galley et al mencadangkan model mt yang menghasilkan pokok Parse sasaran untuk input rentetan untuk mengeksploitasi struktur sintaksis bahasa sasaran."]}, {"en": ["The problem of polarity classification has been studied in detail by Wilson, Wiebe, and Hoffmann, who used a set of carefully devised linguistic features.", "The problem of polarity classification has been studied in detail by Wilson et al, who used a set of carefully devised linguistic features."], "ms": ["Masalah pengelasan polariti telah dikaji secara terperinci oleh Wilson, Wiebe, dan Hoffmann, yang menggunakan satu set ciri linguistik yang direka dengan teliti.", "Masalah pengelasan polariti telah dikaji secara terperinci oleh Wilson et al, yang menggunakan satu set ciri-ciri linguistik yang direka dengan teliti."]}, {"en": ["Previous works proved that conditional random fields can outperform other sequence labeling models like Memms in abbreviation generation tasks.", "Previous works showed that conditional random fields can outperform other sequence labeling models like Memms in abbreviation generation tasks."], "ms": ["Karya-karya terdahulu membuktikan bahawa medan rawak bersyarat boleh mengatasi model pelabelan jujukan lain seperti Memms dalam tugas penjanaan singkatan.", "Karya-karya terdahulu menunjukkan bahawa medan rawak bersyarat boleh mengatasi model pelabelan jujukan lain seperti Memms dalam tugas penjanaan singkatan."]}, {"en": ["Similarly, Predicate vectors are learned from the contexts of preceding arguments, and are required to contribute to the prediction of upcoming arguments.", "Predicate vectors are learned from the contexts of preceding arguments, and are required to contribute to the prediction of upcoming arguments."], "ms": ["Begitu juga, vektor Predicate dipelajari dari konteks hujah terdahulu, dan diperlukan untuk menyumbang kepada ramalan hujah yang akan datang.", "Vektor predikat dipelajari dari konteks hujah terdahulu, dan diperlukan untuk menyumbang kepada ramalan hujah yang akan datang."]}, {"en": ["Processing long, complex sentences is challenging.", "Shorter sentences that convey the same meaning is a challenging problem."], "ms": ["Memproses ayat yang panjang dan kompleks adalah mencabar.", "Ayat-ayat yang lebih pendek yang menyampaikan makna yang sama adalah masalah yang mencabar."]}, {"en": ["Previous work on adapting temporal Taggers primarily focus on Scaling up to more languages.", "Recent work on temporal resolution focuses primarily on news."], "ms": ["Kerja terdahulu untuk menyesuaikan Taggers temporal terutamanya memberi tumpuan kepada Penskalaan sehingga lebih banyak bahasa.", "Kerja terkini mengenai resolusi temporal memberi tumpuan terutamanya kepada berita."]}, {"en": ["To address the problem above, in this paper, we propose a simple but novel approach to automatically generate large-scale pseudo training data for zero pronoun resolution.", "In this paper, we propose a simple but novel approach to automatically generate large-scale pseudo training data for zero pronoun resolution."], "ms": ["Untuk mengatasi masalah di atas, dalam makalah ini, kami mencadangkan pendekatan yang mudah tetapi novel untuk menjana data latihan pseudo berskala besar secara automatik untuk resolusi kata ganti sifar.", "Dalam makalah ini, kami mencadangkan pendekatan yang mudah tetapi novel untuk menjana data latihan pseudo berskala besar secara automatik untuk resolusi kata ganti sifar."]}, {"en": ["We then use an extension of the Lexrank algorithm to rank sentences.", "We give an extended Lexrank with integer linear programming to optimize sentence selection."], "ms": ["Kami kemudian menggunakan lanjutan algoritma Lexrank untuk memberi peringkat ayat.", "Kami memberikan Lexrank lanjutan dengan pengaturcaraan linear integer untuk mengoptimumkan pemilihan ayat."]}, {"en": ["Details on the computation of this code length are given in.", "For details on the computation of this code length see."], "ms": ["Butiran mengenai pengiraan panjang kod ini diberikan dalam.", "Untuk perincian mengenai pengiraan panjang kod ini lihat."]}, {"en": ["Our work presents a method to automatically construct a large corpus of text pairs describing the same underlying events.", "Towards this overall goal, we describe the construction of a resource that contains more than 160 , 000 document pairs that are known to talk about the same events."], "ms": ["Kerja kami membentangkan kaedah untuk membina korpus besar pasangan teks secara automatik yang menggambarkan peristiwa asas yang sama.", "Untuk tujuan keseluruhan ini, kami menerangkan pembinaan sumber yang mengandungi lebih daripada 160, 000 pasangan dokumen yang diketahui membincangkan peristiwa yang sama."]}, {"en": ["For example, cut can be used in the sense of \u00a1\u00b0Cutting costs, \u00a1\u00b1 which carries with it restrictions on instruments, locations, and so on that somewhat overlap with eliminate as in \u00a1\u00b0Eliminating Costs.\u00a1\u00b1", "For example, cut can be used in the sense of \u00a1\u00b0 cutting costs, \u00a1\u00b1 which carries with it restrictions on instruments, locations, and so on that somewhat overlap with eliminate."], "ms": ["Sebagai contoh, pemotongan boleh digunakan dalam erti kata \"Mengutut kos,\" yang membawa sekatan pada instrumen, lokasi, dan sebagainya yang agak bertindih dengan menghapuskan seperti dalam \"Menghapus Kos.\"", "Sebagai contoh, pemotongan boleh digunakan dalam erti kata kos pemotongan, yang membawa sekatan pada instrumen, lokasi, dan sebagainya yang agak bertindih dengan menghapuskan."]}, {"en": ["We adopt this method as well but with no use of manually labeled data in training.", "However, to train Maxent, we do not need manually labeled training data."], "ms": ["Kami menggunakan kaedah ini juga tetapi tanpa menggunakan data berlabel secara manual dalam latihan.", "Walau bagaimanapun, untuk melatih Maxent, kami tidak memerlukan data latihan berlabel secara manual."]}, {"en": ["Focusing on the adaptability to user and domain changes, we report the results of comparative experiments with two Online Algorithms and the standard batch approach.", "To adapt to user and domain changes, we performed an Application-Oriented analysis of different Online Algorithms."], "ms": ["Dengan memberi tumpuan kepada penyesuaian kepada perubahan pengguna dan domain, kami melaporkan hasil eksperimen perbandingan dengan dua Algoritma Dalam Talian dan pendekatan batch standard.", "Untuk menyesuaikan diri dengan perubahan pengguna dan domain, kami melakukan analisis Berorientasikan Aplikasi Algoritma Dalam Talian yang berbeza."]}, {"en": ["We proposed Udl, a model for estimating sentence pair semantic similarity.", "We proposed to solve the semantic textual similarity task."], "ms": ["Kami mencadangkan Udl, model untuk menganggarkan persamaan semantik pasangan ayat.", "Kami mencadangkan untuk menyelesaikan tugas persamaan teks semantik."]}, {"en": ["The Taxonomy kernel was trained using the SVM \u8128 \u8134 package.", "The Classifier used was SVM light described in using a linear kernel."], "ms": ["Kernel Taksonomi dilatih menggunakan pakej SVM dan SVM.", "Pengelas yang digunakan ialah cahaya SVM yang diterangkan dalam menggunakan kernel linear."]}, {"en": ["Named entity recognition (NER) is a well-known problem in Nlp which feeds into many other related tasks such as information Retrieval (Ir) and machine translation (mt) and more recently social network discovery and opinion mining.", "Named entity recognition (NER) is the first step for many tasks in the fields of natural language processing and information Retrieval."], "ms": ["Pengiktirafan entiti yang dinamakan (NER) adalah masalah yang terkenal di Nlp yang memakan banyak tugas lain yang berkaitan seperti pengambilan maklumat (Ir) dan terjemahan mesin (mt) dan penemuan rangkaian sosial dan perlombongan pendapat baru-baru ini.", "Pengiktirafan entiti yang dinamakan (NER) adalah langkah pertama untuk banyak tugas dalam bidang pemprosesan bahasa semula jadi dan pengambilan maklumat."]}, {"en": ["As an alternative, we apply latent semantic analysis to compute a Reduced-Rank representation.", "We use latent semantic analysis to perform this representational transformation."], "ms": ["Sebagai alternatif, kami menggunakan analisis semantik laten untuk mengira perwakilan Reduced-Rank.", "Kami menggunakan analisis semantik laten untuk melakukan transformasi perwakilan ini."]}, {"en": ["In standard Ptb evaluation, our Parser achieved a 1.8% accuracy improvement over the Parser of Cite-P-24-1-1, which shows the effect of combining search and learning.", "In standard Penntreebank (Cite-P-24-1-21) evaluations, our Parser achieves a significant accuracy improvement (+ 1 . 8 %)."], "ms": ["Dalam penilaian Ptb standard, Parser kami mencapai peningkatan ketepatan 1.8% berbanding Parser Cite-P-24-1-1, yang menunjukkan kesan menggabungkan carian dan pembelajaran.", "Dalam penilaian Penntreebank standard (Cite-P-24-1-21), Penghurai kami mencapai peningkatan ketepatan yang ketara (+ 1.8%)."]}, {"en": ["We formulate the problem as a classification task using various linguistic features including tense, mood, aspect, modality, Experiencer, and verb classes.", "As a classification problem, we focused on identification and examination of various linguistic features such as verb class, tense, aspect, mood, modality, and experience."], "ms": ["Kami merumuskan masalah sebagai tugas pengelasan menggunakan pelbagai ciri linguistik termasuk tegang, mood, aspek, modaliti, Pengalam, dan kelas kata kerja.", "Sebagai masalah pengelasan, kami memberi tumpuan kepada pengenalan dan pemeriksaan pelbagai ciri linguistik seperti kelas kata kerja, tegang, aspek, mood, modaliti, dan pengalaman."]}, {"en": ["We described a highly efficient monotone search algorithm.", "We describe a highly efficient monotone search algorithm with a complexity."], "ms": ["Kami menerangkan algoritma carian monoton yang sangat cekap.", "Kami menerangkan algoritma carian monoton yang sangat cekap dengan kerumitan."]}, {"en": ["In this paper we describe the three approaches we submitted to the semantic textual similarity task of Semeval 2012.", "In this paper, we present three different approaches for the textual semantic similarity task of Semeval 2012."], "ms": ["Dalam makalah ini kita menerangkan tiga pendekatan yang kita serahkan kepada tugas persamaan teks semantik Semeval 2012.", "Dalam makalah ini, kami membentangkan tiga pendekatan yang berbeza untuk tugas persamaan semantik teks Semeval 2012."]}, {"en": ["Finally, we also show how this architecture can be used for domain adaptation.", "We also show how the proposed architecture can be applied to domain adaptation."], "ms": ["Akhirnya, kami juga menunjukkan bagaimana seni bina ini boleh digunakan untuk penyesuaian domain.", "Kami juga menunjukkan bagaimana seni bina yang dicadangkan boleh digunakan untuk penyesuaian domain."]}, {"en": ["In the first stage, we propose the Siamese Hierarchical Convolutional neural network (Shcnn) to estimate Conversation-Level similarity between pairs of closely posted messages.", "Hierarchical Convolutional neural network (Shcnn), which integrates local and more global representations of a message, is first presented to estimate the Conversation-Level similarity between closely posted messages."], "ms": ["Pada peringkat pertama, kami mencadangkan rangkaian saraf Konvolusi Hierarki Siam (Shcnn) untuk menganggarkan persamaan Tahap Perbualan antara pasangan mesej yang diposkan dengan teliti.", "Rangkaian saraf Konvolusi Hierarki (Shcnn), yang mengintegrasikan perwakilan tempatan dan lebih global mesej, pertama kali dibentangkan untuk menganggarkan persamaan Tahap Perbualan antara mesej yang diposkan dengan rapat."]}, {"en": ["Vogel and Tresner-Kirsch (2012) use the logarithm of the frequency for some experimental runs, reporting that it improved accuracy in some cases.", "Tresner-Kirsch (2012) use the logarithm of the frequency for some experimental runs, reporting that it improved accuracy."], "ms": ["Vogel dan Tresner-Kirsch (2012) menggunakan logaritma frekuensi untuk beberapa larian eksperimen, melaporkan bahawa ia meningkatkan ketepatan dalam beberapa kes.", "Tresner-Kirsch (2012) menggunakan logaritma frekuensi untuk beberapa larian eksperimen, melaporkan bahawa ia meningkatkan ketepatan."]}, {"en": ["In addition, we illustrate with an example that our method can generate coherent topics even based on only one document.", "In addition, we demonstrate that Topicvec can derive coherent topics based only on one document, which is not possible for topic."], "ms": ["Di samping itu, kami menggambarkan dengan contoh bahawa kaedah kami dapat menghasilkan topik yang koheren walaupun hanya berdasarkan satu dokumen.", "Di samping itu, kami menunjukkan bahawa Topicvec boleh memperoleh topik yang koheren berdasarkan hanya satu dokumen, yang tidak mungkin untuk topik."]}, {"en": ["Identifying whether the subject has a Disease/Symptom.", "Predicting the subject of a disease / symptom."], "ms": ["Mengenal pasti sama ada subjek mempunyai penyakit / gejala.", "Mengenalpasti subjek penyakit / gejala."]}, {"en": ["Xiong and Zhang attempt to improve lexical coherence via a Topic-Based model, using a hidden topic Markov model to determine the topic in the source sentence.", "Xiong and Zhang employ a Sentence-Level topic model to capture coherence for Document-Level machine translation."], "ms": ["Xiong dan Zhang cuba meningkatkan koheren leksikal melalui model Berasaskan Topik, menggunakan model Markov topik tersembunyi untuk menentukan topik dalam ayat sumber.", "Xiong dan Zhang menggunakan model topik Tahap-Kesan untuk menangkap koheren untuk terjemahan mesin Tahap-Dokumen."]}, {"en": ["Analysis of social media content for health has been a topic of wide interest.", "Information exchange through social media concerning various health challenges has been extensively studied."], "ms": ["Analisis kandungan media sosial untuk kesihatan telah menjadi topik yang menarik.", "Pertukaran maklumat melalui media sosial mengenai pelbagai cabaran kesihatan telah dikaji secara meluas."]}, {"en": ["Inspired by adversarial networks, we incorporate adversarial training into shared space to guarantee that specific features of tasks do not exist in shared space.", "To ensure that Task-Specific features of given task do not exist in the shared space, we exploit the concept of adversarial training into shared feature space."], "ms": ["Diilhamkan oleh rangkaian adversarial, kami menggabungkan latihan adversarial ke dalam ruang kongsi untuk menjamin bahawa ciri-ciri tertentu tugas tidak wujud di ruang kongsi.", "Untuk memastikan ciri-ciri Task-Specific tugas yang diberikan tidak wujud dalam ruang kongsian, kami mengeksploitasi konsep latihan lawan ke ruang ciri kongsian."]}, {"en": ["In particular, we carefully studied the Fastus system of Hobbs et al, who have clearly and eloquently set forth the advantages of this approach.", "In particular, we Carefull Y studied the Fastus system of Hobbs et al, who have clearly and eloquently set forth the advantage s of this approach."], "ms": ["Khususnya, kami mengkaji dengan teliti sistem Fastus Hobbs et al, yang telah dengan jelas dan fasih menyatakan kelebihan pendekatan ini.", "Khususnya, kami Carefull Y mengkaji sistem Fastus Hobbs et al, yang telah dengan jelas dan fasih menyatakan kelebihan pendekatan ini."]}, {"en": ["Finally, building on this promising result we use the output of the Unsupervised Pos Tagger as a direct replacement for the output of a fully supervised Pos Tagger for the task of shallow Parsing.", "We evaluate the output of the Unsupervised Pos Tagger as a direct replacement for the output of a fully supervised Pos Tagger for the task of shallow Parsing."], "ms": ["Akhirnya, membina hasil yang menjanjikan ini kita menggunakan output Pos Tagger yang tidak diawasi sebagai pengganti langsung untuk output Pos Tagger yang diawasi sepenuhnya untuk tugas Parsing cetek.", "Kami menilai output Pos Tagger yang tidak diawasi sebagai pengganti langsung untuk output Pos Tagger yang diawasi sepenuhnya untuk tugas Parsing cetek."]}, {"en": ["Punyakanok et al , 2005A, typically involves multiple stages to 1) Parse the input , 2) identify arguments , 3) classify those arguments, and then 4) run inference to make sure the final labeling for the full sentence does not violate any linguistic constraints.", "Punyakanok et al , 2005, typically involves multiple stages to 1) Parse the input , 2) identify arguments , 3) classify those arguments, and then 4) run inference to make sure the final labeling for the full sentence does not violate any linguistic constraints."], "ms": ["Punyakanok et al, 2005A, biasanya melibatkan pelbagai peringkat kepada 1) Parse input, 2) mengenal pasti hujah, 3) mengklasifikasikan hujah-hujah tersebut, dan kemudian 4) menjalankan kesimpulan untuk memastikan pelabelan akhir untuk ayat penuh tidak melanggar sebarang kekangan linguistik.", "Punyakanok et al, 2005, biasanya melibatkan pelbagai peringkat kepada 1) Parse input, 2) mengenal pasti hujah, 3) mengklasifikasikan hujah-hujah tersebut, dan kemudian 4) menjalankan kesimpulan untuk memastikan pelabelan akhir untuk ayat penuh tidak melanggar sebarang kekangan linguistik."]}, {"en": ["It also causes little increase in the translation time, and compares favorably to another alternative Retrieval-Based method with respect to accuracy, speed, and simplicity of implementation.", "On three narrow domain translation tasks, caused little increase in the translation time, and compared favorably to another alternative Retrieval-Based method with respect to accuracy, speed, and simplicity of implementation."], "ms": ["Ia juga menyebabkan sedikit peningkatan dalam masa terjemahan, dan membandingkan dengan kaedah alternatif lain berdasarkan ketepatan, kelajuan, dan kesederhanaan pelaksanaan.", "Pada tiga tugas terjemahan domain sempit, menyebabkan sedikit peningkatan dalam masa terjemahan, dan membandingkan dengan kaedah alternatif lain berdasarkan ketepatan, kelajuan, dan kesederhanaan pelaksanaan."]}, {"en": ["The user and advisor in this exchange share one belief that we have not represented.", "In this exchange share one belief that we have not represented."], "ms": ["Pengguna dan penasihat dalam pertukaran ini berkongsi satu kepercayaan bahawa kami tidak diwakili.", "Dalam pertukaran ini berkongsi satu kepercayaan bahawa kita tidak diwakili."]}, {"en": ["The task of semantic textual similarity is aimed at measuring the degree of semantic equivalence between a pair of texts.", "The semantic textual similarity task examines semantic similarity at a Sentence-Level."], "ms": ["Tugas kesamaan teks semantik bertujuan mengukur tahap kesetaraan semantik antara sepasang teks.", "Tugas kesamaan teks semantik mengkaji persamaan semantik pada Tahap Sentence."]}, {"en": ["Ucca\u00a1\u00afS representation is guided by conceptual notions and has its roots in the cognitive linguistics tradition and specifically in cognitive grammar (Cite-P-11-3-6).", "Ucca \u00a1\u00af s approach that advocates automatic learning of syntax from semantic supervision stands in contrast to the traditional view of Generative grammar (Cite-P-11-1-7)."], "ms": ["Perwakilan Ucca S dipandu oleh konsep konsep dan mempunyai akar dalam tradisi linguistik kognitif dan khususnya dalam tatabahasa kognitif (Cite-P-11-3-6).", "Pendekatan Uccas yang menyokong pembelajaran automatik sintaks dari pengawasan semantik berbeza dengan pandangan tradisional tatabahasa Generatif (Cite-P-11-1-7)."]}, {"en": ["In this paper, we expand our translation options by Desegmenting N-Best lists or Lattices.", "By processing N-Best lists or Lattices, which allows us to consider both the Segmented and Desegmented output."], "ms": ["Dalam makalah ini, kami memperluas pilihan terjemahan kami dengan Desegmenting N-Best senarai atau Lattices.", "Dengan memproses senarai N-Best atau Lattices, yang membolehkan kita mempertimbangkan output Segmen dan Desegmented."]}, {"en": ["We have presented a unifying framework of \u00a1\u00b0Violation-Fixing\u00a1\u00b1 Perceptron which guarantees convergence with inexact search.", "Based on the structured Perceptron, we propose a general framework of \u00a1\u00b0 Violation-Fixing \u00a1\u00b1 Perceptrons for inexact search with a theoretical guarantee for convergence."], "ms": ["Kami telah membentangkan rangka kerja penyatuan Violation-Fixing Perceptron yang menjamin penumpuan dengan carian yang tidak tepat.", "Berdasarkan Perceptron berstruktur, kami mencadangkan rangka kerja umum Perceptrons untuk carian yang tidak tepat dengan jaminan teori untuk penumpuan."]}, {"en": ["Cite-P-12-5-7 reported a Pos Tagger based on Cyclic dependency network.", "Cite-P-12-5-6 improved the Crf method by employing the large margin method."], "ms": ["Cite-P-12-5-7 melaporkan Pos Tagger berdasarkan rangkaian dependensi Cyclic.", "Cite-P-12-5-6 meningkatkan kaedah Crf dengan menggunakan kaedah margin yang besar."]}, {"en": ["We use the term \u00a1\u00b0Word Generalization\u00a1\u00b1 to refer to this problem of associating a word with the meaning at an appropriate category level, given some sample of experiences with the word.", "We term the \u00a1\u00b0 word generalization \u00a1\u00b1 problem, which refers to how children associate a word such as dog with a meaning at the appropriate category level."], "ms": ["Kami menggunakan istilah \"Word Generalization\" untuk merujuk kepada masalah ini mengaitkan perkataan dengan makna pada tahap kategori yang sesuai, memandangkan beberapa contoh pengalaman dengan perkataan itu.", "Kami istilah \"perkataan generalisasi\" masalah, yang merujuk kepada bagaimana kanak-kanak mengaitkan perkataan seperti anjing dengan makna pada peringkat kategori yang sesuai."]}, {"en": ["Variables tend to be complex rather than atomic entities and expressed as noun phrases containing multiple modifiers, E.G . oxygen depletion in the upper 500 M of the ocean or timing and magnitude of surface temperature evolution in the Southern hemisphere in Deglacial proxy records.", "In nature, the entities themselves tend to be complex and expressed as noun phrases containing multiple modifiers, giving rise to examples like oxygen depletion in the upper 500 M of the ocean or timing and magnitude of surface temperature evolution in the Southern hemisphere in Deglacial proxy records."], "ms": ["Variables cenderung kompleks dan bukannya entiti atom dan dinyatakan sebagai frasa kata nama yang mengandungi pelbagai pengubah, E.G. pengurangan oksigen di atas 500 M lautan atau masa dan magnitud evolusi suhu permukaan di hemisfera Selatan dalam rekod proksi Deglacial.", "Secara semula jadi, entiti itu sendiri cenderung kompleks dan dinyatakan sebagai frasa kata nama yang mengandungi pelbagai pengubah, menimbulkan contoh seperti penipisan oksigen di 500 M atas lautan atau masa dan magnitud evolusi suhu permukaan di hemisfera Selatan dalam rekod proksi Deglacial."]}, {"en": ["Huang, Harper, and Wang and Huang, Eidelman, and Harper mainly focused on the Generative Hmm models.", "Huang et al and Huang et al mainly focused on the Generative Hmm models."], "ms": ["Huang, Harper, dan Wang dan Huang, Eidelman, dan Harper terutamanya memberi tumpuan kepada model Generative Hmm.", "Huang et al dan Huang et al terutamanya tertumpu pada model Generative Hmm."]}, {"en": ["Baselines we compare our method with both competitive neural and Non-Neural models, including Rnnoie, Openie4 , 5 Clausie, and props.", "We compare our proposed model 3 with three existing models including CNN, Minie, and Clausie by Corro and Gemulla."], "ms": ["Asas kami membandingkan kaedah kami dengan model neural dan Non-Neural yang kompetitif, termasuk Rnnoie, Openie4, 5 Clausie, dan alat peraga.", "Kami membandingkan model 3 yang dicadangkan dengan tiga model sedia ada termasuk CNN, Minie, dan Clausie oleh Corro dan Gemulla."]}, {"en": ["In this work, we propose an alternative way to address the word ambiguity and word mismatch problems by taking advantage of potentially rich semantic information drawn from other languages.", "In this paper, we propose to employ statistical machine translation to improve question Retrieval and enrich the question representation with the translated words from other languages."], "ms": ["Dalam kerja ini, kami mencadangkan cara alternatif untuk menangani masalah kekaburan perkataan dan ketidakpadanan perkataan dengan memanfaatkan maklumat semantik yang berpotensi kaya yang diambil dari bahasa lain.", "Dalam makalah ini, kami mencadangkan untuk menggunakan terjemahan mesin statistik untuk meningkatkan pengambilan soalan dan memperkaya perwakilan soalan dengan kata-kata yang diterjemahkan dari bahasa lain."]}, {"en": ["Furthermore, Vector-Based semantic models can explain a significant portion of systematic variance in the observed neural activity.", "Models, along with two Non-Composition models, namely the adjective and the noun models, are used to explain the systematic variance in neural activation."], "ms": ["Tambahan pula, model semantik berasaskan Vektor boleh menjelaskan sebahagian besar varians sistematik dalam aktiviti neural yang diperhatikan.", "Model, bersama dua model Non-Composition, iaitu kata sifat dan model kata nama, digunakan untuk menerangkan varians sistematik dalam pengaktifan neural."]}, {"en": ["We utilize this Substring based approach and obtain this local tagging information by labeling on the Substring of the full character sequence.", "In Chinese abbreviation prediction, we also use a Substring tagging strategy to generate local Substring tagging candidates."], "ms": ["Kami menggunakan pendekatan berasaskan Substring ini dan mendapatkan maklumat penandaan tempatan ini dengan melabelkan pada Substring urutan watak penuh.", "Dalam ramalan singkatan Cina, kami juga menggunakan strategi penandaan Substring untuk menjana calon penandaan Substring tempatan."]}, {"en": ["Stance classification is the task of determining from text whether the author of the text is in favor of, against, or neutral towards a target of interest.", "Stance classification is the task of automatically identifying users \u2019 positions about a specific target from text (Cite-P-18-1-10)."], "ms": ["Pengelasan santun adalah tugas menentukan dari teks sama ada pengarang teks memihak kepada, menentang, atau neutral terhadap sasaran minat.", "Pengelasan santun adalah tugas untuk mengenal pasti kedudukan pengguna secara automatik mengenai sasaran tertentu dari teks (Cite-P-18-1-10)."]}, {"en": ["We conducted an experimental evaluation on the test collection for single document summarization evaluation contained in the Rst discourse Treebank distributed by the linguistic data consortium 3.", "We experimentally evaluated the test collection for single document summarization contained in the Rst discourse Treebank distributed by the linguistic data consortium 1."], "ms": ["Kami menjalankan penilaian eksperimen pada pengumpulan ujian untuk penilaian ringkasan dokumen tunggal yang terkandung dalam wacana Rst Treebank yang diedarkan oleh konsortium data linguistik 3.", "Kami secara eksperimen menilai pengumpulan ujian untuk ringkasan dokumen tunggal yang terkandung dalam wacana Rst Treebank yang diedarkan oleh konsortium data linguistik 1."]}, {"en": ["In order to evaluate the performance of our new Co-Compositional model with prototype projection and word representation learning algorithm, we make use of the Disambiguation task of Transitive sentences developed by Grefenstette and Sadrzadeh.", "In order to evaluate the performance of our Tensorbased Factorization model of Compositionality, we make use of the sentence similarity task for Transitive sentences, defined in Grefenstette and Sadrzadeh."], "ms": ["Untuk menilai prestasi model Co-Compositional baru kami dengan unjuran prototaip dan algoritma pembelajaran perwakilan perkataan, kami menggunakan tugas Disambiguasi ayat Peralihan yang dibangunkan oleh Grefenstette dan Sadrzadeh.", "Untuk menilai prestasi model Komponen Keterikatan Berasaskan Tensor kami, kami menggunakan tugas persamaan ayat untuk ayat Peralihan, yang ditakrifkan dalam Grefenstette dan Sadrzadeh."]}, {"en": ["In this paper we investigate distributed training strategies for the structured Perceptron as a means to reduce training times when computing clusters are available.", "In this paper, it is possible to provide theoretical guarantees for distributed Online passive aggressive learning."], "ms": ["Dalam makalah ini kami menyiasat strategi latihan diedarkan untuk Perceptron berstruktur sebagai cara untuk mengurangkan masa latihan apabila kluster pengkomputeran tersedia.", "Dalam kertas kerja ini, adalah mungkin untuk menyediakan jaminan teori untuk pembelajaran pasif pasif yang diedarkan."]}, {"en": ["Following Chiang, we describe our Algorithms in a deductive system.", "Following, we describe the algorithm in a deductive system."], "ms": ["Mengikut Chiang, kami menerangkan algoritma kami dalam sistem deduktif.", "Seterusnya, kami menerangkan algoritma dalam sistem deduktif."]}, {"en": ["Performance is measured in terms of BLEU and Ter computed using the Multeval script.", "System performance is evaluated on Newstest 2011 using BLEU, meteor, and Ter."], "ms": ["Prestasi diukur dari segi BLEU dan Ter dikira menggunakan skrip Multeval.", "Prestasi sistem dinilai pada Newstest 2011 menggunakan BLEU, meteor, dan Ter."]}, {"en": ["To determine the word classes, one can use the algorithm of Brown et al for finding the classes.", "In order to cluster lexical items, we use the algorithm proposed by Brown et al, as implemented in the Srilm Toolkit."], "ms": ["Untuk menentukan kelas perkataan, seseorang boleh menggunakan algoritma Brown et al untuk mencari kelas.", "Untuk menyusun item leksikal, kami menggunakan algoritma yang dicadangkan oleh Brown et al, seperti yang dilaksanakan dalam Srilm Toolkit."]}, {"en": ["We thus show that these analyses can be obtained without requiring power beyond mildly Context-Sensitive Grammars.", "Machinery can be obtained without going beyond the power of mildly Context-Sensitive Grammars."], "ms": ["Oleh itu, kami menunjukkan bahawa analisis ini boleh diperolehi tanpa memerlukan kuasa di luar Grammar Konteks-Sensitif yang ringan.", "Mesin boleh diperolehi tanpa melampaui kuasa Grammar Konteks-Sensitif ringan."]}, {"en": ["Experiments were conducted with four publicly available Datasets of conversations from Reddit and IRC channels.", "Experiments have been conducted on four publicly available Datasets, including three synthetic conversation Datasets and one real conversation Dataset from Reddit."], "ms": ["Eksperimen dijalankan dengan empat Dataset perbualan yang tersedia secara terbuka dari saluran Reddit dan IRC.", "Eksperimen telah dijalankan pada empat Dataset yang tersedia untuk umum, termasuk tiga Dataset perbualan sintetik dan satu Dataset perbualan sebenar dari Reddit."]}, {"en": ["In this section, we summarize the main ideas of Dsms that were proposed in for building semantic networks, which are extended here for the creation of Affective networks.", "In this section, we generalize the ideas regarding Network-Based Dsms presented in, for the case of more complex structures."], "ms": ["Dalam bahagian ini, kami meringkaskan idea utama Dsms yang dicadangkan untuk membina rangkaian semantik, yang diperluas di sini untuk penciptaan rangkaian Affektif.", "Dalam bahagian ini, kami umumkan idea-idea mengenai Dsms Berasaskan Rangkaian yang dibentangkan dalam, untuk kes struktur yang lebih kompleks."]}, {"en": ["In this paper, we have studied and compared how the web content reacts to Bursty events in multiple contexts of web search and Online media.", "In this paper, we conducted a systematic comparative analysis of language in different contexts of Bursty topics, including web search, news media."], "ms": ["Dalam makalah ini, kami telah mengkaji dan membandingkan bagaimana kandungan web bertindak balas terhadap peristiwa Bursty dalam pelbagai konteks carian web dan media Dalam Talian.", "Dalam makalah ini, kami menjalankan analisis perbandingan bahasa secara sistematik dalam konteks topik Bursty yang berbeza, termasuk carian web, media berita."]}, {"en": ["Gaustad showed that evaluations using Pseudowords can Over-Estimate the accuracy of a word sense Disambiguation system on real data.", "Gaustad showed that Human-Generated Pseudo-Words are more difficult to classify than random choices."], "ms": ["Gaustad menunjukkan bahawa penilaian menggunakan Pseudowords boleh Mengira ketepatan sistem Disambiguasi deria perkataan pada data sebenar.", "Gaustad menunjukkan bahawa Pseudo-Words yang Dihasilkan Manusia lebih sukar untuk dikelaskan daripada pilihan rawak."]}, {"en": ["The generation of referring expressions is an integral part of most natural language generation systems.", "The generation of referring expressions is a core ingredient of most natural language generation systems."], "ms": ["Generasi ungkapan merujuk adalah bahagian penting dalam kebanyakan sistem penjanaan bahasa semula jadi.", "Generasi ungkapan merujuk adalah bahan teras kebanyakan sistem penjanaan bahasa semula jadi."]}, {"en": ["Our evaluation demonstrates that Scisumm achieves higher quality summaries than a state-of-the-art Multidocument summarization system (Cite-P-15-3-4).", "Evaluation results on the same corpus demonstrate that our system performs better than an existing widely used Multi-Document summarization system."], "ms": ["Penilaian kami menunjukkan bahawa Scisumm mencapai ringkasan berkualiti tinggi daripada sistem ringkasan Multidocument canggih (Cite-P-15-3-4).", "Hasil penilaian pada korpus yang sama menunjukkan bahawa sistem kami berfungsi lebih baik daripada sistem ringkasan Multi-Dokumen yang digunakan secara meluas."]}, {"en": ["Huang et al use a Bilstm with a Crf layer in addition to making use of explicit spelling and context features along with word Embeddings.", "Huang et al Utilise a Bi-Directional Lstm with a sequential conditional random layer using a Gazetteer and Senna word Embeddings to obtain superior performance."], "ms": ["Huang et al menggunakan Bilstm dengan lapisan Crf selain menggunakan ciri ejaan dan konteks yang jelas bersama dengan Embedding perkataan.", "Huang et al Utilise a Bi-Directional Lstm with a sequential conditional random layer using a Gazetteer and Senna word Embeddings to obtain superior performance."]}, {"en": ["For the English-German experiments, the translation system was trained and tested using a part of the Europarl corpus.", "All experiments used the Europarl parallel corpus as sources of text in the languages of interest."], "ms": ["Untuk eksperimen Inggeris-Jerman, sistem terjemahan dilatih dan diuji menggunakan sebahagian daripada korpus Europarl.", "Semua eksperimen menggunakan korpus selari Europarl sebagai sumber teks dalam bahasa yang menarik."]}, {"en": ["Additionally, we use averaged word Embeddings.", "In this work, we use Fasttext for training Embeddings."], "ms": ["Selain itu, kita menggunakan perkataan Embeddings purata.", "Dalam kerja ini, kami menggunakan Fasttext untuk latihan Embeddings."]}, {"en": ["In some sense, our model can be seen as a compromise between the Hierarchical Phrase-Based model and the Tree-To-String model, specifically", "Which can be seen as a compromise of the Hierarchical Phrase-Based model and the Tree-To-String model."], "ms": ["Dalam erti kata lain, model kami boleh dilihat sebagai kompromi antara model Hierarki Berasaskan Frasa dan model Tree-To-String, khususnya", "Yang boleh dilihat sebagai kompromi model Hierarki Berasaskan Frasa dan model Tree-To-String."]}, {"en": ["His work has been followed by Schwenk, who has shown that neural network language models actually work very well in the State-Of-Theart speech recognition systems.", "It was followed by Schwenk who applied neural network for language modeling in large scale vocabulary speech recognition and obtained a noticeable improvement in word error rate."], "ms": ["Karyanya telah diikuti oleh Schwenk, yang telah menunjukkan bahawa model bahasa rangkaian saraf sebenarnya berfungsi dengan baik dalam sistem pengiktirafan pertuturan State-Of-Theart.", "Ia diikuti oleh Schwenk yang menggunakan rangkaian saraf untuk pemodelan bahasa dalam pengiktirafan pertuturan perbendaharaan kata berskala besar dan memperoleh peningkatan ketara dalam kadar ralat perkataan."]}, {"en": ["Similar to our approach, Brockett et al view error correction as a machine translation problem.", "Brockett et al treat error correction as a translation task, and solve it by using the noisy channel model."], "ms": ["Sama seperti pendekatan kami, Brockett et al melihat pembetulan ralat sebagai masalah terjemahan mesin.", "Brockett et al melayan pembetulan ralat sebagai tugas terjemahan, dan menyelesaikannya dengan menggunakan model saluran bising."]}, {"en": ["But a number of Augmentations and changes become necessary when dealing with highly inflected or Agglutinative languages, as well as analytic languages, of which Chinese is the focus of this article.", "When dealing with highly inflected or Agglutinative languages, as well as analytic languages, of which Chinese is the focus of this article."], "ms": ["Tetapi beberapa peningkatan dan perubahan menjadi perlu apabila berurusan dengan bahasa yang sangat inflected atau Agglutinative, serta bahasa analitik, yang mana bahasa Cina adalah tumpuan artikel ini.", "Apabila berurusan dengan bahasa yang sangat inflected atau Agglutinative, serta bahasa analitik, yang mana bahasa Cina adalah tumpuan artikel ini."]}, {"en": ["Experimental results show that the Deebrnn model Outperforms both Feature-Based and Representation-Based state-of-the-art methods in terms of recall and F1-Measure.", "Deeb-Rnn achieves better performance as compared to the state-of-the-art methods in terms of both recall and F1-Measure."], "ms": ["Hasil eksperimen menunjukkan bahawa model Deebrnn Melaksanakan kedua-dua kaedah state-of-the-art berdasarkan ciri dan perwakilan dari segi penarikan balik dan F1-Measure.", "Deeb-Rnn mencapai prestasi yang lebih baik berbanding dengan kaedah canggih dari segi penarikan balik dan F1-Measure."]}, {"en": ["Traditional label propagation is a Graph-Based Semi-Supervised learning approach with a single view.", "Label propagation is a Semi-Supervised algorithm which needs labeled data."], "ms": ["Penyebaran label tradisional adalah pendekatan pembelajaran Semi-Supervised Berasaskan Grafik dengan pandangan tunggal.", "Proptasi label adalah algoritma Semi-Supervised yang memerlukan data berlabel."]}, {"en": ["We formulate review Spam detection for multiple domains (E.G ., hotel and restaurant) as a Multi-Task learning problem.", "For each domain, we formulate the review Spam detection tasks for multiple domains, E . G ., hotel, restaurant, and so on, as a Multi-Task learning problem."], "ms": ["Kami merumuskan kajian pengesanan Spam untuk pelbagai domain (E.G., hotel dan restoran) sebagai masalah pembelajaran Multi-Task.", "Untuk setiap domain, kami merumuskan tugas pengesanan Spam untuk pelbagai domain, E. G., hotel, restoran, dan sebagainya, sebagai masalah pembelajaran Multi-Task."]}, {"en": ["Birke and Sarkar propose a minimally supervised algorithm for distinguishing between literal and Non-Literal usages of verbs in context.", "Birke and Sarkar proposed the Trope finder system to recognize verbs with Non-Literal meaning using word sense Disambiguation and clustering."], "ms": ["Birke dan Sarkar mencadangkan algoritma yang diawasi minimum untuk membezakan antara penggunaan kata kerja literal dan bukan literal dalam konteks.", "Birke dan Sarkar mencadangkan sistem pencari Trope untuk mengenali kata kerja dengan makna Bukan Literal menggunakan kata rasa Disambiguasi dan clustering."]}, {"en": ["Our model is also easier to understand than IBM model 4.", "Ibm model 4 is essentially a better model."], "ms": ["Model kami juga lebih mudah difahami daripada model IBM 4.", "Ibm model 4 pada asasnya adalah model yang lebih baik."]}, {"en": ["To set the model parameters \u80c3, we used the minimum error rate training algorithm to maximize the F-Measure of the 1-Best alignment of the model on a development set consisting of sentence pairs with manually generated alignments.", "Given a set of Question-Answer pairs as the development set, we use the minimum error rate training algorithm to tune the feature weights \u4f4d M I in our proposed model."], "ms": ["Untuk menetapkan parameter model, kami menggunakan algoritma latihan kadar ralat minimum untuk memaksimumkan F-Measure penjajaran 1-Best model pada set pembangunan yang terdiri daripada pasangan ayat dengan penjajaran yang dihasilkan secara manual.", "Memandangkan satu set pasangan Question-Answer sebagai set pembangunan, kami menggunakan algoritma latihan kadar ralat minimum untuk menyesuaikan berat ciri M I dalam model yang dicadangkan kami."]}, {"en": ["Jiang and Zhai recently proposed an instance Re-Weighting framework to take domain shift into account.", "Jiang and Zhai introduce a general instance weighting framework for model adaptation."], "ms": ["Jiang dan Zhai baru-baru ini mencadangkan rangka kerja Re-Weighting untuk mengambil kira peralihan domain.", "Jiang dan Zhai memperkenalkan rangka kerja pemberat contoh umum untuk penyesuaian model."]}, {"en": ["Our experience with a Critiquing system shows that when the system Detects problems with the user's performance, multiple Critiques are often produced.", "When the physician' s plan is deficient, several problems are generally detected, and thus multiple Critiques are independently produced."], "ms": ["Pengalaman kami dengan sistem Critiquing menunjukkan bahawa apabila sistem Mengesan masalah dengan prestasi pengguna, pelbagai Kritik sering dihasilkan.", "Apabila rancangan doktor kekurangan, beberapa masalah biasanya dikesan, dan dengan itu pelbagai Kritik dihasilkan secara bebas."]}, {"en": ["In this paper we study the problem of interpreting visual scenes and rendering their content using natural language.", "In this paper we study the problem of interpreting and Verbalizing visual information using abstract scenes."], "ms": ["Dalam makalah ini kita mengkaji masalah menafsirkan adegan visual dan menjadikan kandungannya menggunakan bahasa semula jadi.", "Dalam makalah ini kita mengkaji masalah mentafsir dan mengverbalkan maklumat visual menggunakan adegan abstrak."]}, {"en": ["In this paper, we argue that the extra aspect (opinion) information extracted using these previous works can effectively improve the quality of generated reviews.", "In this paper, we focus on designing a review generation model that is able to leverage both user and item information."], "ms": ["Dalam makalah ini, kami berpendapat bahawa maklumat aspek tambahan (opinion) yang diekstrak menggunakan karya sebelumnya dapat meningkatkan kualiti ulasan yang dihasilkan dengan berkesan.", "Dalam makalah ini, kami memberi tumpuan kepada mereka bentuk model generasi ulasan yang dapat memanfaatkan maklumat pengguna dan item."]}, {"en": ["The system Outperforms a comparable publicly available system, as well as a previously published form of our system.", "Our system Outperforms a comparable Well-Published system and a previously published form of our system."], "ms": ["Sistem ini Melaksanakan sistem yang setanding dengan sistem yang tersedia secara umum, serta bentuk sistem kami yang diterbitkan sebelum ini.", "Sistem kami Melaksanakan sistem yang setanding dengan Well-Published dan bentuk sistem kami yang diterbitkan sebelum ini."]}, {"en": ["We use a maximum entropy Classifier which allows an efficient combination of many overlapping features.", "We use the maximum entropy model as implemented in the Stanford Corenlp Toolset."], "ms": ["Kami menggunakan pengelasan entropi maksimum yang membolehkan gabungan yang cekap dari banyak ciri bertindih.", "Kami menggunakan model entropi maksimum seperti yang dilaksanakan dalam Stanford Corenlp Toolset."]}, {"en": ["There is a method to automatically learn the interpolation weights but it requires reference phrase pairs which are not easily available.", "There is a method to automatically learn the weights but it requires reference phrase pairs not easily available in resource constrained scenarios like ours."], "ms": ["Terdapat kaedah untuk mempelajari berat interpolasi secara automatik tetapi ia memerlukan pasangan frasa rujukan yang tidak mudah didapati.", "Terdapat kaedah untuk mempelajari berat secara automatik tetapi ia memerlukan pasangan frasa rujukan yang tidak mudah didapati dalam senario yang terhad sumber seperti kami."]}, {"en": ["The word vectors are learned using a Skip-Gram model with negative sampling, implemented in the Word2Vec Toolkit.", "As word vectors the authors use Word2Vec Embeddings trained with the Skip-Gram model."], "ms": ["Vektor perkataan dipelajari menggunakan model Skip-Gram dengan persampelan negatif, yang dilaksanakan dalam Word2Vec Toolkit.", "Sebagai vektor perkataan penulis menggunakan Embeddings Word2Vec yang dilatih dengan model Skip-Gram."]}, {"en": ["To this end, we propose bridge Correlational neural networks (bridge Corrnets) which learn aligned representations across multiple views using a pivot view.", "In this paper, we propose bridge Correlational neural networks which can learn common representations for multiple views."], "ms": ["Untuk tujuan ini, kami mencadangkan rangkaian saraf jambatan (bridge Corrnets) yang mempelajari perwakilan sejajar merentasi pelbagai pandangan menggunakan pandangan pangsi.", "Dalam makalah ini, kami mencadangkan rangkaian saraf penghubung yang dapat mempelajari perwakilan umum untuk pelbagai pandangan."]}, {"en": ["Large language models have been shown to improve quality, especially in machine translation.", "In machine translation, improved language models have resulted in significant improvements in translation performance."], "ms": ["Model bahasa yang besar telah ditunjukkan untuk meningkatkan kualiti, terutamanya dalam terjemahan mesin.", "Dalam terjemahan mesin, model bahasa yang lebih baik telah menghasilkan peningkatan yang ketara dalam prestasi terjemahan."]}, {"en": ["Following work has been described in the first shared task on language identification in Code-Switched data held at Emnlp 2014.", "This paper describes our participation in the language identification in Code-Switched data task at Codeswitch 2014."], "ms": ["Kerja berikut telah dijelaskan dalam tugas bersama pertama mengenai pengenalan bahasa dalam data Code-Switched yang diadakan di Emnlp 2014.", "Kertas ini menerangkan penyertaan kami dalam pengenalan bahasa dalam tugas data Code-Switched di Codeswitch 2014."]}, {"en": ["For Homographic Puns, we calculated the semantic similarity between sense vectors of each target word in the sentence to obtain its sentence vector and score each target word.", "To obtain a vector representation of a sentence and score each target word in the sentence, and for Heterographic Puns, we computed the semantic similarity between cluster center vectors of each sentence."], "ms": ["Untuk Puns Homogram, kami mengira persamaan semantik antara vektor deria setiap perkataan sasaran dalam ayat untuk mendapatkan vektor ayatnya dan menjaringkan setiap perkataan sasaran.", "Untuk mendapatkan perwakilan vektor ayat dan skor setiap perkataan sasaran dalam ayat, dan untuk Heterographic Puns, kami mengira persamaan semantik antara vektor pusat kluster setiap ayat."]}, {"en": ["Charniak 2000) describes a different method which achieves very similar performance to.", "Charniak , 2000) extends Pcfg and achieves similar performance to."], "ms": ["Charniak 2000) menerangkan kaedah yang berbeza yang mencapai prestasi yang sangat serupa dengan.", "Charniak, 2000) memanjangkan Pcfg dan mencapai prestasi yang sama dengan."]}, {"en": ["In this paper, we presented an overview of our participation in the Timeline generation task of Semeval-2015.", "In this paper, we give an overview of our participation in the Timeline generation task of Semeval-2015."], "ms": ["Dalam makalah ini, kami membentangkan gambaran keseluruhan penyertaan kami dalam tugas generasi Garis Masa Semeval-2015.", "Dalam makalah ini, kami memberikan gambaran keseluruhan penyertaan kami dalam tugas generasi Garis Masa Semeval-2015."]}, {"en": ["We propose an Iterative reinforcement framework, and under this framework, review feature words and opinion words are organized into categories in a simultaneous and Iterative manner.", "In this framework, review feature words and opinion words are organized into categories in a simultaneous and Iterative manner."], "ms": ["Kami mencadangkan rangka kerja tetulang Iteratif, dan di bawah rangka kerja ini, ulasan ciri perkataan dan kata pendapat disusun ke dalam kategori secara serentak dan Iteratif.", "Dalam rangka kerja ini, ulasan ciri perkataan dan kata pendapat disusun ke dalam kategori secara serentak dan Iteratif."]}, {"en": ["Chang et al stated that one reason is that the objective function of topic models does not always correlate well with human judgments.", "One key reason is that the objective functions of topic models do not correlate well with human judgements."], "ms": ["Chang et al menyatakan bahawa salah satu sebab adalah bahawa fungsi objektif model topik tidak selalu berkorelasi baik dengan penghakiman manusia.", "Salah satu sebab utama adalah bahawa fungsi objektif model topik tidak sesuai dengan pertimbangan manusia."]}, {"en": ["Djuric et al were the first to propose a Self-Taught learning strategy in the context of hateful speech detection, where they simultaneously learn Low-Dimension representations of documents and words in a common vector space.", "Djuric et al propose an approach that learns Low-Dimensional, distributed representations of user comments in order to detect expressions of hate speech."], "ms": ["Djuric et al adalah yang pertama mencadangkan strategi pembelajaran Belajar Sendiri dalam konteks pengesanan ucapan kebencian, di mana mereka secara serentak mempelajari perwakilan Low-Dimension dokumen dan perkataan dalam ruang vektor yang sama.", "Djuric et al mencadangkan pendekatan yang mempelajari Low-Dimensional, perwakilan diedarkan komen pengguna untuk mengesan ungkapan ucapan kebencian."]}, {"en": ["Sen modeled the topic coherence as the groups of co-occurring entities.", "Sen proposed a latent topic model to learn the context entity Association."], "ms": ["Sen memodelkan koheren topik sebagai kumpulan entiti yang berlaku bersama.", "Sen mencadangkan model topik laten untuk mempelajari Persatuan entiti konteks."]}, {"en": ["We used term frequency weighting scheme and the Liblinear Scikit-Learn implementation of support vector machines with Ovr, one vs.", "Each essay was represented through the sets of features described below, using term frequency and the Liblinear Scikit-Learn implementation of support vector machines with Ovr, one vs."], "ms": ["Kami menggunakan skim pemberat frekuensi istilah dan pelaksanaan Liblinear Scikit-Learn mesin vektor sokongan dengan Ovr, satu vs.", "Setiap esei diwakili melalui set ciri yang diterangkan di bawah, menggunakan frekuensi istilah dan pelaksanaan Liblinear Scikit-Learn mesin vektor sokongan dengan Ovr, satu vs."]}, {"en": ["In this paper, we present a neural Keyphrase extraction framework that exploits conversation context, which is represented by neural Encoders for capturing salient content to help in indicating Keyphrases in target posts.", "In this paper, we present a neural Keyphrase extraction framework for Microblog posts that takes their conversation context into account, where four types of neural Encoders, namely, averaged Embedding, Rnn, attention, and memory."], "ms": ["Dalam makalah ini, kami membentangkan kerangka pengekstrakan Keyphrase neural yang mengeksploitasi konteks perbualan, yang diwakili oleh pengekod neural untuk menangkap kandungan penting untuk membantu menunjukkan Keyphrases dalam catatan sasaran.", "Dalam makalah ini, kami membentangkan kerangka pengekstrakan Keyphrase neural untuk catatan Microblog yang mengambil konteks perbualan mereka, di mana empat jenis pengekod saraf, iaitu, Embedding rata-rata, Rnn, perhatian, dan memori."]}, {"en": ["All languages use different Brahmidescended scripts.", "Most spoken languages use Brahmiderived scripts."], "ms": ["Semua bahasa menggunakan skrip Brahmidescended yang berbeza.", "Kebanyakan bahasa lisan menggunakan skrip Brahmiderived."]}, {"en": ["Our method is based on a decision list proposed by Yarowsky.", "To address the generalization concern, we propose a method inspired by Yarowsky."], "ms": ["Kaedah kami adalah berdasarkan senarai keputusan yang dicadangkan oleh Yarowsky.", "Untuk menangani kebimbangan umum, kami mencadangkan kaedah yang diilhamkan oleh Yarowsky."]}, {"en": ["Recently, many accurate statistical Parsers have been proposed for English, for Japanese).", "In recent years, many accurate Phrase-Structure Parsers have been developed ,."], "ms": ["Baru-baru ini, banyak statistik yang tepat Parsers telah dicadangkan untuk bahasa Inggeris, untuk bahasa Jepun).", "Dalam tahun-tahun kebelakangan ini, banyak Parsers Frasa-Struktur yang tepat telah dibangunkan."]}, {"en": ["Current Smt systems usually Decode with single translation models and cannot benefit from the strengths of other models in decoding phase.", "To manipulate strings, current methods usually have no access to most information available in decoding phase."], "ms": ["Sistem Smt semasa biasanya Decode dengan model terjemahan tunggal dan tidak boleh mendapat manfaat daripada kekuatan model lain dalam fasa penyahkodan.", "Untuk memanipulasi rentetan, kaedah semasa biasanya tidak mempunyai akses kepada kebanyakan maklumat yang terdapat dalam fasa penyahkodan."]}, {"en": ["Goldwater et al justified the importance of context as a means of avoiding Undersegmentation, through a method based on Hierarchical Dirichlet processes.", "Goldwater et al explored a Bigram model built upon a Dirichlet process to discover Contextual Dependencies."], "ms": ["Goldwater et al membenarkan kepentingan konteks sebagai cara untuk mengelakkan Undersegmentation, melalui kaedah berdasarkan proses Hierarki Dirichlet.", "Goldwater et al meneroka model Bigram yang dibina di atas proses Dirichlet untuk menemui Dependensi Kontekstual."]}, {"en": ["Our experiment focuses on investigating aspects of predictive opinions by learning lexical patterns and comparing them with judgment opinions.", "In our study, we explore the use of generalized lexical features for predictive opinion analysis."], "ms": ["Eksperimen kami memberi tumpuan kepada menyiasat aspek pendapat ramalan dengan mempelajari corak leksikal dan membandingkannya dengan pendapat penghakiman.", "Dalam kajian kami, kami meneroka penggunaan ciri-ciri leksikal umum untuk analisis pendapat ramalan."]}, {"en": ["The three systems are Unsupervised and relied on Dictionary-Based similarity measures.", "Three systems are Unsupervised and relied on Dictionary-Based similarity measures."], "ms": ["Ketiga-tiga sistem ini tidak diawasi dan bergantung kepada langkah-langkah persamaan berdasarkan kamus.", "Tiga sistem tidak diawasi dan bergantung pada langkah persamaan berdasarkan kamus."]}, {"en": ["Named entity recognition is the task of finding entities, such as people and organizations, in text.", "Named entity recognition is a challenging task that has traditionally required large amounts of knowledge in the form of feature engineering and Lexicons to achieve high performance."], "ms": ["Pengecaman entiti yang dinamakan adalah tugas mencari entiti, seperti orang dan organisasi, dalam teks.", "Pengecaman entiti yang dinamakan adalah tugas yang mencabar yang secara tradisinya memerlukan sejumlah besar pengetahuan dalam bentuk kejuruteraan ciri dan Lexicons untuk mencapai prestasi yang tinggi."]}, {"en": ["Paul S. Jacobs Phred: a generator for natural language interfaces", "Paul S . Jacobs Phred: a generator for natural language interfaces."], "ms": ["Paul S. Jacobs Phred: penjana untuk antara muka bahasa semula jadi", "Paul S. Jacobs Phred: penjana untuk antara muka bahasa semula jadi."]}, {"en": ["In this work, we use the Rnn abstraction as a building block, and Recursively combine several Rnns to obtain our tree representation.", "As a building block: We model the left and right sequences of modifiers using Rnns, which are composed in a recursive manner to form a tree."], "ms": ["Dalam kerja ini, kami menggunakan abstraksi Rnn sebagai blok bangunan, dan menggabungkan beberapa Rnn secara semula jadi untuk mendapatkan perwakilan pokok kami.", "Sebagai blok bangunan: Kami memodelkan urutan pengubah kiri dan kanan menggunakan Rnns, yang disusun dengan cara yang rekursif untuk membentuk pokok."]}, {"en": ["Finally, we compute the translation probabilities according to the estimated Co-Occurrence counts, using the standard training method in Phrase-Based Smt.", "We perform standard phrase extraction to obtain our synthetic phrases, whose translation probabilities are again estimated based on the Single-Word probabilities Pfrom our translation model."], "ms": ["Akhirnya, kami mengira kebarangkalian terjemahan mengikut anggaran Co-Occurrence counts, menggunakan kaedah latihan standard dalam Phrase-Based Smt.", "Kami melakukan pengekstrakan frasa standard untuk mendapatkan frasa sintetik kami, yang kebarangkalian terjemahannya sekali lagi dianggarkan berdasarkan kebarangkalian Single-Word Pfrom model terjemahan kami."]}, {"en": ["In this paper , 4 word boundary tags are employed: B (beginning of a word), M (middle part of a word), E (end of a word) and s (single character).", "In this paper , 4 word boundary tags are employed: B (beginning of a word), M (middle part of a word), E (end of a word)."], "ms": ["Dalam kertas ini, 4 tag sempadan perkataan digunakan: B (permulaan perkataan), M (bahagian tengah perkataan), E (akhir perkataan) dan s (watak tunggal).", "Dalam kertas ini, 4 tag sempadan perkataan digunakan: B (permulaan perkataan), M (bahagian tengah perkataan), E (akhir perkataan)."]}, {"en": ["However, in the first approach, Heuristic rules are used to find the Dependencies or penalties for label inconsistency are required to Handset ad-hoc.", "In the first approach, Heuristic rules are used to find the Dependencies or penalties for label inconsistency are required to Handset ad-hoc."], "ms": ["Walau bagaimanapun, dalam pendekatan pertama, peraturan Heuristik digunakan untuk mencari Dependensi atau penalti untuk ketidakkonsistenan label diperlukan untuk Handset ad-hoc.", "Dalam pendekatan pertama, peraturan Heuristik digunakan untuk mencari Dependensi atau penalti untuk ketidakkonsistenan label diperlukan untuk Handset ad-hoc."]}, {"en": ["Data Sparsity is the bane of natural language processing (Nlp) (Cite-P-15-5-2, Cite-P-15-3-7).", "While data Sparsity is a common problem of many Nlp tasks, it is much more severe for sentence compression, leading Cite-P-12-3-4 to question the applicability of the Channel model for this task altogether."], "ms": ["Data Sparsity adalah bane pemprosesan bahasa semula jadi (Nlp) (Cite-P-15-5-2, Cite-P-15-3-7).", "Walaupun Sparsity data adalah masalah biasa bagi banyak tugas Nlp, ia lebih teruk untuk pemampatan ayat, yang membawa Cite-P-12-3-4 untuk mempersoalkan kesesuaian model Channel untuk tugas ini sama sekali."]}, {"en": ["On the larger Oceanic data, our model can achieve cluster purity scores of 91.8%, while maintaining Pairwise recall of 62.1 %.", "From the Oceanic language family, our model achieves a cluster purity score over 91%, while maintaining Pairwise recall over 62 %."], "ms": ["Pada data Oceanic yang lebih besar, model kami dapat mencapai skor kesucian kluster sebanyak 91.8%, sambil mengekalkan penarikan balik Pairwise sebanyak 62.1%.", "Dari keluarga bahasa Oceanic, model kami mencapai skor kesucian kluster lebih daripada 91%, sambil mengekalkan penarikan balik Pairwise lebih daripada 62%."]}, {"en": ["For this experiment, we train a standard Phrase-Based Smt system over the entire parallel corpus.", "To address the first processing stage, we build Phrase-Based Smt models using Moses, an Open-Source Phrase-Based Smt system and available data."], "ms": ["Untuk eksperimen ini, kami melatih sistem Smt Berasaskan Frasa standard di seluruh korpus selari.", "Untuk menangani peringkat pemprosesan pertama, kami membina model Smt Berasaskan Frasa menggunakan Moses, sistem Smt Berasaskan Frasa Sumber Terbuka dan data yang tersedia."]}, {"en": ["S\u9176Gaard and Goldberg , 2016) showed that a Higher-Level task can benefit from making use of a shared representation learned by training on a lower-level task.", "S\u9176Gaard and Goldberg , 2016) showed that inducing a Priori knowledge in a Multi-Task model, by ordering the tasks to be learned, leads to better performance."], "ms": ["SGaard dan Goldberg (2016) menunjukkan bahawa tugas Tahap Tinggi dapat memanfaatkan penggunaan perwakilan bersama yang dipelajari dengan melatih tugas peringkat rendah.", "SGaard dan Goldberg (2016) menunjukkan bahawa mendorong pengetahuan Priori dalam model Multi-Task, dengan memerintahkan tugas yang harus dipelajari, membawa kepada prestasi yang lebih baik."]}, {"en": ["Results suggest that the Tensor-Based methods we propose are more robust than the basic Hal model in some respects.", "However, our results suggest that the Tensor-Based methods are more robust than the basic Hal model."], "ms": ["Hasil menunjukkan bahawa kaedah Berasaskan Tensor yang kami cadangkan lebih mantap daripada model Hal asas dalam beberapa aspek.", "Walau bagaimanapun, hasil kami menunjukkan bahawa kaedah Berasaskan Tensor lebih mantap daripada model Hal asas."]}, {"en": ["To do the task of simplification, we use the simplified factual statement extraction Toolkit.", "We use the simplified factual statement Extractor model 6 of Heilman and Smith."], "ms": ["Untuk melakukan tugas penyederhanaan, kami menggunakan alat pengekstrakan pernyataan fakta yang dipermudahkan.", "Kami menggunakan model Extractor pernyataan fakta yang dipermudahkan 6 Heilman dan Smith."]}, {"en": ["Experimental results show that the Character-Level dependency Parsing models outperform the Word-Based methods on all the data sets.", "Character-Level models obtained better Accuracies than previous work on Segmentation, Pos-Tagging and Word-Level dependency Parsing."], "ms": ["Hasil eksperimen menunjukkan bahawa model Penghuraian Ketergantungan Tahap Karakter mengatasi kaedah Berasaskan Perkataan pada semua set data.", "Model Character-Level memperoleh Accuracies yang lebih baik daripada kerja sebelumnya mengenai Segmentasi, Pos-Tagging dan Penghuraian dependensi Tahap-Word."]}, {"en": ["Users also subjectively rate the Rl-Based policy on average 10% higher.", "Users also subjectively rate the Rl-Based policy on average 10% higher, and 49% higher."], "ms": ["Pengguna juga secara subjektif menilai dasar berasaskan Rl secara purata 10% lebih tinggi.", "Pengguna juga secara subjektif menilai dasar berasaskan Rl secara purata 10% lebih tinggi, dan 49% lebih tinggi."]}, {"en": ["In this paper, we propose a new approach to detecting erroneous sentences by integrating pattern discovery with supervised learning models.", "We propose a novel approach that is based on pattern discovery and supervised learning to successfully identify erroneous / correct sentences."], "ms": ["Dalam makalah ini, kami mencadangkan pendekatan baru untuk mengesan ayat yang salah dengan mengintegrasikan penemuan corak dengan model pembelajaran yang diawasi.", "Kami mencadangkan pendekatan novel yang berasaskan penemuan corak dan pembelajaran yang diselia untuk berjaya mengenal pasti ayat yang salah / betul."]}, {"en": ["We also explore Bi-Lstm models with fewer features.", "We also explore Bi-Lstm models to avoid the detailed feature engineering."], "ms": ["Kami juga meneroka model Bi-Lstm dengan ciri yang lebih sedikit.", "Kami juga meneroka model Bi-Lstm untuk mengelakkan kejuruteraan ciri terperinci."]}, {"en": ["English Tweets are identified automatically using a Compression-Based language identification tool.", "English Tweets are identified using a Compression-Based language identification tool."], "ms": ["Tweet Inggeris dikenal pasti secara automatik menggunakan alat pengenalan bahasa berasaskan mampatan.", "Tweet Inggeris dikenal pasti menggunakan alat pengenalan bahasa berasaskan mampatan."]}, {"en": ["Zhang et al explore a shallow Convolutional neural network and achieve competitive performance.", "Zhang et al propose a simplified neural network which contains only one hidden layer and use three different pooling operations."], "ms": ["Zhang et al meneroka rangkaian neural Convolutional cetek dan mencapai prestasi yang kompetitif.", "Zhang et al mencadangkan rangkaian saraf yang dipermudahkan yang mengandungi hanya satu lapisan tersembunyi dan menggunakan tiga operasi pengumpulan yang berbeza."]}, {"en": ["Named entity recognition on mixed case text is easier than on upper case text, where case information is unavailable.", "Named entity Recognizer (NER) on upper case text can be improved by using a mixed case."], "ms": ["Pengecaman entiti yang dinamakan pada teks kes bercampur adalah lebih mudah daripada pada teks kes atas, di mana maklumat kes tidak tersedia.", "Pengiktirafan entiti (NER) pada teks kes atas boleh diperbaiki dengan menggunakan kes campuran."]}, {"en": ["Topic Correlations in Weakly-Related collections typically lie in the tail of the topic distribution, where they would be overlooked by models unable to fit large numbers of topics.", "Because common topics in Weakly-Correlated collections are usually found in the tail of the Document-Topic distribution of a sufficiently large set of topics."], "ms": ["Hubungan Topik dalam koleksi yang berkaitan dengan lemah biasanya terletak di ekor pengedaran topik, di mana mereka akan diabaikan oleh model yang tidak dapat memuatkan sebilangan besar topik.", "Kerana topik biasa dalam koleksi yang berkaitan dengan lemah biasanya terdapat di ekor pengedaran Dokumen-Topik sekumpulan topik yang cukup besar."]}, {"en": ["Universal Dependencies is a framework for Cross-Linguistically consistent Treebank Annotation.", "Universal Dependencies is a Cross-Linguistically consistent Annotation scheme for Dependency-Based Treebanks."], "ms": ["Universal Dependencies adalah rangka kerja untuk Cross-Linguistically konsisten Treebank Annotation.", "Universal Dependencies adalah skema Annotasi Bersejarah Bersejarah untuk Treebank Berasaskan Dependensi."]}, {"en": ["Skadi\u8248A et al and Skadi\u8248A et al argue that the advantages of comparable Corpora in machine translation are considerable and more beneficial than those of parallel Corpora.", "Likewise, Skadi\u8248A et al and Skadi\u8248A et al argue that the advantages of comparable Corpora in machine translation are considerable and more beneficial than those of parallel Corpora."], "ms": ["SkadiA et al dan SkadiA et al berpendapat bahawa kelebihan Corpora setanding dalam terjemahan mesin adalah besar dan lebih bermanfaat daripada Corpora selari.", "Begitu juga, SkadiA et al dan SkadiA et al berpendapat bahawa kelebihan Corpora setanding dalam terjemahan mesin adalah besar dan lebih bermanfaat daripada Corpora selari."]}, {"en": ["For large Datasets, we use an ensemble technique inspired by Bagging.", "We also use a simple Bagging technique to deal with the Sparsity of boundary tags."], "ms": ["Untuk Dataset yang besar, kami menggunakan teknik ensemble yang diilhamkan oleh Bagging.", "Kami juga menggunakan teknik Bagging yang mudah untuk menangani Sparsity tag sempadan."]}, {"en": ["Convolution tree kernel defines a feature space consisting of all Subtree types of Parse trees and counts the number of common Subtrees to express the respective distance in the feature space.", "Convolution tree kernel defines a feature space consisting of all Subtree types of Parse trees and counts the number of common Subtrees as the syntactic similarity between two Parse trees."], "ms": ["Kernel pokok konvolusi mentakrifkan ruang ciri yang terdiri daripada semua jenis Subtree pokok Parse dan mengira bilangan Subtrees biasa untuk menyatakan jarak masing-masing dalam ruang ciri.", "Kernel pokok konvolusi mentakrifkan ruang ciri yang terdiri daripada semua jenis pokok Parse Subtree dan mengira bilangan Subtrees biasa sebagai persamaan sintaksis antara dua pokok Parse."]}, {"en": ["One can then match the Peco elements in the query to the elements detected in documents.", "When a Peco-Structured query is formulated, it is matched against the Peco elements in the documents."], "ms": ["Seseorang kemudian boleh memadankan unsur Peco dalam pertanyaan kepada unsur-unsur yang dikesan dalam dokumen.", "Apabila pertanyaan Peco-Structured dirumuskan, ia dipadankan dengan unsur Peco dalam dokumen."]}, {"en": ["Stochastic models have been widely used in Pos tagging for simplicity and language independence of the models.", "Stochastic models have been widely used in Pos tagging task for simplicity and language independence of the models."], "ms": ["Model stokastik telah digunakan secara meluas dalam penandaan Pos untuk kesederhanaan dan kebebasan bahasa model.", "Model stokastik telah digunakan secara meluas dalam tugas penandaan Pos untuk kesederhanaan dan kebebasan bahasa model."]}, {"en": ["The Selectional preference distribution is defined in terms of Selectional Association measure introduced by Resnik over the noun classes automatically produced by sun and Korhonen.", "The Selectional preference distribution was defined in terms of Selectional Association measures introduced by Resnik over the noun classes automatically produced by sun and Korhonen."], "ms": ["Taburan keutamaan Pemilihan ditakrifkan dari segi ukuran Persatuan Pemilihan yang diperkenalkan oleh Resnik ke atas kelas kata nama yang dihasilkan secara automatik oleh matahari dan Korhonen.", "Taburan keutamaan Pemilihan ditakrifkan dari segi langkah-langkah Persatuan Pemilihan yang diperkenalkan oleh Resnik ke atas kelas kata nama yang dihasilkan secara automatik oleh matahari dan Korhonen."]}, {"en": ["Particularly, we used a partitioning algorithm of the Cluto library for clustering.", "For clustering, we use the implementation from the Cluto software package."], "ms": ["Terutamanya, kami menggunakan algoritma partitioning perpustakaan Cluto untuk clustering.", "Untuk clustering, kami menggunakan pelaksanaan dari pakej perisian Cluto."]}, {"en": ["The results demonstrate the superiority of a clustered approach over both traditional prototype and Exemplar-Based Vector-Space models.", "As well as words in Sentential contexts demonstrate the superiority of this approach over both prototype and exemplar based Vector-Space models."], "ms": ["Hasilnya menunjukkan keunggulan pendekatan kluster ke atas kedua-dua prototaip tradisional dan model Vector-Space Berasaskan Exemplar.", "Serta perkataan dalam konteks Sentential menunjukkan keunggulan pendekatan ini berbanding model Vector-Space berasaskan prototaip dan teladan."]}, {"en": ["All of them have proven that word Embedding is helpful in Nlp tasks.", "Word Embeddings have been proven helpful in many Nlp tasks."], "ms": ["Kesemua mereka telah membuktikan bahawa perkataan Embedding berguna dalam tugas Nlp.", "Embedding perkataan telah terbukti berguna dalam banyak tugas Nlp."]}, {"en": ["To this end, we develop a novel summarization system called Priorsum to automatically exploit all possible semantic aspects latent in the summary prior nature.", "Using manually compiled Document-Independent features, we develop a novel summary system called Priorsum, which applies the enhanced Convolutional neural networks to capture the summary."], "ms": ["Untuk tujuan ini, kita membangunkan sistem penjumlahan novel yang dipanggil Priorsum untuk mengeksploitasi secara automatik semua aspek semantik yang mungkin terpendam dalam sifat ringkasan sebelumnya.", "Menggunakan ciri-ciri Document-Independent yang disusun secara manual, kami membangunkan sistem ringkasan novel yang dipanggil Priorsum, yang menggunakan rangkaian saraf Konvolusi yang dipertingkatkan untuk menangkap ringkasan."]}, {"en": ["We choose to use SVM since it performs the best for sentiment classification.", "Svm was used since it is known to perform well for sentiment classification."], "ms": ["Kami memilih untuk menggunakan SVM kerana ia melakukan yang terbaik untuk klasifikasi sentimen.", "Svm digunakan kerana ia dikenali untuk prestasi yang baik untuk klasifikasi sentimen."]}, {"en": ["On the other hand, a Deletion-Based method does not face such a problem in a Cross-Domain setting.", "In the Cross-Domain setting, and a traditional Ilp method does not work well in the In-Domain setting."], "ms": ["Sebaliknya, kaedah berasaskan penghapusan tidak menghadapi masalah seperti itu dalam tetapan Cross-Domain.", "Dalam tetapan Cross-Domain, dan kaedah Ilp tradisional tidak berfungsi dengan baik dalam tetapan In-Domain."]}, {"en": ["As far as we know, our work is the first of its kind.", "Like ours is the first proposal of its kind."], "ms": ["Setakat yang kita tahu, kerja kita adalah yang pertama seumpamanya.", "Seperti kita, cadangan pertama dari jenisnya."]}, {"en": ["But a Bare-Bones statistical model is still useful in that it allows us to quantify precise improvements in performance upon the integration of each specific Cue into the model.", "Statistical model is still useful in that it allows us to quantify precise improvements in performance upon the integration of each specific Cue into the model."], "ms": ["Tetapi model statistik Bare-Bones masih berguna kerana ia membolehkan kita mengukur peningkatan prestasi yang tepat apabila integrasi setiap Cue tertentu ke dalam model.", "Model statistik masih berguna kerana ia membolehkan kita mengukur peningkatan prestasi yang tepat apabila integrasi setiap Cue tertentu ke dalam model."]}, {"en": ["We propose to exploit Entailment relationships holding among re patterns by structuring the candidate set in an Entailment graph.", "In the pattern selection process, we propose to capture and exploit these relationships using Pattern-Based Entailment graphs."], "ms": ["Kami mencadangkan untuk mengeksploitasi hubungan Entailment yang memegang di antara corak semula dengan menyusun calon yang ditetapkan dalam grafik Entailment.", "Dalam proses pemilihan corak, kami mencadangkan untuk menangkap dan mengeksploitasi hubungan ini menggunakan grafik Entailment Berasaskan Pola."]}, {"en": ["We consider the domain adversarial training network on the user factor adaptation task.", "We apply domain adversarial training only on the topic inputs from learned topic representations."], "ms": ["Kami mempertimbangkan rangkaian latihan adversarial domain pada tugas penyesuaian faktor pengguna.", "Kami menggunakan latihan adversarial domain hanya pada input topik dari perwakilan topik yang dipelajari."]}, {"en": ["In addition, we extend the sick Dataset to include Unscored Fluency-Focused sentence comparisons and we propose a toy metric for evaluation.", "In addition, we extend the sick Dataset to include Unscored Fluency-Focused sentence comparisons."], "ms": ["Di samping itu, kami memperluaskan Dataset yang sakit untuk memasukkan perbandingan ayat Unscored Fluency-Focused dan kami mencadangkan metrik mainan untuk penilaian.", "Di samping itu, kami memperluaskan Dataset yang sakit untuk memasukkan perbandingan ayat Unscored Fluency-Focused."]}, {"en": ["We mainly used Pre-Trained Embeddings of words from the Conll 2017 shared task trained on Word2Vec.", "We obtained these scores by training a Word2Vec model on the Wiki corpus."], "ms": ["Kami terutamanya menggunakan Embedding Pra-Latih perkataan dari tugas bersama Conll 2017 yang dilatih pada Word2Vec.", "Kami memperoleh skor ini dengan melatih model Word2Vec di korpus Wiki."]}, {"en": ["Demberg applies a Fourth-Order Hmm to the Syllabification task, as a component of a larger German Text-Tospeech system.", "Demberg uses a Fourth-Order hidden Markov model to tackle orthographic Syllabification in German."], "ms": ["Demberg menggunakan Hmm Keempat-Order untuk tugas Syllabification, sebagai komponen sistem Teks-Pertuturan Jerman yang lebih besar.", "Demberg menggunakan model Markov tersembunyi Keempat-Order untuk menangani Syllabification ortografi dalam bahasa Jerman."]}, {"en": ["Lapata et al demonstrated that the Cooccurrence frequency of an Adjective-Noun combination is the best Predictor of its rated Plausibility.", "Extending the results of Lapata et al, we confirmed that Cooccurrence frequency can be used to estimate the Plausibility of an Adjective-Noun pair."], "ms": ["Lapata et al menunjukkan bahawa kekerapan Cooccurrence gabungan Adjective-Noun adalah Predictor terbaik dari Plausibility yang dinilai.", "Memperluas hasil Lapata et al, kami mengesahkan bahawa kekerapan Cooccurrence boleh digunakan untuk menganggarkan Kebolehlaksanaan pasangan Adjektif-Noun."]}, {"en": ["This paper discusses Semeval-2018 task 5: a Referential Quantification task of counting events and participants in local, Long-Tail news documents with high ambiguity.", "We have introduced Semeval-2018 task 5, a Referential Quantification task of counting events and participants in local news articles with high ambiguity."], "ms": ["Kertas kerja ini membincangkan tugas Semeval-2018 5: tugas Pengkuantitian Rujukan untuk mengira peristiwa dan peserta dalam dokumen berita Long-Tail tempatan dengan kekaburan yang tinggi.", "Kami telah memperkenalkan tugas Semeval-2018 5, tugas Pengkuantitian Rujukan untuk mengira peristiwa dan peserta dalam artikel berita tempatan dengan kekaburan yang tinggi."]}, {"en": ["Words or expressions are aligned using a word similarity model based on a combination of latent semantic analysis and semantic distance in the Wordnet knowledge graph.", "Translations are filtered using a measure of similarity to the original words, based on latent semantic analysis scores."], "ms": ["Perkataan atau ungkapan diselaraskan menggunakan model persamaan perkataan berdasarkan gabungan analisis semantik laten dan jarak semantik dalam graf pengetahuan Wordnet.", "Terjemahan ditapis menggunakan ukuran persamaan dengan perkataan asal, berdasarkan skor analisis semantik terpendam."]}, {"en": ["We plan to explore this possibility in future work.", "And we plan to explore this possibility in future work."], "ms": ["Kami merancang untuk meneroka kemungkinan ini dalam kerja masa depan.", "Dan kami merancang untuk meneroka kemungkinan ini dalam kerja masa depan."]}, {"en": ["This paper proposes a novel lifelong learning (ll) approach to sentiment classification.", "In this paper, we proposed a lifelong learning approach to sentiment classification."], "ms": ["Kertas kerja ini mencadangkan pendekatan pembelajaran sepanjang hayat (ll) novel untuk klasifikasi sentimen.", "Dalam makalah ini, kami mencadangkan pendekatan pembelajaran sepanjang hayat untuk klasifikasi sentimen."]}, {"en": ["Contrary to Cite-P-21-3-0, we proved that these models can be exactly collapsed into a single Backoff language model.", "Backoff language models can be efficiently and exactly collapsed into a single normalized Backoff model, Contradicting Cite-P-21-3-0."], "ms": ["Bertentangan dengan Cite-P-21-3-0, kami membuktikan bahawa model-model ini boleh runtuh menjadi model bahasa Backoff tunggal.", "Model bahasa backoff boleh dengan cekap dan tepat runtuh menjadi model Backoff yang dinormalkan tunggal, Contradicting Cite-P-21-3-0."]}, {"en": ["Stability is measured across ten Randomized Embedding spaces trained on the training portion of the Ptb (determined using language modeling SPLITS (Cite-P-16-1-18) ).", "While is measured across ten Randomized Embedding spaces trained on the training data of the Ptb (determined using language modeling SPLITS (Cite-P-16-1-18) )."], "ms": ["Kestabilan diukur merentasi sepuluh ruang Embedding Rawak yang dilatih pada bahagian latihan Ptb (ditetapkan menggunakan pemodelan bahasa SPLITS (Cite-P-16-1-18).", "Manakala diukur merentasi sepuluh ruang Embedding Rawak yang dilatih pada data latihan Ptb (bertekad menggunakan pemodelan bahasa SPLITS (Cite-P-16-1-18)."]}, {"en": ["Experimental results show that our method consistently Outperforms various Baselines across languages.", "Experimental results show that our model significantly Outperforms the direct transfer method."], "ms": ["Hasil eksperimen menunjukkan bahawa kaedah kami secara konsisten Outperforms pelbagai Garis Dasar di seluruh bahasa.", "Hasil eksperimen menunjukkan bahawa model kami dengan ketara Melaksanakan kaedah pemindahan langsung."]}, {"en": ["To address this drawback, ranking models were proved to be useful solutions ,.", "To address this drawback, ranking models were proved to be a useful solution ,."], "ms": ["Untuk mengatasi kelemahan ini, model ranking terbukti menjadi penyelesaian yang berguna.", "Untuk mengatasi kelemahan ini, model ranking terbukti menjadi penyelesaian yang berguna..."]}, {"en": ["Using Multi-Word phrases instead of individual words as the basic translation unit has been shown to increase translation performance.", "However, Multi-Word translation units have been shown to improve the quality of Smt dramatically."], "ms": ["Menggunakan frasa Multi-Word dan bukannya perkataan individu sebagai unit terjemahan asas telah ditunjukkan untuk meningkatkan prestasi terjemahan.", "Walau bagaimanapun, unit terjemahan Multi-Word telah ditunjukkan untuk meningkatkan kualiti Smt secara dramatik."]}, {"en": ["In addition, our system substantially improves upon the baseline presented by Silfverberg and Hulden.", "As table 7 shows, our system clearly Outperforms the system proposed by Silfverberg and Hulden with regard to F1-Score on tags."], "ms": ["Di samping itu, sistem kami secara signifikan bertambah baik pada garis dasar yang dibentangkan oleh Silfverberg dan Hulden.", "Seperti yang ditunjukkan oleh jadual 7, sistem kami jelas Melaksanakan sistem yang dicadangkan oleh Silfverberg dan Hulden berkenaan F1-Score pada tag."]}, {"en": ["A pattern is defined as a path between a verb Node and any other Node in the dependency tree passing through zero or more intermediate nodes.", "A chain can be defined as a path between a verb Node and any other Node in the dependency tree passing through zero or more intermediate nodes."], "ms": ["Corak ditakrifkan sebagai laluan antara kata kerja Node dan Node lain dalam pokok dependensi yang melalui nod sifar atau lebih pertengahan.", "Rantaian boleh ditakrifkan sebagai laluan antara kata kerja Node dan Node lain dalam pokok dependensi yang melalui nod sifar atau lebih pertengahan."]}, {"en": ["Snow et al showed, however, that Crowdsourced Annotations can produce similar results to Annotations made by experts.", "For Annotation tasks, snow et al showed that Crowdsourced Annotations are similar to traditional Annotations made by experts."], "ms": ["Snow et al menunjukkan, bagaimanapun, bahawa Crowdsourced Annotations boleh menghasilkan hasil yang sama dengan Annotations yang dibuat oleh pakar.", "Untuk tugas Annotasi, salji et al menunjukkan bahawa Annotasi Crowdsourced serupa dengan Annotasi tradisional yang dibuat oleh pakar."]}, {"en": ["Our analysis shows that the high-performance of the ACM lies in the asymmetry of the model.", "Our analysis shows that the high-performance of the ACM comes."], "ms": ["Analisis kami menunjukkan bahawa prestasi tinggi ACM terletak pada asimetri model.", "Analisis kami menunjukkan bahawa prestasi tinggi ACM datang."]}, {"en": ["In the second phase, it selects an optimal substitute for each given word from the synonyms according to the context in Math-W-3-4-0-74.", "In the second phase, it selects an optimal substitute for each given word from the synonyms according to the context."], "ms": ["Pada fasa kedua, ia memilih pengganti optimum bagi setiap perkataan yang diberikan daripada sinonim mengikut konteks dalam Math-W-3-4-0-74.", "Pada fasa kedua, ia memilih pengganti optimum untuk setiap perkataan yang diberikan dari sinonim mengikut konteks."]}, {"en": ["Reviews depict sentiments of customers towards various aspects of a product or service.", "In reviews, customers might Express different sentiment towards various aspects of a product or service."], "ms": ["Ulasan menggambarkan sentimen pelanggan terhadap pelbagai aspek produk atau perkhidmatan.", "Dalam ulasan, pelanggan mungkin menyatakan sentimen yang berbeza terhadap pelbagai aspek produk atau perkhidmatan."]}, {"en": ["With large amounts of data, Phrase-Based translation systems achieve state-of-the-art results in many Typologically diverse language pairs.", "State-of-the-art Smt models achieve excellent results by extracting phrases to induct the translation rules."], "ms": ["Dengan sejumlah besar data, sistem terjemahan Berasaskan Frasa mencapai hasil canggih dalam banyak pasangan bahasa yang pelbagai.", "Model Smt canggih mencapai hasil yang sangat baik dengan mengekstrak frasa untuk memasukkan peraturan terjemahan."]}, {"en": ["This approach was pioneered by galley et al, and there has been a lot of research since, usually referred to as Tree-To-Tree, Treeto-String and String-To-Tree, depending on where the analyses are found in the training data.", "This approach was pioneered by galley et al with numerous Variants in subsequent research, usually referred to as Tree-To-Tree, Tree-To-String and String-To-Tree, depending on where the analyses are found in the training data."], "ms": ["Pendekatan ini dipelopori oleh Galley et al, dan terdapat banyak penyelidikan sejak, biasanya dirujuk sebagai Tree-To-Tree, Treeto-String dan String-To-Tree, bergantung pada di mana analisis dijumpai dalam data latihan.", "Pendekatan ini dipelopori oleh Galley et al dengan banyak Variants dalam penyelidikan berikutnya, biasanya dirujuk sebagai Tree-To-Tree, Tree-To-String dan String-To-Tree, bergantung pada di mana analisis dijumpai dalam data latihan."]}, {"en": ["In this paper, we make a SIMPLIFYING assumption of One-Tag-Per-Word.", "In this work, we take a more direct approach and treat a word type and its allowed Pos tags."], "ms": ["Dalam kertas ini, kami membuat andaian SIMPLIFYING One-Tag-Per-Word.", "Dalam kerja ini, kami mengambil pendekatan yang lebih langsung dan merawat jenis perkataan dan tag Pos yang dibenarkan."]}, {"en": ["Our hypothesis is that script knowledge may be a significant factor in human anticipation of discourse Referents.", "Discourse Referents showed that script knowledge is a highly important factor in determining human discourse expectations."], "ms": ["Hipotesis kami adalah bahawa pengetahuan skrip mungkin merupakan faktor penting dalam jangkaan manusia mengenai rujukan wacana.", "Rujukan Wacana menunjukkan bahawa pengetahuan skrip adalah faktor yang sangat penting dalam menentukan jangkaan wacana manusia."]}, {"en": ["We find that Topic-Sensitive propagation can largely help boost the performance.", "In our experiments, this method is shown to be very effective to boost the performance of Keyphrase extraction."], "ms": ["Kami mendapati bahawa penyebaran Topic-Sensitif sebahagian besarnya dapat membantu meningkatkan prestasi.", "Dalam eksperimen kami, kaedah ini terbukti sangat berkesan untuk meningkatkan prestasi pengekstrakan Keyphrase."]}, {"en": ["Related work Benamara and Dizier present the cooperative question answering approach which generates natural language responses for given questions.", "This makes the information such as Cur- 5 related work Benamara and Dizier present the cooperative question answering approach which generates natural language responses for given questions."], "ms": ["Kerja berkaitan Benamara dan Dizier membentangkan pendekatan menjawab soalan koperasi yang menghasilkan jawapan bahasa semula jadi untuk soalan yang diberikan.", "Ini menjadikan maklumat seperti kerja berkaitan Cur-5 Benamara dan Dizier membentangkan pendekatan menjawab soalan koperasi yang menghasilkan jawapan bahasa semula jadi untuk soalan yang diberikan."]}, {"en": ["We plan to incorporate such signals in future work.", "And we plan to explore such semantic signals in future work."], "ms": ["Kami merancang untuk menggabungkan isyarat sedemikian dalam kerja masa depan.", "Dan kami merancang untuk meneroka isyarat semantik sedemikian dalam kerja masa depan."]}, {"en": ["The semantic textual similarity is a core problem in the computational linguistic field.", "Semantic textual similarity is the task of finding the degree of semantic equivalence between a pair of sentences."], "ms": ["Keserupaan teks semantik adalah masalah teras dalam bidang linguistik komputasi.", "Keserupaan teks semantik adalah tugas mencari tahap kesetaraan semantik antara sepasang ayat."]}, {"en": ["Based on this Semi-Supervised boosting algorithm, we investigate two boosting methods for word alignment.", "In the Semi-Supervised Adaboost algorithm, we investigate two boosting methods in this paper."], "ms": ["Berdasarkan algoritma penggalak Semi-Supervised ini, kami menyiasat dua kaedah penggalak untuk penjajaran perkataan.", "Dalam algoritma Adaboost Semi-Supervised, kami menyiasat dua kaedah peningkatan dalam kertas ini."]}, {"en": ["Phrase structure trees in Ctb have been Semiautomatically converted to deep derivations in the Ccg, LFG, tag and Hpsg Formalisms.", "Phrase structure trees in Ctb have been Semi-Automatically converted to deep derivations in the Ccg, LFG, and Hpsg Formalisms."], "ms": ["Pokok struktur frasa di Ctb telah secara Semiautomatik ditukar kepada terbitan mendalam dalam Ccg, LFG, tag dan Formalisme Hpsg.", "Pokok struktur frasa di Ctb telah secara Semi-Automatik ditukar kepada terbitan mendalam dalam Ccg, LFG, dan Hpsg Formalisms."]}, {"en": ["Cahill et al present a method to automatically obtain approximations of Ldd resolution for LFG resources acquired from a Treebank.", "Cahill et al reported an application of the Pcfg approximation technique in LFG Parsing and the recovery of long distance Dependencies on the F-Structures."], "ms": ["Cahill et al membentangkan kaedah untuk mendapatkan anggaran resolusi Ldd secara automatik untuk sumber LFG yang diperoleh dari Treebank.", "Cahill et al melaporkan penerapan teknik penghampiran Pcfg dalam Parsing LFG dan pemulihan Dependensi jarak jauh pada F-Structures."]}, {"en": ["The obtained average observations are set as constraints, and the improved Iterative Scaling algorithm is employed to evaluate the weights.", "The Iterative Scaling algorithm combined with Monte Carlo simulation is used to train the weights in this Generative model."], "ms": ["Pemerhatian purata yang diperolehi ditetapkan sebagai kekangan, dan algoritma Penskalaan Iteratif yang lebih baik digunakan untuk menilai berat.", "Algoritma Penskalaan Iteratif yang digabungkan dengan simulasi Monte Carlo digunakan untuk melatih berat dalam model Generatif ini."]}, {"en": ["The basic idea behind topic models is that documents are mixtures of topics, where a topic is a probability distribution over words.", "The idea is that documents are represented as random mixtures over latent topics, where each topic is characterized by a distribution over words."], "ms": ["Idea asas di sebalik model topik adalah bahawa dokumen adalah campuran topik, di mana topik adalah pengedaran kebarangkalian terhadap perkataan.", "Ideanya adalah bahawa dokumen diwakili sebagai campuran rawak terhadap topik laten, di mana setiap topik dicirikan oleh pengedaran atas kata-kata."]}, {"en": ["An analysis of the results has shown that the other approaches appear to be Overgeneralizing, at least for this task.", "And an analysis of the results shows that the generalization methods of Resnik and Li and Abe appear to be Overgeneralizing, at least for this task."], "ms": ["Analisis hasil telah menunjukkan bahawa pendekatan lain nampaknya terlalu umum, sekurang-kurangnya untuk tugas ini.", "Dan analisis hasil menunjukkan bahawa kaedah generalisasi Resnik dan Li dan Abe nampaknya terlalu umum, sekurang-kurangnya untuk tugas ini."]}, {"en": ["Our method works by modifying the attention mechanism of a Pointer-Generator neural network to make it focus on text relevant to a topic.", "And our results suggest that the attention of Generative networks can be successfully Biased to look at sentences relevant to a topic."], "ms": ["Kaedah kami berfungsi dengan mengubah suai mekanisme perhatian rangkaian neural Pointer-Generator untuk menjadikannya fokus pada teks yang berkaitan dengan topik.", "Dan hasil kami menunjukkan bahawa perhatian rangkaian Generatif dapat berjaya Biased untuk melihat ayat yang berkaitan dengan topik."]}, {"en": ["Noise-Contrastive estimation has been successfully adopted for training neural language models with large vocabularies.", "Noise-Contrastive estimation has been a successful alternative to train continuous space language models with large vocabularies."], "ms": ["Anggaran bunyi-kontrastif telah berjaya diterima pakai untuk melatih model bahasa saraf dengan vocabularies besar.", "Anggaran bising-kontrastif telah menjadi alternatif yang berjaya untuk melatih model bahasa ruang angkasa yang berterusan dengan vocabularies besar."]}, {"en": ["We compute statistical significance using the approximate randomization test.", "We use approximate randomization for significance testing."], "ms": ["Kami mengira kepentingan statistik menggunakan ujian rawak anggaran.", "Kami menggunakan anggaran rawak untuk ujian kepentingan."]}, {"en": ["In this work, we present, at word level, the correlation between perplexity and word frequency.", "We look at word level perplexity with respect to the word frequency."], "ms": ["Dalam kerja ini, kami membentangkan, pada tahap perkataan, korelasi antara kebingungan dan kekerapan perkataan.", "Kita lihat kebingungan tahap perkataan berkenaan dengan frekuensi perkataan."]}, {"en": ["Kurokawa et al showed that French-To-English Smt systems whose translation models were constructed from human translations from French to English yielded better translation quality than ones created from translations in the other direction.", "Kurokawa et al show that for an English-To-French mt system, a translation model trained on an English-To-French data performs better than one trained on French-To-English translations."], "ms": ["Kurokawa et al menunjukkan bahawa sistem Smt Perancis-Ke-Inggeris yang model terjemahannya dibina dari terjemahan manusia dari bahasa Perancis ke bahasa Inggeris menghasilkan kualiti terjemahan yang lebih baik daripada yang dibuat dari terjemahan ke arah lain.", "Kurokawa et al menunjukkan bahawa untuk sistem mt Bahasa Inggeris-Ke-Perancis, model terjemahan yang dilatih pada data Bahasa Inggeris-Ke-Perancis berprestasi lebih baik daripada yang dilatih pada terjemahan Bahasa Perancis-Ke-Perancis."]}, {"en": ["Following the common practice of domain adaptation research on this Dataset, we use news as the source domain and BC, cts, Wl as three different target domains.", "Following the common practice of adaptation research on this data, we take the Union of BN and NW as the source domain and BC, cts and Wl as three different target domains."], "ms": ["Berikutan amalan umum penyelidikan penyesuaian domain pada Dataset ini, kami menggunakan berita sebagai domain sumber dan BC, cts, Wl sebagai tiga domain sasaran yang berbeza.", "Berikutan amalan umum penyelidikan penyesuaian data ini, kami mengambil Union of BN dan NW sebagai domain sumber dan BC, cts dan Wl sebagai tiga domain sasaran yang berbeza."]}, {"en": ["All the experiments are developed using the Scikit-Learn machine learning library.", "Experiments were run with a variety of machine learning Algorithms using the Scikit-Learn Toolkit."], "ms": ["Semua eksperimen dibangunkan menggunakan perpustakaan pembelajaran mesin Scikit-Learn.", "Eksperimen dijalankan dengan pelbagai Algoritma pembelajaran mesin menggunakan Scikit-Learn Toolkit."]}, {"en": ["Considering that users do not know in which terms the categories are expressed, they might query the same concept by a paraphrase.", "Considering that users do not know in which terms the categories are expressed, they might query the same concept."], "ms": ["Memandangkan pengguna tidak tahu dari segi kategori yang dinyatakan, mereka mungkin bertanya konsep yang sama dengan parafrasa.", "Memandangkan pengguna tidak tahu dari segi kategori yang dinyatakan, mereka mungkin bertanya konsep yang sama."]}, {"en": ["However, Recnns need a given external Topological structure, like syntactic tree.", "However, Recnns require a predefined Topological structure, like Parse tree, to Encode."], "ms": ["Walau bagaimanapun, Recnns memerlukan struktur Topologi luaran yang diberikan, seperti pokok sintaktik.", "Walau bagaimanapun, Recnns memerlukan struktur Topologi yang telah ditetapkan, seperti pokok Parse, untuk Mengkod."]}, {"en": ["Specifically, we develop an Iterative distillation method that transfers the structured information of logic rules into the weights of neural networks.", "We use an Iterative rule distillation process to effectively transfer rich structured knowledge, expressed in the declarative first-order logic language, into parameters of General neural networks."], "ms": ["Khususnya, kami membangunkan kaedah penyulingan Iteratif yang memindahkan maklumat berstruktur peraturan logik ke dalam berat rangkaian saraf.", "Kami menggunakan proses penyulingan peraturan Iteratif untuk memindahkan pengetahuan berstruktur kaya dengan berkesan, yang dinyatakan dalam bahasa logik pesanan pertama deklaratif, ke dalam parameter rangkaian saraf umum."]}, {"en": ["On the one hand, we do not expect such pairs to occur in any systematic pattern, so they could obscure an otherwise more systematic pattern in the high PMI bins.", "On the one hand, we do not expect such pairs to occur in any systematic pattern, so they could obscure an otherwise more systematic pattern."], "ms": ["Di satu pihak, kita tidak mengharapkan pasangan sedemikian berlaku dalam corak sistematik, jadi mereka boleh mengaburkan corak yang lebih sistematik dalam tong PMI yang tinggi.", "Di satu pihak, kita tidak mengharapkan pasangan sedemikian berlaku dalam corak sistematik, jadi mereka boleh mengaburkan corak yang lebih sistematik."]}, {"en": ["To evaluate the quality of the spatial representations learned in the previous task, we introduce a task consisting in a set of 1,016 human ratings of spatial similarity between object pairs.", "In the previous task, we introduce a task and a Dataset consisting in a set of Crowdsourced human ratings of spatial similarity for object pairs."], "ms": ["Untuk menilai kualiti perwakilan ruang yang dipelajari dalam tugas sebelumnya, kami memperkenalkan tugas yang terdiri daripada satu set 1,016 penilaian manusia persamaan ruang antara pasangan objek.", "Dalam tugas sebelumnya, kami memperkenalkan tugas dan Dataset yang terdiri daripada satu set penilaian manusia Crowdsourced persamaan ruang untuk pasangan objek."]}, {"en": ["Evaluation on a standard data set shows that our method consistently Outperforms the supervised state-of-the-art method for the task.", "Evaluation on a standard data set shows that our method consistently Outperforms the best performing previously reported method, which is supervised."], "ms": ["Penilaian pada set data standard menunjukkan bahawa kaedah kami secara konsisten Outperforms kaedah state-of-the-art yang diawasi untuk tugas tersebut.", "Penilaian pada set data standard menunjukkan bahawa kaedah kami secara konsisten Melaksanakan kaedah terbaik yang dilaporkan sebelum ini, yang diawasi."]}, {"en": ["We find that entice is able to significantly increase Nell \u2019 s knowledge density by a factor of 7.7 at 75.5% accuracy.", "By using entice, we are able to increase Nell \u2019 s knowledge density by a factor of 7 . 7."], "ms": ["Kami mendapati bahawa entice dapat meningkatkan ketumpatan pengetahuan Nells dengan ketara dengan faktor 7.7 pada ketepatan 75.5%.", "Dengan menggunakan entice, kita dapat meningkatkan ketumpatan pengetahuan Nells dengan faktor 7.7."]}, {"en": ["For retrieving the discussion pages, we use the Java Wikipedia library, which offers efficient, Databasedriven access to the contents of Wikipedia.", "We obtain useful information from Wikipedia by the tool named Java Wikipedia library 2, which allows to access all information contained in Wikipedia."], "ms": ["Untuk mendapatkan semula halaman perbincangan, kami menggunakan perpustakaan Wikipedia Java, yang menawarkan akses yang cekap, berdasarkan pangkalan data ke kandungan Wikipedia.", "Kami mendapat maklumat berguna dari Wikipedia dengan alat yang dinamakan Java Wikipedia library 2, yang membolehkan untuk mengakses semua maklumat yang terkandung dalam Wikipedia."]}, {"en": ["Bohnet et al presented a joint approach for morphological and syntactic analysis for Morphologically rich languages, integrating additional features that Encode whether a tag is in the dictionary or not.", "In Bohnet et al, the goal is to improve Parsing accuracy for Morphologically rich languages by performing morphological and syntactic analysis jointly instead of in a pipeline."], "ms": ["Bohnet et al mengemukakan pendekatan bersama untuk analisis morfologi dan sintaktik untuk bahasa kaya Morfologi, mengintegrasikan ciri tambahan yang Mengkodkan sama ada tag berada dalam kamus atau tidak.", "Dalam Bohnet et al, matlamatnya adalah untuk meningkatkan ketepatan Penghuraian untuk bahasa kaya Morfologi dengan melakukan analisis morfologi dan sintaksis bersama dan bukannya dalam saluran paip."]}, {"en": ["On the base of Zhao and Ng, Chen and Ng further investigate their model, introducing two extensions to the Resolver, namely, novel features and zero pronoun links.", "Chen and Ng further extend the study of Zhao and Ng by proposing several novel features and introducing the Coreference links between Zps."], "ms": ["Di dasar Zhao dan Ng, Chen dan Ng menyiasat model mereka dengan lebih lanjut, memperkenalkan dua sambungan kepada Resolver, iaitu ciri novel dan pautan kata ganti sifar.", "Chen dan Ng melanjutkan lagi kajian Zhao dan Ng dengan mencadangkan beberapa ciri novel dan memperkenalkan hubungan Coreference antara Zps."]}, {"en": ["In the same space, Riezler et al develop Smt-Based query expansion methods and use them for Retrieval from FAQ pages.", "Besides, Riezler et al and Zhou et al proposed the Phrase-Based translation models for question and answer Retrieval."], "ms": ["Di ruang yang sama, Riezler et al mengembangkan kaedah pengembangan pertanyaan berasaskan Smt dan menggunakannya untuk pengambilan dari halaman FAQ.", "Selain itu, Riezler et al dan Zhou et al mencadangkan model terjemahan Berasaskan Frasa untuk soal jawab dan jawapan Retrieval."]}, {"en": ["Hyp is available for Download at Github.Com/Sdl-Research/Hyp.", "And is available for Download at Github . COM / Sdl-Research / Hyp."], "ms": ["Hyp boleh didapati untuk Muat turun di Github.Com/Sdl-Research/Hyp.", "Dan boleh didapati untuk Muat turun di Github. COM/Sdl-Research/Hip."]}, {"en": ["For our learners, we used the Na\u8302Ve Bayes implementation in the Weka machine learning Toolkit, a support vector machine , 3 and the Crf implementation in Mallet.", "Here too, we used the Weka implementation of the Na\u8302Ve Bayes model and the Svmlight implementation of the SVM."], "ms": ["Bagi pelajar kami, kami menggunakan pelaksanaan NaVe Bayes dalam Toolkit pembelajaran mesin Weka, mesin vektor sokongan, 3 dan pelaksanaan Crf di Mallet.", "Di sini juga, kami menggunakan pelaksanaan Weka model NaVe Bayes dan pelaksanaan Svmlight SVM."]}, {"en": ["In this paper, we present a statistical analysis model for coordination Disambiguation that uses the dual decomposition as a framework.", "In this method, dual decomposition is used as a framework to take advantage of both Hpsg Parsing and coordinate structure."], "ms": ["Dalam makalah ini, kami membentangkan model analisis statistik untuk koordinasi Disambiguation yang menggunakan penguraian dwi sebagai kerangka.", "Dalam kaedah ini, penguraian dwi digunakan sebagai rangka kerja untuk memanfaatkan kedua-dua Hpsg Parsing dan struktur koordinat."]}, {"en": ["The Dependencies were included in the Crf model using a relatively straightforward feature expansion scheme.", "Dependencies are incorporated into the Crf model via a (relatively) straightforward feature extraction scheme."], "ms": ["Dependensi dimasukkan dalam model Crf menggunakan skema pengembangan ciri yang agak mudah.", "Dependensi dimasukkan ke dalam model Crf melalui skema pengekstrakan ciri (relatif) yang mudah."]}, {"en": ["Phrase table pruning is the Act of removing phrase pairs from a phrase table to make it smaller, ideally removing the least useful phrases first.", "Phrase table pruning is the technique of removing ineffective phrase pairs from a phrase table to make it smaller while minimizing the performance degradation."], "ms": ["Pemangkasan jadual frasa adalah Akta mengeluarkan pasangan frasa dari jadual frasa untuk menjadikannya lebih kecil, idealnya mengeluarkan frasa yang paling tidak berguna terlebih dahulu.", "Pemangkasan jadual frasa adalah teknik mengeluarkan pasangan frasa yang tidak berkesan dari jadual frasa untuk menjadikannya lebih kecil sambil meminimumkan kemerosotan prestasi."]}, {"en": ["Identifying Long-Span Dependencies between discourse units is crucial to improve discourse Parsing performance.", "Discourse cohesion model can help better capture discourse structure information."], "ms": ["Mengenal pasti Dependensi Jangka Panjang antara unit wacana sangat penting untuk meningkatkan prestasi Parsing wacana.", "Model kohesi wacana dapat membantu menangkap maklumat struktur wacana dengan lebih baik."]}, {"en": ["In this paper, we explore the estimation of sense Priors by first calibrating the probabilities from naive Bayes.", "By using well calibrated probabilities, we are able to estimate the sense Priors effectively."], "ms": ["Dalam makalah ini, kita meneroka anggaran Priors akal dengan terlebih dahulu mengira kebarangkalian dari Bayes naif.", "Dengan menggunakan kebarangkalian yang ditentukur dengan baik, kita dapat menganggarkan rasa Priors dengan berkesan."]}, {"en": ["Morphologically rich languages (Mrl) are languages in which much of the structural information is contained at the Word-Level, leading to high level Word-Form variation.", "Morphologically rich languages (Mrl) are languages for which important information concerning the syntactic structure."], "ms": ["Bahasa kaya morfologi (Mrl) adalah bahasa di mana banyak maklumat struktur terkandung di Word-Level, yang membawa kepada variasi Word-Form peringkat tinggi.", "Bahasa kaya morfologi (Mrl) adalah bahasa yang maklumat penting mengenai struktur sintaksis."]}, {"en": ["In our experiments, we used the Kyoto University text corpus 11 and the Kyoto University web document leads corpus 12 as Japanese Treebanks.", "In our experiments, we used the Kyoto University text corpus and Kyoto University web document leads corpus as manually tagged Corpora."], "ms": ["Dalam eksperimen kami, kami menggunakan teks Universiti Kyoto corpus 11 dan dokumen web Universiti Kyoto membawa corpus 12 sebagai Treebank Jepun.", "Dalam eksperimen kami, kami menggunakan korpus teks Universiti Kyoto dan dokumen web Universiti Kyoto membawa korpus sebagai Corpora yang ditandai secara manual."]}, {"en": ["Hence a document is represented as a nested tree where each Node of the outer tree corresponds to an inner tree.", "Textual units is represented as a rooted tree whose nodes correspond to the minimum textual units."], "ms": ["Oleh itu dokumen diwakili sebagai pokok bersarang di mana setiap Node pokok luar sepadan dengan pokok dalaman.", "Unit teks diwakili sebagai pokok berakar yang nodnya sepadan dengan unit teks minimum."]}, {"en": ["Word Embeddings, as a Low-Dimensional continuous vectors of words are regarded to be an efficient representations of word Semantics.", "Word Embeddings represent each word as a Low-Dimensional vector where the similarity of vectors captures some aspect of semantic similarity of words."], "ms": ["Embeddings perkataan, sebagai vektor perkataan berterusan Low-Dimensional dianggap sebagai perwakilan yang cekap dari perkataan Semantik.", "Embedding Perkataan mewakili setiap perkataan sebagai vektor Dimensi Rendah di mana persamaan vektor menangkap beberapa aspek persamaan semantik perkataan."]}, {"en": ["Jokinen et al combine a manually built tree for main topics with an N-Gram model for topic shifts.", "Jokinen et al use a topic model based on a tree Organisation of domain knowledge to detect topic shifts."], "ms": ["Jokinen et al menggabungkan pokok yang dibina secara manual untuk topik utama dengan model N-Gram untuk peralihan topik.", "Jokinen et al menggunakan model topik berdasarkan pokok Organisasi pengetahuan domain untuk mengesan peralihan topik."]}, {"en": ["As there is no closed form solution for the maximum likelihood estimate, we resort to Iterative training via the em algorithm.", "Using the expectation maximization algorithm with Viterbi decoding, we adopt the Iterative parameter estimation procedure to solve the maximum likelihood estimation problem."], "ms": ["Oleh kerana tidak ada penyelesaian bentuk tertutup untuk anggaran kemungkinan maksimum, kami menggunakan latihan Iteratif melalui algoritma em.", "Menggunakan algoritma pemaksimalan jangkaan dengan penyahkodan Viterbi, kami menggunakan prosedur anggaran parameter Iteratif untuk menyelesaikan masalah anggaran kemungkinan maksimum."]}, {"en": ["Snow et al use syntactic path patterns as features for supervised Hyponymy and synonymy classifiers, whose training examples are derived automatically from Wordnet.", "Snow et al used dependency Parses to automatically learn such patterns, which they used to augment Wordnet with new Hypernym relations."], "ms": ["Snow et al menggunakan corak laluan sintaksis sebagai ciri untuk pengelas Hyponymy dan synonymy yang diawasi, yang contoh latihannya diperoleh secara automatik dari Wordnet.", "Snow et al menggunakan Parses dependensi untuk mempelajari corak tersebut secara automatik, yang mereka gunakan untuk menambah Wordnet dengan hubungan Hypernym baru."]}, {"en": ["In, the authors first cluster sentences into Topic-Specific scenarios, and then focus on building a Dataset of causal text spans, where each span is headed by a verb.", "Riaz and Girju propose cluster sentences into Topic-Specific scenarios, and then focus on identifying causal relations between events and building a Dataset of causal text spans headed by a verb."], "ms": ["Pada tahun ini, penulis pertama kali menyusun ayat ke dalam senario Topik-Specific, dan kemudian memberi tumpuan kepada membina Set Data span teks kausal, di mana setiap span diketuai oleh kata kerja.", "Riaz dan Girju mencadangkan ayat kluster ke dalam senario Topik-Specific, dan kemudian memberi tumpuan kepada mengenal pasti hubungan kausal antara peristiwa dan membina Dataset span teks kausal yang diketuai oleh kata kerja."]}, {"en": ["A drawback of the previous Annotation works is the limitation that only links between expressions in the same or in succeeding sentences are Annotated.", "For a dense Annotation, a major downside is the limitation that events and time expressions must be in the same or in adjacent sentences."], "ms": ["Kelemahan karya Annotasi sebelumnya adalah batasan yang hanya menghubungkan antara ungkapan dalam ayat yang sama atau dalam ayat yang berjaya Annotasi.", "Untuk Annotasi padat, kelemahan utama adalah batasan bahawa peristiwa dan ungkapan masa mesti sama atau dalam ayat bersebelahan."]}, {"en": ["In our experiments, we rely on the English portion of the Conll-2012 Dataset.", "We perform all our experiments on the English section of the Conll-2012 corpus, which is based on Ontonotes."], "ms": ["Dalam eksperimen kami, kami bergantung pada bahagian Bahasa Inggeris dari Set Data Conll-2012.", "Kami melakukan semua eksperimen kami di bahagian Bahasa Inggeris corpus Conll-2012, yang berdasarkan Ontonotes."]}, {"en": ["However, the current recursive architecture is limited by its dependence on syntactic tree.", "However their generalization on unseen text is relatively poor comparing with models that exploit syntactic tree."], "ms": ["Walau bagaimanapun, seni bina rekursif semasa terhad oleh pergantungannya pada pokok sintaksis.", "Walau bagaimanapun, generalisasi mereka pada teks yang tidak kelihatan agak buruk berbanding dengan model yang mengeksploitasi pokok sintaksis."]}, {"en": ["Although novelty mining studies have mainly been conducted on the English language, studies on the Chinese language have been performed on topic detection and tracking.", "Novelty mining studies on the Chinese language have been performed on topic detection and tracking, which identifies and collects relevant stories on certain topics."], "ms": ["Walaupun kajian perlombongan baru terutamanya telah dijalankan pada bahasa Inggeris, kajian mengenai bahasa Cina telah dilakukan pada pengesanan dan pengesanan topik.", "Kajian perlombongan novel mengenai bahasa Cina telah dilakukan mengenai pengesanan dan pengesanan topik, yang mengenal pasti dan mengumpulkan cerita yang relevan mengenai topik tertentu."]}, {"en": ["Our aim is to improve the relation extraction task by considering both the plain text and the layout.", "We investigate a new way for extracting Hypernymy relations, exploiting the text layout which expresses Hierarchical relations."], "ms": ["Matlamat kami adalah untuk meningkatkan tugas pengekstrakan hubungan dengan mempertimbangkan kedua-dua teks biasa dan susun atur.", "Kami menyiasat cara baru untuk mengekstrak hubungan Hypernymy, mengeksploitasi susun atur teks yang menyatakan hubungan Hierarki."]}, {"en": ["The promoted instances are either added to the initial seed set or used to replace it.", "Instances are chosen to be labelled depending on their similarity with the seed instances and are added in the seed set."], "ms": ["Contoh yang dipromosikan sama ada ditambah kepada set benih awal atau digunakan untuk menggantikannya.", "Jarak dipilih untuk dilabelkan bergantung pada persamaannya dengan contoh benih dan ditambahkan dalam set benih."]}, {"en": ["The detection of subjects and objects from Japanese sentences is more difficult than that from English, while it is the key process to generate correct English word orders.", "Subject and object cannot easily be identified compared to English, while their Detections are the key process to generate correct English word orders."], "ms": ["Pengesanan subjek dan objek dari ayat Jepun lebih sukar daripada bahasa Inggeris, sementara proses utama untuk menghasilkan pesanan perkataan Inggeris yang betul.", "Subjek dan objek tidak dapat dikenal pasti dengan mudah berbanding dengan bahasa Inggeris, manakala Pengesanan mereka adalah proses utama untuk menghasilkan pesanan perkataan Inggeris yang betul."]}, {"en": ["For each word Math-W-2-6-2-17, we construct a vector Math-W-2-6-2-24 of size Math-W-2-6-2-27, where Math-W-2-6-2-30 is the size of the lexicon.", "Where Math-W-3-3-0-1 is the number of words in the corpus, and Math-W-3-3-0-12 is a predetermined window size."], "ms": ["Untuk setiap perkataan Math-W-2-6-2-17, kita membina vektor Math-W-2-6-2-24 saiz Math-W-2-6-2-27, di mana Math-W-2-6-2-30 adalah saiz leksikon.", "Di mana Math-W-3-3-0-1 adalah bilangan perkataan dalam korpus, dan Math-W-3-3-0-12 adalah saiz tetingkap yang telah ditentukan."]}, {"en": ["Even though they are related tasks, Multilingual Skip-Gram and Cross-Lingual sentence similarity models are always in a conflict to modify the shared word Embeddings according to their objectives.", "Since our Multilingual Skip-Gram and Cross-Lingual sentence similarity models are trained jointly, they can inform each other through the shared word Embedding layer."], "ms": ["Walaupun mereka adalah tugas yang berkaitan, model persamaan ayat Multilingual Skip-Gram dan Cross-Lingual sentiasa dalam konflik untuk mengubah perkataan Embeddings yang dikongsi mengikut objektif mereka.", "Oleh kerana model persamaan ayat Multilingual Skip-Gram dan Cross-Lingual kami dilatih bersama, mereka dapat saling memberitahu melalui lapisan Embedding kata yang dikongsi."]}, {"en": ["Alternative expressions of the same meaning, and the degree of their semantic similarity has proven useful for a wide variety of natural language processing applications.", "The ability to identify paraphrase, in which a sentences express the same meaning of another one but with different words, has proven useful for a wide variety of natural language processing applications."], "ms": ["Ungkapan alternatif dengan makna yang sama, dan tahap persamaan semantik mereka telah terbukti berguna untuk pelbagai aplikasi pemprosesan bahasa semula jadi.", "Keupayaan untuk mengenal pasti parafrasa, di mana ayat menyatakan makna yang sama dengan yang lain tetapi dengan kata-kata yang berbeza, telah terbukti berguna untuk pelbagai aplikasi pemprosesan bahasa semula jadi."]}, {"en": ["To address the issue of lack of data, Zeng et al incorporate Multi-Instance learning with a Piece-Wise Convolutional neural network to extract relations in distantly supervised data.", "Particularly, Zeng et al proposed a piecewise Convolutional neural network architecture, which can build an Extractor based on distant supervision."], "ms": ["Untuk mengatasi masalah kekurangan data, Zeng et al menggabungkan pembelajaran Multi-Instance dengan rangkaian neural Konvolutional Piece-Wise untuk mengekstrak hubungan dalam data yang diselia jauh.", "Terutamanya, Zeng et al mencadangkan seni bina rangkaian neural Convolutional yang berbentuk bulat, yang boleh membina Extractor berdasarkan pengawasan jauh."]}, {"en": ["Word ordering is a fundamental problem in Nlp and has been shown to be Np-Complete in discourse ordering (Cite-P-16-1-1) and in Smt with arbitrary word reordering (Cite-P-16-3-6).", "Word ordering is the abstract language modeling task of making a grammatical sentence by ordering a bag of words (white , 2004; Zhang and Clark , 2015; de Gispert et al . , 2014; Bohnet et al . , 2010; Filippova and Strube , 2007; he et al . , 2009), which is practically relevant to Text-To-Text applications such as summarization (Cite-P-11-3-2) and machine translation (Cite-P-11-1-1)."], "ms": ["Pengaturan perkataan adalah masalah asas dalam Nlp dan telah ditunjukkan sebagai Np-Complete dalam susunan wacana (Cite-P-16-1-1) dan dalam Smt dengan penyusunan semula perkataan sewenang-wenangnya (Cite-P-16-3-6).", "Pengaturan perkataan adalah tugas pemodelan bahasa abstrak untuk membuat ayat tatabahasa dengan memerintahkan beg kata (putih, 2004; Zhang dan Clark, 2015; de Gispert et al., 2014; Bohnet et al., 2010; Filippova dan Strube, 2007; dia et al., 2009), yang praktikalnya berkaitan dengan aplikasi Teks-Ke-Teks seperti ringkasan (Cite-P-11-3-2) dan terjemahan mesin (Cite-P-11-1-1)."]}, {"en": ["Balamurali et al, have shown that senses are better features than words for In-Domain SA.", "Balamurali et al, have shown that use of senses in places of words improves the performance of Indomain SA significantly."], "ms": ["Balamurali et al, telah menunjukkan bahawa deria adalah ciri yang lebih baik daripada kata-kata untuk In-Domain SA.", "Balamurali et al, telah menunjukkan bahawa penggunaan deria di tempat-tempat kata meningkatkan prestasi Indomain SA dengan ketara."]}, {"en": ["This domain is a simplification of the miniature language acquisition task proposed by Feldman et al.", "We have used a simplified version of the miniature language acquisition task proposed by Feldman et al."], "ms": ["Domain ini merupakan penyederhanaan tugas pemerolehan bahasa miniatur yang dicadangkan oleh Feldman et al.", "Kami telah menggunakan versi ringkas tugas pemerolehan bahasa miniatur yang dicadangkan oleh Feldman et al."]}, {"en": ["Results demonstrate the effectiveness and generality of our approach.", "Experimental studies demonstrate the effectiveness of our approach."], "ms": ["Hasil menunjukkan keberkesanan dan generaliti pendekatan kami.", "Kajian eksperimen menunjukkan keberkesanan pendekatan kami."]}, {"en": ["With the extended Itg constraints the coverage improves significantly on both tasks.", "Itg constraints are not sufficient on the Canadian Hansards task."], "ms": ["Dengan kekangan Itg yang dilanjutkan, liputan bertambah baik dengan ketara pada kedua-dua tugas.", "Kekangan Itg tidak mencukupi pada tugas Hansards Kanada."]}, {"en": ["Pgf is a simple \u201c machine language \u201d, to which the much richer Gf source language is compiled by the Gf grammar compiler.", "Pgf is the Backend format to which grammatical framework (Gf, Ranta , 2004) Grammars are compiled."], "ms": ["Pgf adalah bahasa mesin mudah, di mana bahasa sumber Gf yang lebih kaya disusun oleh penyusun tatabahasa Gf.", "Pgf adalah format Backend yang mana rangka kerja tatabahasa (Gf, Ranta, 2004) disusun."]}, {"en": ["Elsner and Charniak, Elsner and Charniak are presenting a combination of local coherence models initially provided for Monologues showing that those models can satisfactorily model local coherence in chat dialogues.", "Elsner and Charniak, Elsner and Charniak present a combination of local coherence models initially provided for Monologues showing that those models can satisfactorily model local coherence in chat dialogues."], "ms": ["Elsner dan Charniak, Elsner dan Charniak mempersembahkan gabungan model koheren tempatan yang pada mulanya disediakan untuk Monologues yang menunjukkan bahawa model-model tersebut dapat memuaskan model koheren tempatan dalam dialog sembang.", "Elsner dan Charniak, Elsner dan Charniak mempersembahkan gabungan model koheren tempatan yang pada mulanya disediakan untuk Monologues yang menunjukkan bahawa model-model tersebut dapat memuaskan model koheren tempatan dalam dialog sembang."]}, {"en": ["We enabled such large-scale clustering by Parallelizing the clustering algorithm, and we demonstrate the usefulness of the Gazetteer constructed.", "By Parallelizing the clustering algorithm, we successfully constructed a cluster Gazetteer with up to 500 , 000 entries."], "ms": ["Kami membolehkan pengelompokan berskala besar sedemikian dengan melumpuhkan algoritma pengelompokan, dan kami menunjukkan kegunaan Gazetteer yang dibina.", "Dengan parallelizing algoritma clustering, kami berjaya membina Gazetteer cluster dengan sehingga 500, 000 penyertaan."]}, {"en": ["Therefore, we build a ranking model which successfully mimics human judgments using previously proposed automatic measures.", "Using previously proposed automatic measures, we find that we cannot reliably predict human ratings."], "ms": ["Oleh itu, kami membina model ranking yang berjaya meniru penghakiman manusia menggunakan langkah automatik yang dicadangkan sebelum ini.", "Menggunakan langkah-langkah automatik yang dicadangkan sebelum ini, kita mendapati bahawa kita tidak boleh meramalkan penilaian manusia dengan pasti."]}, {"en": ["Briscoe et al and Copestake illustrate some lexical entries with the Qualia structure following Pustejovsky and Aniek, Pustejovsky , 1989 Pustejovsky , 1991.", "We Encode a relatively rich lexical semantic structure for nouns based on the notion of Qualia structure, described by Pustejovsky , 1989 Pustejovsky , 1991."], "ms": ["Briscoe et al dan Copestake menggambarkan beberapa entri leksikal dengan struktur Qualia berikut Pustejovsky dan Aniek, Pustejovsky, 1989 Pustejovsky, 1991.", "Kami Mengkod struktur semantik leksikal yang agak kaya untuk kata nama berdasarkan tanggapan struktur Qualia, yang dijelaskan oleh Pustejovsky, 1989 Pustejovsky, 1991."]}, {"en": ["Le and Mikolov presented the paragraph vector algorithm to learn a Fixed-Size feature representation for documents.", "Le and Mikolov introduce paragraph vector to learn document representation from Semantics of words."], "ms": ["Le dan Mikolov membentangkan algoritma vektor perenggan untuk mempelajari perwakilan ciri Tetap Saiz untuk dokumen.", "Le dan Mikolov memperkenalkan vektor perenggan untuk mempelajari perwakilan dokumen dari Semantik perkataan."]}, {"en": ["We introduce a Polylingual topic model that discovers topics aligned across multiple languages.", "On these collections, it is necessary to have topic models that are aligned across languages."], "ms": ["Kami memperkenalkan model topik Polilingual yang menemui topik yang diselaraskan di pelbagai bahasa.", "Pada koleksi ini, adalah perlu untuk mempunyai model topik yang diselaraskan merentasi bahasa."]}, {"en": ["In the Parliament domain, this means (and is translated as) \u201c report . \u201d", "In the Parliament domain, this means (and is translated as) \u201c report."], "ms": ["Dalam domain Parlimen, ini bermakna (dan diterjemahkan sebagai) laporan.", "Dalam domain Parlimen, ini bermakna (dan diterjemahkan sebagai) laporan."]}, {"en": ["Hpsg is a syntactic theory based on Lexicalized grammar formalism.", "The grammar matrix is couched within the Head-Driven phrase structure grammar framework."], "ms": ["Hpsg adalah teori sintaksis berdasarkan formalisme tatabahasa Lexicalized.", "Matriks tatabahasa terletak dalam rangka kerja tatabahasa struktur frasa Head-Driven."]}, {"en": ["Stolcke et al apply a somewhat more complicated Hmm method to the switchboard corpus, one that exploits both the order of words within utterances and the order of dialogue acts over utterances.", "As an example of these probabilistic methods, Stolcke et al apply a Hmm method to the switchboard corpus, one that exploits both the order of words within utterances and the order of dialogue acts over utterances."], "ms": ["Stolcke et al menerapkan kaedah Hmm yang agak rumit pada korpus papan suis, yang mengeksploitasi kedua-dua susunan kata dalam ucapan dan susunan dialog bertindak atas ucapan.", "Sebagai contoh kaedah probabilistik ini, Stolcke et al menerapkan kaedah Hmm ke korpus papan suis, yang mengeksploitasi kedua-dua susunan kata dalam ucapan dan susunan dialog bertindak atas ucapan."]}, {"en": ["Table 1: different types of Disfluencies.", "Table 9: F-Score of different types of Reparandums."], "ms": ["Jadual 1: Pelbagai jenis Pendedahan.", "Jadual 9: F-Score pelbagai jenis Reparandums."]}, {"en": ["Experiment results reveal that our weighted evaluation Metrics gives more reasonable and distinguishable scores and Correlates well with human judgement.", "Evaluation shows that the proposed metric gives more reasonable and distinguishable scores and Correlates well with human judgement."], "ms": ["Hasil eksperimen mendedahkan bahawa Metrik penilaian berwajaran kami memberikan skor yang lebih munasabah dan dapat dibezakan dan Berkorelasi dengan baik dengan penilaian manusia.", "Penilaian menunjukkan bahawa metrik yang dicadangkan memberikan skor yang lebih munasabah dan dapat dibezakan dan Berkorelasi dengan baik dengan penilaian manusia."]}, {"en": ["Rst tells us that sentences with discourse relations are related to each other and can help us answer certain kinds of questions.", "Previous works in Qa have shown that these relations can help us answer certain kinds of questions."], "ms": ["Rst memberitahu kita bahawa ayat dengan hubungan wacana saling berkaitan dan dapat membantu kita menjawab beberapa jenis soalan.", "Kerja-kerja terdahulu di Qa telah menunjukkan bahawa hubungan ini dapat membantu kita menjawab beberapa jenis soalan."]}, {"en": ["We design our model for Ssl as a natural Semisupervised extension of conventional supervised conditional random fields.", "We solve this sequence tagging problem using the Mallet implementation of conditional random fields."], "ms": ["Kami merancang model kami untuk Ssl sebagai lanjutan Semisupervised semula jadi medan rawak bersyarat yang diawasi konvensional.", "Kami menyelesaikan masalah penandaan urutan ini menggunakan pelaksanaan Mallet medan rawak bersyarat."]}, {"en": ["Categorial grammar provides a functional approach to Lexicalised grammar, and so can be thought of as defining a syntactic Calculus.", "Categorial grammar provides a functional approach to Lexicalised grammar, and so, can be thought of as defining a syntactic Calculus."], "ms": ["Tatabahasa Categorial menyediakan pendekatan fungsional kepada tatabahasa Lexicalised, dan boleh dianggap sebagai menentukan Kalkulus sintaksis.", "Tatabahasa tatabahasa memberikan pendekatan fungsional kepada tatabahasa Lexicalised, dan oleh itu, boleh dianggap sebagai menentukan Kalkulus sintaksis."]}, {"en": ["Several studies have shown encouraging results for Wsd based on parallel Corpora.", "Parallel or comparable Corpora have also been explored for Unsuperwised Wsd."], "ms": ["Beberapa kajian telah menunjukkan hasil yang menggalakkan untuk Wsd berdasarkan Corpora selari.", "Parallel atau Corpora yang setanding juga telah diterokai untuk Wsd Unsuperwised."]}, {"en": ["We utilize a maximum entropy model to design the basic Classifier for Wsd and TC tasks.", "We utilize maximum entropy model to design the basic Classifier used in active learning for Wsd and TC tasks."], "ms": ["Kami menggunakan model entropi maksimum untuk mereka bentuk Klasifier asas untuk tugas Wsd dan TC.", "Kami menggunakan model entropi maksimum untuk mereka bentuk Klasifier asas yang digunakan dalam pembelajaran aktif untuk tugas Wsd dan TC."]}, {"en": ["In recent years, neural LMS have become the prominent class of language modeling and have established state-of-the-art results on almost all sufficiently large benchmarks.", "In recent work, recurrent neural network language models have produced Stateof-The-Art Perplexities in Sentence-Level language modeling, far below those of traditional N-Gram models."], "ms": ["Dalam tahun-tahun kebelakangan ini, LMS saraf telah menjadi kelas pemodelan bahasa yang menonjol dan telah mewujudkan keputusan terkini pada hampir semua penanda aras yang cukup besar.", "Dalam karya baru-baru ini, model bahasa rangkaian saraf berulang telah menghasilkan Keplexities Stateof-The-Art dalam pemodelan bahasa Tahap Sentence, jauh di bawah model N-Gram tradisional."]}, {"en": ["One such work is proposed by Scaiella et al which uses Wikipedia articles to develop a Bipartite graph and employs spectral clustering over it to discover relevant clusters.", "One important work is proposed by who use Wikipedia articles to build a Bipartite graph and apply spectral clustering over it to discover relevant clusters."], "ms": ["Satu karya sedemikian dicadangkan oleh Scaiella et al yang menggunakan rencana Wikipedia untuk membangunkan graf Bipartite dan menggunakan kluster spektrum di atasnya untuk menemui kluster yang berkaitan.", "Satu kerja penting dicadangkan oleh siapa yang menggunakan rencana Wikipedia untuk membina graf Bipartite dan menggunakan kluster spektrum di atasnya untuk mencari kluster yang berkaitan."]}, {"en": ["Math word problems form a natural abstraction to a lot of these quantitative reasoning problems.", "Math word problems form a natural abstraction to a range of quantitative reasoning problems, such as understanding financial news, sports."], "ms": ["Masalah perkataan matematik membentuk abstraksi semula jadi kepada banyak masalah penalaran kuantitatif ini.", "Masalah perkataan matematik membentuk abstraksi semula jadi kepada pelbagai masalah penalaran kuantitatif, seperti memahami berita kewangan, sukan."]}, {"en": ["Cite-P-19-5-7 proposed a dynamic Distance-Margin model to learn term Embeddings that capture properties of Hypernymy.", "Cite-P-19-5-7 proposed a supervised method to learn term Embeddings for Hypernymy."], "ms": ["Cite-P-19-5-7 mencadangkan model dinamik Jarak-Margin untuk mempelajari istilah Embeddings yang menangkap sifat Hypernymy.", "Cite-P-19-5-7 mencadangkan kaedah yang diawasi untuk mempelajari istilah Embeddings untuk Hypernymy."]}, {"en": ["It was shown to correlate significantly with human judgments and behave similarly to BLEU.", "This measure has been shown to correlate well with human judgements."], "ms": ["Ia telah ditunjukkan untuk berkorelasi dengan ketara dengan penghakiman manusia dan berkelakuan sama seperti BLEU.", "Kaedah ini telah terbukti dapat dikaitkan dengan baik dengan penilaian manusia."]}, {"en": ["The string regeneration can also be viewed as a natural language realization problem.", "Finally, the string regeneration problem can be viewed as a constraint satisfaction approach."], "ms": ["Penjanaan semula rentetan juga boleh dilihat sebagai masalah kesedaran bahasa semula jadi.", "Akhirnya, masalah regenerasi rentetan boleh dilihat sebagai pendekatan kepuasan kekangan."]}, {"en": ["We show that a \u201c cluster and label \u201d strategy relying on these two proposed components generates training data of good purity.", "In this paper, we explore a \u201c cluster and label \u201d strategy to reduce the human Annotation effort needed to generate subjectivity."], "ms": ["Kami menunjukkan bahawa strategi kluster dan label bergantung kepada dua komponen yang dicadangkan ini menghasilkan data latihan kesucian yang baik.", "Dalam kertas kerja ini, kami meneroka strategi kluster dan label untuk mengurangkan usaha Annotasi manusia yang diperlukan untuk menjana subjektiviti."]}, {"en": ["Contractor et al , 2010, used an mt model as well but the focus of his work is to generate an Unsupervised method to clean noisy text in this domain.", "Contractor et al used an mt model as well but the focus of their work is to utilize an Unsupervised method to clean noisy text."], "ms": ["Kontraktor et al, 2010, menggunakan model mt juga tetapi tumpuan kerjanya adalah untuk menghasilkan kaedah yang tidak diawasi untuk membersihkan teks bising dalam domain ini.", "Kontraktor et al menggunakan model mt juga tetapi fokus kerja mereka adalah menggunakan kaedah yang tidak diawasi untuk membersihkan teks bising."]}, {"en": ["Lord et al analyzed the language style synchrony between counselors and clients.", "Lord et al , 2015B) analyzed the language style synchrony between therapist and client during MI encounters."], "ms": ["Lord et al menganalisis penyegerakan gaya bahasa antara kaunselor dan pelanggan.", "Lord et al, 2015B) menganalisis penyegerakan gaya bahasa antara ahli terapi dan pelanggan semasa pertemuan MI."]}, {"en": ["In this paper, we propose a weakly supervised learning framework to mine fine-grained and Multiple-Typed relations from Chinese Ugcs.", "In this work, we further propose a word Embedding based model that consider the word formation of Ugcs to improve the prediction."], "ms": ["Dalam makalah ini, kami mencadangkan kerangka pembelajaran yang diawasi dengan lemah untuk melombong hubungan halus dan Multi-Typed dari Ugcs Cina.", "Dalam kerja ini, kami mencadangkan model berasaskan Embedding perkataan yang mempertimbangkan pembentukan perkataan Ugcs untuk meningkatkan ramalan."]}, {"en": ["Bethard et al and Kim and Hovy explore the usefulness of semantic roles provided by Framenet for both opinion holder and opinion target extraction.", "Kim and Hovy and Bethard et al explore the usefulness of semantic roles provided by Framenet for both opinion holder and opinion target extraction."], "ms": ["Bethard et al dan Kim dan Hovy meneroka kegunaan peranan semantik yang disediakan oleh Framenet untuk kedua-dua pemegang pendapat dan pengekstrakan sasaran pendapat.", "Kim dan Hovy dan Bethard et al meneroka kegunaan peranan semantik yang disediakan oleh Framenet untuk kedua-dua pemegang pendapat dan pengekstrakan sasaran pendapat."]}, {"en": ["In this paper we propose an algorithm that utilizes Transitivity constraints to learn a Globally-Optimal set of Entailment rules for typed Predicates.", "In this paper we developed an algorithm that uses global optimization to learn Widely-Applicable Entailment rules between typed Predicates."], "ms": ["Dalam makalah ini kami mencadangkan algoritma yang menggunakan kekangan Transitivity untuk mempelajari satu set peraturan Entailment Global-Optimal untuk Predicates yang ditaip.", "Dalam makalah ini kami mengembangkan algoritma yang menggunakan pengoptimuman global untuk mempelajari peraturan Entailment yang boleh disesuaikan antara Predicates yang ditaip."]}, {"en": ["In this paper, we have proposed a novel neural belief tracking (Nbt) framework designed to overcome current obstacles to deploying dialogue systems in Real-World dialogue domains.", "This work proposes a framework Better-Suited to Scaling belief tracking models for deployment in Real-World dialogue systems operating over sophisticated application domains."], "ms": ["Dalam makalah ini, kami telah mencadangkan rangka kerja pengesanan kepercayaan saraf (Nbt) novel yang direka untuk mengatasi halangan semasa untuk menggunakan sistem dialog dalam domain dialog Dunia Nyata.", "Kerja ini mencadangkan rangka kerja yang lebih baik untuk Scaling model penjejakan kepercayaan untuk penyebaran dalam sistem dialog Dunia Nyata yang beroperasi di atas domain aplikasi yang canggih."]}, {"en": ["We then use an extension of the Lexrank algorithm to rank sentences.", "We then use extended Lexrank algorithm to rank the sentences."], "ms": ["Kami kemudian menggunakan lanjutan algoritma Lexrank untuk memberi peringkat ayat.", "Kami kemudian menggunakan algoritma Lexrank yang dilanjutkan untuk memberi peringkat ayat."]}, {"en": ["The hypothesis is that domain labels (such as medicine, architecture and sport) provide a natural and powerful way to establish semantic relations among word senses, which can be profitably used during the Disambiguation process.", "Domain labels, such as medicine, architecture and sport provide a natural way to establish semantic relations among word senses, which can be profitably used during the Disambiguation process."], "ms": ["Hipotesisnya adalah bahawa label domain (seperti perubatan, seni bina dan sukan) menyediakan cara semula jadi dan kuat untuk mewujudkan hubungan semantik di antara deria perkataan, yang boleh digunakan dengan menguntungkan semasa proses ambiguasi.", "Label domain, seperti perubatan, seni bina dan sukan menyediakan cara semula jadi untuk mewujudkan hubungan semantik di antara deria perkataan, yang boleh digunakan dengan menguntungkan semasa proses ambiguasi."]}, {"en": ["To begin, all state SETS are Initialized to empty and the initial state Math-W-2-3-9-140 is put into so; here _1_Is the End-Of-Input marker.", "To begin, all state SETS are Initialized to empty and the initial state Math-W-2-3-9-140 is put into."], "ms": ["Untuk memulakan, semua SETS negeri Dimulakan kosong dan Math-W-2-3-9-140 keadaan awal dimasukkan ke dalam; di sini _1_Adakah penanda Akhir-Of-Input.", "Untuk memulakan, semua SETS negeri Dimulakan kosong dan Math-W-2-3-9-140 keadaan awal dimasukkan ke dalam."]}, {"en": ["It is standard practice to write English language specifications for input formats.", "Input format specifications are almost always described in natural languages, with these specifications."], "ms": ["Ia adalah amalan standard untuk menulis spesifikasi bahasa Inggeris untuk format input.", "Spesifikasi format input hampir selalu diterangkan dalam bahasa semula jadi, dengan spesifikasi ini."]}, {"en": ["Particularly, Zeng et al proposed a piecewise Convolutional neural network architecture, which can build an Extractor based on distant supervision.", "Recently, Zeng et al attempt to connect neural networks with distant supervision following the Expressed-At-Least-Once assumption."], "ms": ["Terutamanya, Zeng et al mencadangkan seni bina rangkaian neural Convolutional yang berbentuk bulat, yang boleh membina Extractor berdasarkan pengawasan jauh.", "Baru-baru ini, Zeng et al cuba menghubungkan rangkaian saraf dengan pengawasan jauh berikutan andaian Expressed-At-Least-Once."]}, {"en": ["Popescu and Etzioni proposed a relaxed labeling approach to utilize linguistic rules for opinion polarity detection.", "Popescu and Etzioni proposed a relaxation labeling approach to utilize linguistic rules for opinion polarity detection."], "ms": ["Popescu dan Etzioni mencadangkan pendekatan pelabelan santai untuk menggunakan peraturan linguistik untuk pengesanan polariti pendapat.", "Popescu dan Etzioni mencadangkan pendekatan pelabelan relaksasi untuk menggunakan peraturan linguistik untuk pengesanan polariti pendapat."]}, {"en": ["The Fisher kernel is one of the best known kernels belonging to the class of probability model based kernels.", "The Fisher kernel for structured classification is a trivial generalization of one of the best known Data-Defined kernels for Binary classification."], "ms": ["Kernel Fisher adalah salah satu kernel yang paling terkenal yang tergolong dalam kelas kernel berasaskan model kebarangkalian.", "Kernel Fisher untuk pengelasan berstruktur adalah generalisasi remeh salah satu kernel Data-Defined yang paling terkenal untuk pengelasan binari."]}, {"en": ["The feature weights are tuned using Pairwise ranking optimization.", "Feature weights are tuned using Pairwise ranking optimization on the Mt04 benchmark."], "ms": ["Berat ciri ditala menggunakan pengoptimuman kedudukan Pairwise.", "Berat ciri ditala menggunakan pengoptimuman kedudukan Pairwise pada penanda aras Mt04."]}, {"en": ["This task usually requires aspect Segmentation, followed by prediction or summarization.", "This task usually requires Aspect-Related text Segmentation, followed by prediction or summarization."], "ms": ["Tugas ini biasanya memerlukan Segmentasi aspek, diikuti dengan ramalan atau ringkasan.", "Tugas ini biasanya memerlukan Segmentasi teks Berhubung Aspek, diikuti dengan ramalan atau ringkasan."]}, {"en": ["Latent semantic analysis (LSA) is a familiar technique that employs a Word-By-Document Vsm (Cite-P-11-1-5).", "Latent semantic analysis (LSA) is a mathematical technique used in natural language processing for finding complex and hidden relations of meaning among words and the various contexts in which they are found (Landauer and Dumais , 1997; Landauer et al , 1998)."], "ms": ["Analisis semantik laten (LSA) adalah teknik biasa yang menggunakan Vsm Word-By-Document (Cite-P-11-1-5).", "Analisis semantik laten (LSA) adalah teknik matematik yang digunakan dalam pemprosesan bahasa semula jadi untuk mencari hubungan makna yang kompleks dan tersembunyi di antara perkataan dan pelbagai konteks di mana mereka dijumpai (Landauer dan Dumais, 1997; Landauer et al, 1998)."]}, {"en": ["Neubig et al present a Bottom-Up method for inducing a Preorder for Smt by training a Discriminative model to minimize the loss function on the Hand-Aligned corpus.", "Neubig et al present a Discriminative Parser using the derivations of tree structures as underlying variables from word alignment with the parallel corpus."], "ms": ["Neubig et al membentangkan kaedah Bottom-Up untuk mendorong Preorder untuk Smt dengan melatih model Diskriminatif untuk meminimumkan fungsi kehilangan pada korpus Hand-Aligned.", "Neubig et al mempersembahkan Penghurai Diskriminatif menggunakan terbitan struktur pokok sebagai pembolehubah asas dari penjajaran perkataan dengan korpus selari."]}, {"en": ["We run Parfda Smt experiments using Moses in all language pairs in Wmt15 and obtain Smt performance close to the top constrained Moses systems.", "We run parallel Fda5 Smt experiments using Moses in all language pairs in Wmt14 and obtain Smt performance close to the top constrained Moses systems training using all of the training material."], "ms": ["Kami menjalankan eksperimen Parfda Smt menggunakan Musa dalam semua pasangan bahasa dalam Wmt15 dan mendapatkan prestasi Smt berhampiran dengan sistem Musa yang terkekang atas.", "Kami menjalankan eksperimen Fda5 Smt selari menggunakan Musa dalam semua pasangan bahasa dalam Wmt14 dan mendapatkan prestasi Smt berhampiran dengan latihan sistem Moses yang terkekang atas menggunakan semua bahan latihan."]}, {"en": ["This work was then extended by to create an Unsupervised noisy channel approach using probabilistic models for common abbreviation types and choosing the English word with the highest probability after combining the models.", "Cook and Stevenson extend this work to create an Unsuper-Vised noisy channel approach using probabilistic models for common abbreviation types and choosing the English word with the highest probability after combining the models."], "ms": ["Kerja ini kemudiannya dilanjutkan dengan mewujudkan pendekatan saluran bising yang tidak diawasi menggunakan model probabilistik untuk jenis singkatan biasa dan memilih perkataan Inggeris dengan kebarangkalian tertinggi selepas menggabungkan model.", "Cook dan Stevenson melanjutkan kerja ini untuk mencipta pendekatan saluran bising Unsuper-Vised menggunakan model probabilistik untuk jenis singkatan biasa dan memilih perkataan Inggeris dengan kebarangkalian tertinggi selepas menggabungkan model."]}, {"en": ["Our model converts the decoding order problem into a sequence labeling problem, I.E . A tagging task.", "By our method, the reordering problem is converted into a sequence labeling problem."], "ms": ["Model kami menukar masalah pesanan penyahkodan menjadi masalah pelabelan urutan, I.E. Tugas penandaan.", "Dengan kaedah kami, masalah penyusunan semula ditukar menjadi masalah pelabelan urutan."]}, {"en": ["Finally, we made use of examples from the DSO corpus and Semcor as part of our training data.", "We gathered training examples from parallel Corpora, Semcor, and the DSO corpus."], "ms": ["Akhirnya, kami menggunakan contoh dari korpus DSO dan Semcor sebagai sebahagian daripada data latihan kami.", "Kami mengumpulkan contoh latihan dari Corpora selari, Semcor, dan korpus DSO."]}, {"en": ["On sentences of length 40, our system achieves an F-Score of 89.0%, a 36% relative reduction in error over a Generative baseline.", "On sentences of length 40, our system achieves an F-Score of 89 . 0%, a 36% relative reduction in error."], "ms": ["Pada ayat panjang 40, sistem kami mencapai F-Score sebanyak 89.0%, pengurangan relatif 36% dalam kesilapan berbanding garis dasar Generatif.", "Pada ayat panjang 40, sistem kami mencapai F-Score sebanyak 89.0%, pengurangan relatif 36% dalam kesilapan."]}, {"en": ["Bleu is a widely accepted baseline measure of mt quality at the system level and, as such, is an obvious choice for a baseline adequacy metric.", "Bleu is essentially a Precision-Based metric and is currently the standard metric for automatic evaluation of mt performance."], "ms": ["Bleu adalah ukuran asas kualiti mt yang diterima secara meluas di peringkat sistem dan, oleh itu, adalah pilihan yang jelas untuk metrik kecukupan asas.", "Bleu pada dasarnya adalah metrik berasaskan ketepatan dan kini merupakan metrik standard untuk penilaian automatik prestasi mt."]}, {"en": ["On a data set composed of 1.5 million citations extracted with Pubmed, our best model obtains an increase of 28% for map and nearly 50% for P @ 5 over the classical language modeling approach.", "On a collection of 1 . 5 million documents and 423 queries, our method was found to lead to an improvement of 28% in map and 50% in P @ 5, as compared to the state-of-the-art method."], "ms": ["Pada set data yang terdiri daripada 1.5 juta petikan yang diekstrak dengan Pubmed, model terbaik kami memperoleh peningkatan sebanyak 28% untuk peta dan hampir 50% untuk P @ 5 berbanding pendekatan pemodelan bahasa klasik.", "Pada koleksi 1.5 juta dokumen dan 423 pertanyaan, kaedah kami didapati membawa kepada peningkatan 28% dalam peta dan 50% dalam P @ 5, berbanding dengan kaedah canggih."]}, {"en": ["It is used to support semantic analyses in Hpsg English grammar -Erg, but also in other grammar Formalisms like LFG.", "It is used to support semantic analyses in the English Hpsg grammar Erg, but also in other grammar Formalisms like LFG."], "ms": ["Ia digunakan untuk menyokong analisis semantik dalam tatabahasa bahasa Inggeris Hpsg -Erg, tetapi juga dalam tatabahasa lain Formalisme seperti LFG.", "Ia digunakan untuk menyokong analisis semantik dalam tatabahasa Hpsg bahasa Inggeris Erg, tetapi juga dalam tatabahasa lain Formalisme seperti LFG."]}, {"en": ["Overall, there is a large body of work in the linguistics literature that argues that paraphrases are not restricted to strict synonymy.", "Overall, this is a difficult task even for human Translators."], "ms": ["Secara keseluruhan, terdapat satu badan kerja yang besar dalam kesusasteraan linguistik yang berpendapat bahawa parafrasa tidak terhad kepada sinonim yang ketat.", "Secara keseluruhan, ini adalah tugas yang sukar walaupun untuk penterjemah manusia."]}, {"en": ["However, as illustrated in figure 1, source and target word Embeddings are at the two ends of a long information processing procedure.", "Source and target words are at the two ends of a long information processing procedure, Mediated by hidden States."], "ms": ["Walau bagaimanapun, seperti yang digambarkan dalam angka 1, sumber dan perkataan sasaran Embeddings berada di dua hujung prosedur pemprosesan maklumat yang panjang.", "Kata sumber dan sasaran berada di dua hujung prosedur pemprosesan maklumat yang panjang, yang dimediasi oleh Negara tersembunyi."]}, {"en": ["For large scale document level alignment, Uszkoreit et al, proposed a distributed system that reliably mines parallel text from large Corpora.", "Uszkoreit et al describe a large-scale parallel document mining method that involves translating all source documents into English then using N-Gram matching through multiple scoring steps."], "ms": ["Untuk penjajaran tahap dokumen berskala besar, Uszkoreit et al, mencadangkan sistem yang diedarkan yang boleh dipercayai melombong teks selari dari Corpora besar.", "Uszkoreit et al menerangkan kaedah perlombongan dokumen selari berskala besar yang melibatkan menerjemahkan semua dokumen sumber ke dalam bahasa Inggeris kemudian menggunakan pemadanan N-Gram melalui beberapa langkah pemarkahan."]}, {"en": ["In this paper, we present the details of training a global lexical selection model using classification techniques and sentence reconstruction models using Permutation Automata.", "In this paper, we present a novel approach to lexical selection where the target words are associated with the entire source sentence (global)."], "ms": ["Dalam makalah ini, kami membentangkan perincian latihan model pemilihan leksikal global menggunakan teknik pengelasan dan model pembinaan semula ayat menggunakan Permutation Automata.", "Dalam makalah ini, kami membentangkan pendekatan novel untuk pemilihan leksikal di mana kata-kata sasaran dikaitkan dengan keseluruhan ayat sumber (global)."]}, {"en": ["Several methods have been proposed, mainly in the context of product review mining.", "Several product feature extraction techniques have been proposed in the literatures."], "ms": ["Beberapa kaedah telah dicadangkan, terutamanya dalam konteks perlombongan ulasan produk.", "Beberapa teknik pengekstrakan ciri produk telah dicadangkan dalam kesusasteraan."]}, {"en": ["We studied open Ie\u00a1\u00afS output compared with other dominant structures, highlighting their main differences.", "We quantitatively evaluate the use of open Ie output against other dominant structures."], "ms": ["Kami mengkaji output Ie S terbuka berbanding dengan struktur dominan lain, menonjolkan perbezaan utama mereka.", "Kami secara kuantitatif menilai penggunaan output Ie terbuka terhadap struktur dominan lain."]}, {"en": ["This Zero-Extension is known to preserve positive Definiteness.", "This function is a Convolution kernel, which is proven to be positive definite."], "ms": ["Sifar-Extension ini dikenali untuk mengekalkan Definisi positif.", "Fungsi ini adalah kernel konvolusi, yang terbukti positif."]}, {"en": ["Such methods are highly Scalable and have been applied in information Retrieval, large-scale Taxonomy induction, and knowledge acquisition.", "These representations can be used as features or inputs, which are widely employed in information Retrieval, document classification and other Nlp tasks."], "ms": ["Kaedah sedemikian sangat Skala dan telah digunakan dalam pengambilan maklumat, induksi Taksonomi berskala besar, dan pemerolehan pengetahuan.", "Perwakilan ini boleh digunakan sebagai ciri atau input, yang digunakan secara meluas dalam pengambilan maklumat, pengelasan dokumen dan tugas Nlp lain."]}, {"en": ["Articles from current week are clustered Monolingually several times a day.", "Articles from current week are clustered separately in currently 5 languages."], "ms": ["Artikel dari minggu semasa adalah kluster Monolingually beberapa kali sehari.", "Artikel dari minggu semasa dikumpulkan secara berasingan dalam 5 bahasa pada masa ini."]}, {"en": ["Our results show significant improvement over a majority class baseline as well as a more difficult baseline consisting of lexical N-Grams.", "Using our approach yields better accuracy than two Baselines, a majority class baseline and a more difficult baseline of lexical N-Gram features."], "ms": ["Hasil kami menunjukkan peningkatan yang ketara berbanding garis dasar kelas majoriti serta garis asas yang lebih sukar yang terdiri daripada N-Gram leksikal.", "Menggunakan pendekatan kami menghasilkan ketepatan yang lebih baik daripada dua Garis Asas, garis dasar kelas majoriti dan garis asas ciri N-Gram yang lebih sukar."]}, {"en": ["A similar method is presented in Andreevskaia and Bergler, where Wordnet synonyms, Antonyms, and Glosses are used to Iteratively expand a list of seeds.", "A similar method is presented in where Wordnet synonyms, Antonyms, and Glosses are used to Iteratively expand a list of seeds."], "ms": ["Kaedah yang sama dibentangkan di Andreevskaia dan Bergler, di mana sinonim Wordnet, Antonyms, dan Glosses digunakan untuk memperluaskan senarai benih secara Iteratif.", "Kaedah yang sama dibentangkan di mana sinonim Wordnet, Antonyms, dan Glosses digunakan untuk mengembangkan senarai benih secara Iteratif."]}, {"en": ["In this paper, we explore the use of Personalization in the context of voice searches rather than web queries.", "This paper explores the utilization of Personalization features for the Post-Processing of recognition."], "ms": ["Dalam makalah ini, kami meneroka penggunaan Personalization dalam konteks carian suara dan bukannya pertanyaan web.", "Kertas ini meneroka penggunaan ciri-ciri Personalization untuk pasca pemprosesan pengiktirafan."]}, {"en": ["We described Tweetingjay, a supervised model for detecting Twitter paraphrases with which we participated in task 1 of Semeval 2015.", "We present the Tweetingjay system for detecting paraphrases in Tweets, with which we participated in task 1 of Semeval 2015."], "ms": ["Kami menerangkan Tweetingjay, model yang diawasi untuk mengesan parafrasa Twitter yang kami sertai dalam tugas 1 Semeval 2015.", "Kami membentangkan sistem Tweetingjay untuk mengesan parafrasa dalam Tweets, yang mana kami mengambil bahagian dalam tugas 1 Semeval 2015."]}, {"en": ["Evaluation results demonstrate the effectiveness of the proposed methods.", "Summaries show the effectiveness of the proposed methods."], "ms": ["Hasil penilaian menunjukkan keberkesanan kaedah yang dicadangkan.", "Ringkasan menunjukkan keberkesanan kaedah yang dicadangkan."]}, {"en": ["9 we found that in this setting, where we use both Word-Level and Character-Level representations, it is beneficial to use a smaller Lstm than in the Character-Level only setting.", "In this setting, where we use both Word-Level and Character-Level representations, it is beneficial to use a smaller Lstm than in the Character-Level only setting."], "ms": ["9 kami mendapati bahawa dalam tetapan ini, di mana kami menggunakan kedua-dua perwakilan Word-Level dan Character-Level, adalah bermanfaat untuk menggunakan Lstm yang lebih kecil daripada dalam tetapan Character-Level sahaja.", "Dalam tetapan ini, di mana kita menggunakan kedua-dua perwakilan Word-Level dan Character-Level, adalah bermanfaat untuk menggunakan Lstm yang lebih kecil daripada dalam tetapan Character-Level sahaja."]}, {"en": ["The proposed method is based on a deep learning architecture named long short term memory.", "The underlying model used is a long Shortterm memory recurrent neural network in a Bidirectional configuration."], "ms": ["Kaedah yang dicadangkan adalah berdasarkan seni bina pembelajaran mendalam yang dinamakan ingatan jangka pendek yang panjang.", "Model asas yang digunakan adalah rangkaian neural berulang ingatan jangka pendek yang panjang dalam konfigurasi Bidirectional."]}, {"en": ["In this paper we present the Crotal semantic role labelling system, which has been used in the Conll 2009 shared task 1.", "In this paper we present the machine learning system submitted to the Conll shared task 2009."], "ms": ["Dalam makalah ini kami membentangkan sistem pelabelan peranan semantik Crotal, yang telah digunakan dalam tugas bersama Conll 2009 1.", "Dalam makalah ini kami membentangkan sistem pembelajaran mesin yang diserahkan kepada tugas bersama Conll 2009."]}, {"en": ["Amr Parsing is the task of taking a sentence as input and producing as output an abstract meaning representation (AMR) that is a rooted, directed, Edge-Labeled and Leaf-Labeled graph that is used to represent the meaning of a sentence (Banarescu et al . , 2013).", "Amr Parsing is a new research problem, with only a few papers published to date (Flanigan et al . , 2014; Wang et al . , 2015) and a publicly available corpus of more than 10,000 English/Amr pairs."], "ms": ["Amr Parsing adalah tugas mengambil ayat sebagai input dan menghasilkan sebagai output perwakilan makna abstrak (AMR) yang berakar, diarahkan, Edge-Labeled dan Leaf-Labeled graf yang digunakan untuk mewakili makna ayat (Banarescu et al., 2013).", "Amr Parsing adalah masalah penyelidikan baru, dengan hanya beberapa kertas yang diterbitkan setakat ini (Flanigan et al., 2014; Wang et al., 2015) dan korpus yang tersedia secara terbuka lebih daripada 10,000 pasangan Inggeris / Amr."]}, {"en": ["As shown in similar to the first step, we use a sequence labelling approach with a Crf model.", "Following Li et al, we build the coupled sequence labeling model based on a Bigram Linearchain Crf."], "ms": ["Seperti yang ditunjukkan dalam langkah yang sama dengan langkah pertama, kami menggunakan pendekatan pelabelan urutan dengan model Crf.", "Berikutan Li et al, kami membina model pelabelan urutan berpasangan berdasarkan Bigram Linearchain Crf."]}, {"en": ["This paper focused on Unsupervised discovery of Intra-Sentence discourse relations for sentence level polarity classification.", "This paper presents a novel Unsupervised method for discovering Intra-Sentence level discourse relations."], "ms": ["Kertas kerja ini memberi tumpuan kepada penemuan Unsupervised hubungan wacana Intra-Sentence untuk klasifikasi polariti tahap ayat.", "Kertas ini membentangkan satu kaedah baru yang tidak diawasi untuk menemui hubungan wacana tahap Intra-Sentence."]}, {"en": ["In recent years, many accurate Phrase-Structure Parsers have been developed ,.", "Recently, many accurate statistical Parsers have been proposed for English, for Japanese)."], "ms": ["Dalam tahun-tahun kebelakangan ini, banyak Parsers Frasa-Struktur yang tepat telah dibangunkan.", "Baru-baru ini, banyak statistik yang tepat Parsers telah dicadangkan untuk bahasa Inggeris, untuk bahasa Jepun)."]}, {"en": ["To tackle this problem, we propose Algorithms for Transductive Semi-Supervised learning.", "We explore the use of Transductive Semi-Supervised methods."], "ms": ["Untuk mengatasi masalah ini, kami mencadangkan Algoritma untuk pembelajaran Semi-Supervised Transduktif.", "Kami meneroka penggunaan kaedah Transduktif Semi-Supervised."]}, {"en": ["Similarly, Riedel et al learn universal Schemas by matrix Factorization without Pre-Defined relations.", "Riedel et al used knowledge bases in conjunction with surface patterns to learn custom representations for relation extraction."], "ms": ["Begitu juga, Riedel et al mempelajari Schemas sejagat melalui pemfaktoran matriks tanpa hubungan Pra-Defined.", "Riedel et al menggunakan asas pengetahuan bersama dengan corak permukaan untuk mempelajari perwakilan tersuai untuk pengekstrakan hubungan."]}, {"en": ["The research that comes closest to ours is the work of Schwenk et al on continuous space Ngram models, where a neural network is employed to smooth translation probabilities.", "The most related to this study is the work of continuous space N-Gram translation models, where the Feed-Forward neural network language model is extended to represent translation probabilities."], "ms": ["Penyelidikan yang paling dekat dengan kita adalah kerja Schwenk et al pada model Ngram ruang berterusan, di mana rangkaian saraf digunakan untuk memudahkan kemungkinan terjemahan.", "Yang paling berkaitan dengan kajian ini adalah kerja model terjemahan N-Gram ruang berterusan, di mana model bahasa rangkaian neural Feed-Forward diperluas untuk mewakili kemungkinan terjemahan."]}, {"en": ["The Document-Level information and the Sentenceto-Document relationship are incorporated into the Graph-Based ranking algorithm.", "To incorporate the Document-Level information and the Sentenceto-Document relationship into the Graph-Based ranking process."], "ms": ["Maklumat Tahap Dokumen dan hubungan Sentenceto-Document dimasukkan ke dalam algoritma ranking Berasaskan Grafik.", "Untuk memasukkan maklumat Tahap Dokumen dan hubungan Sentenceto-Document ke dalam proses ranking Berasaskan Grafik."]}, {"en": ["We hope that these findings can serve as a guide for future research in the field.", "And we hope that it will serve as a guide for future research in the field."], "ms": ["Kami berharap penemuan ini dapat berfungsi sebagai panduan untuk penyelidikan masa depan di lapangan.", "Dan kami berharap ia akan berfungsi sebagai panduan untuk penyelidikan masa depan di lapangan."]}, {"en": ["In this paper, we solely focus on the problem of decoding given a trained neural machine translation model.", "Suitable for neural machine translation, we propose to learn a decoding algorithm with an arbitrary decoding objective."], "ms": ["Dalam makalah ini, kami hanya menumpukan pada masalah penyahkodan yang diberikan model terjemahan mesin saraf terlatih.", "Sesuai untuk terjemahan mesin saraf, kami mencadangkan untuk mempelajari algoritma penyahkodan dengan objektif penyahkodan sewenang-wenangnya."]}, {"en": ["The Conll 2008 shared task was intended to be about joint dependency Parsing and semantic role labeling, but the top performing systems Decoupled the tasks and outperformed the systems which attempted to learn them jointly.", "The Conll 2008 shared task was joint dependency Parsing and SRL, but the top performing systems Decoupled the tasks, rather than building joint models."], "ms": ["Tugas bersama Conll 2008 bertujuan untuk melibatkan penghuraian dependensi bersama dan pelabelan peranan semantik, tetapi sistem berprestasi teratas menyahpasang tugas dan mengatasi sistem yang cuba mempelajarinya bersama.", "Tugas bersama Conll 2008 adalah penghuraian dependensi bersama dan SRL, tetapi sistem berprestasi teratas menyahpasang tugas, dan bukannya membina model bersama."]}, {"en": ["Our second model takes a more conservative approach by Additionally penalizing data instances similar to the Out-Domain data.", "We take a more restrictive approach by Additionally penalizing sequences similar to the Out-Domain data."], "ms": ["Model kedua kami mengambil pendekatan yang lebih konservatif dengan menghukum kes data yang serupa dengan data Out-Domain.", "Kami mengambil pendekatan yang lebih ketat dengan Selain menghukum urutan yang serupa dengan data Out-Domain."]}, {"en": ["In this paper, we demonstrate how computational systems designed to recognize textual Entailment can be used to enhance the accuracy of current Open-Domain automatic question answering (Q/A) systems.", "In this paper suggest that current Te systems may be able to provide Open-Domain Q / a systems with the forms of semantic inference needed to perform accurate answer."], "ms": ["Dalam makalah ini, kami menunjukkan bagaimana sistem pengiraan yang direka untuk mengenali Entailment teks boleh digunakan untuk meningkatkan ketepatan sistem jawapan soalan automatik Open-Domain (Q / A) semasa.", "Dalam makalah ini mencadangkan bahawa sistem Te semasa mungkin dapat menyediakan sistem Open-Domain Q / a dengan bentuk kesimpulan semantik yang diperlukan untuk melakukan jawapan yang tepat."]}, {"en": ["Examples of such neural networks are linear networks, deeper Feed-Forward neural networks, or recurrent neural networks.", "We compare with Convolutional neural networks, recurrent neural networks, Bidirectional Gated recurrent neural networks, and word Embeddings."], "ms": ["Contoh rangkaian neural sedemikian ialah rangkaian linear, rangkaian neural Feed-Forward yang lebih mendalam, atau rangkaian neural berulang.", "Kami membandingkan dengan rangkaian neural Konvolutional, rangkaian neural berulang, rangkaian neural berulang Bidirectional Gated, dan Embedding perkataan."]}, {"en": ["The idea is to perform inference via a linear programming formulation with the features of narratives adopted as soft constraints.", "The system by modeling the inference as an Ilp problem with the features of narratives adopted as soft constraints."], "ms": ["Idea ini adalah untuk melaksanakan kesimpulan melalui formulasi pengaturcaraan linear dengan ciri-ciri naratif yang diterima pakai sebagai kekangan lembut.", "Sistem dengan memodelkan kesimpulan sebagai masalah Ilp dengan ciri-ciri naratif yang diterima pakai sebagai kekangan lembut."]}, {"en": ["Domestic abuse is the 12 th leading cause of years of life lost (Cite-P-17-1-15), and it contributes to health issues including frequent headaches, chronic pain, difficulty sleeping, anxiety, and depression (Cite-P-17-1-1).", "Domestic abuse is a problem of pandemic proportions; nearly 25% of females and 7.6% of males have been raped or physically assaulted by an intimate partner (Cite-P-15-1-11)."], "ms": ["Penyalahgunaan rumah tangga adalah penyebab utama ke-12 tahun kehidupan yang hilang (Cite-P-17-1-15), dan ia menyumbang kepada masalah kesihatan termasuk sakit kepala yang kerap, sakit kronik, kesukaran tidur, kebimbangan, dan kemurungan (Cite-P-17-1-1).", "Penyalahgunaan rumah tangga adalah masalah perkadaran pandemik; hampir 25% wanita dan 7.6% lelaki telah diperkosa atau diserang secara fizikal oleh pasangan intim (Cite-P-15-1-11)."]}, {"en": ["For example, in figure 1, Mutating the to no induces the f relation; Mutating cat to Carnivore induces the Math-W-4-2-0-46 relation.", "No induces the f relation; Mutating cat to Carnivore induces the Math-W-4-2-0-46 relation."], "ms": ["Sebagai contoh, dalam angka 1, Memindahkan yang tidak mendorong hubungan f; Memindahkan kucing ke Carnivore mendorong hubungan Math-W-4-2-0-46.", "Tiada mendorong hubungan f; Menghidupkan kucing ke Carnivore mendorong hubungan Math-W-4-2-0-46."]}, {"en": ["We demonstrated the value of Errant by carrying out a detailed evaluation of system error type performance for all teams in the Conll2014 shared task on grammatical error correction.", "In at least 95% of cases, so we applied Errant to the system output of the Conll-2014 shared task to carry out a detailed error type analysis."], "ms": ["Kami menunjukkan nilai Errant dengan menjalankan penilaian terperinci prestasi jenis ralat sistem untuk semua pasukan dalam tugas bersama Conll2014 mengenai pembetulan ralat tatabahasa.", "Dalam sekurang-kurangnya 95% kes, jadi kami menggunakan Errant untuk output sistem tugas bersama Conll-2014 untuk menjalankan analisis jenis ralat terperinci."]}, {"en": ["We employ the Crf implementation in the Wapiti Toolkit, using default settings.", "We use an implementation of a Maximum-Entropy Classifier called Wapiti 8."], "ms": ["Kami menggunakan pelaksanaan Crf dalam Wapiti Toolkit, menggunakan tetapan lalai.", "Kami menggunakan pelaksanaan Pengkelasan Maksimum-Entropi yang dipanggil Wapiti 8."]}, {"en": ["To that end, we use the Wordsim353 Dataset.", "We use Wordsim 353 as the original data set."], "ms": ["Untuk itu, kami menggunakan Dataset Wordsim353.", "Kami menggunakan Wordsim 353 sebagai set data asal."]}, {"en": ["Also, they showed results only on the narrow domain of cooking videos with a small set of predefined objects and actors.", "While Cite-P-15-3-10 only showed results on a narrow domain of cooking videos with a small set of predefined objects and actors."], "ms": ["Juga, mereka menunjukkan hasil hanya pada domain sempit video memasak dengan sekumpulan kecil objek dan pelakon yang telah ditetapkan.", "Sementara Cite-P-15-3-10 hanya menunjukkan hasil pada domain sempit video memasak dengan sekumpulan kecil objek dan pelakon yang telah ditentukan."]}, {"en": ["The kit translations are generated by an in-house Phrase-Based translations system.", "The kit system uses an in-house Phrase-Based Decoder to perform translation."], "ms": ["Terjemahan kit dihasilkan oleh sistem terjemahan berasaskan frasa dalaman.", "Sistem kit menggunakan Decoder Berasaskan Frasa dalaman untuk melakukan terjemahan."]}, {"en": ["We adopted the second release of the American National corpus frequency data 3, which provides the number of occurrences of a word in the written and spoken ANC.", "We adopted the second release of the American National corpus frequency data 2, which provides the number of occurrences of a word in the written and spoken ANC."], "ms": ["Kami menggunakan pelepasan kedua data frekuensi korpus Kebangsaan Amerika 3, yang menyediakan bilangan kejadian perkataan dalam ANC bertulis dan lisan.", "Kami menggunakan pelepasan kedua data frekuensi korpus Kebangsaan Amerika 2, yang menyediakan bilangan kejadian perkataan dalam ANC bertulis dan lisan."]}, {"en": ["In this paper, we present and make publicly available 1 a new Dataset for Darknet active domains, which we call it \u201d Darknet usage text addresses \u201d (Duta).", "In this paper, we present and make publicly available 1 a new Dataset for Darknet active domains, which we call it \u201d Darknet usage."], "ms": ["Dalam kertas ini, kami membentangkan dan menyediakan secara terbuka 1 Dataset baru untuk domain aktif Darknet, yang kami panggil Alamat teks penggunaan Darknet (Duta).", "Dalam makalah ini, kami membentangkan dan menyediakan 1 Dataset baru untuk domain aktif Darknet, yang kami panggil penggunaan Darknet."]}, {"en": ["We integrate the recurrent neural network language model as an additional feature into the standard Log-Linear framework of translation.", "As a language model feature, we use a standard backing off Word-Based Trigram language model."], "ms": ["Kami mengintegrasikan model bahasa rangkaian neural berulang sebagai ciri tambahan ke dalam rangka terjemahan Log-Linear standard.", "Sebagai ciri model bahasa, kami menggunakan standard yang menyokong model bahasa Trigram Berasaskan Word."]}, {"en": ["We evaluated the models using the WMT data set, computing the Ter and BLEU scores on the Decoded output.", "We evaluate our models using the standard BLEU metric 2 on the Detokenized translations of the test set."], "ms": ["Kami menilai model menggunakan set data WMT, pengkomputeran skor Ter dan BLEU pada output Decoded.", "Kami menilai model kami menggunakan metrik BLEU standard 2 pada terjemahan Detokenized set ujian."]}, {"en": ["We also computed the Inter-Annotator agreement via Kappa.", "We used Cohen \u9b4f to measure the Inter-Annotator agreement."], "ms": ["Kami juga mengira perjanjian Inter-Annotator melalui Kappa.", "Kami menggunakan Cohen untuk mengukur perjanjian Antara Annotator."]}, {"en": ["The accuracy of the First-Stage Parser on the standard Parseval metric matches that of the (Cite-P-16-3-5) Parser on which it is based, despite the data fragmentation caused by the greatly enriched space of possible Node labels.", "On the standard Parseval metric matches that of the (Cite-P-16-3-5) Parser on which it is based, despite the data fragmentation caused by the greatly enriched space of possible Node labels."], "ms": ["Ketepatan Penghurai Peringkat Pertama pada metrik Parseval standard sepadan dengan Penghurai (Cite-P-16-3-5) yang berdasarkannya, walaupun pemecahan data disebabkan oleh ruang yang sangat diperkaya label Node.", "Pada metrik Parseval standard sepadan dengan Parser (Cite-P-16-3-5) yang berdasarkannya, walaupun pemecahan data disebabkan oleh ruang yang sangat diperkaya label Node yang mungkin."]}, {"en": ["The statistical part implements an entropy based decision tree (C4.5).", "Statistical part implements an entropy based decision tree (C4 . 5)."], "ms": ["Bahagian statistik melaksanakan pokok keputusan berasaskan entropi (C4.5).", "Bahagian statistik melaksanakan pokok keputusan berasaskan entropi (C4.5)."]}, {"en": ["However, to go beyond tuning weights in the Loglinear Smt model, a Cross-Lingual objective function that can deeply integrate semantic frame criteria into the mt training pipeline is needed.", "By deeply integrating semantic frame criteria into the mt training pipeline, it is necessary to have a Cross-Lingual semantic objective function that assesses the semantic frame."], "ms": ["Walau bagaimanapun, untuk melampaui penalaan berat dalam model Loglinear Smt, fungsi objektif Cross-Lingual yang dapat mengintegrasikan kriteria bingkai semantik ke dalam saluran paip latihan mt diperlukan.", "Dengan mengintegrasikan kriteria bingkai semantik ke dalam saluran paip latihan mt, adalah perlu untuk mempunyai fungsi objektif semantik Cross-Lingual yang menilai bingkai semantik."]}, {"en": ["Tang et al design user and product preference Matrices to tune word representations, based on which Convolutional neural networks are used to model the whole document.", "Tang et al design preference Matrices for each user and each product to tune word representations, based on which Convolutional neural networks are used to model the whole document."], "ms": ["Tang et al reka bentuk pengguna dan produk pilihan Matrices untuk menyesuaikan perwakilan perkataan, berdasarkan rangkaian saraf konvolutional digunakan untuk memodelkan keseluruhan dokumen.", "Tang et al reka bentuk pilihan Matrices untuk setiap pengguna dan setiap produk untuk menyesuaikan perwakilan perkataan, berdasarkan rangkaian saraf Konvolutional digunakan untuk memodelkan keseluruhan dokumen."]}, {"en": ["As a first step, to test our first hypothesis, we remove the Pos blocks with a low probability of occurrence from each query, on the assumption that these blocks are Content-Poor.", "For our first hypothesis, we induce Pos distribution information from a Corpus, and approximate the probability of occurrence of Pos blocks."], "ms": ["Sebagai langkah pertama, untuk menguji hipotesis pertama kami, kami membuang blok Pos dengan kebarangkalian kejadian yang rendah dari setiap pertanyaan, dengan anggapan bahawa blok ini adalah Content-Poor.", "Untuk hipotesis pertama kami, kami mendorong maklumat pengedaran Pos dari Corpus, dan menganggarkan kebarangkalian berlakunya blok Pos."]}, {"en": ["In this paper, we investigate the effect of Discriminative Reranking to semantic Parsing.", "In this paper, we investigate Discriminative Reranking upon a baseline semantic Parser."], "ms": ["Dalam makalah ini, kita menyiasat kesan Reranking Diskriminatif kepada Parsing semantik.", "Dalam makalah ini, kami menyiasat Penerapan Diskriminatif pada Parser semantik asas."]}, {"en": ["When combining with Content-Related features, most persuasive argumentation features give superior performance compared to the Baselines.", "When combined with word deviations and mention percentages, most persuasive argumentation features give superior performance compared to the Baselines."], "ms": ["Apabila digabungkan dengan ciri-ciri Berkaitan Kandungan, kebanyakan ciri-ciri hujah persuasif memberikan prestasi yang lebih baik berbanding dengan Garis Asas.", "Apabila digabungkan dengan sisihan perkataan dan peratusan sebutan, kebanyakan ciri hujah persuasif memberikan prestasi yang unggul berbanding dengan Garis Asas."]}, {"en": ["The Hyp Toolkit provides a C++ library and a command line Executable.", "Hyp consists of a C + + API, as well as a command line tool, and is available for Download."], "ms": ["Hyp Toolkit menyediakan perpustakaan C ++ dan baris perintah yang boleh dilaksanakan.", "Hyp terdiri daripada API C ++, serta alat baris perintah, dan tersedia untuk Muat turun."]}, {"en": ["We use the system described in the literature to compute the lexical and string similarity between two sentences by using a logistic regression model with eighteen features based on N-Grams.", "Firstly, for computing the lexical and string similarity between two sentences, we take advantage from the task baseline which is a system using a logistic regression model with eighteen features based on N-Grams."], "ms": ["Kami menggunakan sistem yang diterangkan dalam kesusasteraan untuk mengira persamaan leksikal dan rentetan antara dua ayat dengan menggunakan model regresi logistik dengan lapan belas ciri berdasarkan N-Gram.", "Pertama, untuk pengkomputeran persamaan leksikal dan rentetan antara dua ayat, kami mengambil kesempatan daripada garis dasar tugas yang merupakan sistem yang menggunakan model regresi logistik dengan lapan belas ciri berdasarkan N-Gram."]}, {"en": ["Some machine learning approaches have been applied to Coreference resolution.", "Coreference resolution has traditionally benefited from machine learning approaches."], "ms": ["Beberapa pendekatan pembelajaran mesin telah digunakan untuk resolusi Coreference.", "Resolusi spatial secara tradisinya mendapat manfaat daripada pendekatan pembelajaran mesin."]}, {"en": ["It is based on 5-Grams with extended Kneser-Ney smoothing.", "The language model is a 5-Gram LM with modified Kneser-Ney smoothing."], "ms": ["Ia berdasarkan 5-Gram dengan smoothing Kneser-Ney yang dilanjutkan.", "Model bahasa adalah LM 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We have presented a pro, a new tuning method for machine translation.", "We present a pro, a new method for machine translation tuning."], "ms": ["Kami telah membentangkan pro, kaedah penalaan baru untuk terjemahan mesin.", "Kami membentangkan pro, kaedah baru untuk penalaan terjemahan mesin."]}, {"en": ["The experimental results show that our model achieves significant and consistent improvements as compared with Baselines.", "Experimental results on Real-World Datasets show that our model achieves significant and consistent improvements on relation extraction."], "ms": ["Hasil eksperimen menunjukkan bahawa model kami mencapai peningkatan yang signifikan dan konsisten berbanding dengan Baselines.", "Hasil eksperimen pada Dataset Dunia Nyata menunjukkan bahawa model kami mencapai peningkatan yang signifikan dan konsisten pada pengekstrakan hubungan."]}, {"en": ["The Rnn Encoder\u00a8Cdecoder model suffers from poor performance when the length of the input sequence is long.", "In an Enc \u00a8C Dec model, a long input sequence results in performance degradation due to loss of information in the front portion of the input sequence."], "ms": ["Model Rnn Encoder Cdecoder mengalami prestasi yang buruk apabila panjang urutan input adalah panjang.", "Dalam model Enc C Dec, urutan input yang panjang menghasilkan kemerosotan prestasi kerana kehilangan maklumat di bahagian depan urutan input."]}, {"en": ["Our work is based on the dual supervision framework using constrained non-negative Tri-Factorization proposed in (Cite-P-17-1-10).", "In our work, we develop our active dual supervision framework using constrained non-negative Tri-Factorization."], "ms": ["Kerja kami adalah berdasarkan kerangka penyeliaan dwi menggunakan Tri-Factorization bukan negatif yang dicadangkan dalam (Cite-P-17-1-10).", "Dalam kerja kami, kami membangunkan rangka kerja penyeliaan dwi aktif kami menggunakan Tri-Factorization bukan negatif yang terhad."]}, {"en": ["However, large parallel Corpora are only available for a few language pairs and for limited domains.", "Use of comparable Corpora is motivated by the fact that large parallel Corpora are only available for a few language pairs and for limited domains."], "ms": ["Walau bagaimanapun, Corpora selari besar hanya tersedia untuk beberapa pasangan bahasa dan untuk domain terhad.", "Penggunaan Corpora setanding didorong oleh fakta bahawa Corpora selari besar hanya tersedia untuk beberapa pasangan bahasa dan untuk domain terhad."]}, {"en": ["Thus, in this paper we investigate whether similarity should be measured on the sense level.", "In this paper, we investigate the difference between word and sense similarity measures."], "ms": ["Oleh itu, dalam kertas ini kita menyiasat sama ada persamaan harus diukur pada tahap rasa.", "Dalam makalah ini, kami menyiasat perbezaan antara langkah persamaan perkataan dan rasa."]}, {"en": ["Some researchers have applied the rule of Transliteration to automatically translate proper names.", "Some researchers have found that Transliteration is quite useful in proper name translation."], "ms": ["Sesetengah penyelidik telah menggunakan peraturan Transliterasi untuk menterjemahkan nama yang betul secara automatik.", "Sesetengah penyelidik mendapati bahawa Transliterasi agak berguna dalam terjemahan nama yang betul."]}, {"en": ["Morphological Disambiguation is the process of assigning one set of morphological features to each individual word in a text.", "Morphological Disambiguation is the process of assigning one set of morphological features to each individual word in a text, according to the word context."], "ms": ["Penyahsuaian Morfologi ialah proses menetapkan satu set ciri morfologi kepada setiap perkataan individu dalam teks.", "Penyahsuaian Morfologi adalah proses menetapkan satu set ciri morfologi kepada setiap perkataan individu dalam teks, mengikut konteks perkataan."]}, {"en": ["Mikolov et al extended this model to two languages by introducing bilingual Embeddings where word Embeddings for two languages are simultaneously represented in the same vector space.", "Mikolov et al introduced a particularly simple version that takes advantage of a vocabulary of shared bilingual seed words to map Embeddings from a source language onto the vector space of a target language."], "ms": ["Mikolov et al memperluaskan model ini kepada dua bahasa dengan memperkenalkan Embedding dwibahasa di mana Embedding perkataan untuk dua bahasa secara serentak diwakili dalam ruang vektor yang sama.", "Mikolov et al memperkenalkan versi yang sangat mudah yang memanfaatkan perbendaharaan kata kata benih dwibahasa yang dikongsi untuk memetakan Embeddings dari bahasa sumber ke ruang vektor bahasa sasaran."]}, {"en": ["This paper presents a novel model for Japanese Predicate argument structure (pas) analysis based on a neural network framework.", "This paper proposes a novel Japanese pas analysis model based on a neural network (Nn) framework, which has been proved to be effective for several Nlp tasks."], "ms": ["Kertas ini membentangkan model novel untuk analisis struktur hujah Predicate Jepun (pas) berdasarkan kerangka rangkaian saraf.", "Kertas kerja ini mencadangkan model analisis pas Jepun novel berdasarkan kerangka rangkaian saraf (Nn), yang telah terbukti berkesan untuk beberapa tugas Nlp."]}, {"en": ["Therefore, we propose a Divide-And-Conquer strategy by decomposing a Hypergraph into a set of independent Subhypergraphs.", "We propose a Divide-And-Conquer strategy by decomposing a Hypergraph into a set of independent Subhypergraphs, which is Computationally feasible."], "ms": ["Oleh itu, kami mencadangkan strategi Divide-And-Conquer dengan menguraikan Hypergraph ke dalam satu set Subhypergraphs bebas.", "Kami mencadangkan strategi Divide-And-Conquer dengan mengurai Hypergraph ke dalam satu set Subhypergraphs bebas, yang boleh dilaksanakan secara komputasi."]}, {"en": ["Bunescu and Mooney , 2007) connects weak supervision with Multi-Instance learning and extends it to relation extraction.", "Bunescu and Mooney connect weak supervision with Multi-Instance learning and extend their relational extraction kernel to this context."], "ms": ["Bunescu dan Mooney (2007) menghubungkan penyeliaan lemah dengan pembelajaran Multi-Instance dan memanjangkannya kepada pengekstrakan hubungan.", "Bunescu dan Mooney menyambung penyeliaan lemah dengan pembelajaran Multi-Instance dan memanjangkan kernel pengekstrakan hubungan mereka kepada konteks ini."]}, {"en": ["V-Measure assesses the quality of a clustering solution against reference clusters in terms of clustering homogeneity and completeness.", "V-Measure assesses the quality of a clustering solution by explicitly measuring its homogeneity and its completeness."], "ms": ["V-Measure menilai kualiti penyelesaian kluster terhadap kluster rujukan dari segi homogen dan kelengkapan kluster.", "V-Measure menilai kualiti penyelesaian clustering dengan secara jelas mengukur homogenitas dan kelengkapannya."]}, {"en": ["Liu et al propose two models that capture the Interdependencies between two parallel Lstms Encoding the two sentences for the tasks of recognizing textual Entailment and matching questions and answers, respectively.", "Liu et al proposed two models capturing the Interdependencies between the two parallel Lstms Encoding two input sentences for the tasks of Recognising textual Entailment and matching questions and answers."], "ms": ["Liu et al mencadangkan dua model yang menangkap Interdependencies antara dua Lstms selari Mengencoding kedua-dua ayat untuk tugas-tugas mengenali Entailment teks dan soalan dan jawapan yang sepadan, masing-masing.", "Liu et al mencadangkan dua model yang menangkap Interdependencies antara dua Lstms selari Mengencoding dua ayat input untuk tugas-tugas Mengenali Entailment tekstual dan soalan dan jawapan yang sepadan."]}, {"en": ["However, they attribute responsibility for Non-Arbitrariness differently.", "But they produce differing characterizations of Non-Arbitrariness."], "ms": ["Walau bagaimanapun, mereka mengaitkan tanggungjawab untuk Non-Arbitrariness secara berbeza.", "Tetapi mereka menghasilkan ciri-ciri yang berbeza dari Non-Arbitrariness."]}, {"en": ["The former approach involves adding Self-Labelled data from the target domain produced by a model trained In-Domain.", "The former approach involves adding Self-Labeled data from the target domain produced by a model trained In-Domain."], "ms": ["Pendekatan terdahulu melibatkan penambahan data Self-Labelled dari domain sasaran yang dihasilkan oleh model terlatih In-Domain.", "Pendekatan terdahulu melibatkan penambahan data Label Sendiri dari domain sasaran yang dihasilkan oleh model terlatih In-Domain."]}, {"en": ["The temporal relation is dictated by the causal relation.", "Temporal and causal relations are closely related."], "ms": ["Hubungan temporal ditentukan oleh hubungan kausal.", "Hubungan temporal dan kausal berkait rapat."]}, {"en": ["Moreover, some systems and Zhang et al, also exploit kinds of extra information such as Unlabeled data or other knowledge.", "Moreover, some systems and, also exploit kinds of extra information such as the Unlabeled data or other knowledge."], "ms": ["Selain itu, beberapa sistem dan Zhang et al, juga mengeksploitasi jenis maklumat tambahan seperti data Unlabeled atau pengetahuan lain.", "Selain itu, sesetengah sistem dan, juga mengeksploitasi jenis maklumat tambahan seperti data Unlabeled atau pengetahuan lain."]}, {"en": ["We investigate whether argumentation features derived from a Coarse-Grained Argumentative structure of essays can help predict essays scores.", "Argumentation features derived from a Coarse-Grained, Argumentative structure of essays are helpful in predicting essays."], "ms": ["Kami menyiasat sama ada ciri hujah yang berasal dari struktur Hujah Berkualiti kasar esei dapat membantu meramalkan skor esei.", "Ciri-ciri Argumentasi yang diperolehi daripada struktur esei kasar, hujah berguna dalam meramalkan esei."]}, {"en": ["Sentence similarity computation plays an important role in text summarization and social network applications.", "Sentence similarity computation plays an important role in text summarization, classification, question answering and social network applications."], "ms": ["Pengiraan persamaan kemukaan memainkan peranan penting dalam ringkasan teks dan aplikasi rangkaian sosial.", "Pengiraan persamaan ayat memainkan peranan penting dalam ringkasan teks, pengelasan, jawapan soalan dan aplikasi rangkaian sosial."]}, {"en": ["The Taxonomy kernel was trained using the SVM \u8128 \u8134 package.", "The power prediction system is built using the Cleartk wrapper for Svmlight package."], "ms": ["Kernel Taksonomi dilatih menggunakan pakej SVM dan SVM.", "Sistem ramalan kuasa dibina menggunakan pembungkus Cleartk untuk pakej Svmlight."]}, {"en": ["With this approach, we reduce the error rate for English by 33%, relative to the best existing system.", "In English, we have demonstrated a 33% relative reduction in error rate."], "ms": ["Dengan pendekatan ini, kami mengurangkan kadar ralat untuk bahasa Inggeris sebanyak 33%, berbanding dengan sistem sedia ada yang terbaik.", "Dalam bahasa Inggeris, kami telah menunjukkan pengurangan kadar ralat 33% secara relatif."]}, {"en": ["In particular, we consider conditional random fields and a variation of Autoslog.", "We use marginal inference in a conditional random field."], "ms": ["Khususnya, kita mempertimbangkan medan rawak bersyarat dan variasi Autoslog.", "Kami menggunakan kesimpulan marginal dalam medan rawak bersyarat."]}, {"en": ["We employ a random forest Classifier, an ensemble of decision tree classifiers learned from many independent Subsamples of the training data.", "We use a random forest Classifier consisting of a combination of decision trees where features are randomly extracted to build each decision tree."], "ms": ["Kami menggunakan Classifier hutan rawak, ensemble pengelas pokok keputusan yang dipelajari dari banyak subsamples bebas data latihan.", "Kami menggunakan Classifier hutan rawak yang terdiri daripada gabungan pokok keputusan di mana ciri-ciri diekstrak secara rawak untuk membina setiap pokok keputusan."]}, {"en": ["They usually start by selecting the logical facts to express.", "Indicating the importance of each fact or pair of facts, they select the facts to express."], "ms": ["Mereka biasanya bermula dengan memilih fakta logik untuk menyatakan.", "Menunjukkan kepentingan setiap fakta atau pasangan fakta, mereka memilih fakta untuk menyatakan."]}, {"en": ["This is because Chinese is a Pro-Drop language (Cite-P-21-3-1) that allows the subject to be dropped in more contexts than English does.", "Since Chinese is the dominant language in our data set, a Word-By-Word statistical machine translation strategy (Cite-P-14-1-22) is adopted to translate English words into Chinese."], "ms": ["Ini kerana bahasa Cina adalah bahasa Pro-Drop (Cite-P-21-3-1) yang membolehkan subjek digugurkan dalam konteks yang lebih daripada bahasa Inggeris.", "Oleh kerana bahasa Cina adalah bahasa dominan dalam set data kami, strategi terjemahan mesin statistik Word-By-Word (Cite-P-14-1-22) diadopsi untuk menerjemahkan kata-kata Inggeris ke dalam bahasa Cina."]}, {"en": ["In the second experiment we show that classification results improve when information on definition structure is included.", "From the second experiment, we can conclude that taking definition structure into account helps to get better classification."], "ms": ["Dalam eksperimen kedua kami menunjukkan bahawa hasil klasifikasi bertambah baik apabila maklumat mengenai struktur definisi dimasukkan.", "Dari eksperimen kedua, kita dapat menyimpulkan bahawa mengambil kira struktur definisi membantu untuk mendapatkan klasifikasi yang lebih baik."]}, {"en": ["The reason is that messages on Microblogs are short, noisy and informal texts with little context, and often contain phrases with ambiguous meanings.", "Messages on Microblogs are short, noisy, and informal texts with little context, and often contain phrases with ambiguous meanings."], "ms": ["Sebabnya ialah mesej di Microblogs adalah teks pendek, bising dan tidak formal dengan konteks yang sedikit, dan sering mengandungi frasa dengan makna yang samar-samar.", "Mesej di Microblogs adalah teks pendek, bising, dan tidak formal dengan konteks yang sedikit, dan sering mengandungi frasa dengan makna yang samar-samar."]}, {"en": ["Our baseline system was a vanilla Phrase-Based system built with Moses using default settings.", "Our baseline system is an standard Phrase-Based Smt system built with Moses."], "ms": ["Sistem asas kami adalah sistem berasaskan frasa vanila yang dibina dengan Musa menggunakan tetapan lalai.", "Sistem asas kami adalah sistem Smt Berasaskan Frasa standard yang dibina dengan Musa."]}, {"en": ["We investigate Prototype-Driven learning for primarily Unsupervised sequence modeling.", "In Prototype-Driven learning, we specify prototypical examples."], "ms": ["Kami menyiasat pembelajaran Prototype-Driven untuk pemodelan urutan yang tidak diawasi.", "Dalam pembelajaran Prototype-Driven, kami menentukan contoh prototip."]}, {"en": ["For comparison, we also include the Berkeley Parser.", "We use the Berkeley Parser to Parse all of the data."], "ms": ["Sebagai perbandingan, kami juga menyertakan Berkeley Parser.", "Kami menggunakan Berkeley Parser untuk menghuraikan semua data."]}, {"en": ["In this work, we propose Allvec that uses batch gradient learning to generate word representations from all training samples.", "In this paper, we presented Allvec, an efficient batch learning based word Embedding model that is capable to leverage all positive and negative training examples."], "ms": ["Dalam kerja ini, kami mencadangkan Allvec yang menggunakan pembelajaran kecerunan batch untuk menghasilkan perwakilan perkataan dari semua sampel latihan.", "Dalam makalah ini, kami membentangkan Allvec, model Embedding perkataan berasaskan pembelajaran batch yang cekap yang mampu memanfaatkan semua contoh latihan positif dan negatif."]}, {"en": ["We have shown by experiments that large number of deterministic constraints can be learned from training examples, as long as the proper representation is used.", "That with proper representation, large number of deterministic constraints can be learned from training examples."], "ms": ["Kami telah menunjukkan oleh eksperimen bahawa sebilangan besar kekangan deterministik dapat dipelajari dari contoh latihan, selagi perwakilan yang betul digunakan.", "Dengan perwakilan yang betul, sebilangan besar kekangan deterministik dapat dipelajari dari contoh latihan."]}, {"en": ["Gao et al and Moore and Lewis apply this method to language modeling, while foster et al and Axelrod et al use it on the translation model.", "Gao et al and Moore and Lewis apply this method to language modeling, and foster, goutte, and Kuhn and Axelrod, he, and GAO apply this method to translation modeling."], "ms": ["Gao et al dan Moore dan Lewis menerapkan kaedah ini untuk pemodelan bahasa, sementara foster et al dan Axelrod et al menggunakannya pada model terjemahan.", "Gao et al dan Moore dan Lewis menerapkan kaedah ini untuk pemodelan bahasa, dan memupuk, goutte, dan Kuhn dan Axelrod, dia, dan GAO menerapkan kaedah ini untuk pemodelan terjemahan."]}, {"en": ["Relevant applications deal with numerous domains such as news stories and product reviews.", "Relevant applications deal with numerous domains such as Blogs, news stories, and product reviews."], "ms": ["Aplikasi yang berkaitan berurusan dengan banyak domain seperti berita dan ulasan produk.", "Aplikasi yang berkaitan berurusan dengan banyak domain seperti Blog, berita, dan ulasan produk."]}, {"en": ["We use a linear Classifier trained with a Regularized Perceptron update rule as implemented in snow ,.", "We use a linear Classifier trained with a Regularized average Perceptron update rule as implemented in snow ,."], "ms": ["Kami menggunakan Classifier linear yang dilatih dengan peraturan kemas kini Perceptron yang Diatur seperti yang dilaksanakan dalam salji.", "Kami menggunakan Classifier linear yang dilatih dengan peraturan kemas kini Perceptron purata yang teratur seperti yang dilaksanakan dalam salji."]}, {"en": ["All classifiers and kernels have been implemented within the Kernel-Based learning platform called kelp.", "All classifiers and kernels have been implemented within the Kernel-Based learning platform."], "ms": ["Semua pengelas dan kernel telah dilaksanakan dalam platform pembelajaran berasaskan Kernel yang dipanggil kelp.", "Semua pengelas dan kernel telah dilaksanakan dalam platform pembelajaran berasaskan Kernel."]}, {"en": ["Our experiments demonstrate that R Ealm Outperforms these approaches on sparse data.", "Our experiments show that R Ealm reduces extraction error."], "ms": ["Eksperimen kami menunjukkan bahawa R Ealm Melaksanakan pendekatan ini pada data jarang.", "Eksperimen kami menunjukkan bahawa R Ealm mengurangkan ralat pengekstrakan."]}, {"en": ["In recent years, the development of Largescale knowledge bases, such as Freebase, provides a rich resource to answer Open-Domain questions.", "Recent question answering systems have focused on Open-Domain Factoid questions, relying on knowledge bases like Freebase or large Corpora of unstructured text."], "ms": ["Dalam tahun-tahun kebelakangan ini, pembangunan pangkalan pengetahuan berskala besar, seperti Freebase, menyediakan sumber yang kaya untuk menjawab soalan Open-Domain.", "Sistem jawapan soalan baru-baru ini telah memberi tumpuan kepada soalan Factoid Open-Domain, bergantung kepada pangkalan pengetahuan seperti Freebase atau Corpora besar teks yang tidak berstruktur."]}, {"en": ["Approaches to dependency Parsing either generate such trees by considering all possible spanning trees, or build a single tree by means of Shift-Reduce Parsing actions.", "Approaches to dependency Parsing either generate such trees by considering all possible spanning trees, or build a single tree on the fly by means of Shift-Reduce Parsing actions."], "ms": ["Pendekatan untuk Parsing dependensi sama ada menjana pokok sedemikian dengan mempertimbangkan semua pokok yang mungkin merangkumi, atau membina pokok tunggal melalui tindakan Shift-Reduce Parsing.", "Pendekatan untuk Parsing dependensi sama ada menjana pokok sedemikian dengan mempertimbangkan semua pokok yang mungkin merangkumi, atau membina pokok tunggal dengan terbang melalui tindakan Shift-Reduce Parsing."]}, {"en": ["In this paper, we present the methods we used while participating in the 2016 clinical Tempeval task as part of the Semeval-2016 challenge.", "In this paper, we presented the methods we used while participating in the 2016 clinical Tempeval task."], "ms": ["Dalam makalah ini, kami membentangkan kaedah yang kami gunakan semasa mengambil bahagian dalam tugas Tempeval klinikal 2016 sebagai sebahagian daripada cabaran Semeval-2016.", "Dalam makalah ini, kami membentangkan kaedah yang kami gunakan semasa mengambil bahagian dalam tugas Tempeval klinikal 2016."]}, {"en": ["We perform an analysis of Humans\u00a1\u00af perceptions of formality in four different genres.", "We provide an analysis of humans \u00a1\u00af subjective perceptions of formality in four different genres."], "ms": ["Kami melakukan analisis persepsi manusia terhadap formaliti dalam empat genre yang berbeza.", "Kami menyediakan analisis manusia dan persepsi subjektif formaliti dalam empat genre yang berbeza."]}, {"en": ["In this paper, we present a system that automatically extracts the pros and Cons from Online reviews.", "In this paper, we propose a framework for automatically identifying reasons in Online reviews."], "ms": ["Dalam makalah ini, kami membentangkan sistem yang secara automatik mengekstrak kebaikan dan keburukan dari ulasan dalam talian.", "Dalam kertas kerja ini, kami mencadangkan rangka kerja untuk mengenal pasti sebab secara automatik dalam ulasan dalam talian."]}, {"en": ["We employ the ranking mode of the popular learning package SVM light.", "We exploit the Svm-Light-Tk Toolkit for kernel computation."], "ms": ["Kami menggunakan mod ranking pakej pembelajaran popular SVM cahaya.", "Kami menggunakan Svm-Light-Tk Toolkit untuk pengiraan kernel."]}, {"en": ["This paper presents a novel approach to semantic grounding of noun phrases within Tutorial dialogue for computer programming.", "Paper presents a step toward semantic grounding for complex problem-solving dialogues."], "ms": ["Kertas ini membentangkan pendekatan novel untuk asas semantik frasa kata nama dalam dialog Tutorial untuk pengaturcaraan komputer.", "Kertas membentangkan langkah ke arah asas semantik untuk dialog penyelesaian masalah yang kompleks."]}, {"en": ["This process continues until the two base Rankers cannot learn from each other any more.", "Refinement process continues until the two base Rankers cannot learn from each other any more."], "ms": ["Proses ini berterusan sehingga kedua-dua Rankers asas tidak dapat belajar antara satu sama lain.", "Proses penapisan berterusan sehingga kedua-dua Rankers asas tidak dapat belajar antara satu sama lain lagi."]}, {"en": ["Choi et al used an integer linear programming approach to jointly extract entities and relations in the context of opinion oriented information extraction.", "Choi et al address the task of extracting opinion entities and their relations, and incorporate syntactic features to their relation extraction model."], "ms": ["Choi et al menggunakan pendekatan pengaturcaraan linear integer untuk bersama-sama mengekstrak entiti dan hubungan dalam konteks pengekstrakan maklumat berorientasikan pendapat.", "Choi et al menangani tugas mengekstrak entiti pendapat dan hubungan mereka, dan menggabungkan ciri-ciri sintaktik kepada model pengekstrakan hubungan mereka."]}, {"en": ["Pereira et al use an Information-Theoretic based clustering approach, clustering nouns according to their distribution as direct objects among verbs.", "Pereira et al suggested deterministic Annealing to cluster Verb-Argument pairs into classes of verbs and nouns."], "ms": ["Pereira et al menggunakan pendekatan kluster berasaskan Information-Theoretic, kata nama kluster mengikut taburannya sebagai objek langsung di antara kata kerja.", "Pereira et al mencadangkan Penentuan deterministik untuk kluster pasangan Verb-Argument ke dalam kelas kata kerja dan kata nama."]}, {"en": ["In addition, the average accuracy of the Classifier is 81.5% on the sentences the judges tagged with certainty.", "In addition, the average accuracy of the Classifier is 81 . 5% on the sentences."], "ms": ["Di samping itu, ketepatan purata Pengkelasan adalah 81.5% pada ayat-ayat yang ditandakan oleh hakim dengan kepastian.", "Di samping itu, ketepatan purata Pengkelasan adalah 81. 5% pada ayat."]}, {"en": ["In order to evaluate the method, we applied the results of topic detection to Extractive Multi-Document summarization.", "By Extrinsic evaluation, I . E ., we applied the results of topic detection to Extractive Multi-Document summarization."], "ms": ["Untuk menilai kaedah ini, kami menggunakan hasil pengesanan topik untuk ringkasan Multi-Dokumen Ekstra.", "Oleh penilaian Extrinsic, I. E., kami menggunakan hasil pengesanan topik untuk ringkasan Multi-Dokumen Ekstra."]}, {"en": ["Data-To-Text generation refers to the task of automatically generating text from Non-Linguistic data.", "Natural language generation is the process of generating coherent natural language text from Non-Linguistic data."], "ms": ["Generasi Data-To-Text merujuk kepada tugas menjana teks secara automatik dari data Bukan Linguistik.", "Penjanaan bahasa semulajadi adalah proses menghasilkan teks bahasa semula jadi yang koheren dari data Non-Linguistik."]}, {"en": ["We showed that simple, Unsupervised models using web counts can be devised for a variety of Nlp tasks.", "For the majority of tasks, we find that simple, Unsupervised models perform better when N-Gram frequencies are obtained from the web."], "ms": ["Kami menunjukkan bahawa model mudah dan tidak diawasi menggunakan jumlah web boleh dibuat untuk pelbagai tugas Nlp.", "Untuk kebanyakan tugas, kami mendapati bahawa model yang mudah dan tidak diawasi berfungsi dengan lebih baik apabila frekuensi N-Gram diperoleh dari web."]}, {"en": ["In particular, we define the task of classifying the purchase stage of each Tweet in a User\u00a1\u00afS Tweet sequence.", "Given a user \u00a1\u00af s Tweet sequence, we define the purchase stage identification task as automatically determining for each Tweet."], "ms": ["Khususnya, kami menentukan tugas mengklasifikasikan tahap pembelian setiap Tweet dalam urutan Tweet Pengguna.", "Memandangkan urutan Tweet pengguna, kami menentukan tugas pengenalan tahap pembelian sebagai menentukan secara automatik untuk setiap Tweet."]}, {"en": ["Cohn et al, the Annotators were instructed to distinguish between sure and possible alignments, depending on how certainly, in their opinion, two Predicates describe Verbalizations of the same event.", "Cohn et al, the Annotators were instructed to distinguish between sure and possible alignments, depending on how certainly, in their opinion, two Predicates describe the same event."], "ms": ["Cohn et al, Annotator telah diarahkan untuk membezakan antara penjajaran yang pasti dan mungkin, bergantung kepada bagaimana, pada pendapat mereka, dua Predicates menggambarkan Verbalizations peristiwa yang sama.", "Cohn et al, Annotator telah diarahkan untuk membezakan antara penjajaran yang pasti dan mungkin, bergantung kepada bagaimana, pada pendapat mereka, dua Predicates menggambarkan peristiwa yang sama."]}, {"en": ["It requires a high-risk strategy combining heightened learning rate and greedy processing of the context.", "The combination of a heightened learning rate and greedy processing results in very reasonable one-shot learning."], "ms": ["Ia memerlukan strategi berisiko tinggi yang menggabungkan kadar pembelajaran yang tinggi dan pemprosesan konteks yang tamak.", "Gabungan kadar pembelajaran yang tinggi dan pemprosesan yang tamak menghasilkan pembelajaran satu pukulan yang sangat munasabah."]}, {"en": ["Distinguishing between Antonyms and synonyms is a key task to achieve high performance in Nlp systems.", "From a computational point of view, distinguishing between Antonymy and synonymy is important for Nlp."], "ms": ["Penyingkiran antara Antonyms dan sinonim adalah tugas utama untuk mencapai prestasi tinggi dalam sistem Nlp.", "Dari sudut pandangan pengiraan, membezakan antara Antonymy dan synonymy adalah penting untuk Nlp."]}, {"en": ["Most existing approaches rely on the traditional vector space model.", "On the same topic, most Tdt approaches rely on traditional vector space models."], "ms": ["Kebanyakan pendekatan sedia ada bergantung kepada model ruang vektor tradisional.", "Pada topik yang sama, kebanyakan pendekatan Tdt bergantung kepada model ruang vektor tradisional."]}, {"en": ["We use the Gaussian prior smoothing method for the language model.", "A Gaussian prior is used for Regularizing the model."], "ms": ["Kami menggunakan kaedah smoothing Gaussian sebelum untuk model bahasa.", "Sebuah Gaussian sebelum digunakan untuk Mengatur model."]}, {"en": ["Several recent studies use high-level information to aid local event extraction systems.", "Current event extraction systems rely on local information."], "ms": ["Beberapa kajian baru-baru ini menggunakan maklumat peringkat tinggi untuk membantu sistem pengekstrakan acara tempatan.", "Sistem pengekstrakan peristiwa semasa bergantung kepada maklumat tempatan."]}, {"en": ["Li et al rank a set of candidate points of interest using language and temporal models.", "Li et al investigated the prediction of places of interest based on linear rank combination of content and temporal factors."], "ms": ["Li et al berpangkat satu set titik calon yang menarik menggunakan model bahasa dan temporal.", "Li et al menyelidiki ramalan tempat-tempat yang menarik berdasarkan gabungan pangkat linear kandungan dan faktor temporal."]}, {"en": ["Brown clustering is a commonly used Unsupervised method for grouping words into a hierarchy of clusters.", "Brown clustering is a Hierarchical clustering method that groups words into a Binary tree of classes."], "ms": ["Brown clustering adalah kaedah Unsupervised yang biasa digunakan untuk mengelompokkan perkataan ke dalam hierarki kluster.", "Brown clustering adalah kaedah clustering Hierarki yang mengkelompokkan perkataan ke dalam pokok binari kelas."]}, {"en": ["And Dinu and Lapata propose a probabilistic framework that models the meaning of words as a probability distribution over latent factors.", "Dinu and Lapata propose a probabilistic framework for representing word meaning and measuring similarity of words in context."], "ms": ["Dan Dinu dan Lapata mencadangkan rangka kerja probabilistik yang memodelkan makna perkataan sebagai pengagihan kebarangkalian berbanding faktor laten.", "Dinu dan Lapata mencadangkan rangka kerja probabilistik untuk mewakili makna perkataan dan mengukur persamaan perkataan dalam konteks."]}, {"en": ["The Penn discourse Treebank we use the Penn discourse Treebank, the largest available manually Annotated Corpora of discourse on top of one million word tokens from the Wall Street Journal.", "We use the Penn discourse Treebank, which is the largest Handannotated discourse relation corpus Annotated on 2312 Wall Street Journal articles."], "ms": ["Treebank wacana Penn kami menggunakan Treebank wacana Penn, Corpora wacana yang paling banyak terdapat secara manual di atas satu juta token perkataan dari Wall Street Journal.", "Kami menggunakan Penn discourse Treebank, yang merupakan korpus hubungan wacana Handannotated terbesar yang dianotasi pada artikel 2312 Wall Street Journal."]}, {"en": ["Then, the variable size Boews are Aggregated into Fixed-Length vectors by using Fk.", "We introduce a novel method to aggregate the Variable-Cardinality Boew into a Fixed-Length vector by using the Fk."], "ms": ["Kemudian, saiz pemboleh ubah Boews dikumpulkan ke dalam vektor Tetap-Length dengan menggunakan Fk.", "Kami memperkenalkan kaedah baru untuk menggabungkan Variable-Cardinality Boew ke dalam vektor Tetap-Length dengan menggunakan Fk."]}, {"en": ["5) transfer the semantic difference vector to the probability distribution over similarity scores by Fully-Connected neural network.", "To transfer the semantic difference vector to a probability distribution over similarity scores."], "ms": ["5) memindahkan vektor perbezaan semantik ke taburan kebarangkalian ke atas skor persamaan oleh rangkaian saraf Berhubung Penuh.", "Untuk memindahkan vektor perbezaan semantik kepada pengagihan kebarangkalian berbanding skor persamaan."]}, {"en": ["We used the Svm-Light-Tk 5 to train the Reranker with a combination of tree kernels and feature vectors.", "To calculate the Constituent-Tree kernels St and Sst we used the Svm-Light-Tk Toolkit."], "ms": ["Kami menggunakan Svm-Light-Tk 5 untuk melatih Reranker dengan gabungan kernel pokok dan vektor ciri.", "Untuk mengira kernel Constituent-Tree St dan Sst kami menggunakan Svm-Light-Tk Toolkit."]}, {"en": ["Maas et al presented a probabilistic model that combined Unsupervised and supervised techniques to learn word vectors, capturing semantic information as well as sentiment information.", "Maas et al present a probabilistic topic model that exploits sentiment supervision during training, leading to Rep- Resentations that include sentiment signals."], "ms": ["Maas et al menyampaikan model probabilistik yang menggabungkan teknik Unsupervised dan supervised untuk mempelajari vektor perkataan, menangkap maklumat semantik serta maklumat sentimen.", "Maas et al menyajikan model topik probabilistik yang mengeksploitasi pengawasan sentimen selama latihan, yang mengarah pada Rep-Resentations yang mencakupi isyarat sentimen."]}, {"en": ["We evaluate the proposed Triangulation method through Pivot translation experiments on the Europarl corpus, which is a Multilingual corpus including 21 European languages widely used in Pivot translation work.", "In order to evaluate the Retrieval performance of the proposed model on text of cross languages, we use the Europarl corpus 2 which is the collection of parallel texts in 11Languages from the proceedings of the European Parliament."], "ms": ["Kami menilai kaedah Triangulasi yang dicadangkan melalui eksperimen terjemahan Pivot pada korpus Europarl, yang merupakan korpus Multilingual termasuk 21 bahasa Eropah yang banyak digunakan dalam karya terjemahan Pivot.", "Untuk menilai prestasi pengambilan model yang dicadangkan pada teks bahasa silang, kami menggunakan corpus Europarl 2 yang merupakan koleksi teks selari di 11Languages dari prosiding Parlimen Eropah."]}, {"en": ["In later work, this idea was applied to the Disambiguation of translations in a bilingual dictionary.", "In later work, this idea was extended to the Disambiguation of translations in a bilingual dictionary."], "ms": ["Dalam kerja-kerja kemudian, idea ini digunakan untuk Penyahsulitan terjemahan dalam kamus dwibahasa.", "Dalam karya kemudian, idea ini diperluaskan kepada Penyahsulitan terjemahan dalam kamus dwibahasa."]}, {"en": ["In this paper, we study the problem of topic modeling for Hypertexts.", "In this paper, we have proposed a novel topic model for Hypertexts."], "ms": ["Dalam makalah ini, kami mengkaji masalah pemodelan topik untuk Hypertexts.", "Dalam makalah ini, kami telah mencadangkan model topik novel untuk Hypertexts."]}, {"en": ["Zhang and Clark proposed a Graphbased scoring model, with features based on complete words and word sequences.", "Zhang and Clark proposed a Wordbased CWS approach using a Discriminative Perceptron learning algorithm, which allows Word-Level information to be added as features."], "ms": ["Zhang dan Clark mencadangkan model pemarkahan berasaskan Grafik, dengan ciri-ciri berdasarkan perkataan lengkap dan urutan perkataan.", "Zhang dan Clark mencadangkan pendekatan CWS berasaskan Word menggunakan algoritma pembelajaran Perceptron Discriminative, yang membolehkan maklumat Word-Level ditambah sebagai ciri."]}, {"en": ["The current release of the Odin (Online Database of Interlinear text) Database contains over 150,000 linguistic examples in the form of Interlinear glossed text (Igt), an example of which is shown in fig . 1.", "The current release of the Odin (Online Database of Interlinear text) Database contains over 150 , 000 linguistic examples, from nearly 1 , 500 languages, extracted from Pdfs found on the web."], "ms": ["Pelepasan semasa Odin (Badan Data Dalam Talian teks Interlinear) Pangkalan data mengandungi lebih daripada 150,000 contoh linguistik dalam bentuk teks glossed Interlinear (Igt), contoh yang ditunjukkan dalam ara 1.", "Pelepasan semasa Odin (Badan Data Dalam Talian teks Interlinear) Pangkalan data mengandungi lebih daripada 150, 000 contoh linguistik, dari hampir 1, 500 bahasa, yang diekstrak dari Pdf yang terdapat di web."]}, {"en": ["Probabilistic Context-Free Grammars are commonly used in Parsing and grammar induction systems.", "Phrase structures and dependency structures are two of the most popular grammar Formalisms for statistical Parsing."], "ms": ["Grammar Bebas Konteks Probabilistik biasanya digunakan dalam sistem aruhan Parsing dan tatabahasa.", "Struktur frasa dan struktur dependensi adalah dua tatabahasa yang paling popular Formalisme untuk Penghuraian statistik."]}, {"en": ["For instance, chambers and Jurafsky model narrative flow in the style of Schankian scripts.", "Chambers and Jurafsky learn narrative Schemas, which mean coherent sequences or sets of events, from Unlabeled Corpora."], "ms": ["Sebagai contoh, ruang dan naratif model Jurafsky mengalir dalam gaya skrip Schankian.", "Chambers dan Jurafsky mempelajari Schemas naratif, yang bermaksud urutan koheren atau set peristiwa, dari Corpora Unlabeled."]}, {"en": ["In all the above models, the word Embeddings and the weights of the compositional layers are Optimized against a Task-Specific objective function.", "In all current deep compositional Distributional settings, the word Embeddings are internal parameters of the model."], "ms": ["Dalam semua model di atas, perkataan Embeddings dan berat lapisan komposisi dioptimumkan terhadap fungsi objektif Task-Specific.", "Dalam semua tetapan pengedaran komposisi mendalam semasa, perkataan Embeddings adalah parameter dalaman model."]}, {"en": ["Zelenko et al and Culotta and Sorensen used tree kernels for relation extraction.", "Zelenko et al used the kernel methods for extracting relations from text."], "ms": ["Zelenko et al dan Culotta dan Sorensen menggunakan kernel pokok untuk pengekstrakan hubungan.", "Zelenko et al menggunakan kaedah kernel untuk mengekstrak hubungan dari teks."]}, {"en": ["Gao et al modeled Interestingness between two documents with deep Nns.", "Gao et al model Interestingness between two documents with deep Nns."], "ms": ["Gao et al modeling Interestingness antara dua dokumen dengan Nns yang dalam.", "Gao et al model Interestingness antara dua dokumen dengan Nns yang dalam."]}, {"en": ["This paper describes our deep learning system for sentiment analysis of Tweets.", "We describe our deep Convolutional neural network for sentiment analysis of Tweets."], "ms": ["Kertas ini menerangkan sistem pembelajaran mendalam kami untuk analisis sentimen Tweets.", "Kami menerangkan rangkaian saraf konvolutional mendalam kami untuk analisis sentimen Tweets."]}, {"en": ["From this point, we propose a novel Inter-Weighted layer to measure the importance of each word.", "We propose an Inter-Weighted layer to measure the importance of different parts."], "ms": ["Dari sudut ini, kami mencadangkan lapisan Inter-Weighted novel untuk mengukur kepentingan setiap perkataan.", "Kami mencadangkan lapisan Inter-Weighted untuk mengukur kepentingan bahagian yang berbeza."]}, {"en": ["The Tweets are Tokenized using the Cmu Pos Tagger.", "Input to the Pos feature is obtained from the Twitter Partof-Speech Tagger."], "ms": ["Tweets Tokenized menggunakan Cmu Pos Tagger.", "Input ke ciri Pos diperoleh daripada Twitter Partof-Speech Tagger."]}, {"en": ["Vuli\u81b0 et al and sun et al apply a clustering algorithm to the input words and measure how well the clusters correspond to the word groupings in Verbnet via purity and Collocation.", "Vuli\u81b0 et al utilize the Vsm to produce target clusters which are compared to the groupings from the lexical resource via Collocation and purity."], "ms": ["Vuli et al dan sun et al menggunakan algoritma clustering untuk perkataan input dan mengukur seberapa baik clusters sesuai dengan perkataan clusterings dalam Verbnet melalui kesucian dan Collocation.", "Vuli et al menggunakan Vsm untuk menghasilkan kluster sasaran yang dibandingkan dengan kumpulan dari sumber leksikal melalui Collocation dan kesucian."]}, {"en": ["Although there are many language resources on the Internet, most Intercultural collaboration activities still lack Multilingual support.", "Bilingual Dictionaries, parallel Corpora, machine Translators, morphological Analyzers, and so on) on the Internet, most Intercultural collaboration activities are still lacking Multilingual support."], "ms": ["Walaupun terdapat banyak sumber bahasa di Internet, kebanyakan aktiviti kerjasama antara budaya masih kekurangan sokongan Multilingual.", "Kamus dwibahasa, Corpora selari, penterjemah mesin, Analisa morfologi, dan sebagainya) di Internet, kebanyakan aktiviti kerjasama antara budaya masih kurang sokongan Multilingual."]}, {"en": ["Semantic relatedness is a very important factor for the Coreference resolution task.", "Semantic relatedness is a very important factor for Coreference resolution, as noun phrases used to refer to the same entity should have a certain semantic relation."], "ms": ["Keterkaitan semantik adalah faktor yang sangat penting untuk tugas penyelesaian Coreference.", "Keterkaitan semantik adalah faktor yang sangat penting untuk resolusi Coreference, kerana frasa kata nama yang digunakan untuk merujuk kepada entiti yang sama harus mempunyai hubungan semantik tertentu."]}, {"en": ["Evaluation Metrics we report BLEU as the main evaluation metric of the question generation systems.", "Evaluation Metrics we use the Ribes and the BLEU scores as evaluation Metrics."], "ms": ["Metrik penilaian kami melaporkan BLEU sebagai metrik penilaian utama sistem penjanaan soalan.", "Metrik Penilaian kami menggunakan Ribes dan skor BLEU sebagai Metrik Penilaian."]}, {"en": ["We use negative sampling to approximate Softmax in the objective function.", "In our model, we use negative sampling discussed in to speed up the computation."], "ms": ["Kami menggunakan persampelan negatif untuk menghampiri Softmax dalam fungsi objektif.", "Dalam model kami, kami menggunakan persampelan negatif yang dibincangkan untuk mempercepat pengiraan."]}, {"en": ["As for English, we used a Pretrained Google news word Embeddings 2, which has shown high performance in several word similarity tasks.", "We used the Pre-Trained word Embeddings that are learned using the Word2Vec Toolkit on Google news Dataset."], "ms": ["Bagi bahasa Inggeris, kami menggunakan perkataan berita Google Pretrained Embeddings 2, yang telah menunjukkan prestasi yang tinggi dalam beberapa tugas kesamaan perkataan.", "Kami menggunakan Embedding perkataan Pra-Latih yang dipelajari menggunakan Word2Vec Toolkit pada Dataset berita Google."]}, {"en": ["Distributional Semantics is based on the hypothesis that words co-occurring in similar contexts tend to have similar meaning.", "Distributional Semantics builds on the assumption that the semantic similarity of words is strongly correlated to the overlap between their linguistic contexts."], "ms": ["Semantik Pengagihan didasarkan pada hipotesis bahawa kata-kata yang berlaku bersama dalam konteks yang serupa cenderung mempunyai makna yang serupa.", "Semantik Pengagihan membina andaian bahawa persamaan semantik perkataan sangat berkorelasi dengan pertindihan antara konteks linguistik mereka."]}, {"en": ["This representation is the basis for the Lexical-Semantic level that is included in the KR component.", "This representation consists of Distributional features, suffixes and word shapes of Math-W-2-1-1-32 and its local neighbors."], "ms": ["Perwakilan ini adalah asas bagi tahap Leksisikal-Semantik yang termasuk dalam komponen KR.", "Perwakilan ini terdiri daripada ciri-ciri, akhiran dan bentuk perkataan Math-W-2-1-1-32 dan jiran-jiran tempatannya."]}, {"en": ["Although tag is a class of tree rewriting systems, a derivation relation can be defined on strings in the following way.", "Tag is a Tree-Rewriting system: the derivation process consists in applying operations to trees in order to obtain a (derived) tree whose sequence of leaves is a sentence."], "ms": ["Walaupun tag adalah kelas sistem penulisan semula pokok, hubungan terbitan boleh ditakrifkan pada rentetan dengan cara berikut.", "Tag adalah sistem Penulisan Semula Pokok: proses terbitan terdiri daripada menggunakan operasi pada pokok untuk mendapatkan pokok (berasal) yang urutan daunnya adalah ayat."]}, {"en": ["Details about SVM and Kfd can be found in.", "Details about SVM and Krr can be found in."], "ms": ["Maklumat mengenai SVM dan Kfd boleh didapati di.", "Maklumat mengenai SVM dan Krr boleh didapati di."]}, {"en": ["We used Crfsuite and the glove word vector.", "We used glove 10 to learn 300-Dimensional word Embeddings."], "ms": ["Kami menggunakan Crfsuite dan perkataan sarung tangan vektor.", "Kami menggunakan sarung tangan 10 untuk mempelajari Embedding perkataan 300-Dimensional."]}, {"en": ["This paper presents novel methods to improve neural entity recognition tasks.", "In this paper, we propose an entity recognition system that improves this neural architecture."], "ms": ["Kertas ini membentangkan kaedah baru untuk meningkatkan tugas pengiktirafan entiti saraf.", "Dalam makalah ini, kami mencadangkan sistem pengiktirafan entiti yang meningkatkan seni bina saraf ini."]}, {"en": ["The Pinchak and LIN system is unable to assign individual weights to different question contexts, even though not all question contexts are equally important.", "Unfortunately, Pinchak and LIN use a brittle Generative model when combining question contexts that assumes all contexts are equally important."], "ms": ["Sistem Pinchak dan LIN tidak dapat memberikan berat individu kepada konteks soalan yang berbeza, walaupun tidak semua konteks soalan sama pentingnya.", "Malangnya, Pinchak dan LIN menggunakan model Generatif rapuh apabila menggabungkan konteks soalan yang menganggap semua konteks sama pentingnya."]}, {"en": ["Here, \u00a1\u00b0Clothed\u00a1\u00b1 is the pun and \u00a1\u00b0Closed\u00a1\u00b1 is the target.", "The word \u00a1\u00b0 Granite \u00a1\u00b1 is a pun with the target \u00a1\u00b0 granted \u00a1\u00b1."], "ms": ["Di sini, Clothed adalah pun dan Closed adalah sasaran.", "Perkataan Granite adalah pun dengan sasaran yang diberikan kepada anda."]}, {"en": ["However, due to the incremental nature of Shift-Reduce Parsing, the right-hand side constituents of the current word cannot be used to guide the action at each step.", "On the right hand side of the current word is not utilized, which is a relative weakness of Shift-Reduce Parsing."], "ms": ["Walau bagaimanapun, disebabkan oleh sifat tambahan Pengubahsuaian Shift-Reduce, juzuk sebelah kanan perkataan semasa tidak boleh digunakan untuk membimbing tindakan pada setiap langkah.", "Di sebelah kanan perkataan semasa tidak digunakan, yang merupakan kelemahan relatif Penghuraian Shift-Reduce."]}, {"en": ["Lebret et al generate the first sentence of a biography by a conditional neural language model.", "Lebret et al generate the first sentence of a biography using a conditional neural language model."], "ms": ["Lebret et al menghasilkan ayat pertama biografi oleh model bahasa saraf bersyarat.", "Lebret et al menghasilkan ayat pertama biografi menggunakan model bahasa neural bersyarat."]}, {"en": ["We use the movie reviews Dataset from Zaidan et al that was originally released by Pang and Lee.", "We used the first 200 movie reviews from the Dataset provided by Zaidan et al, with an equal distribution of positive and negative examples."], "ms": ["Kami menggunakan ulasan filem Dataset dari Zaidan et al yang pada asalnya dikeluarkan oleh Pang dan Lee.", "Kami menggunakan 200 ulasan filem pertama dari Dataset yang disediakan oleh Zaidan et al, dengan pengagihan yang sama contoh positif dan negatif."]}, {"en": ["On Simlex999, our model is superior to six strong Baselines, including the state-of-the-art Word2Vec Skip-Gram model by as much as 5.5\u201316.7% in Spearman \u2019 s \u03a1 score.", "On the Simlex999 word similarity Dataset, our model achieves a Spearman \u2019 s Math-W-1-1-0-111 score of 0 . 517, compared to 0 . 462 of the state-of-the-art Word2Vec model."], "ms": ["Pada Simlex999, model kami lebih unggul daripada enam Baselines yang kuat, termasuk model Skip-Gram Word2Vec canggih sebanyak 5.5 hingga 16.7% dalam skor Spearman dan skor.", "Pada Simlex999 perkataan persamaan Dataset, model kami mencapai skor Spearman s Math-W-1-1-0-111 0. 517, berbanding 0. 462 daripada model Word2Vec terkini."]}, {"en": ["Instead, our source and target domains were taken from specifications in, which we assumed to ensure a more stratified and generally applicable set of domains involved in meaning shifts.", "Our domains were taken from conceptual specifications in, which cluster semantically and Encyclopedically related concepts to ensure a generally applicable set of domains involved in meaning shifts."], "ms": ["Sebaliknya, domain sumber dan sasaran kami diambil dari spesifikasi di mana kami menganggap untuk memastikan set domain yang lebih berstrata dan umumnya terpakai yang terlibat dalam perubahan makna.", "Domain kami diambil dari spesifikasi konseptual di, yang merangkumi konsep yang berkaitan secara semantikal dan Encyclopedically untuk memastikan satu set domain yang umumnya berkaitan dengan perubahan makna."]}, {"en": ["We use the maximum entropy Segmenter of to segment the Chinese part of the Fbis corpus.", "We segment the Chinese half of the corpus using the maximum entropy Segmenter from."], "ms": ["Kami menggunakan Segmenter entropi maksimum untuk segmen bahagian Cina korpus Fbis.", "Kami membahagikan separuh korpus Cina menggunakan Segmenter entropi maksimum dari."]}, {"en": ["This is, in part, inspired by the recent Conll shared task, which was the first evaluation of syntactic and semantic dependency Parsing to include Unmarkable Nominals.", "In particular, the recent shared tasks of Conll 2008 tackled joint Parsing of syntactic and semantic Dependencies."], "ms": ["Ini sebahagiannya diilhamkan oleh tugas bersama Conll baru-baru ini, yang merupakan penilaian pertama Parsing dependensi sintaktik dan semantik untuk memasukkan Nominal Tidak Tertanda.", "Khususnya, tugas-tugas bersama Conll 2008 menangani Penghuraian bersama sintaksis dan semantik Dependencies."]}, {"en": ["In this paper, we study a Parsing technique whose purpose is to improve the practical efficiency of Rcl Parsers.", "In this paper shows that some kind of guiding technique has to be considered when one wants to increase Parsing efficiency."], "ms": ["Dalam makalah ini, kami mengkaji teknik Parsing yang tujuannya adalah untuk meningkatkan kecekapan praktikal Rcl Parsers.", "Dalam makalah ini menunjukkan bahawa beberapa jenis teknik panduan harus dipertimbangkan ketika seseorang ingin meningkatkan kecekapan Parsing."]}, {"en": ["Next, we utilize Tensor Factorization to perform Tensor decomposition, and the representations of reviewers and products are embedded in a latent vector space by collective learning.", "Between reviewers and products, we employ Tensor decomposition to learn the Embeddings of the reviewers and products in a vector space."], "ms": ["Seterusnya, kami menggunakan Tensor Factorization untuk melakukan penguraian Tensor, dan perwakilan pengulas dan produk tertanam dalam ruang vektor terpendam dengan pembelajaran kolektif.", "Antara pengulas dan produk, kami menggunakan penguraian Tensor untuk mempelajari Embeddings pengulas dan produk dalam ruang vektor."]}, {"en": ["In the context of this discussion, we will refer to the target partitions, or clusters, as classes, referring only to hypothesized clusters as clusters.", "In the context of this discussion, we will refer to the target partitions, or clusters, as classes, referring only to hypothesized clusters."], "ms": ["Dalam konteks perbincangan ini, kita akan merujuk kepada partisi sasaran, atau kluster, sebagai kelas, merujuk hanya kepada kluster hipotesis sebagai kluster.", "Dalam konteks perbincangan ini, kita akan merujuk kepada partisi sasaran, atau kluster, sebagai kelas, merujuk hanya kepada kluster hipotesis."]}, {"en": ["The Pdtb is the largest corpus Annotated for discourse relations, formed by newspaper articles from the Wall Street Journal.", "The Penn discourse Treebank is the largest available Annotated Corpora of discourse relations over 2,312 Wall Street Journal articles."], "ms": ["Pdtb adalah korpus terbesar Annotated untuk hubungan wacana, yang dibentuk oleh artikel akhbar dari Wall Street Journal.", "Penn discourse Treebank adalah Corpora wacana wacana yang terbesar yang tersedia di atas 2,312 artikel Wall Street Journal."]}, {"en": ["However, topic models alone cannot model the Dynamics of a conversation.", "However, most models of topic Segmentation ignore the social aspect of conversations."], "ms": ["Walau bagaimanapun, model topik sahaja tidak boleh memodelkan Dinamik perbualan.", "Walau bagaimanapun, kebanyakan model Segmentasi topik mengabaikan aspek sosial perbualan."]}, {"en": ["Recently, new reordering strategies have been proposed such as the reordering of each source sentence to match the word order in the corresponding target sentence, see Kanthak et al and.", "Recently, new reordering strategies have been proposed in the literature on Smt such as the reordering of each source sentence to match the word order in the corresponding target sentence, see Kanthak et al and Crego et al."], "ms": ["Baru-baru ini, strategi penyusunan semula baru telah dicadangkan seperti penyusunan semula setiap ayat sumber untuk sepadan dengan susunan perkataan dalam ayat sasaran yang sepadan, lihat Kanthak et al dan.", "Baru-baru ini, strategi penyusunan semula baru telah dicadangkan dalam kesusasteraan mengenai Smt seperti penyusunan semula setiap ayat sumber untuk sepadan dengan susunan perkataan dalam ayat sasaran yang sepadan, lihat Kanthak et al dan Crego et al."]}, {"en": ["We therefore study which factors contribute to the uptake of (hip Hop-Related) Anglicisms in an Online community of German hip hop fans over a span of 11 years.", "In this study, we examined factors hypothesized to influence the propagation of words through a community of speakers, focusing on Anglicisms in a German hip hop discussion."], "ms": ["Oleh itu, kami mengkaji faktor-faktor yang menyumbang kepada pengambilan Anglicisme (hip Hop-Related) dalam komuniti dalam talian peminat hip hop Jerman dalam tempoh 11 tahun.", "Dalam kajian ini, kami mengkaji faktor-faktor yang hipotesis untuk mempengaruhi penyebaran kata-kata melalui komuniti penutur, yang memberi tumpuan kepada Anglicisms dalam perbincangan hip hop Jerman."]}, {"en": ["We introduce a novel graph that incorporates three fine-grained relations.", "For the model, we introduce three novel fine-grained relations."], "ms": ["Kami memperkenalkan grafik novel yang menggabungkan tiga hubungan halus.", "Untuk model, kami memperkenalkan tiga hubungan halus novel."]}, {"en": ["Experimental results show that our model Outperforms state-of-the-art methods in both the supervised and Semi-Supervised settings.", "Our experiments show that our model achieves better accuracy than existing supervised and Semi-Supervised models."], "ms": ["Hasil eksperimen menunjukkan bahawa model kami Outperforms kaedah canggih dalam kedua-dua tetapan yang diawasi dan Semi-Supervised.", "Eksperimen kami menunjukkan bahawa model kami mencapai ketepatan yang lebih baik daripada model yang diselia dan Semi-Supervised yang ada."]}, {"en": ["Paraphrase identification is the task of judging if two texts express the same or very similar meaning.", "Paraphrase identification is the problem to determine whether two sentences have the same meaning, and is the objective of the task 1 of Semeval 2015 workshop (Cite-P-14-3-19)."], "ms": ["Pengenalan frasa adalah tugas menilai jika dua teks menyatakan makna yang sama atau sangat serupa.", "Pengenalpastian frasa adalah masalah untuk menentukan sama ada dua ayat mempunyai makna yang sama, dan merupakan objektif tugas 1 bengkel Semeval 2015 (Cite-P-14-3-19)."]}, {"en": ["Reiter and Frank exploit Linguistically-Motivated features in a supervised approach to distinguish between generic and specific NPS.", "Reiter and Frank use a wide range of syntactic and semantic features to train a supervised Classifier for identifying generic NPS."], "ms": ["Reiter dan Frank mengeksploitasi ciri-ciri Linguistik-Motivated dalam pendekatan yang diawasi untuk membezakan antara NPS generik dan khusus.", "Reiter dan Frank menggunakan pelbagai ciri sintaktik dan semantik untuk melatih Classifier yang diselia untuk mengenal pasti NPS generik."]}, {"en": ["Below, I show how this can be done by extending a K-Dnf 4 Learner of to a Paradigm-Learner.", "I show how this can be done on an example of the classical K-Dnf Learner."], "ms": ["Di bawah ini, saya menunjukkan bagaimana ini boleh dilakukan dengan memanjangkan K-Dnf 4 Learner kepada Paradigm-Learner.", "Saya menunjukkan bagaimana ini boleh dilakukan pada contoh K-Dnf Learner klasik."]}, {"en": ["To reduce the search space, we add a transition to an existing Non-Projective Parsing algorithm.", "First, we add a transition to an existing Non-Projective Parsing algorithm, so it can perform either projective or Non-Projective Parsing."], "ms": ["Untuk mengurangkan ruang carian, kami menambah peralihan ke algoritma Penghuraian Bukan Projektif yang ada.", "Pertama, kita menambah peralihan kepada algoritma Penghuraian Bukan Projektif yang sedia ada, jadi ia boleh melaksanakan sama ada penghuraian projektif atau bukan projektif."]}, {"en": ["To demonstrate this we have extracted paraphrase rules from our Annotations using the grammar induction algorithm from Cohn and Lapata.", "From this we extracted grammar rules following the technique described in Cohn and Lapata."], "ms": ["Untuk menunjukkan ini, kami telah mengekstrak peraturan parafrasa dari Annotasi kami menggunakan algoritma induksi tatabahasa dari Cohn dan Lapata.", "Dari ini kita mengekstrak peraturan tatabahasa mengikut teknik yang diterangkan dalam Cohn dan Lapata."]}, {"en": ["Cite-P-18-1-11 proved that Leveraging topics at multiple Granularity can model short texts more precisely.", "Cite-P-18-3-7 presented a general framework to expand the short and sparse text by Appending topic."], "ms": ["Cite-P-18-1-11 membuktikan bahawa Memanfaatkan topik di pelbagai Granularity dapat memodelkan teks pendek dengan lebih tepat.", "Cite-P-18-3-7 membentangkan rangka kerja umum untuk memperluaskan teks pendek dan jarang mengikut topik Pembayaran."]}, {"en": ["The remaining passages are clustered using a combination of Hierarchical clustering and N-Bin classification.", "Passages are clustered using a combination of Hierarchical clustering and N-Bin classification."], "ms": ["Laluan-laluan yang tinggal dikelompokkan menggunakan gabungan kluster Hierarki dan klasifikasi N-Bin.", "Passages dikelompokkan menggunakan gabungan kluster Hierarki dan klasifikasi N-Bin."]}, {"en": ["With the aid of this tool, a domain expert reduced her model building time from months to two days.", "With the aid of this tool a domain expert was able to drastically reduce her model building time from months to two days."], "ms": ["Dengan bantuan alat ini, pakar domain mengurangkan masa bangunan modelnya dari bulan ke dua hari.", "Dengan bantuan alat ini, pakar domain dapat mengurangkan masa bangunan modelnya secara drastik dari bulan ke dua hari."]}, {"en": ["In this paper we adopt Partial-Label learning with conditional random fields to make use of this valuable knowledge for Semi-Supervised Chinese word Segmentation.", "In this paper we show the effectiveness of Partial-Label learning in digesting the Encoded knowledge from Wikipedia data."], "ms": ["Dalam makalah ini, kami menggunakan pembelajaran Label-Secara bersyarat dengan medan rawak bersyarat untuk menggunakan pengetahuan berharga ini untuk Segmentasi perkataan Cina Semi-Supervised.", "Dalam makalah ini kami menunjukkan keberkesanan pembelajaran Separa-Label dalam mencerna pengetahuan yang dikodkan dari data Wikipedia."]}, {"en": ["Word Embedding techniques aim to use continuous Low-Dimension vectors representing the features of the words, captured in context.", "Word Embedding provides an unique property to capture Semantics and syntactic information of different words."], "ms": ["Teknik Embedding Perkataan bertujuan untuk menggunakan vektor Low-Dimension berterusan yang mewakili ciri-ciri perkataan, yang ditangkap dalam konteks.", "Embedding Word menyediakan sifat unik untuk menangkap maklumat Semantik dan sintaktik perkataan yang berbeza."]}, {"en": ["Zelenko et al proposed a kernel between two Parse trees, which Recursively matches nodes from roots to leaves in a Top-Down manner.", "Zelenko et al proposed extracting relations by computing kernel functions between Parse trees."], "ms": ["Zelenko et al mencadangkan kernel antara dua pokok Parse, yang secara Rekursif sepadan nod dari akar ke daun dengan cara Top-Down.", "Zelenko et al mencadangkan mengekstrak hubungan dengan pengkomputeran fungsi kernel antara pokok Parse."]}, {"en": ["In addition to Pos-Tags, we use the Pre-Trained word Embeddings available from Google 5 trained using the Skip-Gram objective as input features for our Convolutional neural network.", "As textual features, we use the Pretrained Google news word Embeddings, obtained by training the Skip-Gram model with negative sampling."], "ms": ["Sebagai tambahan kepada Pos-Tags, kami menggunakan Embedding perkataan Pra-Latihan yang tersedia dari Google 5 yang dilatih menggunakan objektif Skip-Gram sebagai ciri input untuk rangkaian saraf Konvolusi kami.", "Sebagai ciri teks, kami menggunakan Embedding perkataan berita Google Pretrained, yang diperoleh dengan melatih model Skip-Gram dengan persampelan negatif."]}, {"en": ["The random forest algorithm is a decision tree algorithm which uses multiple random trees to vote for an overall classification of the given input.", "Random forest is an ensemble method that learns many classification trees and predicts an aggregation of their result."], "ms": ["Algoritma hutan rawak adalah algoritma pokok keputusan yang menggunakan pelbagai pokok rawak untuk memilih klasifikasi keseluruhan input yang diberikan.", "Hutan rawak adalah kaedah ensemble yang mempelajari banyak pokok klasifikasi dan meramalkan agregasi hasilnya."]}, {"en": ["Rationales are never given during training.", "Rationales are never provided during training."], "ms": ["Rasional tidak pernah diberikan semasa latihan.", "Rasional tidak pernah disediakan semasa latihan."]}, {"en": ["These include the Karma system and the Att-Meta project.", "The most prominent approaches include the Karma system and the Att-Meta project."], "ms": ["Ini termasuk sistem Karma dan projek Att-Meta.", "Pendekatan yang paling menonjol termasuk sistem Karma dan projek Att-Meta."]}, {"en": ["We extract Hierarchical rules from the aligned parallel texts using the constraints developed by Chiang.", "We extracted Scfg rules from the parallel corpus using the standard Heuristics and filtering strategies."], "ms": ["Kami mengekstrak peraturan Hierarki daripada teks selari yang sejajar menggunakan kekangan yang dibangunkan oleh Chiang.", "Kami mengekstrak peraturan Scfg dari korpus selari menggunakan Heuristik standard dan strategi penapisan."]}, {"en": ["In this paper, we incorporate the Mers model into a Stateof-The-Art linguistically Syntax-Based Smt model, the Tree-To-String alignment template model.", "In this work, we investigate the use of rule Markov models in the context of Tree-856 To-String translation."], "ms": ["Dalam makalah ini, kami memasukkan model Mers ke dalam model Smt Berasaskan Syntax linguistik Stateof-The-Art, model templat penjajaran Tree-To-String.", "Dalam kerja ini, kami menyiasat penggunaan model Markov peraturan dalam konteks terjemahan Tree-856 To-String."]}, {"en": ["For the evaluation, we used the same measures as Brent, Venkataraman and Goldwater, namely token precision, recall and F-Score.", "For the evaluation, we use the same measures as Brent and Goldwater et al, namely Segmentation precision, recall and F-Score."], "ms": ["Untuk penilaian, kami menggunakan langkah yang sama seperti Brent, Venkataraman dan Goldwater, iaitu ketepatan token, penarikan balik dan F-Score.", "Untuk penilaian, kami menggunakan langkah yang sama seperti Brent dan Goldwater et al, iaitu ketepatan Segmentasi, penarikan balik dan F-Score."]}, {"en": ["In this Demo paper, we present Need4Tweet, a Twitterbot for named entity extraction (Nee) and Disambiguation (Ned) for Tweets.", "In this Demo, we introduce Need4Tweet, a Twitterbot for a combined system for Nee and Ned in Tweets."], "ms": ["Dalam makalah Demo ini, kami membentangkan Need4Tweet, Twitterbot untuk pengekstrakan entiti bernama (Nee) dan Disambiguation (Ned) untuk Tweets.", "Dalam Demo ini, kami memperkenalkan Need4Tweet, Twitterbot untuk sistem gabungan untuk Nee dan Ned dalam Tweets."]}, {"en": ["For example, in they proposed a Corpus-Based sentence similarity measure as a function of string similarity, word similarity and common word order similarity.", "Islam and Inkpen proposed a Corpus-Based sentence similarity measure as a function of string similarity, word similarity and common word order similarity."], "ms": ["Sebagai contoh, dalam mereka mencadangkan ukuran persamaan ayat berasaskan Corpus sebagai fungsi persamaan rentetan, persamaan perkataan dan persamaan pesanan perkataan biasa.", "Islam dan Inkpen mencadangkan ukuran persamaan ayat berasaskan Corpus sebagai fungsi persamaan rentetan, persamaan perkataan dan persamaan pesanan perkataan biasa."]}, {"en": ["This representation is the basis for the Lexical-Semantic level that is included in the KR component.", "This representation consists of two facets: a Segmentation into minimal semantic units, and a labeling of some of those units with semantic classes."], "ms": ["Perwakilan ini adalah asas bagi tahap Leksisikal-Semantik yang termasuk dalam komponen KR.", "Perwakilan ini terdiri daripada dua aspek: Segmentasi menjadi unit semantik minimum, dan pelabelan beberapa unit tersebut dengan kelas semantik."]}, {"en": ["Luong and Manning , 2015) Adapts an already existing Nmt system to a new domain by further training on the In-Domain data only.", "Luong et al adapted an Nmt model trained on general domain data with further training on In-Domain data only."], "ms": ["Luong dan Manning (2015) Mengadaptasi sistem Nmt yang sudah ada ke domain baru dengan latihan lebih lanjut mengenai data In-Domain sahaja.", "Luong et al menyesuaikan model Nmt yang dilatih pada data domain umum dengan latihan lanjut pada data In-Domain sahaja."]}, {"en": ["The result shows that 98.3% of Distractors generated by our methods are reliable.", "Evaluation shows that 98 . 3% of Distractors are reliable when generated by our method."], "ms": ["Hasilnya menunjukkan bahawa 98.3% daripada Distractors yang dihasilkan oleh kaedah kami boleh dipercayai.", "Penilaian menunjukkan bahawa 98.3% daripada Distractors boleh dipercayai apabila dihasilkan oleh kaedah kami."]}, {"en": ["We explore whether Coreference can improve the learning process.", "We explore whether using Coreference can improve the learning process."], "ms": ["Kami meneroka sama ada Coreference boleh meningkatkan proses pembelajaran.", "Kami meneroka sama ada menggunakan Coreference boleh meningkatkan proses pembelajaran."]}, {"en": ["Similar to their work, we further integrate the Multi-Word Phrasal lexical Disambiguation model to the N-Gram prediction model, paraphrase model and translation model of our system.", "With the help of the Phrasal lexical Disambiguation model, we build three models: a Context-Sensitive N-Gram prediction model, a paraphrase suggestion model, and a translation model."], "ms": ["Sama seperti kerja mereka, kami mengintegrasikan model Disambiguasi leksikal Phrasal Multi-Word ke model ramalan N-Gram, model parafrasa dan model terjemahan sistem kami.", "Dengan bantuan model Disambiguasi leksikal Phrasal, kami membina tiga model: model ramalan N-Gram Konteks-Sensitif, model cadangan parafrasa, dan model terjemahan."]}, {"en": ["So, we plan to design a supervised SRL system too.", "Systems, we plan to design a supervised SRL system."], "ms": ["Oleh itu, kami merancang untuk merancang sistem SRL yang diawasi juga.", "Sistem, kami merancang untuk merancang sistem SRL yang diawasi."]}, {"en": ["Our experimental results show that our proposed approach performs well for sentence dependency tagging.", "Our experimental results show that our proposed sentence type tagging method works very well, even for the minority categories."], "ms": ["Hasil eksperimen kami menunjukkan bahawa pendekatan yang dicadangkan kami berfungsi dengan baik untuk penandaan dependensi ayat.", "Hasil eksperimen kami menunjukkan bahawa kaedah penandaan jenis ayat yang dicadangkan kami berfungsi dengan baik, walaupun untuk kategori minoriti."]}, {"en": ["In addition, we have compared the results with a system which translates selected document features.", "In addition, we have compared our approach with other based on feature translation."], "ms": ["Di samping itu, kami telah membandingkan hasilnya dengan sistem yang menterjemahkan ciri dokumen yang dipilih.", "Di samping itu, kami telah membandingkan pendekatan kami dengan yang lain berdasarkan terjemahan ciri."]}, {"en": ["Cohn and Lapata formulated sentence compression as a Tree-To-Tree rewrite problem.", "Cohn and Lapata , 2007) cast the sentence compression problem as a Tree-To-Tree rewriting task."], "ms": ["Cohn dan Lapata merumuskan pemampatan ayat sebagai masalah penulisan semula Pokok-Ke-Tree.", "Cohn dan Lapata, 2007) membuang masalah pemampatan ayat sebagai tugas penulisan semula Pokok-Ke-Tree."]}, {"en": ["In particular, the Vector-Space word representations learned by a neural network have been shown to successfully improve various Nlp tasks.", "Multi-Task learning has resulted in successful systems for various Nlp tasks, especially in Cross-Lingual settings."], "ms": ["Khususnya, perwakilan perkataan Vector-Space yang dipelajari oleh rangkaian saraf telah ditunjukkan untuk berjaya meningkatkan pelbagai tugas Nlp.", "Pembelajaran Multi-Task telah menghasilkan sistem yang berjaya untuk pelbagai tugas Nlp, terutamanya dalam tetapan Cross-Lingual."]}, {"en": ["Bethard et al and Kim and Hovy explore the usefulness of semantic roles provided by Framenet for both opinion holder and opinion target extraction.", "Kim and Hovy and Bethard et al examine the usefulness of semantic roles provided by Framenet 1 for both Oh and opinion target extraction."], "ms": ["Bethard et al dan Kim dan Hovy meneroka kegunaan peranan semantik yang disediakan oleh Framenet untuk kedua-dua pemegang pendapat dan pengekstrakan sasaran pendapat.", "Kim dan Hovy dan Bethard et al mengkaji kegunaan peranan semantik yang disediakan oleh Framenet 1 untuk kedua-dua Oh dan pengekstrakan sasaran pendapat."]}, {"en": ["Our Decoder is implemented as a Cascade of weighted Finite-State transducers using the Functionalities of the Openfst library.", "The Decoder is implemented with weighted finite state transducers using standard operations available in the Openfst libraries."], "ms": ["Decoder kami dilaksanakan sebagai Cascade transduser Finite-State berwajaran menggunakan Fungsi perpustakaan Openfst.", "Decoder dilaksanakan dengan transduser keadaan terhingga berwajaran menggunakan operasi standard yang terdapat di perpustakaan Openfst."]}, {"en": ["Fung and Cheung present the first exploration of very Non-Parallel Corpora, using a document similarity measure based on bilingual lexical matching defined over mutual information scores on word pairs.", "Fung and Cheung , 2004, for instance, present the first exploration of very Nonparallel Corpora using a document similarity measure based on bilingual lexical matching defined over mutual information scores on word pairs."], "ms": ["Fung dan Cheung membentangkan penerokaan pertama Corpora Non-Parallel yang sangat, menggunakan ukuran kesamaan dokumen berdasarkan pada pemadanan leksikal dwibahasa yang ditakrifkan melalui skor maklumat bersama pada pasangan kata.", "Fung dan Cheung, 2004, misalnya, membentangkan penerokaan pertama Corpora Nonparallel menggunakan ukuran persamaan dokumen berdasarkan pada pemadanan leksikal dwibahasa yang ditakrifkan melalui skor maklumat bersama pada pasangan perkataan."]}, {"en": ["Under the Nist measure, we achieve results in the range of the state-of-the-art Phrase-Based system of Koehn et al for In-Coverage examples of the Lfgbased system.", "In an experimental evaluation on the Test-Set that was used in Koehn et al we show that for examples that are in coverage of the Grammar-Based system, we can achieve Stateof-The-Art quality on N-Gram based evaluation measures."], "ms": ["Di bawah ukuran Nist, kami mencapai hasil dalam pelbagai sistem Berasaskan Frasa terkini Koehn et al untuk contoh In-Coverage sistem berasaskan Lfg.", "Dalam penilaian eksperimen pada Test-Set yang digunakan dalam Koehn et al kami menunjukkan bahawa untuk contoh yang berada dalam liputan sistem Berasaskan Grammar, kami dapat mencapai kualiti Stateof-The-Art pada langkah penilaian berasaskan N-Gram."]}, {"en": ["These make Docchat as a general response generation solution to Chatbots, with high adaptation capability.", "Evaluation shows that Docchat is a perfect complement for Chatbot engines."], "ms": ["Ini menjadikan Docchat sebagai penyelesaian penjanaan tindak balas umum kepada Chatbots, dengan keupayaan penyesuaian yang tinggi.", "Penilaian menunjukkan bahawa Docchat adalah pelengkap sempurna untuk enjin Chatbot."]}, {"en": ["Autotutor eschews the Pattern-Based approach entirely in favor of a Bag-Of-Words LSA approach.", "Autotutor eschews the Pattern-Based approach entirely in favor of a bow LSA approach."], "ms": ["Autotutor menghindari pendekatan Berasaskan Pola sepenuhnya memihak kepada pendekatan Bag-Of-Words LSA.", "Autotutor mengelakkan pendekatan berasaskan corak sepenuhnya memihak kepada pendekatan LSA busur."]}, {"en": ["Le and Mikolov introduced Paragraph-Level vectors, a Fixed-Length feature representations for Variable-Length texts.", "Le and Mikolov introduce paragraph vector to learn document representation from Semantics of words."], "ms": ["Le dan Mikolov memperkenalkan vektor Paragraf-Level, perwakilan ciri Tetap-Length untuk teks Variable-Length.", "Le dan Mikolov memperkenalkan vektor perenggan untuk mempelajari perwakilan dokumen dari Semantik perkataan."]}, {"en": ["Through extensive experiments on Real-World Datasets, we demonstrate the effectiveness of Neuraldater over existing state-of-the-art approaches.", "Through extensive experiments on Real-World Datasets, we find that Neuraldater significantly Outperforms state-of-the-art baseline."], "ms": ["Melalui eksperimen yang luas pada Dataset Dunia Nyata, kami menunjukkan keberkesanan Neuraldater berbanding pendekatan canggih yang sedia ada.", "Melalui eksperimen yang luas pada Dataset Dunia Nyata, kami mendapati bahawa Neuraldater dengan ketara Outperforms state-of-the-art asas."]}, {"en": ["A wide variety of language problems can be treated as or cast into a tree Annotating problem.", "And thus predicting and recovering empty categories can be cast as a tree Annotating problem."], "ms": ["Pelbagai masalah bahasa boleh dirawat sebagai atau dibuang ke dalam masalah Annotating pokok.", "Dan dengan itu meramalkan dan memulihkan kategori kosong boleh dibuang sebagai masalah Annotating pokok."]}, {"en": ["We see that in the no context, partial Profile and full profile conditions, Annotators often selected the \u00a1\u00b0Neutral\u00a1\u00b1 option (X-Axis) when the model inferred the true label was \u00a1\u00b0Clinton\u00a1\u00b1 or \u00a1\u00b0Trump\u00a1\u00b1 (Y-Axis).", "In the no context, partial Profile and full profile conditions, Annotators often selected the \u00a1\u00b0 neutral \u00a1\u00b1 option (X-Axis) when the model inferred."], "ms": ["Kami melihat bahawa dalam konteks tidak, profil separa dan keadaan profil penuh, Annotator sering memilih pilihan Neutral (X-Paksi) apabila model menyimpulkan label sebenar adalah Clinton atau Trump (Y-Paksi).", "Dalam konteks tiada, profil separa dan keadaan profil penuh, Annotator sering memilih pilihan neutral (X-Paksi) apabila model disimpulkan."]}, {"en": ["An alternation is a pattern in which a number of words share the same relationship between? a pair of senses.", "An alternation is a pattern in which a number of words share the same relationship between a pair of senses."], "ms": ["Pergantian adalah corak di mana beberapa perkataan berkongsi hubungan yang sama antara sepasang deria.", "Pergantian adalah corak di mana beberapa perkataan berkongsi hubungan yang sama antara sepasang deria."]}, {"en": ["Barzilay and Mckeown acquire paraphrases from a Monolingual parallel corpus using a Co-Training algorithm.", "Barzilay and Mckeown extracted both Single-And Multiple-Word paraphrases from a Sentence-Aligned corpus for use in Multi-Document summarization."], "ms": ["Barzilay dan Mckeown memperoleh parafrasa daripada korpus selari Monolingual menggunakan algoritma Co-Training.", "Barzilay dan Mckeown mengekstrak kedua-dua frasa Single-And Multiple-Word dari korpus Sentence-Aligned untuk digunakan dalam ringkasan Multi-Document."]}, {"en": ["In this paper, we propose to improve the robustness of Nmt models with adversarial stability training.", "In this work, we improve the robustness of Encoder representations against noisy perturbations with adversarial learning."], "ms": ["Dalam kertas kerja ini, kami mencadangkan untuk meningkatkan kekukuhan model Nmt dengan latihan kestabilan musuh.", "Dalam kerja ini, kami meningkatkan kekukuhan perwakilan Encoder terhadap gangguan bising dengan pembelajaran adversarial."]}, {"en": ["In this thesis, we propose Computable measures to capture Genre-Specific text quality.", "In this thesis, we propose and evaluate novel text quality."], "ms": ["Dalam tesis ini, kami mencadangkan langkah-langkah yang boleh dikira untuk menangkap kualiti teks Genre-Specific.", "Dalam tesis ini, kami mencadangkan dan menilai kualiti teks novel."]}, {"en": ["Cite-P-20-1-22 used a Crf sequence modeling approach for Deletion-Based abbreviations.", "Cite-P-20-1-22 used sequence labeling model (Crf) for Normalizing Deletion-Based abbreviation."], "ms": ["Cite-P-20-1-22 menggunakan pendekatan pemodelan urutan Crf untuk singkatan Berasaskan Deletion.", "Cite-P-20-1-22 menggunakan model pelabelan jujukan (Crf) untuk menormalkan singkatan berasaskan penghapusan."]}, {"en": ["Therefore, the size of the Corpora used in some previous approaches leads to data Sparseness, and the extraction procedure can therefore require extensive smoothing.", "However, the size of the used Corpora still leads to data Sparseness and the extraction procedure can therefore require extensive smoothing."], "ms": ["Oleh itu, saiz Corpora yang digunakan dalam beberapa pendekatan terdahulu membawa kepada data Sparseness, dan prosedur pengekstrakan oleh itu boleh memerlukan smoothing yang luas.", "Walau bagaimanapun, saiz Corpora yang digunakan masih membawa kepada data Sparseness dan prosedur pengekstrakan oleh itu boleh memerlukan smoothing yang luas."]}, {"en": ["In this paper, we develop a temporal orientation measure based on language in social media.", "In this paper, we develop a novel Behavior-Based assessment using human language."], "ms": ["Dalam makalah ini, kami mengembangkan ukuran orientasi temporal berdasarkan bahasa di media sosial.", "Dalam makalah ini, kami mengembangkan penilaian Berasaskan Kelakuan novel menggunakan bahasa manusia."]}, {"en": ["Thus, in section 4, we present a tool to efficiently access Wikipedia \u2019 s edit history.", "In section 4, we describe tools allowing to efficiently access Wikipedia \u2019 s edit history."], "ms": ["Oleh itu, dalam seksyen 4, kami membentangkan alat untuk mengakses Wikipedia dengan cekap s sejarah suntingan.", "Dalam seksyen 4, kami menerangkan alat yang membolehkan untuk mengakses Wikipedia dengan cekap s edit sejarah."]}, {"en": ["We implement a Hierarchical Phrase-Based system similar to the Hiero and evaluate our method on the Chinese-To-English translation task.", "We carry out our experiments using a Reimplementation of the Hierarchical Phrase-Based system on the Nist Chinese-English translation tasks."], "ms": ["Kami melaksanakan sistem Berasaskan Frasa Hierarki yang serupa dengan Hiero dan menilai kaedah kami mengenai tugas terjemahan Cina-Ke-Inggeris.", "Kami menjalankan eksperimen kami menggunakan Pelaksanaan Semula sistem Berasaskan Frasa Hierarki pada tugas terjemahan Cina-Inggeris Nist."]}, {"en": ["Early works primarily assumed a large parallel corpus and focused on exploiting them to project information from High-To Low-Resource.", "Early works mainly focused on exploiting parallel Corpora to project information between the High-And Low-Resource languages."], "ms": ["Kerja-kerja awal terutamanya mengambil korpus selari yang besar dan memberi tumpuan kepada mengeksploitasi mereka untuk projek maklumat dari High-To Low-Resource.", "Kerja awal terutamanya tertumpu pada mengeksploitasi Corpora selari untuk memproyeksikan maklumat antara bahasa High-And Low-Resource."]}, {"en": ["In the most general case, initial anchors are only the first and final sentence pairs of both texts as depicted in figure 2.", "In the most general case, initial anchors are only the first and final sentence pairs of both texts."], "ms": ["Dalam kes yang paling umum, sauh awal hanya pasangan ayat pertama dan terakhir kedua-dua teks seperti yang digambarkan dalam rajah 2.", "Dalam kes yang paling umum, sauh awal hanya pasangan ayat pertama dan terakhir kedua-dua teks."]}, {"en": ["Beaufort et al combine a noisy channel model with a Rule-Based Finite-State transducer and got reasonable results on French SMS, but have not tried their method on English text.", "Beaufort et al , 2010) combine a noisy channel model with a Rulebased Finite-State transducer and got reasonable results on French SMS, but did not test their method on English text."], "ms": ["Beaufort et al menggabungkan model saluran bising dengan transduser Finite-State Berasaskan Peraturan dan mendapat keputusan yang munasabah pada SMS Perancis, tetapi tidak mencuba kaedah mereka pada teks Inggeris.", "Beaufort et al, 2010) menggabungkan model saluran bising dengan transduser Finite-State Rulebased dan mendapat keputusan yang munasabah pada SMS Perancis, tetapi tidak menguji kaedah mereka pada teks Inggeris."]}, {"en": ["Blitzer et al introduce an extension to a structural correspondence learning algorithm, which was specifically designed to address the task of domain adaptation.", "Blitzer et al apply the structural correspondence learning algorithm to train a Crossdomain sentiment Classifier."], "ms": ["Blitzer et al memperkenalkan lanjutan kepada algoritma pembelajaran korespondensi struktur, yang direka khusus untuk menangani tugas penyesuaian domain.", "Blitzer et al menerapkan algoritma pembelajaran korespondensi struktur untuk melatih Classifier sentimen Crossdomain."]}, {"en": ["Finally, we show that directly driving Itg induction with a Crosslingual semantic frame objective function not only helps to further sharpen the Itg constraints, but still avoids Excising relevant portions of the search space, and leads to better performance than either conventional Itg or Giza++ based approaches.", "With the Crosslingual semantic frame based objective function not only helps to further sharpen the Itg constraints, but still avoids Excising relevant portions of the search space, and leads to better performance than either conventional Itg or Giza + + based approaches."], "ms": ["Akhirnya, kami menunjukkan bahawa secara langsung mendorong induksi Itg dengan fungsi objektif bingkai semantik Crosslingual bukan sahaja membantu untuk mempertajam lagi kekangan Itg, tetapi masih mengelakkan Excising bahagian yang relevan dari ruang carian, dan membawa kepada prestasi yang lebih baik daripada pendekatan berasaskan Itg atau Giza ++ konvensional.", "Dengan fungsi objektif berasaskan bingkai semantik Crosslingual bukan sahaja membantu untuk mempertajam lagi kekangan Itg, tetapi masih mengelakkan Excising bahagian-bahagian yang berkaitan dengan ruang carian, dan membawa kepada prestasi yang lebih baik daripada pendekatan berasaskan Itg atau Giza ++ konvensional."]}, {"en": ["The words appearing in vocabulary are indexed and associated with High-Dimensional vectors.", "Inputs are projected into another High-Dimensional space by a word."], "ms": ["Perkataan yang muncul dalam perbendaharaan kata diindeks dan dikaitkan dengan vektor Dimensi Tinggi.", "Input diunjurkan ke dalam ruang dimensi tinggi yang lain dengan perkataan."]}, {"en": ["1 for example, \u201c Reserate \u201d is correctly included in C Rown as a Hypernym of unlock% 2:35:00: : (to open the lock of) and \u201c Awesometastic \u201d as a synonym of fantastic% 3:00:00: Extraordinary:00 (extraordinarily good or great).", "For example, \u201c Reserate \u201d is correctly included in C Rown as a Hypernym of unlock% 2 : 35 : 00: : (to open the lock of) and \u201c Awesometastic \u201d as a synonym of fantastic %."], "ms": ["1 sebagai contoh, Reserate disertakan dengan betul dalam C Rown sebagai Hypernym unlock% 2:35:00: : (untuk membuka kunci) dan Awesometastic sebagai sinonim hebat% 3:00:00: Luar biasa:00 (luar biasa baik atau hebat).", "Sebagai contoh, Reserate dimasukkan dengan betul dalam C Rown sebagai Hypernym bagi buka kunci% 2:35:00:: (untuk membuka kunci) dan Awesometastic sebagai sinonim % hebat."]}, {"en": ["Bidirectional long short-term memory (Blstm) recurrent neural network (Rnn) has been successfully applied in many tagging tasks.", "Related tasks are implemented with Bidirectional long short-term memory (Blstm) recurrent neural network (Rnn)."], "ms": ["Rangkaian saraf berulang ingatan jangka pendek (Blstm) panjang dwiarah (Rnn) telah berjaya digunakan dalam banyak tugas penandaan.", "Tugas-tugas berkaitan dilaksanakan dengan rangkaian saraf berulang ingatan jangka pendek (Blstm) Bidirectional panjang (Rnn)."]}, {"en": ["Recent approaches try to minimize the amount of supervision needed (Cite-P-20-3-15, Cite-P-20-1-1, Cite-P-20-3-12).", "But more recent approaches have tried to minimize the amount of supervision necessary (Cite-P-20-3-15, Cite-P-20-3-4, Cite-P-20-1-1)."], "ms": ["Pendekatan terkini cuba meminimumkan jumlah pengawasan yang diperlukan (Cite-P-20-3-15, Cite-P-20-1-1, Cite-P-20-3-12).", "Tetapi pendekatan yang lebih baru telah cuba untuk meminimumkan jumlah pengawasan yang diperlukan (Cite-P-20-3-15, Cite-P-20-3-4, Cite-P-20-1-1)."]}, {"en": ["Previous results all suggest that some degree of Tokenization is helpful when translating from Arabic.", "Habash and Sadat have shown that Tokenization is helpful for translating Arabic."], "ms": ["Hasil sebelumnya semua menunjukkan bahawa beberapa tahap Tokenisasi berguna ketika menerjemahkan dari bahasa Arab.", "Habash dan Sadat telah menunjukkan bahawa Tokenisasi berguna untuk menerjemahkan bahasa Arab."]}, {"en": ["In this paper, we proposed a novel Microblog search task called Microblog event Retrieval.", "Microblogs, this paper proposes a novel search task that we call Microblog event Retrieval."], "ms": ["Dalam makalah ini, kami mencadangkan tugas carian Microblog novel yang dipanggil Retrieval acara Microblog.", "Microblogs, makalah ini mengusulkan tugas pencarian novel yang kami sebut sebagai Retrieval event Microblog."]}, {"en": ["The dependency path is the shortest path between the two entities in a dependency Parse graph and has been shown to be important for relation extraction.", "It has been shown in previous work on relation extraction that the shortest dependency path between any two entities captures the information required to assert a relationship between them."], "ms": ["Laluan dependensi adalah laluan terpendek antara kedua entiti dalam graf Parse dependensi dan telah ditunjukkan sebagai penting untuk pengekstrakan hubungan.", "Telah ditunjukkan dalam kerja sebelumnya mengenai pengekstrakan hubungan bahawa jalan kebergantungan terpendek antara dua entiti menangkap maklumat yang diperlukan untuk menegaskan hubungan antara mereka."]}, {"en": ["For the Decoder, we use a recurrent neural network language model, which is widely used in language generation tasks.", "For extracting recurrent neural network language model features, we use Elman 1, a modification of the Rnnlm Toolkit 2 that outputs hidden layer Activations."], "ms": ["Untuk Decoder, kami menggunakan model bahasa rangkaian saraf berulang, yang digunakan secara meluas dalam tugas penjanaan bahasa.", "Untuk mengekstrak ciri-ciri model bahasa rangkaian neural berulang, kami menggunakan Elman 1, pengubahsuaian Rnnlm Toolkit 2 yang mengeluarkan Activations lapisan tersembunyi."]}, {"en": ["Our logistic regression model improves F1-Scores by over 80% in comparison to state-of-the-art approaches.", "Our approach Outperforms the current state-of-the-art by over 81% larger F1-Score."], "ms": ["Model regresi logistik kami meningkatkan F1-Scores lebih daripada 80% berbanding dengan pendekatan canggih.", "Pendekatan kami Melancarkan keadaan terkini dengan lebih daripada 81% F1-Score yang lebih besar."]}, {"en": ["F is the non-linear activation function and we use Relu in this paper.", "Also, f is the non-linear activation function and we use Re-Lu as well."], "ms": ["F adalah fungsi pengaktifan bukan linear dan kami menggunakan Relu dalam kertas ini.", "F juga merupakan fungsi pengaktifan bukan linear dan kami menggunakan Re-Lu juga."]}, {"en": ["Lui and Baldwin showed that it is relatively easy to attain high accuracy for language Iden-, and later shown to be effective for feature selection in text Categorization.", "Lui and Baldwin presented empirical evidence that LD feature selection was effective for domain adaptation in language identification."], "ms": ["Lui dan Baldwin menunjukkan bahawa ia agak mudah untuk mencapai ketepatan yang tinggi untuk bahasa Iden-, dan kemudiannya terbukti berkesan untuk pemilihan ciri dalam Categorization teks.", "Lui dan Baldwin mengemukakan bukti empirikal bahawa pemilihan ciri LD berkesan untuk penyesuaian domain dalam pengenalpastian bahasa."]}, {"en": ["The learning technique follows other representation learning Algorithms in using negative sampling.", "This is inspired by other predictive models in the representation learning literature."], "ms": ["Teknik pembelajaran mengikuti Algoritma pembelajaran perwakilan lain dalam menggunakan persampelan negatif.", "Ini diilhamkan oleh model ramalan lain dalam kesusasteraan pembelajaran perwakilan."]}, {"en": ["We obtain Monolingual texts for both English and the target language from Wikipedia, and independently train word Embeddings for each language using Word2Vec.", "We Pretrain 200-Dimensional word Embeddings using Word2Vec on the English Wikipedia corpus, and randomly Initialize other Hyperparameters."], "ms": ["Kami memperoleh teks Monolingual untuk bahasa Inggeris dan bahasa sasaran dari Wikipedia, dan secara bebas melatih Embedding perkataan untuk setiap bahasa menggunakan Word2Vec.", "Kami Pretrain 200-Dimensional Embedding perkataan menggunakan Word2Vec pada korpus Wikipedia Bahasa Inggeris, dan secara rawak Memulakan Hyperparameter lain."]}, {"en": ["In addition, combining the relevance feedback and Pseudo-Relevance feedback, the induction process can be guided to induce more relevant semantic patterns.", "By combining the Hal model and relevance feedback, the CIP can induce semantic patterns from the Unannotated web Corpora."], "ms": ["Di samping itu, menggabungkan maklum balas relevan dan maklum balas Pseudo-Relevan, proses induksi boleh dipandu untuk mendorong corak semantik yang lebih relevan.", "Dengan menggabungkan model Hal dan maklum balas yang relevan, CIP boleh mendorong corak semantik dari Corpora web Unannotated."]}, {"en": ["For a fair comparison to our model, we used Word2Vec, that Pretrain word Embeddings at a token level.", "We then used Word2Vec to train word Embeddings with 512 dimensions on each of the prepared Corpora."], "ms": ["Untuk perbandingan yang adil dengan model kami, kami menggunakan Word2Vec, bahawa Embedding perkataan Pretrain pada tahap token.", "Kami kemudian menggunakan Word2Vec untuk melatih Embedding perkataan dengan 512 dimensi pada setiap Corpora yang disediakan."]}, {"en": ["Grefenstette and Nioche and Jones and Ghani use the web to generate Corpora for languages where electronic resources are scarce, while Resnik describes a method for mining the web for bilingual texts.", "Grefenstette and Nioche and Jones and Ghani use the web to generate Corpora for languages for which electronic resources are scarce, and Resnik describes a method for mining the web in order to obtain bilingual texts."], "ms": ["Grefenstette dan Nioche dan Jones dan Ghani menggunakan web untuk menjana Corpora untuk bahasa di mana sumber elektronik adalah terhad, manakala Resnik menerangkan kaedah untuk melombong web untuk teks dwibahasa.", "Grefenstette dan Nioche dan Jones dan Ghani menggunakan web untuk menghasilkan Corpora untuk bahasa yang sumber elektroniknya jarang, dan Resnik menerangkan kaedah untuk melombong web untuk mendapatkan teks dwibahasa."]}, {"en": ["Resolving coordination ambiguity is a classic hard problem.", "By a coordinating conjunction is a classic hard problem."], "ms": ["Menyelesaikan kekaburan koordinasi adalah masalah keras klasik.", "Dengan kerjasama penyelarasan adalah masalah keras klasik."]}, {"en": ["More recently, Gedigian et al used Hand-Annotated Corpora to train an automatic metaphor Classifier.", "Gedigian et al trained a maximum entropy Classifier to discriminate between literal and metaphorical use."], "ms": ["Baru-baru ini, Gedigian et al menggunakan Hand-Annotated Corpora untuk melatih pengelasan metafora automatik.", "Gedigian et al melatih pengelas entropi maksimum untuk mendiskriminasi antara penggunaan literal dan metafora."]}, {"en": ["By removing the Tensor\u00a1\u00afS surplus parameters, our methods learn better and faster as was shown in experiments.", "By removing the Tensor \u00a1\u00af s surplus parameters, our methods learn better and faster."], "ms": ["Dengan mengeluarkan parameter lebihan Tensor S, kaedah kami belajar dengan lebih baik dan lebih pantas seperti yang ditunjukkan dalam eksperimen.", "Dengan mengeluarkan parameter lebihan Tensor, kaedah kami belajar dengan lebih baik dan lebih cepat."]}, {"en": ["Gp is a Non-Parametric model which allows for powerful Modelling of the underlying intensity function.", "The gp is fully defined by the Covariance structure assumed between the observed points, and its Hyperparameters, which can be automatically learned from data."], "ms": ["Gp adalah model Non-Parametrik yang membolehkan Pemodelan yang kuat fungsi intensiti asas.", "Gp ditakrifkan sepenuhnya oleh struktur Covariance yang diandaikan antara titik yang diperhatikan, dan Hyperparametersnya, yang boleh dipelajari secara automatik dari data."]}, {"en": ["In the initial formulation of Velldal, an SVM Classifier was trained using simple N-Gram features over words, both full forms and lemmas, to the left and right of the candidate cues.", "In the initial formulation of Velldal, an SVM Classifier was applied using simple N-Gram features over words, both full forms and lemmas, to the left and right of the candidate cues."], "ms": ["Dalam perumusan awal Velldal, SVM Classifier dilatih menggunakan ciri-ciri N-Gram yang mudah berbanding perkataan, kedua-dua bentuk penuh dan lemma, ke kiri dan kanan isyarat calon.", "Dalam perumusan awal Velldal, pengelasan SVM digunakan menggunakan ciri-ciri N-Gram yang mudah berbanding perkataan, kedua-dua bentuk penuh dan lemma, ke kiri dan kanan isyarat calon."]}, {"en": ["In this paper, we describe a Cross-Domain sentiment classification method using an automatically created sentiment sensitive thesaurus.", "In this paper, we describe a Cross-Domain sentiment classification method using an automatically created sentiment sensitive."], "ms": ["Dalam makalah ini, kami menerangkan kaedah klasifikasi sentimen Cross-Domain menggunakan tema sensitif sentimen yang dibuat secara automatik.", "Dalam makalah ini, kami menerangkan kaedah klasifikasi sentimen Cross-Domain menggunakan sensitif sentimen yang dibuat secara automatik."]}, {"en": ["Ganin et al proposed an adversarial network for domain adaptation.", "Ganin et al propose introducing an adversarial loss to make shared features Domaininvariant."], "ms": ["Ganin et al mencadangkan rangkaian adversarial untuk penyesuaian domain.", "Ganin et al mencadangkan memperkenalkan kerugian adversarial untuk membuat ciri-ciri dikongsi Domaininvariant."]}, {"en": ["Experimental results show that our model achieves the state-of-the-art performances on the benchmark Dataset.", "Experimental results show that our model Outperforms the Sequenceto-Sequence baseline by a large margin, and achieves the state-of-the-art performances."], "ms": ["Hasil eksperimen menunjukkan bahawa model kami mencapai prestasi canggih pada Dataset penanda aras.", "Hasil eksperimen menunjukkan bahawa model kami Melaksanakan garis dasar Sequenceto-Sequence dengan margin yang besar, dan mencapai persembahan canggih."]}, {"en": ["Experimental results show that the composite kernel Outperforms the previously Best-Reported methods.", "Experimental results show that the proposed method significantly Outperforms the standard Convolution tree kernel."], "ms": ["Hasil eksperimen menunjukkan bahawa kernel komposit Melaksanakan kaedah yang pernah Diportasi Terbaik.", "Hasil eksperimen menunjukkan bahawa kaedah yang dicadangkan dengan ketara Melaksanakan kernel pokok Convolution standard."]}, {"en": ["More recently, Pado and Lapata propose a semantic space based on dependency paths.", "Pad\u8d38 and Lapata use similar dependency Subtrees as a feature to create general semantic space models."], "ms": ["Baru-baru ini, Pado dan Lapata mencadangkan ruang semantik berdasarkan laluan dependensi.", "Pad dan Lapata menggunakan Subtrees dependensi yang serupa sebagai ciri untuk mencipta model ruang semantik umum."]}, {"en": ["More recently, Alkanhal et al wrote a paper about a stochastic approach used for word spelling correction and Attia et al created a dictionary of 9 million entries fully inflected Arabic words using a morphological transducer.", "Moreover, Shaalan et al created a model using Unigrams to correct Arabic spelling errors and recently, created Madami-Ra, a morphological Analyzer and a Disambiguation tool for Arabic."], "ms": ["Baru-baru ini, Alkanhal et al menulis kertas mengenai pendekatan stokastik yang digunakan untuk pembetulan ejaan perkataan dan Attia et al mencipta kamus 9 juta entri yang sepenuhnya difahami perkataan Arab menggunakan transduser morfologi.", "Lebih-lebih lagi, Shaalan et al mencipta model menggunakan Unigrams untuk membetulkan kesilapan ejaan bahasa Arab dan baru-baru ini, mencipta Madami-Ra, Analisa morfologi dan alat Disambiguasi untuk bahasa Arab."]}, {"en": ["We showed that the modality attention based model Outperforms other state-of-the-art Baselines when text was the only modality available, by better combining word and character level information.", "We show that the proposed approaches outperform the state-of-the-art NER models (both with and without using additional visual contexts)."], "ms": ["Kami menunjukkan bahawa model berasaskan perhatian modaliti Melaksanakan garis asas canggih lain apabila teks adalah satu-satunya modaliti yang tersedia, dengan menggabungkan maklumat tahap perkataan dan watak dengan lebih baik.", "Kami menunjukkan bahawa pendekatan yang dicadangkan mengatasi model NER canggih (baik dengan dan tanpa menggunakan konteks visual tambahan)."]}, {"en": ["For example galley and Manning propose a Shift-Reduce style method to allow Hieararchical Non-Local Reorderings in a Phrase-Based Decoder.", "Galley and Manning use the Shift-Reduce algorithm to conduct Hierarchical phrase reordering so as to capture long-distance reordering."], "ms": ["Sebagai contoh, Galley dan Manning mencadangkan kaedah gaya Shift-Reduce untuk membolehkan Pengaturan Semula Bukan Tempatan Hieararki dalam Dekoder Berasaskan Frasa.", "Galley dan Manning menggunakan algoritma Shift-Reduce untuk menjalankan penyusunan semula frasa Hierarki untuk menangkap penyusunan semula jarak jauh."]}, {"en": ["We compare the entity and relation extraction performance of our model with other systems.", "To compare our model with the other systems, we evaluated the performance of our model when the entity boundaries were given."], "ms": ["Kami membandingkan prestasi pengekstrakan entiti dan hubungan model kami dengan sistem lain.", "Untuk membandingkan model kami dengan sistem lain, kami menilai prestasi model kami apabila sempadan entiti diberikan."]}, {"en": ["Notice how this is also the strategy pursued in recent work on deep learning approaches to Nlp tasks.", "Notice how this is also a general problem of statistical learning processes, as large."], "ms": ["Perhatikan bagaimana ini juga strategi yang dikejar dalam kerja baru-baru ini mengenai pendekatan pembelajaran mendalam untuk tugas Nlp.", "Perhatikan bagaimana ini juga merupakan masalah umum proses pembelajaran statistik, seperti yang besar."]}, {"en": ["Adaptor Grammars is a Non-Parametric Bayesian framework for performing grammatical inference over Parse trees.", "Adaptor Grammars are a framework for Bayesian inference of a certain class of Hierarchical Nonparametric models."], "ms": ["Adaptor Grammars adalah rangka kerja Bayesian Bukan Parametrik untuk melaksanakan kesimpulan tatabahasa ke atas pokok Parse.", "Adaptor Grammars adalah rangka kerja untuk kesimpulan Bayesian dari kelas tertentu model Hierarki Nonparametrik."]}, {"en": ["We show that standard intrinsic Metrics such as F-Score alone do not predict the outcomes well.", "In our data is that a model based on F-Scores alone predicts only a small proportion of the variance."], "ms": ["Kami menunjukkan bahawa metrik intrinsik standard seperti F-Score sahaja tidak meramalkan hasilnya dengan baik.", "Dalam data kami adalah bahawa model berdasarkan F-Scores sahaja meramalkan hanya sebahagian kecil varians."]}, {"en": ["Shi and Mihalcea propose the integration of Verbnet, Wordnet and Framenet into a knowledge base and use it in the building of a semantic Parser.", "Shi and Mihalcea argue that mapping the lexical entries in Framenet to Wordnet senses via Verbnet is a promising approach to connecting these complementary resources."], "ms": ["Shi dan Mihalcea mencadangkan integrasi Verbnet, Wordnet dan Framenet ke dalam pangkalan pengetahuan dan menggunakannya dalam membina Parser semantik.", "Shi dan Mihalcea berhujah bahawa pemetaan entri leksikal dalam deria Framenet ke Wordnet melalui Verbnet adalah pendekatan yang menjanjikan untuk menghubungkan sumber pelengkap ini."]}, {"en": ["The results point to ways in which dialogue systems can effectively leverage Affective channels to improve dialogue act classification.", "And the results demonstrate that facial expressions hold great promise for distinguishing the Pedagogically relevant dialogue act."], "ms": ["Hasilnya menunjukkan cara-cara di mana sistem dialog dapat memanfaatkan saluran Affective secara berkesan untuk meningkatkan klasifikasi tindakan dialog.", "Dan hasilnya menunjukkan bahawa ekspresi wajah memegang janji besar untuk membezakan tindakan dialog Pedagogi yang berkaitan."]}, {"en": ["In this paper, we focus on learning the plan elements and the ordering constraints between them.", "In this paper, we present a system that we developed to automatically learn elements of a plan and the ordering constraints."], "ms": ["Dalam makalah ini, kami memberi tumpuan kepada mempelajari elemen rancangan dan kekangan pesanan di antara mereka.", "Dalam makalah ini, kami membentangkan sistem yang kami kembangkan untuk mempelajari elemen rancangan dan kekangan pesanan secara automatik."]}, {"en": ["We apply sixteen feature Templates, motivated by by Ratnaparkhi.", "Following the work of Nogueira dos on this Dataset, we apply the feature set of Ratnaparkhi."], "ms": ["Kami menggunakan enam belas Template ciri, yang didorong oleh Ratnaparkhi.", "Berikutan kerja Nogueira dos pada Dataset ini, kami menggunakan set ciri Ratnaparkhi."]}, {"en": ["Because Coreference trees are not given in the training data, we assume that these structures are latent and use the latent structured Perceptron as the learning algorithm.", "Thus, we assume that these structures are latent and make use of the latent structure Perceptron to train our models."], "ms": ["Oleh kerana pokok Coreference tidak diberikan dalam data latihan, kami menganggap bahawa struktur ini terpendam dan menggunakan Perceptron berstruktur terpendam sebagai algoritma pembelajaran.", "Oleh itu, kita menganggap bahawa struktur ini terpendam dan menggunakan struktur terpendam Perceptron untuk melatih model kami."]}, {"en": ["One of the first studies on acquisition of Hyponymy relations was made by Hearst.", "The seminal work in the field of Hypernym learning was done by Hearst."], "ms": ["Salah satu kajian pertama mengenai pemerolehan hubungan Hyponymy dibuat oleh Hearst.", "Kerja seminal dalam bidang pembelajaran Hypernym dilakukan oleh Hearst."]}, {"en": ["An analysis of the experimental results showed that the Extrinsic evaluation captured a different dimension of translation quality than that captured by manual and automatic intrinsic evaluation.", "Analysis on the experimental results suggests that the Extrinsic evaluation based on Slpt problems captures a different dimension of translation quality than the manual / automatic intrinsic."], "ms": ["Analisis hasil eksperimen menunjukkan bahawa penilaian Extrinsic menangkap dimensi yang berbeza dari kualiti terjemahan daripada yang ditangkap oleh penilaian intrinsik manual dan automatik.", "Analisis hasil eksperimen menunjukkan bahawa penilaian Extrinsic berdasarkan masalah Slpt menangkap dimensi yang berbeza dari kualiti terjemahan daripada intrinsik manual / automatik."]}, {"en": ["We use the Mstparser to generate K-Best lists, and optimize K and \u4f2a on the development set.", "We use the Mstparser implementation described in McDonald et al for feature extraction."], "ms": ["Kami menggunakan Mstparser untuk menjana senarai K-Best, dan mengoptimumkan K dan pada set pembangunan.", "Kami menggunakan pelaksanaan Mstparser yang diterangkan dalam McDonald et al untuk pengekstrakan ciri."]}, {"en": ["To overcome the independence assumptions imposed by the Bilstm and exploit these kind of labeling constraints in our Arabic Segmentation system, we model label sequence logic jointly using conditional random fields.", "To overcome this independence assumptions imposed by the Bi-Lstm and to exploit this kind of labeling constraints in our Arabic Segmentation system, we model label sequence logic jointly using conditional random fields."], "ms": ["Untuk mengatasi andaian kemerdekaan yang dikenakan oleh Bilstm dan mengeksploitasi kekangan pelabelan seperti ini dalam sistem Segmentasi Arab kami, kami memodelkan logik urutan label bersama-sama menggunakan medan rawak bersyarat.", "Untuk mengatasi andaian kemerdekaan ini yang dikenakan oleh Bi-Lstm dan untuk mengeksploitasi kekangan pelabelan seperti ini dalam sistem Segmentasi Arab kami, kami memodelkan logik urutan label bersama-sama menggunakan medan rawak bersyarat."]}, {"en": ["We evaluate the reliability of these candidates using simple Metrics based on Co-Occurrence frequencies, similar to those used in Associative approaches to word alignment.", "We evaluate the reliability of these candidates, using simple Metrics based on Co-Occurence frequencies, similar to those used in Associative approaches to word alignment."], "ms": ["Kami menilai kebolehpercayaan calon-calon ini menggunakan Metrik mudah berdasarkan frekuensi Co-Occurrence, sama seperti yang digunakan dalam pendekatan Asosiatif untuk penjajaran perkataan.", "Kami menilai kebolehpercayaan calon-calon ini, menggunakan Metrik mudah berdasarkan frekuensi Co-Occurence, sama dengan yang digunakan dalam pendekatan Asosiatif untuk penjajaran perkataan."]}, {"en": ["In this paper, we propose a practical technique that addresses this issue in a Web-Scale language understanding system: Microsoft \u2019 s personal Digital assistant Cortana.", "In this study, we propose a new approach that reduces the cost of Scaling natural language understanding to a large number of domains and experiences."], "ms": ["Dalam makalah ini, kami mencadangkan teknik praktikal yang menangani isu ini dalam sistem pemahaman bahasa Web-Scale: Pembantu Digital peribadi Microsoft Cortana.", "Dalam kajian ini, kami mencadangkan pendekatan baru yang mengurangkan kos Penskalaan pemahaman bahasa semula jadi kepada sebilangan besar domain dan pengalaman."]}, {"en": ["We believe this work to be useful for a variety of applications.", "We believe that this framework will be useful for a variety of applications."], "ms": ["Kami percaya bahawa kerja ini berguna untuk pelbagai aplikasi.", "Kami percaya bahawa rangka kerja ini akan berguna untuk pelbagai aplikasi."]}, {"en": ["Higher-Order dependency features are known to improve dependency Parser accuracy.", "Higher-Order dependency features Encode more complex subparts of a dependency tree structure than first-order, Bigram."], "ms": ["Ciri-ciri dependensi Pesanan Tinggi diketahui untuk meningkatkan ketepatan Parser dependensi.", "Ciri-ciri dependensi Pesanan Tinggi Mengencode subparts yang lebih kompleks struktur pokok dependensi daripada pesanan pertama, Bigram."]}, {"en": ["Different Smt systems for Subtitles were developed in the framework of the Sumat project , 6 including Serbian and Slovenian.", "The Sumat project 3 included a statistical approach for Serbian and Slovenian Subtitles."], "ms": ["Sistem Smt yang berbeza untuk Sarikata telah dibangunkan dalam rangka projek Sumat, 6 termasuk Serbia dan Slovenia.", "Projek Sumat 3 termasuk pendekatan statistik untuk Sarikata Serbia dan Slovenia."]}, {"en": ["This paper presents an empirically motivated theory of the discourse focusing function of accent.", "This paper presents an empirically motivated theory of the discourse focusing nature of accent."], "ms": ["Kertas ini membentangkan teori bermotivasi empirikal mengenai wacana yang memfokuskan fungsi aksen.", "Kertas ini membentangkan teori bermotivasi empirikal wacana yang memfokuskan sifat aksen."]}, {"en": ["Bouchard-C\u4e48T\u8305 et al employ a graphical model to reconstruct the Proto-Word forms from the Synchronic Word-Forms for the Austronesian language family.", "Bouchard-C\u4e48T\u8305 et al employ a graphical model to reconstruct the word forms in Protoaustronesian using Swadesh lists."], "ms": ["Bouchard-CT et al menggunakan model grafik untuk membina semula bentuk Proto-Word dari Sinkronik Word-Forms untuk keluarga bahasa Austronesia.", "Bouchard-CT et al menggunakan model grafik untuk membina semula bentuk perkataan dalam Protoaustronesian menggunakan senarai Swadesh."]}, {"en": ["We also provide interesting future directions, which we believe are fruitful in advancing this field by building high-quality Tweet representation learning models.", "By presenting interesting future research directions, which we believe are fruitful in advancing this field by building high-quality Tweet representation learning models."], "ms": ["Kami juga menyediakan arah masa depan yang menarik, yang kami percaya membuahkan hasil dalam memajukan bidang ini dengan membina model pembelajaran perwakilan Tweet berkualiti tinggi.", "Dengan membentangkan arah penyelidikan masa depan yang menarik, yang kami percaya adalah berbuah dalam memajukan bidang ini dengan membina model pembelajaran perwakilan Tweet berkualiti tinggi."]}, {"en": ["To address this issue, we propose a Hierarchical neural network to incorporate global user and product information into sentiment classification.", "With the consideration of user and product information, our model can significantly improve the performance of sentiment classification."], "ms": ["Untuk menangani isu ini, kami mencadangkan rangkaian neural Hierarki untuk menggabungkan maklumat pengguna dan produk global ke dalam klasifikasi sentimen.", "Dengan pertimbangan maklumat pengguna dan produk, model kami dapat meningkatkan prestasi klasifikasi sentimen dengan ketara."]}, {"en": ["Vector space word representations learned using Unsupervised Algorithms are often effective features in supervised learning methods.", "Distributed word representations induced through deep neural networks have been shown to be useful in several natural language processing applications."], "ms": ["Perwakilan perkataan ruang Vektor yang dipelajari menggunakan Algoritma Tidak Diselia sering merupakan ciri yang berkesan dalam kaedah pembelajaran yang diselia.", "Perwakilan perkataan yang diedarkan yang disebabkan melalui rangkaian saraf yang mendalam telah terbukti berguna dalam beberapa aplikasi pemprosesan bahasa semula jadi."]}, {"en": ["Louis and Nenkova defined Genre-Specific and general features to predict the article quality in science journalism domain.", "Louis and Nenkova implemented features to capture aspects of great writing in science journalism domain."], "ms": ["Louis dan Nenkova mentakrifkan ciri-ciri Genre-Specific dan umum untuk meramalkan kualiti artikel dalam domain kewartawanan sains.", "Louis dan Nenkova melaksanakan ciri-ciri untuk menangkap aspek penulisan yang hebat dalam domain kewartawanan sains."]}, {"en": ["Similarly, Jindal and Liu had used pattern mining for identifying comparative sentences in a supervised learning setting.", "Jindal and Liu use machine learning to identify some comparative structures, but do not provide a semantic interpretation."], "ms": ["Begitu juga, Jindal dan Liu telah menggunakan perlombongan corak untuk mengenal pasti ayat perbandingan dalam tetapan pembelajaran yang diawasi.", "Jindal dan Liu menggunakan pembelajaran mesin untuk mengenal pasti beberapa struktur perbandingan, tetapi tidak memberikan tafsiran semantik."]}, {"en": ["Such Grammars are, however, typically created manually, which is time-consuming and Error-Prone.", "Grammars are, however, typically created manually or learned in a supervised fashion, requiring extensive manual effort."], "ms": ["Grammar sedemikian, bagaimanapun, biasanya dicipta secara manual, yang memakan masa dan Error-Prone.", "Grammars, bagaimanapun, biasanya dicipta secara manual atau dipelajari dalam fesyen yang diawasi, memerlukan usaha manual yang luas."]}, {"en": ["In conclusion, we presented a sequence of \u2018 negative \u2019 results culminating in a \u2018 positive \u2019 one \u2013 showing that while most invented languages are effective (I.E . achieve Near-Perfect rewards), they are decidedly not interpretable or compositional.", "As a Testbed, we present a sequence of \u2018 negative \u2019 results culminating in a \u2018 positive \u2019 one \u2013 showing that while most Agent-Invented languages are effective (I . E . achieve Near-Perfect task."], "ms": ["Kesimpulannya, kami membentangkan urutan hasil negatif yang memuncak dalam positif satu menunjukkan bahawa walaupun kebanyakan bahasa yang dicipta adalah berkesan (I.E. mencapai ganjaran Near-Perfect), mereka jelas tidak boleh ditafsirkan atau komposisi.", "Sebagai Ujian, kami membentangkan urutan hasil negatif yang memuncak dalam positif satu menunjukkan bahawa sementara kebanyakan bahasa Agen-Invented berkesan (I. E. mencapai tugas Near-Perfect."]}, {"en": ["We obtained BLEU scores for E2F direction as shown in Table 2.", "We evaluated BLEU and Nist score as shown in Table 3."], "ms": ["Kami memperoleh skor BLEU untuk arah E2F seperti yang ditunjukkan dalam Jadual 2.", "Kami menilai skor BLEU dan Nist seperti yang ditunjukkan dalam Jadual 3."]}, {"en": ["In this paper we propose a statistical model for measure word generation for Englishto-Chinese Smt systems, in which Contextual knowledge from both source and target sentences is involved.", "In a general Smt system, this paper proposes a dedicated statistical model to generate measure words for Englishto-Chinese translation."], "ms": ["Dalam makalah ini kami mencadangkan model statistik untuk mengukur penjanaan perkataan untuk sistem Smt Bahasa Inggeris-Cina, di mana pengetahuan Kontekstual dari kedua-dua ayat sumber dan sasaran terlibat.", "Dalam sistem Smt umum, kertas ini mencadangkan model statistik khusus untuk menghasilkan kata ukuran untuk terjemahan Bahasa Inggeris ke Cina."]}, {"en": ["Contrary to previous findings, Anderson et al find no advantage in decoding neural activity patterns associated with concrete words for Image-Based models.", "In line with the dual coding theory, Anderson et al demonstrate an advantage in decoding brain activity patterns of abstract words for Text-Based semantic models over the Image-Based ones."], "ms": ["Bertentangan dengan penemuan sebelumnya, Anderson et al tidak menemukan kelebihan dalam menyahkod pola aktiviti neural yang berkaitan dengan kata-kata konkrit untuk model Berasaskan Imej.", "Selaras dengan teori pengekodan dwi, Anderson et al menunjukkan kelebihan dalam corak aktiviti otak penyahkodan perkataan abstrak untuk model semantik berasaskan teks berbanding model berasaskan imej."]}, {"en": ["When the large-scale bilingual corpus is unavailable, some researchers acquired Class-Based alignment rules with existing Dictionaries to improve word alignment.", "When the large-scale bilingual corpus is not available, some researchers use existing Dictionaries to improve word alignment."], "ms": ["Apabila korpus dwibahasa berskala besar tidak tersedia, beberapa penyelidik memperoleh peraturan penjajaran berasaskan kelas dengan Kamus yang ada untuk meningkatkan penjajaran perkataan.", "Apabila korpus dwibahasa berskala besar tidak tersedia, sesetengah penyelidik menggunakan Kamus yang sedia ada untuk meningkatkan penjajaran perkataan."]}, {"en": ["The dependency structure is according to Stanford dependency.", "We use the standard Stanford-Style set of dependency labels."], "ms": ["Struktur dependensi mengikut dependensi Stanford.", "Kami menggunakan set standard Stanford-Style label dependensi."]}, {"en": ["In this paper, we address the influence of text type and domain differences on text prediction quality.", "With equal corpus sizes, we found that there is a clear effect of text type on text prediction quality."], "ms": ["Dalam makalah ini, kami menangani pengaruh perbezaan jenis teks dan domain pada kualiti ramalan teks.", "Dengan saiz korpus yang sama, kami mendapati bahawa terdapat kesan yang jelas jenis teks pada kualiti ramalan teks."]}, {"en": ["In this paper, we present the first completely Data-Driven approach for generating high level summaries of source code.", "In this paper, we present the first completely Data-Driven approach for generating short high-level summaries of source code."], "ms": ["Dalam makalah ini, kami membentangkan pendekatan Data-Driven sepenuhnya yang pertama untuk menghasilkan ringkasan tahap tinggi kod sumber.", "Dalam makalah ini, kami membentangkan pendekatan Data-Driven sepenuhnya yang pertama untuk menghasilkan ringkasan kod sumber peringkat tinggi pendek."]}, {"en": ["Hearst extracted information from Lexico-Syntactic expressions that explicitly indicate Hyponymic relationships.", "Hearst proposed a Lexico-Syntactic pattern based method for automatic acquisition of Hyponymy from unrestricted texts."], "ms": ["Hearst mengekstrak maklumat dari ungkapan Lexico-Syntactic yang secara jelas menunjukkan hubungan Hyponymic.", "Hearst mencadangkan kaedah berasaskan corak Lexico-Syntactic untuk pemerolehan automatik Hyponymy dari teks yang tidak terhad."]}, {"en": ["Experimental results show that our model is able to extract a wide variety of major life events.", "Through the proposed system, we demonstrate that it is feasible to automatically reconstruct a detailed list of individual life events."], "ms": ["Hasil eksperimen menunjukkan bahawa model kami dapat mengekstrak pelbagai peristiwa kehidupan utama.", "Melalui sistem yang dicadangkan, kami menunjukkan bahawa ia adalah mungkin untuk membina semula secara automatik senarai terperinci peristiwa kehidupan individu."]}, {"en": ["In this paper, we approach the problem of verb alternations from the perspective of", "In the following, we compare our approach to some related work on verb alternations."], "ms": ["Dalam kertas kerja ini, kita mendekati masalah perubahan kata kerja dari perspektif", "Dalam perkara berikut, kami membandingkan pendekatan kami dengan beberapa kerja berkaitan mengenai perubahan kata kerja."]}, {"en": ["Our baseline system is a Phrase-Based system using Btgs, which includes a Contentdependent reordering model Discriminatively trained using reordering examples.", "Our baseline Decoder is an in-house implementation of Bracketing Transduction grammar in Cky-Style decoding with a lexical reordering model trained with maximum entropy."], "ms": ["Sistem asas kami adalah sistem Berasaskan Frasa menggunakan Btgs, yang merangkumi model penyusunan semula bergantung pada Kandungan yang dilatih secara Discriminatively menggunakan contoh penyusunan semula.", "Decoder asas kami adalah pelaksanaan dalaman tatabahasa Transduksi Bracketing dalam penyahkodan Cky-Style dengan model penyusunan semula leksikal yang dilatih dengan entropi maksimum."]}, {"en": ["We describe Tweetingjay, a system for detecting paraphrases and semantic similarity of Tweets, with which we participated in task 1 of Semeval 2015.", "We present the Tweetingjay system for detecting paraphrases in Tweets, with which we participated in task 1 of Semeval 2015."], "ms": ["Kami menerangkan Tweetingjay, sistem untuk mengesan parafrasa dan persamaan semantik Tweet, yang mana kami mengambil bahagian dalam tugas 1 Semeval 2015.", "Kami membentangkan sistem Tweetingjay untuk mengesan parafrasa dalam Tweets, yang mana kami mengambil bahagian dalam tugas 1 Semeval 2015."]}, {"en": ["Unlike a conventional CNN which considers a whole text as input, the proposed regional CNN uses an individual sentence as a region, dividing an input text into several regions such that the useful Affective information in each region can be extracted and weighted according to their contribution to the VA prediction.", "As input, the proposed regional CNN uses individual sentences as regions, dividing an input text into several regions such that the useful Affective information in different regions can be extracted and weighted according to their contribution to the VA prediction."], "ms": ["Tidak seperti CNN konvensional yang menganggap keseluruhan teks sebagai input, CNN serantau yang dicadangkan menggunakan ayat individu sebagai rantau, membahagikan teks input ke dalam beberapa wilayah seperti maklumat Affektif berguna di setiap rantau boleh diekstrak dan ditimbang mengikut sumbangan mereka kepada ramalan VA.", "Sebagai input, CNN serantau yang dicadangkan menggunakan ayat individu sebagai wilayah, membahagikan teks input ke dalam beberapa wilayah seperti maklumat Affektif berguna di kawasan yang berbeza dapat diekstrak dan ditimbang mengikut sumbangan mereka terhadap ramalan VA."]}, {"en": ["This feature is produced using Nltk to generate the Lemma of each word according to its tagged Pos.", "The Lemmatization is performed using the Wordnetlemmatizer, contained in Nltk."], "ms": ["Ciri ini dihasilkan menggunakan Nltk untuk menghasilkan Lemma setiap perkataan mengikut Pos yang ditandai.", "Lemmatisasi dilakukan menggunakan Wordnetlemmatizer, yang terkandung dalam Nltk."]}, {"en": ["In this work, we specifically focus on the Tree-Structured representations for Semantics.", "In this work, we present a new Discriminative model for semantic Parsing which extends the hybrid tree."], "ms": ["Dalam kerja ini, kami secara khusus memberi tumpuan kepada perwakilan Tree-Structured untuk Semantik.", "Dalam kerja ini, kami membentangkan model Discriminative baru untuk Parsing semantik yang memanjangkan pokok hibrid."]}, {"en": ["Kyoto-Nmt implements the Sequence-To-Sequence model with attention mechanism first proposed in as well as some more recent improvements.", "Since proposed in, the Sequence-To-Sequence model has been achieving the Stateof-The-Art performance when combined with the attention mechanism."], "ms": ["Kyoto-Nmt melaksanakan model Sequence-To-Sequence dengan mekanisme perhatian yang pertama kali dicadangkan dalam serta beberapa penambahbaikan yang lebih baru.", "Sejak dicadangkan pada tahun 2003, model Sequence-To-Sequence telah mencapai prestasi Stateof-The-Art apabila digabungkan dengan mekanisme perhatian."]}, {"en": ["Co-Training methods exploit predicted labels on the Unlabeled data and select samples based on prediction confidence to augment the training.", "Co-Training model can learn a Performance-Driven data selection policy to select high-quality Unlabeled data."], "ms": ["Kaedah latihan bersama mengeksploitasi label ramalan pada data Unlabeled dan memilih sampel berdasarkan keyakinan ramalan untuk menambah latihan.", "Model Latihan Bersama boleh mempelajari dasar pemilihan data Performance-Driven untuk memilih data Unlabeled berkualiti tinggi."]}, {"en": ["We also demonstrate how it can be used to improve existing applications in information Retrieval and summarization.", "With regards to some natural linguistic phenomena, we can now show that it can be used successfully as part of existing Nlp Technologies."], "ms": ["Kami juga menunjukkan bagaimana ia boleh digunakan untuk meningkatkan aplikasi sedia ada dalam pengambilan maklumat dan ringkasan.", "Berkenaan dengan beberapa fenomena linguistik semula jadi, kita kini dapat menunjukkan bahawa ia dapat digunakan dengan jayanya sebagai sebahagian daripada Nlp Technologies yang ada."]}, {"en": ["We utilize the specialist ensemble learning framework to combine these component similarities into the relation strength for clustering.", "Therefore, we treat each similarity function as a subordinate predicting algorithm and utilize the specialist learning framework to combine the predictions."], "ms": ["Kami menggunakan rangka pembelajaran ensemble pakar untuk menggabungkan persamaan komponen ini ke dalam kekuatan hubungan untuk clustering.", "Oleh itu, kami memperlakukan setiap fungsi persamaan sebagai algoritma ramalan bawahan dan menggunakan kerangka pembelajaran pakar untuk menggabungkan ramalan."]}, {"en": ["Graph-Based models and Transitionbased models are two dominant paradigms in the dependency Parsing community.", "Transition-Based and Graph-Based models have attracted the most attention of dependency Parsing in recent years."], "ms": ["Model berasaskan grafik dan model berasaskan peralihan adalah dua paradigma dominan dalam komuniti Parsing dependensi.", "Model berasaskan peralihan dan berasaskan grafik telah menarik perhatian yang paling banyak Parsing kebergantungan dalam beberapa tahun kebelakangan ini."]}, {"en": ["Style transfer is the task of automatically transforming a piece of text in one particular style into another.", "Style transfer is the task of Rephrasing the text to contain specific stylistic properties without changing the intent or affect within the context."], "ms": ["Pemindahan gaya adalah tugas mengubah sekeping teks secara automatik dalam satu gaya tertentu menjadi yang lain.", "Pemindahan gaya adalah tugas untuk mengubah teks untuk mengandungi sifat gaya tertentu tanpa mengubah niat atau mempengaruhi dalam konteks."]}, {"en": ["The goal of semantic Parsing is to map text into a complete and detailed meaning representation.", "The goal of semantic Parsing is to map text to a complete and detailed meaning representation."], "ms": ["Matlamat Parsing semantik adalah untuk memetakan teks ke dalam perwakilan makna yang lengkap dan terperinci.", "Matlamat Parsing semantik adalah untuk memetakan teks kepada perwakilan makna yang lengkap dan terperinci."]}, {"en": ["Johnson showed that word Segmentation accuracy improves if the model can learn different consonant sequences for Word-Inital Onsets and Wordfinal Codas.", "Johnson and showed that word Segmentation accuracy improves when Phonotactic constraints on word shapes are incorporated into the model."], "ms": ["Johnson menunjukkan bahawa ketepatan Segmentasi perkataan bertambah baik jika model dapat mempelajari urutan konsonan yang berbeza untuk Onset Word-Inital dan Codas Wordfinal.", "Johnson dan menunjukkan bahawa ketepatan Segmentasi perkataan bertambah baik apabila kekangan Phonotactic pada bentuk perkataan dimasukkan ke dalam model."]}, {"en": ["This paper presents a dependency Parsing scheme using an extended finite state approach.", "This paper presents an approach to dependency Parsing using an extended finite state model."], "ms": ["Kertas ini membentangkan skema Penghuraian dependensi menggunakan pendekatan keadaan terhingga yang dilanjutkan.", "Kertas ini membentangkan pendekatan untuk penghuraian kebergantungan menggunakan model keadaan terhingga yang dilanjutkan."]}, {"en": ["Finkel and Manning further propose a Hierarchical Bayesian extension of this idea.", "Finkel and Manning proposed a former version of it based on the use of a Hierarchical Bayesian prior."], "ms": ["Finkel dan Manning selanjutnya mencadangkan lanjutan Hierarki Bayesian idea ini.", "Finkel dan Manning mencadangkan versi terdahulunya berdasarkan penggunaan Bayesian Hierarki sebelum ini."]}, {"en": ["As mentioned above, the baseline model is a Char-Lstm-Lstm-Crf model.", "We use a Dnn model mainly suited for sequence tagging and is a variant of the Bi-Lstm-Crf architecture."], "ms": ["Seperti yang dinyatakan di atas, model asas adalah model Char-Lstm-Lstm-Crf.", "Kami menggunakan model Dnn yang sangat sesuai untuk penandaan urutan dan merupakan varian seni bina Bi-Lstm-Crf."]}, {"en": ["Language is the primary tool that people use for establishing, maintaining and expressing social relations.", "Language is a dynamic system, constantly evolving and adapting to the needs of its users and their environment (Cite-P-15-1-0)."], "ms": ["Bahasa adalah alat utama yang digunakan orang untuk mewujudkan, mengekalkan dan menyatakan hubungan sosial.", "Bahasa adalah sistem dinamik, sentiasa berkembang dan menyesuaikan diri dengan keperluan pengguna dan persekitaran mereka (Cite-P-15-1-0)."]}, {"en": ["Results also indicate that learning Character-Level representations from the data is beneficial as the char -Lstm joint model significantly Outperforms the Baselines used in prior work.", "On the character level, we find that learning Character-Level representations with an Rnn architecture significantly improves results over standard distance Metrics used in previous Bli research."], "ms": ["Hasil juga menunjukkan bahawa perwakilan Character-Level pembelajaran dari data bermanfaat kerana model bersama char -Lstm dengan ketara Melaksanakan Garis Asas yang digunakan dalam kerja sebelumnya.", "Pada tahap watak, kami mendapati bahawa perwakilan Tahap Karakter pembelajaran dengan seni bina Rnn secara signifikan meningkatkan hasil berbanding metrik jarak standard yang digunakan dalam penyelidikan Bli sebelumnya."]}, {"en": ["The vocabulary size of the participants was measured using a Japanese language vocabulary evaluation test.", "The vocabulary size of the participants was measured by using a Japanese language vocabulary evaluation test."], "ms": ["Saiz perbendaharaan kata peserta diukur menggunakan ujian penilaian perbendaharaan kata bahasa Jepun.", "Saiz perbendaharaan kata peserta diukur dengan menggunakan ujian penilaian perbendaharaan kata bahasa Jepun."]}, {"en": ["We have proposed a new algorithm for Semi-Supervised text Categorization.", "We propose a new algorithm for Graph-Based Ssl and use the task of text classification."], "ms": ["Kami telah mencadangkan algoritma baru untuk Kugorisasi teks Semi-Supervised.", "Kami mencadangkan algoritma baru untuk Ssl Berasaskan Grafik dan menggunakan tugas pengelasan teks."]}, {"en": ["The standard way to handle this problem is to Handcraft a finite set of features which provides a sufficient summary of the unbounded history.", "The standard way to handle this problem is to Hand-Craft a finite set of features which provides a sufficient summary of the history."], "ms": ["Cara standard untuk menangani masalah ini adalah dengan Handcraft satu set ciri yang terhad yang memberikan ringkasan yang mencukupi dari sejarah yang tidak terikat.", "Cara standard untuk menangani masalah ini adalah dengan Hand-Craft satu set ciri yang terhingga yang menyediakan ringkasan sejarah yang mencukupi."]}, {"en": ["Feature function Scaling factors \u4f4d M are Optimized based on a maximum likelihood approach or on a direct error Minimization approach.", "Feature function Scaling factors \u4f4d M are Optimized based on a maximum likely approach or on a direct error Minimization approach."], "ms": ["Faktor penskalaan fungsi ciri M dioptimumkan berdasarkan pendekatan kemungkinan maksimum atau pada pendekatan Minimisasi ralat langsung.", "Faktor penskalaan fungsi ciri M dioptimumkan berdasarkan pendekatan kemungkinan maksimum atau pada pendekatan Minimisasi ralat langsung."]}, {"en": ["However, one disadvantage of their models, as in, is that their time complexity is cubic in the number of tokens in the sentence.", "For example, both Finkel and Manning and McDonald et al methods suffer from a high time complexity which is cubic in the number of tokens in the sentence."], "ms": ["Walau bagaimanapun, satu kelemahan model mereka, seperti dalam, adalah kerumitan masa mereka adalah padu dalam bilangan token dalam ayat.", "Sebagai contoh, kedua-dua kaedah Finkel dan Manning dan McDonald et al mengalami kerumitan masa yang tinggi iaitu padu dalam bilangan token dalam ayat."]}, {"en": ["Additionally, we use averaged word Embeddings.", "For English, we use the Fasttext word Embedding of dimension 300."], "ms": ["Selain itu, kita menggunakan perkataan Embeddings purata.", "Untuk bahasa Inggeris, kami menggunakan perkataan Fasttext Embedding dimensi 300."]}, {"en": ["Entrainment is the phenomenon of the speech of conversational partners becoming more similar to each other.", "Entrainment is the phenomenon of Interlocutors becoming more similar to each other in their speech in the course of a conversation."], "ms": ["Keterlambatan adalah fenomena ucapan rakan kongsi perbualan menjadi lebih serupa antara satu sama lain.", "Keterlambatan adalah fenomena Interlocutors menjadi lebih serupa antara satu sama lain dalam ucapan mereka semasa perbualan."]}, {"en": ["We introduce Significance-Based N-Gram selection, which not only reduces model size, but also improves perplexity for several smoothing methods, including Katz Back-Off and absolute discounting.", "Significance-Based N-Gram selection not only reduces language model size, but it also improves perplexity when applied to a number of Widely-Used smoothing methods, including Katz Backoff and several Variants of absolute discounting."], "ms": ["Kami memperkenalkan pemilihan N-Gram Berasaskan Ketara, yang bukan sahaja mengurangkan saiz model, tetapi juga meningkatkan kebingungan untuk beberapa kaedah melicinkan, termasuk Katz Back-Off dan diskaun mutlak.", "Pemilihan N-Gram Berasaskan Penting bukan sahaja mengurangkan saiz model bahasa, tetapi juga meningkatkan kebingungan apabila digunakan untuk beberapa kaedah smoothing yang digunakan secara meluas, termasuk Katz Backoff dan beberapa Varian diskaun mutlak."]}, {"en": ["In this paper, we introduce a Randomized greedy algorithm that can be easily used with any rich scoring function.", "In this paper, we demonstrate that a substantially simpler approach that starts from a tree drawn from the uniform distribution."], "ms": ["Dalam kertas ini, kami memperkenalkan algoritma tamak Rawak yang boleh digunakan dengan mudah dengan sebarang fungsi pemarkahan yang kaya.", "Dalam kertas ini, kami menunjukkan bahawa pendekatan yang lebih mudah yang bermula dari pokok yang diambil dari pengedaran seragam."]}, {"en": ["We have presented Plato, a simple and Scalable entity resolution system that Leverages Unlabeled data to produce state-of-the-art results.", "We present Plato, a probabilistic model for entity resolution that includes a novel approach for handling noisy or Uninformative features."], "ms": ["Kami telah membentangkan Plato, sistem resolusi entiti yang mudah dan berskala yang Leverages Data Unlabeled untuk menghasilkan hasil canggih.", "Kami membentangkan Plato, model probabilistik untuk resolusi entiti yang merangkumi pendekatan baru untuk menangani ciri-ciri bising atau Uninformatif."]}, {"en": ["Recent applications of Tree-Adjoining grammar (tag) to the domain of Semantics as well as new attention to syntactic phenomena have given rise to increased interested in more expressive and complex Multicomponent tag Formalisms (Mctag).", "As well as new attention to syntactic phenomena such as scrambling have given rise to increased interested in Multicomponent tag Formalisms (Mctag), which extend the flexibility, and in some cases Generative capacity of the formalism."], "ms": ["Aplikasi baru-baru ini tatabahasa Tree-Adjoining (tag) ke domain Semantik serta perhatian baru kepada fenomena sintaksis telah menimbulkan peningkatan minat terhadap tag Multikomponen yang lebih ekspresif dan kompleks Formalisme (Mctag).", "Serta perhatian baru terhadap fenomena sintaksis seperti berebut telah menimbulkan peningkatan minat terhadap tag Multikomponen Formalisms (Mctag), yang memperluas fleksibiliti, dan dalam beberapa kes kapasiti Generatif formalisme."]}, {"en": ["We extend a recurrent neural network language model so that its output can be conditioned on a Featurized melody.", "We model the Generative architecture with a recurrent language model based on a recurrent neural network."], "ms": ["Kami memperluaskan model bahasa rangkaian neural berulang supaya outputnya boleh dikondisikan pada melodi yang direka bentuk.", "Kami memodelkan seni bina Generatif dengan model bahasa berulang berdasarkan rangkaian saraf berulang."]}, {"en": ["Furthermore, the questions generated by our model help to improve a strong Extractive Qa system.", "And our automatically generated questions help to improve a strong Extractive Qa system."], "ms": ["Tambahan pula, soalan yang dihasilkan oleh model kami membantu meningkatkan sistem Qa Ekstraktif yang kuat.", "Dan soalan yang dihasilkan secara automatik kami membantu meningkatkan sistem Qa Ekstraktif yang kuat."]}, {"en": ["In order to acquire class attributes in particular, a common strategy is to first acquire attributes of instances, then aggregate or propagate attributes, from instances to the classes to which the instances belong.", "In order to acquire class attributes, a common strategy is to first acquire attributes of instances, then aggregate or propagate attributes, from instances to the classes to which the instances belong."], "ms": ["Untuk memperoleh atribut kelas khususnya, strategi biasa adalah untuk terlebih dahulu memperoleh atribut kejadian, kemudian agregat atau menyebarkan atribut, dari contoh ke kelas yang mana kejadian itu dimiliki.", "Untuk memperoleh atribut kelas, strategi biasa adalah untuk terlebih dahulu memperoleh atribut contoh, kemudian agregat atau menyebarkan atribut, dari contoh ke kelas yang mana contoh tergolong."]}, {"en": ["Experimental results show our proposed framework Outperforms the state-of-the-art baseline by over 7% in F-Measure.", "And the results show that our proposed approach Outperforms Twical, the state-of-the-art open event extraction system, by 7 . 7% in F-Measure."], "ms": ["Hasil eksperimen menunjukkan rangka kerja yang dicadangkan kami Melaksanakan garis dasar terkini dengan lebih 7% dalam F-Measure.", "Dan hasilnya menunjukkan bahawa pendekatan yang dicadangkan kami Outperforms Twical, sistem pengekstrakan acara terbuka terkini, sebanyak 7.7% dalam F-Measure."]}, {"en": ["The transferable knowledge was assimilated in terms of selective labeled instances from different source domain to form a K-Class auxiliary training set.", "In the form of selective labeled instances from different domains is congregated to form an auxiliary training set which is used for learning."], "ms": ["Pengetahuan yang boleh dipindah milik telah diasimilasikan dari segi contoh berlabel terpilih dari domain sumber yang berbeza untuk membentuk set latihan tambahan K-Class.", "Dalam bentuk contoh berlabel terpilih dari domain yang berbeza dikumpulkan untuk membentuk set latihan tambahan yang digunakan untuk pembelajaran."]}, {"en": ["So far we have Crowdsourced a Dataset of more than 14K comparison paragraphs comparing entities from a variety of categories such as fruits and animals.", "Through comparison comprehension, we have Crowdsourced a Dataset of more than 14K comparison paragraphs."], "ms": ["Setakat ini kami mempunyai Crowdsourced Dataset lebih daripada 14K perbandingan perenggan membandingkan entiti dari pelbagai kategori seperti buah-buahan dan haiwan.", "Melalui pemahaman perbandingan, kami mempunyai Crowdsourced Dataset lebih daripada 14K perenggan perbandingan."]}, {"en": ["We look for further alternatives in Wordnet, which has previously been widely used to find semantically related words.", "To overcome this problem, we use Wordnet to find semantically equivalent replacements for unknown words."], "ms": ["Kami mencari alternatif lain dalam Wordnet, yang sebelum ini digunakan secara meluas untuk mencari perkataan yang berkaitan dengan semantically.", "Untuk mengatasi masalah ini, kami menggunakan Wordnet untuk mencari pengganti yang setara secara semantik untuk perkataan yang tidak diketahui."]}, {"en": ["This paper presents a new method for systematically organizing a large set of such phrases.", "This paper presents a new method for building such a resource."], "ms": ["Kertas ini membentangkan kaedah baru untuk mengatur satu set besar frasa tersebut secara sistematik.", "Kertas ini membentangkan kaedah baru untuk membina sumber sedemikian."]}, {"en": ["This hypothesis is the foundation for Distributional Semantics, in which words are represented by context vectors.", "Our hypothesis is a generalization of the original hypothesis since it allows a Reducible sequence to form several adjacent Subtrees."], "ms": ["Hipotesis ini adalah asas untuk Semantik Pengagihan, di mana perkataan diwakili oleh vektor konteks.", "Hipotesis kami adalah generalisasi hipotesis asal kerana ia membolehkan urutan yang dapat dikurangkan membentuk beberapa Subtrees bersebelahan."]}, {"en": ["The Fasttext Pre-Trained vectors are used for word Embedding with Embed size is 300.", "Fasttext Pre-Trained vectors are used for word Embedding with Embed size is 300."], "ms": ["Vektor Pra-Latih Fasttext digunakan untuk Embedding perkataan dengan saiz Embed adalah 300.", "Vektor Pra-Latih Fasttext digunakan untuk Embedding perkataan dengan saiz Embed adalah 300."]}, {"en": ["Xue et al , 2011) adopted the Noisy-Channel framework for normalisation of Microtext and proved that it is an effective method for performing normalisation.", "Xue et al , 2011) adopted the Noisy-Channel framework and incorporated orthographic, phonetic, Contextual, and Acronym expansion factors in calculating the likelihood probabilities."], "ms": ["Xue et al, 2011) menggunakan rangka Noisy-Channel untuk normalisasi Mikroteks dan membuktikan bahawa ia adalah kaedah yang berkesan untuk melakukan normalisasi.", "Xue et al, 2011) mengguna pakai rangka kerja Noisy-Channel dan menggabungkan faktor pengembangan ortografik, fonetik, Kontekstual, dan Akronim dalam mengira kebarangkalian kemungkinan."]}, {"en": ["Then we automatically induce the English word sense Correspondences to L2.", "We apply a supervised Wsd system to derive the English word senses."], "ms": ["Kemudian kita secara automatik mendorong perkataan Inggeris Correspondences ke L2.", "Kami menggunakan sistem Wsd yang diawasi untuk memperoleh deria perkataan Inggeris."]}, {"en": ["The Multi-Layer attention aims to capture multiple word Dependencies in partial trees for action prediction.", "In Transition-Based Parsing, and Multi-Layer attention is introduced to capture multiple word Dependencies in partial trees."], "ms": ["Perhatian Multi-Layer bertujuan untuk menangkap pelbagai perkataan Dependensi dalam pokok separa untuk ramalan tindakan.", "Dalam Penghuraian Berasaskan Peralihan, dan perhatian Multi-Layer diperkenalkan untuk menangkap pelbagai perkataan Dependensi dalam pokok separa."]}, {"en": ["As shown in similar to the first step, we use a sequence labelling approach with a Crf model.", "Following the previous work, we employ the linear chain Crfs as our learning model."], "ms": ["Seperti yang ditunjukkan dalam langkah yang sama dengan langkah pertama, kami menggunakan pendekatan pelabelan urutan dengan model Crf.", "Berikutan kerja sebelumnya, kami menggunakan Crfs rantai linear sebagai model pembelajaran kami."]}, {"en": ["Hence finding linguistic transformations which can be applied reliably and often is a challenging problem for linguistic Steganography.", "Semantic transformation method is the most sophisticated approach for linguistic Steganography, and perhaps impractical."], "ms": ["Oleh itu, mencari transformasi linguistik yang boleh digunakan dengan pasti dan sering merupakan masalah yang mencabar untuk Steganografi linguistik.", "Kaedah transformasi semantik adalah pendekatan yang paling canggih untuk Steganografi linguistik, dan mungkin tidak praktikal."]}, {"en": ["Our main corpus is Europarl, specifically portions collected over years 1996 to 365 1999 and 2001 to 2009.", "Our corpus is Europarl, specifically, portions collected over the years 1996-1999 and 2001-2009."], "ms": ["Korus utama kami adalah Europarl, khususnya bahagian yang dikumpulkan selama tahun 1996 hingga 365 1999 dan 2001 hingga 2009.", "Korpus kami adalah Europarl, khususnya, bahagian yang dikumpulkan sepanjang tahun 1996-1999 dan 2001-2009."]}, {"en": ["We first Encode each word in the input sentence to an M-Dimensional vector using Word2Vec.", "Then we train Word2Vec to represent each entity with a 100-Dimensional Embedding vector."], "ms": ["Kami pertama kali mengkod setiap perkataan dalam ayat input ke vektor M-Dimensional menggunakan Word2Vec.", "Kemudian kami melatih Word2Vec untuk mewakili setiap entiti dengan vektor Embedding 100 Dimensional."]}, {"en": ["Propbank Encodes Propositional information by adding a layer of argument structure Annotation to the syntactic structures of verbs in the Penn Treebank.", "Propbank Encodes Propositional information by adding a layer of argument structure Annotation to the syntactic structures of the Penn Treebank."], "ms": ["Propbank Mengenkod Maklumat proposisi dengan menambah lapisan struktur argumen Annotasi kepada struktur sintaksis kata kerja di Penn Treebank.", "Propbank Mengenkod Maklumat proposisi dengan menambah lapisan struktur argumen Annotasi kepada struktur sintaksis Penn Treebank."]}, {"en": ["In a previous study, we used this paradigm for collecting data on how humans elicit feedback in Humancomputer dialogue.", "In a previous study, we presented a fully automated spoken dialogue system that can perform the map task with a user."], "ms": ["Dalam kajian sebelumnya, kami menggunakan paradigma ini untuk mengumpulkan data tentang bagaimana manusia memperoleh maklum balas dalam dialog Humancomputer.", "Dalam kajian sebelumnya, kami membentangkan sistem dialog lisan automatik sepenuhnya yang dapat melakukan tugas peta dengan pengguna."]}, {"en": ["As for experiments, state-of-the-art SVM and Knn Algorithms are employed for topic classification.", "As for experiments, state-of-the-art SVM and Knn algorithm are adopted for topic classification."], "ms": ["Bagi eksperimen, algoritma SVM dan Knn yang canggih digunakan untuk pengelasan topik.", "Bagi eksperimen, algoritma SVM dan Knn canggih digunakan untuk pengelasan topik."]}, {"en": ["In this section, we will discuss these four conversational agents briefly.", "In section 2, we talk more about the Intricacies of Basilica and agents."], "ms": ["Dalam bahagian ini, kami akan membincangkan empat ejen perbualan ini secara ringkas.", "Dalam bahagian 2, kita bercakap lebih lanjut mengenai selok-belok Basilika dan agen."]}, {"en": ["Since words in any language are grounded to the English Wikipedia, the corresponding Wikipedia categories and Freebase types can be used as Language-Independent features.", "To the English Wikipedia, the typing information from Wikipedia categories and Freebase are useful Language-Independent features."], "ms": ["Oleh kerana perkataan dalam mana-mana bahasa adalah berasaskan Wikipedia Bahasa Inggeris, kategori Wikipedia yang sepadan dan jenis Freebase boleh digunakan sebagai ciri-ciri Bahasa-Independent.", "Kepada Wikipedia Bahasa Inggeris, maklumat menaip dari kategori Wikipedia dan Freebase adalah ciri-ciri Bahasa Bebas yang berguna."]}, {"en": ["The key assumption is that redundancy provides a reliable way of generating grammatical sentences.", "Approach is that redundancy within the set of related sentences provides a reliable way of generating informative and grammatical sentences."], "ms": ["Anggapan utama adalah bahawa redundansi menyediakan cara yang boleh dipercayai untuk menghasilkan ayat tatabahasa.", "Pendekatan adalah bahawa redundansi dalam set ayat yang berkaitan menyediakan cara yang boleh dipercayai untuk menghasilkan ayat bermaklumat dan tatabahasa."]}, {"en": ["Using the Cluster-Pair representations, our network learns when combining two Coreference clusters is desirable.", "Thanks to Entity-Level information, the Cluster-Ranking model correctly declines to merge these two large clusters."], "ms": ["Menggunakan perwakilan Cluster-Pair, rangkaian kami belajar apabila menggabungkan dua kluster Coreference adalah wajar.", "Terima kasih kepada maklumat Entity-Level, model Cluster-Ranking dengan betul merosot untuk menggabungkan kedua-dua kluster besar ini."]}, {"en": ["Experimental results show that our approach produces sentences that are both relevant and readable.", "Experimental results show that our strategy of combining vision and language produces readable and descriptive sentences."], "ms": ["Hasil eksperimen menunjukkan bahawa pendekatan kami menghasilkan ayat yang relevan dan boleh dibaca.", "Hasil eksperimen menunjukkan bahawa strategi kami menggabungkan visi dan bahasa menghasilkan ayat yang boleh dibaca dan deskriptif."]}, {"en": ["Many attempts have been made along these lines, as for example Brill and Goto et al, with some claiming performance equivalent to Lexicon-Based methods, while Kwok reports good results with only a small lexicon and simple Segmentor.", "Many attempts have been made along these lines, as for example Brill and Goto et al, with some claiming performance equivalent to Lexicon-Driven methods, while Kwok reports good results with only a small lexicon and simple Segmentor."], "ms": ["Banyak percubaan telah dibuat di sepanjang garis ini, seperti Brill dan Goto et al, dengan beberapa prestasi yang menuntut setara dengan kaedah berasaskan Lexicon, sementara Kwok melaporkan hasil yang baik dengan hanya leksikon kecil dan Segmentor sederhana.", "Banyak percubaan telah dibuat di sepanjang garis ini, seperti Brill dan Goto et al, dengan beberapa prestasi yang menuntut setara dengan kaedah Lexicon-Driven, sementara Kwok melaporkan hasil yang baik dengan hanya leksikon kecil dan Segmentor sederhana."]}, {"en": ["Subtasks a and B should give participants enough tools to create a Cqa system to solve the main task.", "A and B should give participants enough tools to create a Cqa system to solve the main task."], "ms": ["Subtugas a dan B harus memberi peserta alat yang cukup untuk membuat sistem Cqa untuk menyelesaikan tugas utama.", "A dan B harus memberi peserta alat yang cukup untuk membuat sistem Cqa untuk menyelesaikan tugas utama."]}, {"en": ["In the training phase, a sample is then selected from the system outputs and provided with the correct interpretation by a human expert.", "During this phase, a human expert supervises samples, that is, provides the correct interpretation."], "ms": ["Dalam fasa latihan, sampel kemudian dipilih dari output sistem dan diberikan tafsiran yang betul oleh pakar manusia.", "Semasa fasa ini, pakar manusia mengawasi sampel, iaitu, memberikan tafsiran yang betul."]}, {"en": ["We utilize a maximum entropy model to design the basic Classifier for Wsd and TC tasks.", "We use the Mallet implementation of a maximum entropy Classifier to construct our models."], "ms": ["Kami menggunakan model entropi maksimum untuk mereka bentuk Klasifier asas untuk tugas Wsd dan TC.", "Kami menggunakan pelaksanaan Mallet Classifier entropi maksimum untuk membina model kami."]}, {"en": ["Section 5 compares our method with the previous work from the viewpoint of feature exploration.", "In this section, we compare our method with the previous work from the feature engineering viewpoint."], "ms": ["Seksyen 5 membandingkan kaedah kami dengan kerja sebelumnya dari sudut pandang penerokaan ciri.", "Dalam bahagian ini, kami membandingkan kaedah kami dengan kerja sebelumnya dari sudut pandang kejuruteraan ciri."]}, {"en": ["Ties and relations in a knowledge base (KB) by jointly Embedding the Union of all available schema Types\u00a1\u00aanot only types from multiple structured databases (such as Freebase or Wikipedia Infoboxes), but also types expressed as textual patterns from raw text.", "In a knowledge base (KB) by jointly Embedding the Union of all available schema types \u00a1\u00aa not only types from multiple structured databases (such as Freebase or Wikipedia Infoboxes), but also types expressed as textual patterns from raw text."], "ms": ["Hubungan dan hubungan dalam pangkalan pengetahuan (KB) dengan bersama-sama Embedding Kesatuan semua skema yang tersedia Jenis-jenis hanya jenis dari pangkalan data berstruktur berganda (seperti Freebase atau Wikipedia Infoboxes), tetapi juga jenis yang dinyatakan sebagai corak teks dari teks mentah.", "Dalam pangkalan pengetahuan (KB) dengan bersama-sama Embedding Kesatuan semua jenis skema yang tersedia a bukan sahaja jenis dari pangkalan data berstruktur berganda (seperti Freebase atau Wikipedia Infoboxes), tetapi juga jenis yang dinyatakan sebagai corak teks dari teks mentah."]}, {"en": ["In this paper we investigate Binary polarity classification (positive vs. negative).", "In this paper we examine different linguistic features for sentimental polarity classification."], "ms": ["Dalam kertas ini kita menyiasat pengelasan polariti binari (positif vs negatif).", "Dalam makalah ini kita mengkaji ciri linguistik yang berbeza untuk klasifikasi polariti sentimental."]}, {"en": ["Typically, Nlp Annotation projects employ guidelines to maximize Inter-Annotator agreement.", "Annotation projects employ guidelines to maximize Inter-Annotator agreement."], "ms": ["Biasanya, projek Nlp Annotation menggunakan garis panduan untuk memaksimumkan perjanjian Inter-Annotator.", "Projek anotasi menggunakan garis panduan untuk memaksimumkan perjanjian Inter-Annotator."]}, {"en": ["F-Structures and Udrss are Underspecified syntactic and semantic representations, respectively.", "F-Structures are abstract, high-level syntactic representations."], "ms": ["F-Structures dan Udrss adalah perwakilan sintaktik dan semantik yang tidak ditentukan, masing-masing.", "F-Structures adalah perwakilan sintaktik peringkat tinggi yang abstrak."]}, {"en": ["However, some phrases have two or more idiomatic meanings without context.", "Some of the compound functional expressions in Japanese are ambiguous."], "ms": ["Walau bagaimanapun, sesetengah frasa mempunyai dua atau lebih makna idiomatik tanpa konteks.", "Sesetengah ungkapan fungsian sebatian dalam bahasa Jepun adalah samar-samar."]}, {"en": ["First, we use the Stanford Corenlp package for Tokenization and sentence splitting.", "First, we apply sentence Tokenisation over the Mrec using the Stanford Corenlp Toolkit."], "ms": ["Pertama, kami menggunakan pakej Stanford Corenlp untuk Tokenization dan pembahagian ayat.", "Pertama, kita menggunakan Tokenisasi ayat ke atas Mrec menggunakan Stanford Corenlp Toolkit."]}, {"en": ["This framework facilitates detailed research into evaluation Metrics and will therefore provide a productive research tool in addition to the immediate practical benefit of improving the fluency and Readability of generated texts.", "And will therefore provide a productive research tool in addition to the immediate practical benefit of improving the fluency and Readability of generated texts."], "ms": ["Rangka kerja ini memudahkan penyelidikan terperinci ke dalam Metrik penilaian dan oleh itu akan menyediakan alat penyelidikan yang produktif sebagai tambahan kepada manfaat praktikal segera untuk meningkatkan kefasihan dan Kebolehbacaan teks yang dihasilkan.", "Oleh itu, akan menyediakan alat penyelidikan yang produktif sebagai tambahan kepada manfaat praktikal segera untuk meningkatkan kefasihan dan Kebolehbacaan teks yang dihasilkan."]}, {"en": ["They used Babelnet Synsets to identify semantic concepts and Disambiguate words using the word sense Disambiguation system Babelfy.", "Word sense Disambiguation was performed using the Babelfy tool which relies on the Multilingual resource Babelnet."], "ms": ["Mereka menggunakan Babelnet Synsets untuk mengenal pasti konsep semantik dan kata-kata Disambiguate menggunakan sistem kata rasa Disambiguasi Babelfy.", "Disambiguasi kata-kata dilakukan menggunakan alat Babelfy yang bergantung kepada sumber Multilingual Babelnet."]}, {"en": ["In this study, two classes of Metrics were adopted for evaluating RC Datasets: prerequisite skills and Readability.", "In this study, RC Datasets with different task formulations were Annotated with prerequisite skills."], "ms": ["Dalam kajian ini, dua kelas Metrik telah diterima pakai untuk menilai Dataset RC: kemahiran prasyarat dan Kebolehbacaan.", "Dalam kajian ini, Dataset RC dengan formulasi tugas yang berbeza telah Dianotasi dengan kemahiran prasyarat."]}, {"en": ["In this paper, we propose a Nonlinear modeling for the quality of translation hypotheses based on neural networks, which allows more complex interaction between features.", "In this paper, we focus on enhancing the expressive power of the modeling, which is independent of the research of enhancing translation."], "ms": ["Dalam makalah ini, kami mencadangkan pemodelan Nonlinear untuk kualiti hipotesis terjemahan berdasarkan rangkaian saraf, yang membolehkan interaksi yang lebih kompleks antara ciri-ciri.", "Dalam makalah ini, kami memberi tumpuan kepada meningkatkan kuasa ekspresif pemodelan, yang bebas daripada penyelidikan meningkatkan terjemahan."]}, {"en": ["Opinionfinder (Cite-P-8-1-11) is a system for mining opinions from text.", "Opinionfinder (Cite-P-7-1-12) is a system for mining opinions from text."], "ms": ["Opinionfinder (Cite-P-8-1-11) adalah sistem untuk perlombongan pendapat dari teks.", "Opinionfinder (Cite-P-7-1-12) adalah sistem untuk perlombongan pendapat dari teks."]}, {"en": ["Categories are generated using a novel graph Clique-Set algorithm.", "Word categories are created based on graph clique sets."], "ms": ["Kategori dihasilkan menggunakan algoritma Clique-Set grafik novel.", "Kategori perkataan dicipta berdasarkan set graf clique."]}, {"en": ["This is mainly caused by the flexible word ordering and the existence of the large number of synonyms for words.", "Due to the flexible word ordering of a sentence and the existence of a large number of synonyms for words."], "ms": ["Ini disebabkan terutamanya oleh pesanan perkataan yang fleksibel dan kewujudan sebilangan besar sinonim untuk perkataan.", "Oleh kerana pesanan perkataan yang fleksibel dari ayat dan kewujudan sebilangan besar sinonim untuk kata-kata."]}, {"en": ["The Oov tokens that should be considered for Normalization are referred to as Ill-Formed words.", "Several Oov tokens are ambiguous and without Contextual information."], "ms": ["Token Oov yang harus dipertimbangkan untuk Normalisasi dirujuk sebagai kata-kata Ill-Formed.", "Beberapa token Oov adalah samar-samar dan tanpa maklumat Kontekstual."]}, {"en": ["Hearst Handcrafted a set of Lexico-Syntactic paths that connect the joint occurrences of X and Y which indicate Hypernymy in a large corpus.", "Hearst extracted information from Lexico-Syntactic expressions that explicitly indicate Hyponymic relationships."], "ms": ["Hearst Handcrafted satu set laluan Lexico-Syntactic yang menghubungkan kejadian bersama X dan Y yang menunjukkan Hypernymy dalam korpus besar.", "Hearst mengekstrak maklumat dari ungkapan Lexico-Syntactic yang secara jelas menunjukkan hubungan Hyponymic."]}, {"en": ["This paper proposes a knowledge representation model and a logic proving setting with axioms on demand successfully used for recognizing textual Entailments.", "In this paper, we present a logic form representation of knowledge which captures syntactic Dependencies as well as semantic relations between concepts."], "ms": ["Kertas ini mencadangkan model perwakilan pengetahuan dan penetapan bukti logik dengan aksiom atas permintaan yang berjaya digunakan untuk mengenali Entailments teks.", "Dalam makalah ini, kami membentangkan perwakilan bentuk logik pengetahuan yang menangkap Dependensi sintaksis serta hubungan semantik antara konsep."]}, {"en": ["Named-Entity recognition (NER) is the task of identifying mentions of rigid Designators from text belonging to Named-Entity types such as persons, organizations and locations (Cite-P-17-1-27).", "Named-Entity recognition (NER) is the task of identifying mentions of rigid Designators from text belonging to Named-Entity types such as persons, organizations and locations (Cite-P-15-2-2)."], "ms": ["Pengecaman Named-Entity (NER) adalah tugas mengenal pasti sebutan Pereka tegar dari teks yang tergolong dalam jenis Named-Entity seperti orang, organisasi dan lokasi (Cite-P-17-1-27).", "Pengecaman Named-Entity (NER) adalah tugas mengenal pasti sebutan Pereka tegar dari teks yang tergolong dalam jenis Named-Entity seperti orang, organisasi dan lokasi (Cite-P-15-2-2)."]}, {"en": ["For Benchmarking the progress, we filter a collection of these paragraphs to create a test set, on which humans perform with an accuracy of 94.2 %.", "Possible, we vet a collection of comparison paragraphs to obtain a test set on which human performs with an accuracy 94 . 2 %."], "ms": ["Untuk penanda aras kemajuan, kami menapis koleksi perenggan ini untuk mencipta set ujian, di mana manusia melakukan dengan ketepatan 94.2%.", "Kemungkinan, kami memeriksa koleksi perenggan perbandingan untuk mendapatkan set ujian yang mana manusia melakukan dengan ketepatan 94.2%."]}, {"en": ["Current research in summarization focuses on processing short articles, primarily in the news domain.", "Although most current research in summarization focuses on newspaper articles."], "ms": ["Penyelidikan semasa dalam ringkasan memberi tumpuan kepada memproses artikel pendek, terutamanya dalam domain berita.", "Walaupun kebanyakan penyelidikan semasa dalam ringkasan memberi tumpuan kepada artikel akhbar."]}, {"en": ["The growth of Online social networks provides the opportunity to Analyse user text in a broader context.", "Recently, the growth of Online social networks provides the opportunity to perform user classification in a broader context."], "ms": ["Pertumbuhan rangkaian sosial dalam talian memberi peluang untuk menganalisis teks pengguna dalam konteks yang lebih luas.", "Baru-baru ini, pertumbuhan rangkaian sosial dalam talian memberi peluang untuk melaksanakan pengelasan pengguna dalam konteks yang lebih luas."]}, {"en": ["We first Initialize the model parameters by sampling from Glorot-Uniform distribution.", "We Initialize the model parameters randomly using a Gaussian distribution with Xavier scheme."], "ms": ["Kami mula-mula Memulakan parameter model dengan mengambil sampel dari pengedaran Glorot-Uniform.", "Kami Memulakan parameter model secara rawak menggunakan pengedaran Gaussian dengan skema Xavier."]}, {"en": ["Entity linking is the task of mapping an entity mention in a text document to an entity in a knowledge base.", "A widely accepted way to use knowledge graph is tying queries with it by Annotating entities in them, also known as entity linking."], "ms": ["Pemautan entiti adalah tugas pemetaan sebutan entiti dalam dokumen teks kepada entiti dalam pangkalan pengetahuan.", "Cara yang diterima secara meluas untuk menggunakan graf pengetahuan adalah mengikat pertanyaan dengannya dengan entiti Annotating di dalamnya, juga dikenali sebagai entiti penghubung."]}, {"en": ["Current Smt systems usually Decode with single translation models and cannot benefit from the strengths of other models in decoding phase.", "Smt systems, adopting either Max-Derivation decoding or Max-Translation decoding, have only used single models in decoding phase."], "ms": ["Sistem Smt semasa biasanya Decode dengan model terjemahan tunggal dan tidak boleh mendapat manfaat daripada kekuatan model lain dalam fasa penyahkodan.", "Sistem Smt, menggunakan sama ada penyahkodan Max-Derivation atau penyahkodan Max-Translation, hanya menggunakan model tunggal dalam fasa penyahkodan."]}, {"en": ["This limitation is already discussed in and in, in which bilingual extensions of the Word2Vec architecture are proposed.", "This limitation is already discussed in and in, in which bilingual extensions of the Word2Vec architecture are also proposed."], "ms": ["Batasan ini sudah dibincangkan di dalam dan di mana sambungan dwibahasa seni bina Word2Vec dicadangkan.", "Batasan ini sudah dibincangkan di dalam dan di mana sambungan dwibahasa seni bina Word2Vec juga dicadangkan."]}, {"en": ["Zhou et al proposed Attention-Based, Bidirectional Lstm networks for a relation classification task.", "Zhou et al proposed Attention-Based Bi-Directional Lstm networks for relation classification task."], "ms": ["Zhou et al mencadangkan Rangkaian Lstm Berasaskan Perhatian, Bidirectional untuk tugas pengelasan hubungan.", "Zhou et al mencadangkan rangkaian Lstm Bi-Directional Berasaskan Perhatian untuk tugas pengelasan hubungan."]}, {"en": ["This is partly because the description of an individual event can spread across several sentences.", "Because an individual event can be expressed by several sentences."], "ms": ["Ini sebahagiannya kerana penerangan peristiwa individu boleh tersebar di beberapa ayat.", "Kerana peristiwa individu boleh dinyatakan oleh beberapa ayat."]}, {"en": ["Indeed, it was resulted in that using only adjectives as features actually results in much worse performance than using the same number of most frequent Unigrams.", "This is opposite to the conclusion in Indomain tasks that using only adjectives as features results in much worse performance than using the same number of most frequent Unigrams."], "ms": ["Memang, ia telah menyebabkan bahawa menggunakan hanya kata sifat sebagai ciri-ciri sebenarnya menghasilkan prestasi yang lebih buruk daripada menggunakan bilangan yang sama Unigrams yang paling kerap.", "Ini bertentangan dengan kesimpulan dalam tugas Indomain yang hanya menggunakan kata sifat sebagai ciri menghasilkan prestasi yang jauh lebih buruk daripada menggunakan bilangan Unigram yang paling kerap."]}, {"en": ["Experimental results show that the proposed Top-Down Parser achieves competitive results with other Data-Driven Parsing Algorithms.", "Data show that the proposed algorithm achieves comparable results with other Data-Driven dependency Parsing Algorithms."], "ms": ["Hasil eksperimen menunjukkan bahawa Penghurai Top-Down yang dicadangkan mencapai hasil yang kompetitif dengan Algoritma Penghuraian Terkini Data yang lain.", "Data menunjukkan bahawa algoritma yang dicadangkan mencapai hasil yang setanding dengan Algoritma Penghuraian dependensi Data-Driven yang lain."]}, {"en": ["Recently, there has been increasing awareness of the need for appropriate handling of Multiword expressions in Nlp tasks.", "Recently there has been a growing understanding both of the need for the appropriate handling of Multiword expressions, and of the complexities involved in the task."], "ms": ["Baru-baru ini, terdapat peningkatan kesedaran tentang keperluan untuk pengendalian ungkapan Multiword yang sesuai dalam tugas Nlp.", "Baru-baru ini terdapat pemahaman yang semakin meningkat mengenai keperluan untuk pengendalian ungkapan Multiword yang sesuai, dan kerumitan yang terlibat dalam tugas tersebut."]}, {"en": ["A similar effort was also made in the Eurowordnet project.", "A similar E Ort was also made in the Eurowordnet project."], "ms": ["Usaha serupa juga dilakukan dalam projek Eurowordnet.", "E Ort yang serupa juga dibuat dalam projek Eurowordnet."]}, {"en": ["To minimize such confusion, a system must separately represent noun phrases, the underlying concepts to which they can refer, and the Many-To-Many \u201c can refer to \u201d relation between them.", "To accurately represent knowledge, they must represent noun phrases, concepts, and the Many-To-Many mapping from noun phrases to concepts."], "ms": ["Untuk meminimumkan kekeliruan tersebut, sistem mesti secara berasingan mewakili frasa kata nama, konsep asas yang boleh mereka rujuk, dan Banyak-To-Many boleh merujuk kepada hubungan antara mereka.", "Untuk mewakili pengetahuan dengan tepat, mereka mesti mewakili frasa kata nama, konsep, dan pemetaan Banyak-Ke-Banyak dari frasa kata nama ke konsep."]}, {"en": ["We use BLEU and Ter we expose the statistical decisions in Eqn.", "We also report the results using BLEU and Ter Metrics."], "ms": ["Kami menggunakan BLEU dan Ter kami mendedahkan keputusan statistik di Eqn.", "Kami juga melaporkan hasil menggunakan BLEU dan Ter Metrics."]}, {"en": ["We illustrate that it is possible to measure diachronic semantic drifts within social media and within the span of a few years.", "To show that it is possible to measure diachronic semantic drifts within social media and within the span of a few years."], "ms": ["Kami menggambarkan bahawa adalah mungkin untuk mengukur drift semantik diachronic dalam media sosial dan dalam jangka masa beberapa tahun.", "Untuk menunjukkan bahawa adalah mungkin untuk mengukur drift semantik diachronic dalam media sosial dan dalam jangka masa beberapa tahun."]}, {"en": ["Su et al propose a system which cannot only detect, but also Rephrase abusive language in Chinese.", "Su et al presented a system to detect and Rephrase profane words written in Chinese."], "ms": ["Su et al mencadangkan sistem yang tidak hanya dapat mengesan, tetapi juga Mengubah bahasa kasar dalam bahasa Cina.", "Su et al membentangkan sistem untuk mengesan dan mengulang kata-kata yang tidak senonoh yang ditulis dalam bahasa Cina."]}, {"en": ["Within each feature subspace, using only the basic unit features can already give reasonably good performance.", "Using a set of basic unit features from each feature subspace, we can achieve reasonably good performance."], "ms": ["Dalam setiap subruang ciri, hanya menggunakan ciri unit asas yang dapat memberikan prestasi yang cukup baik.", "Menggunakan satu set ciri unit asas dari setiap subruang ciri, kita boleh mencapai prestasi yang cukup baik."]}, {"en": ["In the future, we plan to work towards our long-term goal, I.E ., including more linguistic information in the Skl framework and showing that this can help.", "In the future, we plan to work towards our long-term goal, I . E ., including more linguistic information in the Skl framework."], "ms": ["Pada masa akan datang, kami merancang untuk berusaha ke arah matlamat jangka panjang kami, I.E., termasuk lebih banyak maklumat linguistik dalam rangka kerja Skl dan menunjukkan bahawa ini dapat membantu.", "Pada masa akan datang, kami merancang untuk berusaha ke arah matlamat jangka panjang kami, I. E., termasuk lebih banyak maklumat linguistik dalam rangka kerja Skl."]}, {"en": ["We tested our model on a semantic role labeling benchmark, using Propbank Annotations and automatic Charniak Parse trees as provided for the Conll 2005 evaluation campaign.", "We train and evaluate our linking model on the data set produced for the Conll-08 shared task on joint Parsing of syntactic and semantic Dependencies, which is based on the Propbank corpus."], "ms": ["Kami menguji model kami pada penanda aras pelabelan peranan semantik, menggunakan Annotasi Propbank dan pokok Charniak Parse automatik seperti yang disediakan untuk kempen penilaian Conll 2005.", "Kami melatih dan menilai model penghubung kami pada set data yang dihasilkan untuk tugas bersama Conll-08 pada Penghuraian bersama Dependensi sintaktik dan semantik, yang berdasarkan pada korpus Propbank."]}, {"en": ["Bert is a model trained for masked language modeling word prediction and sentence prediction using the transformer network.", "Bert is a Bidirectional Contextual language model based on the transformer architecture."], "ms": ["Bert adalah model yang dilatih untuk ramalan perkataan pemodelan bahasa bertopeng dan ramalan ayat menggunakan rangkaian transformer.", "Bert adalah model bahasa Konteks Bidirectional berdasarkan seni bina transformer."]}, {"en": ["As new instructions are given, the instruction history expands, and as the agent acts the world state changes.", "As new instructions are given, the instruction history expands, and as the agent acts."], "ms": ["Apabila arahan baru diberikan, sejarah arahan berkembang, dan sebagai ejen bertindak perubahan keadaan dunia.", "Apabila arahan baru diberikan, sejarah arahan berkembang, dan sebagai ejen bertindak."]}, {"en": ["Small et al showed that Paraphrased repetition is just as effective as verbatim repetition.", "Small, Andersen, and Kempler showed that Paraphrased repetition is just as effective as verbatim repetition."], "ms": ["Small et al menunjukkan bahawa pengulangan Parafrasa sama berkesan dengan pengulangan kata kerja.", "Small, Andersen, dan Kempler menunjukkan bahawa pengulangan Paraphrased sama berkesan dengan pengulangan kata kerja."]}, {"en": ["Experiments were run with a variety of machine learning Algorithms using the Scikit-Learn Toolkit.", "The experiment was set up and run using the Scikit-Learn machine learning library for python."], "ms": ["Eksperimen dijalankan dengan pelbagai Algoritma pembelajaran mesin menggunakan Scikit-Learn Toolkit.", "Eksperimen ini telah ditubuhkan dan dijalankan menggunakan perpustakaan pembelajaran mesin Scikit-Learn untuk python."]}, {"en": ["Al-Onaizan and Knight compare a Grapheme-Based approach, a Phoneme-Based approach and a linear combination of both for Transliteration.", "Al-Onaizan and Knight present a hybrid model for Arabic-To-English Transliteration, which is a linear combination of Phoneme-Based and Grapheme-Based models."], "ms": ["Al-Onaizan dan Knight membandingkan pendekatan Grapheme-Based, pendekatan Phoneme-Based dan gabungan linear kedua-duanya untuk Transliterasi.", "Al-Onaizan dan Knight mempersembahkan model hibrid untuk Transliterasi Bahasa Arab-Ke-Inggeris, yang merupakan gabungan linear model berasaskan Phoneme dan Grapheme."]}, {"en": ["Katiyar and Cardie presented a standard Lstm-Based sequence labeling model to learn the nested entity Hypergraph structure for an input sentence.", "Katiyar and Cardie proposed a recurrent neural network to extract features to learn an Hypergraph structure of nested mentions, using a Bilou Encoding scheme."], "ms": ["Katiyar dan Cardie mempersembahkan model pelabelan urutan berasaskan Lstm standard untuk mempelajari struktur Hypergraph entiti bersarang untuk ayat input.", "Katiyar dan Cardie mencadangkan rangkaian neural berulang untuk mengekstrak ciri-ciri untuk mempelajari struktur Hypergraph sebutan bersarang, menggunakan skema Pengekodan Bilou."]}, {"en": ["Zhao and Ng use the Learning-Based model to locate and resolve zero Anaphoras.", "Zhao and Ng first present a machine learning approach to identify and resolve Zps."], "ms": ["Zhao dan Ng menggunakan model Berasaskan Pembelajaran untuk mencari dan menyelesaikan Anaphoras sifar.", "Zhao dan Ng pertama kali membentangkan pendekatan pembelajaran mesin untuk mengenal pasti dan menyelesaikan Zps."]}, {"en": ["Phological analysis is to reduce the sparse data problem in Under-Resourced languages.", "Morphological analysis is to reduce the sparse data problem in Under-Resourced languages."], "ms": ["Analisis fisiologi adalah untuk mengurangkan masalah data jarang dalam bahasa Under-Resourced.", "Analisis morfologi adalah untuk mengurangkan masalah data jarang dalam bahasa Under-Resourced."]}, {"en": ["However, these models require a large corpus of dialogues to learn effectively.", "However, training such models requires a large corpus of Annotated dialogues."], "ms": ["Walau bagaimanapun, model-model ini memerlukan korpus dialog yang besar untuk belajar dengan berkesan.", "Walau bagaimanapun, latihan model sedemikian memerlukan korpus dialog Annotated yang besar."]}, {"en": ["After the contest, we tuned the parameter used in the simple Bayes method, and it obtained higher precision.", "After the contest, we tuned the parameter used in the simple Bayes method."], "ms": ["Selepas pertandingan, kami menyesuaikan parameter yang digunakan dalam kaedah Bayes mudah, dan ia memperoleh ketepatan yang lebih tinggi.", "Selepas pertandingan, kami menala parameter yang digunakan dalam kaedah Bayes mudah."]}, {"en": ["9 for instance, \u00a1\u00aeSeq-Kd + Seq-Inter + Word-Kd\u00a1\u00af in Table 1 means that the model was trained on Seq-Kd data and Fine-Tuned towards Seq-Inter data with the mixture Cross-Entropy loss at the Word-Level.", "For instance, \u00a1\u00ae Seq-Kd + Seq-Inter + Word-Kd \u00a1\u00af in Table 1 means that the model was trained on Seq-Kd data and Fine-Tuned towards Seq-Inter data."], "ms": ["Contohnya, Seq-Kd + Seq-Inter + Word-Kd dalam Jadual 1 bermaksud model itu dilatih pada data Seq-Kd dan Fine-Tuned ke arah data Seq-Inter dengan campuran kerugian Cross-Entropy pada Tahap-Word.", "Sebagai contoh, Seq-Kd + Seq-Inter + Word-Kd dalam Jadual 1 bermaksud bahawa model itu dilatih pada data Seq-Kd dan Fine-Tuned ke arah data Seq-Inter."]}, {"en": ["In this paper, we have introduced a new method for automatically creating Datasets for the Offline evaluation of job posting similarities.", "In this deployment paper, we target the development of Content-Based methods for job recommendations."], "ms": ["Dalam kertas kerja ini, kami telah memperkenalkan kaedah baru untuk membuat Dataset secara automatik untuk penilaian Offline mengenai persamaan posting pekerjaan.", "Dalam kertas penyebaran ini, kami menyasarkan pembangunan kaedah berasaskan kandungan untuk cadangan pekerjaan."]}, {"en": ["We also show that conditioning the generation on topic models makes generated responses more relevant to the document content.", "Into the Grammar-Based generation makes the generated responses more relevant to the document content."], "ms": ["Kami juga menunjukkan bahawa penyaman generasi pada model topik menjadikan tindak balas yang dihasilkan lebih relevan dengan kandungan dokumen.", "Ke dalam generasi berasaskan Grammar menjadikan tindak balas yang dihasilkan lebih relevan dengan kandungan dokumen."]}, {"en": ["We then compare the system summaries against the manual summaries using the Rouge-1 metric.", "We measure the quality of the automatically created summaries using the Rouge measure."], "ms": ["Kita kemudian bandingkan ringkasan sistem dengan ringkasan manual menggunakan metrik Rouge-1.", "Kami mengukur kualiti ringkasan yang dibuat secara automatik menggunakan ukuran Rouge."]}, {"en": ["The incorrectly predicted tags are shown with the \u2217 symbol.", "Alignment types are shown with the \u2217 symbol."], "ms": ["Tag yang diramalkan dengan salah ditunjukkan dengan simbol.", "Jenis pendua ditunjukkan dengan simbol."]}, {"en": ["In this paper, we study the relative merits of these approaches.", "In this paper, we compare the merits of these different language modeling approaches."], "ms": ["Dalam makalah ini, kami mengkaji merit relatif pendekatan ini.", "Dalam makalah ini, kami membandingkan merit pendekatan pemodelan bahasa yang berbeza ini."]}, {"en": ["Grosz and Sidner classify Cue phrases based on changes to the Attentional stack and intentional structure found in their theory of discourse.", "Grosz and Sidner, in their tripartite model of discourse structure, classify Cue phrases based on the changes they signal to the Attentional and intentional States."], "ms": ["Grosz dan Sidner mengklasifikasikan frasa Cue berdasarkan perubahan pada timbunan Perhatian dan struktur yang disengajakan yang terdapat dalam teori wacana mereka.", "Grosz dan Sidner, dalam model tiga pihak struktur wacana mereka, mengklasifikasikan frasa Cue berdasarkan perubahan yang mereka isyarat kepada Negeri-negeri Perhatian dan sengaja."]}, {"en": ["The performance of many natural language processing tasks, such as shallow Parsing and named entity recognition, has been shown to depend on integrating many sources of information.", "Good performance in many natural language processing tasks has been shown to depend heavily on integrating many sources of information."], "ms": ["Prestasi banyak tugas pemprosesan bahasa semula jadi, seperti Parsing cetek dan pengiktirafan entiti bernama, telah ditunjukkan bergantung kepada mengintegrasikan banyak sumber maklumat.", "Prestasi yang baik dalam banyak tugas pemprosesan bahasa semula jadi telah terbukti sangat bergantung pada mengintegrasikan banyak sumber maklumat."]}, {"en": ["Sadamitsu et al proposed a Bootstrapping method that uses Unsupervised topic information estimated by latent Dirichlet allocation to alleviate semantic drift.", "Blei et al proposed Lda as a general Bayesian framework and gave a Variational model for learning topics from data."], "ms": ["Sadamitsu et al mengusulkan kaedah Bootstrapping yang menggunakan maklumat topik Unsupervised yang dianggarkan oleh peruntukan Dirichlet laten untuk mengurangkan drift semantik.", "Blei et al mencadangkan Lda sebagai rangka kerja Bayesian umum dan memberikan model Variasi untuk mempelajari topik dari data."]}, {"en": ["In this paper we present a simple approach to Unsupervised semantic role labeling.", "In this paper we presented a novel approach to Unsupervised role induction."], "ms": ["Dalam makalah ini kita membentangkan pendekatan mudah untuk pelabelan peranan semantik yang tidak diawasi.", "Dalam makalah ini kami membentangkan pendekatan novel untuk induksi peranan yang tidak diawasi."]}, {"en": ["We present the first computational study of word generalization integrated within a Word-Learning model.", "That enable the first computational study of word generalization that is integrated within a word learning model."], "ms": ["Kami membentangkan kajian pengiraan pertama mengenai generalisasi perkataan yang disatukan dalam model Word-Learning.", "Ini membolehkan kajian pengiraan pertama mengenai generalisasi perkataan yang disepadukan dalam model pembelajaran perkataan."]}, {"en": ["Other than Bengali, the works on Hindi can be found in Li and Mccallum with Crf and Cucerzan and Yarowsky with a language independent method.", "Other than Bengali, the works on Hindi can be found in Li and Mccallum with Crf and Saha et al with a hybrid feature set based me approach."], "ms": ["Selain Bengali, karya-karya mengenai bahasa Hindi boleh didapati di Li dan Mccallum dengan Crf dan Cucerzan dan Yarowsky dengan kaedah bebas bahasa.", "Selain Bengali, karya-karya mengenai Hindi boleh didapati di Li dan Mccallum dengan Crf dan Saha et al dengan ciri hibrid yang ditetapkan berdasarkan pendekatan saya."]}, {"en": ["On WMT \u2019 16 English-Romanian translation we achieve accuracy that is very competitive to the current state-of-the-art result.", "We achieve competitive accuracy to the state-of-the-art and on WMT \u2019 15 English-German."], "ms": ["Pada WMT 16 terjemahan Bahasa Inggeris-Romanian kami mencapai ketepatan yang sangat kompetitif dengan hasil terkini terkini.", "Kami mencapai ketepatan kompetitif kepada state-of-the-art dan pada WMT 15 Bahasa Inggeris-Jerman."]}, {"en": ["The Framenet Database, Fillmore et al, is an English lexical resource based on the description of some prototypical situations, the frames, and the Frame-Evoking words or expressions associated to them, the lexical units.", "The Framenet Database is a lexical resource of English describing some prototypical situations, the frames, and the Frame-Evoking words or expressions associated with them, the lexical units."], "ms": ["Pangkalan Data Framenet, Fillmore et al, adalah sumber leksikal Inggeris berdasarkan penerangan beberapa situasi prototipikal, bingkai, dan perkataan atau ungkapan Frame-Evoking yang berkaitan dengannya, unit leksikal.", "Pangkalan Data Framenet adalah sumber leksikal bahasa Inggeris yang menggambarkan beberapa situasi prototipikal, bingkai, dan perkataan atau ungkapan yang berkaitan dengannya, unit leksikal."]}, {"en": ["There has also been efforts to automatically solve school level math word problems.", "Efforts have focussed on automatically solving school level math word problems."], "ms": ["Terdapat juga usaha untuk menyelesaikan masalah perkataan matematik peringkat sekolah secara automatik.", "Usaha telah memberi tumpuan kepada menyelesaikan masalah perkataan matematik peringkat sekolah secara automatik."]}, {"en": ["This paper reports the effect of corpus size on case frame acquisition for discourse analysis in Japanese.", "This paper has reported the effect of corpus size on case frame acquisition."], "ms": ["Kertas ini melaporkan kesan saiz korpus pada pemerolehan bingkai kes untuk analisis wacana dalam bahasa Jepun.", "Kertas ini telah melaporkan kesan saiz korpus pada pemerolehan bingkai kes."]}, {"en": ["We use an Lstm-Based neural language model, with Class-Based input rather than words.", "We use Lstm-Based neural language models for the lexical features."], "ms": ["Kami menggunakan model bahasa saraf berasaskan Lstm, dengan input berasaskan kelas dan bukannya perkataan.", "Kami menggunakan model bahasa saraf berasaskan Lstm untuk ciri-ciri leksikal."]}, {"en": ["Wilson et al present an approach to classify Contextual polarity building on a two-step process.", "Wilson et Alpresent a two stage classification approach to determine the Contextual polarity of subjective clues in a Corpus."], "ms": ["Wilson et al membentangkan pendekatan untuk mengklasifikasikan pembinaan polariti Kontekstual pada proses dua langkah.", "Wilson et Alpresent a two stage classification approach to determine the Contextual polarity of subjective clues in a Corpus."]}, {"en": ["Goyal et al generate a lexicon of patient polarity verbs that imparts positive or negative States on their patients.", "Goyal et al generate a lexicon of patient polarity verbs that impart positive or negative States on their patients."], "ms": ["Goyal et al menghasilkan leksikon kata kerja polariti pesakit yang memberikan Negara positif atau negatif kepada pesakit mereka.", "Goyal et al menghasilkan leksikon kata kerja polariti pesakit yang memberikan Negara positif atau negatif kepada pesakit mereka."]}, {"en": ["For the simulation, Dps will be autonomous conversational agents with a cognitive state consisting of goals, a notion of their expected behaviour in a political interview, priorities, and some knowledge of the world.", "For the simulation, Dps will be autonomous conversational agents with a cognitive state consisting of goals, a notion of their expected behaviour."], "ms": ["Untuk simulasi, Dps akan menjadi ejen perbualan autonomi dengan keadaan kognitif yang terdiri daripada matlamat, tanggapan tingkah laku yang diharapkan dalam wawancara politik, keutamaan, dan beberapa pengetahuan dunia.", "Untuk simulasi, Dps akan menjadi ejen perbualan autonomi dengan keadaan kognitif yang terdiri daripada matlamat, tanggapan tingkah laku yang diharapkan."]}, {"en": ["Our results show that Self-Training is of substantial benefit for the problem.", "We show a Self-Training protocol that achieves better results than all of these methods."], "ms": ["Hasil kami menunjukkan bahawa Latihan Sendiri adalah manfaat yang besar untuk masalah ini.", "Kami menunjukkan protokol Latihan Sendiri yang mencapai hasil yang lebih baik daripada semua kaedah ini."]}, {"en": ["Section 4 describes our main contribution, a new approach to Cross-Language text classification based on structural correspondence learning.", "We present a new approach to Cross-Language text classification that builds on structural correspondence learning."], "ms": ["Seksyen 4 menerangkan sumbangan utama kami, pendekatan baru untuk klasifikasi teks Cross-Language berdasarkan pembelajaran korespondensi struktur.", "Kami membentangkan pendekatan baru untuk klasifikasi teks Cross-Language yang membina pembelajaran korespondensi struktur."]}, {"en": ["We also introduce word appearance in context.", "Using word appearance in context is an effective element."], "ms": ["Kami juga memperkenalkan penampilan perkataan dalam konteks.", "Menggunakan penampilan perkataan dalam konteks adalah elemen yang berkesan."]}, {"en": ["Culotta and Sorensen proposed a tree kernel for dependency trees.", "A first version of dependency tree kernels was proposed by Culotta and Sorensen."], "ms": ["Culotta dan Sorensen mencadangkan kernel pokok untuk pokok dependensi.", "Versi pertama kernel pokok dependensi dicadangkan oleh Culotta dan Sorensen."]}, {"en": ["In this paper, we have evaluated various features and the domain effect on sentimental polarity classification.", "In this paper we examine different linguistic features for sentimental polarity classification."], "ms": ["Dalam makalah ini, kami telah menilai pelbagai ciri dan kesan domain pada klasifikasi polariti sentimental.", "Dalam makalah ini kita mengkaji ciri linguistik yang berbeza untuk klasifikasi polariti sentimental."]}, {"en": ["We use both the Morfessor baseline and the Morfessor Categories-Map Algorithms.", "Following the approach in, we use the Morfessor Categories-Map algorithm."], "ms": ["Kami menggunakan kedua-dua asas Morfessor dan Algoritma Kategori-Map Morfessor.", "Berikutan pendekatan dalam, kami menggunakan algoritma Morfessor Categories-Map."]}, {"en": ["The Parsing model used is essentially that of Chiang, which is based on a highly restricted version of Tree-Adjoining grammar.", "The Parsing model we use is based on the stochastic Tree-Insertion grammar model described by Chiang."], "ms": ["Model Parsing yang digunakan pada dasarnya adalah Chiang, yang berdasarkan versi tatabahasa Tree-Adjoining yang sangat terhad.", "Model Penghuraian yang kita gunakan adalah berdasarkan model tatabahasa Pokok-Serangan stokastik yang diterangkan oleh Chiang."]}, {"en": ["These results were corroborated by Lembersky et al , 2012A Lembersky et al , 2013, who showed that translation models can be adapted to Translationese, thereby improving the quality of Smt even further.", "These results were corroborated by Lembersky et al , 2012A Lembersky et al , 2013, who further demonstrated that translation models can be adapted to Translationese, thereby improving the quality of Smt even further."], "ms": ["Keputusan ini disokong oleh Lembersky et al, 2012A Lembersky et al, 2013, yang menunjukkan bahawa model terjemahan boleh disesuaikan dengan Terjemahan, dengan itu meningkatkan kualiti Smt lebih jauh.", "Keputusan ini disokong oleh Lembersky et al, 2012A Lembersky et al, 2013, yang selanjutnya menunjukkan bahawa model terjemahan dapat disesuaikan dengan Terjemahan, sehingga meningkatkan kualitas Smt lebih jauh."]}, {"en": ["We investigate style accommodation in Online discussions, in particular its interplay with content agreement and disagreement.", "We have investigated style accommodation in Online discussions by means of a new model that takes into account the presence of a marker."], "ms": ["Kami menyiasat penginapan gaya dalam perbincangan dalam talian, khususnya interaksinya dengan perjanjian kandungan dan perselisihan.", "Kami telah menyiasat penginapan gaya dalam perbincangan dalam talian melalui model baru yang mengambil kira kehadiran penanda."]}, {"en": ["We have presented a simple Generative model for the Unsupervised Distributional induction of Hierarchical linguistic structure.", "We present a Generative Distributional model for the Unsupervised induction of natural language syntax."], "ms": ["Kami telah membentangkan model Generatif mudah untuk induksi Distributional yang tidak diawasi struktur linguistik Hierarki.", "Kami membentangkan model Pengedaran Generatif untuk induksi sintaks bahasa semula jadi yang tidak diawasi."]}, {"en": ["In Nmt, Bahdanau et al first proposed to use an attention mechanism in the Decoder.", "The traditional attention mechanism was proposed by Bahdanau et al in the Nmt literature."], "ms": ["Di Nmt, Bahdanau et al pertama kali mencadangkan untuk menggunakan mekanisme perhatian dalam Decoder.", "Mekanisme perhatian tradisional dicadangkan oleh Bahdanau et al dalam kesusasteraan Nmt."]}, {"en": ["We tested our Wsd program, named Lexas, on both a common data set used in previous work, as well as on a large Sense-Tagged corpus that we separately constructed.", "To evaluate our Wsd program, named Lexas (lexical Ambiguity-Resolving _ system), we tested it on a common data set."], "ms": ["Kami menguji program Wsd kami, bernama Lexas, pada kedua-dua set data biasa yang digunakan dalam kerja sebelumnya, serta pada korpus Sense-Tagged yang besar yang kami bina secara berasingan.", "Untuk menilai program Wsd kami, yang dinamakan Lexas (sistem Ambiguity-Resolving _ leksikal), kami mengujinya pada set data biasa."]}, {"en": ["We evaluated the performance of the composition models on the test split of the Dataset, using the rank evaluation proposed by Baroni and Zamparelli.", "This evaluation is made possible by our extension to all target composition models of the Corpus-Extracted phrase approximation method originally proposed in ad-hoc settings by Baroni and Zamparelli and Guevara."], "ms": ["Kami menilai prestasi model komposisi pada pemisahan ujian Dataset, menggunakan penilaian pangkat yang dicadangkan oleh Baroni dan Zamparelli.", "Penilaian ini dimungkinkan oleh pelanjutan kami kepada semua model komposisi sasaran kaedah penghampiran frasa Corpus-Extracted yang pada asalnya dicadangkan dalam tetapan ad-hoc oleh Baroni dan Zamparelli dan Guevara."]}, {"en": ["Cucerzan and Yarowsky learn a Pos-Tagger from existing linguistic resources, namely a dictionary and a reference grammar, but these resources are not available, much less Digitized, for most Under-Studied languages.", "Cucerzan and Yarowsky Tagger from existing linguistic resources, namely a dictionary and a reference grammar, but these resources are not available, much less Digitized, for most Under-Studied languages."], "ms": ["Cucerzan dan Yarowsky mempelajari Pos-Tagger dari sumber linguistik yang ada, iaitu kamus dan tatabahasa rujukan, tetapi sumber-sumber ini tidak tersedia, kurang Digitized, untuk kebanyakan bahasa yang kurang dipelajari.", "Cucerzan dan Yarowsky Tagger dari sumber linguistik yang ada, iaitu kamus dan tatabahasa rujukan, tetapi sumber-sumber ini tidak tersedia, kurang Digitized, untuk kebanyakan bahasa yang kurang dipelajari."]}, {"en": ["The feature set used in assert is a combination of features described in Gildea and Jurafsky as well as those introduced in Pradhan et al, Surdeanu et al, and the Syntactic-Frame feature proposed in.", "They are a combination of features introduced by Gildea and Jurafsky, ones proposed in, Surdeanu et al and the Syntactic-Frame feature proposed in."], "ms": ["Set ciri yang digunakan dalam assert adalah gabungan ciri yang diterangkan dalam Gildea dan Jurafsky serta yang diperkenalkan dalam Pradhan et al, Surdeanu et al, dan ciri Syntactic-Frame yang dicadangkan dalam.", "Mereka adalah gabungan ciri yang diperkenalkan oleh Gildea dan Jurafsky, yang dicadangkan dalam, Surdeanu et al dan ciri Syntactic-Frame yang dicadangkan dalam."]}, {"en": ["Most related work in the field of abusive language detection has focused on detecting profanity using List-Based methods to identify offensive words.", "Most related work focused on detecting profanity, using List-Based methods to identify offensive words."], "ms": ["Kebanyakan kerja berkaitan dalam bidang pengesanan bahasa kasar telah memberi tumpuan kepada mengesan kata-kata tidak senonoh menggunakan kaedah Berasaskan Senarai untuk mengenal pasti perkataan yang menyinggung perasaan.", "Kebanyakan kerja berkaitan memberi tumpuan kepada mengesan kata-kata tidak senonoh, menggunakan kaedah berasaskan senarai untuk mengenal pasti perkataan yang menyinggung perasaan."]}, {"en": ["Latent Dirichlet allocation is a widely used type of topic model in which documents can be viewed as probability distributions over topics, \u80c3.", "Latent Dirichlet allocation is a popular probabilistic model that learns latent topics from documents and words, by using Dirichlet Priors to regularize the topic distributions."], "ms": ["Peruntukan Dirichlet laten adalah jenis model topik yang banyak digunakan di mana dokumen boleh dilihat sebagai pengedaran kebarangkalian ke atas topik, dan sebagainya.", "Peruntukan Dirichlet laten adalah model probabilistik popular yang mempelajari topik laten dari dokumen dan perkataan, dengan menggunakan Dirichlet Priors untuk mengatur pengedaran topik."]}, {"en": ["We applied the algorithm of galley et al to extract Tree-To-String translation rules.", "In particular, we implemented the Ghkm algorithm as proposed by galley et al from Word-Aligned Treestring pairs."], "ms": ["Kami menggunakan algoritma galley et al untuk mengekstrak peraturan terjemahan Tree-To-String.", "Khususnya, kami melaksanakan algoritma Ghkm seperti yang dicadangkan oleh galley et al dari pasangan Word-Aligned Treestring."]}, {"en": ["At competition time, we achieved the sixth best result on the task from a set of twelve systems.", "At competition time, we achieved the sixth best result on the task."], "ms": ["Pada masa persaingan, kami mencapai keputusan keenam terbaik pada tugas dari satu set dua belas sistem.", "Pada masa pertandingan, kami mencapai keputusan keenam terbaik dalam tugas."]}, {"en": ["For each Node N, state is assigned a state of AG as specified above.", "For each Node N, state is assigned a state of AG."], "ms": ["Bagi setiap Node N, keadaan diberikan keadaan AG seperti yang dinyatakan di atas.", "Bagi setiap Node N, negeri diberikan negeri AG."]}, {"en": ["In terms of both speed and memory consumption, graph unification remains the most expensive component of Unification-Based grammar Parsing.", "In terms of speed and memory consumption, graph unification remains the most expensive component in Unification-Based grammar Parsing."], "ms": ["Dari segi kelajuan dan penggunaan memori, penyatuan grafik kekal sebagai komponen paling mahal Penghuraian tatabahasa Berasaskan Penyatuan.", "Dari segi kelajuan dan penggunaan memori, penyatuan grafik kekal sebagai komponen paling mahal dalam Penghuraian tatabahasa Berasaskan Penyatuan."]}, {"en": ["Sangati et al proposed a K-Best Generative Reranking algorithm for dependency Parsing.", "Sangati et al proposed to use a Third-Order Generative model for Reranking K-Best lists of dependency Parses."], "ms": ["Sangati et al mengusulkan algoritma K-Best Generative Reranking untuk Parsing dependensi.", "Sangati et al mencadangkan untuk menggunakan model Generatif Ketiga-Order untuk Reranking K-Best senarai Parses dependensi."]}, {"en": ["The maximum entropy model estimates the probability of a Time-Bin given the observed medical event.", "The maximum entropy model estimates a probability distribution from training data."], "ms": ["Model entropi maksimum menganggarkan kebarangkalian Time-Bin memandangkan peristiwa perubatan yang diperhatikan.", "Model entropi maksimum menganggarkan pengagihan kebarangkalian daripada data latihan."]}, {"en": ["Our Parsing model is the Discriminatively trained, conditional random Field-Based Context-Free grammar Parser of.", "We construct our joint model as an extension to the Discriminatively trained, Feature-Rich, conditional random Field-Based, Crf-Cfg Parser of."], "ms": ["Model Penghuraian kami adalah Penghurai tatabahasa berasaskan konteks rawak bersyarat yang terlatih secara Discriminatively.", "Kami membina model bersama kami sebagai lanjutan kepada Diskriminasi terlatih, Ciri-Kiri, Berasaskan Medan rawak bersyarat, Penghurai Crf-Cfg."]}, {"en": ["Labeledlda Outperforms Co-Training, increasing f 1 by 25% over ten common entity types.", "Based on Labeledlda, which obtains a 25% increase in f 1 score over the Co-Training approach to named entity classification."], "ms": ["Labeledlda Melaksanakan Latihan Bersama, meningkatkan f 1 sebanyak 25% berbanding sepuluh jenis entiti biasa.", "Berdasarkan Labeledlda, yang memperoleh peningkatan 25% dalam skor f 1 berbanding pendekatan Latihan Bersama untuk klasifikasi entiti yang dinamakan."]}, {"en": ["We provided a novel active learning framework for Smt which utilizes both labeled and Unlabeled data.", "In this paper, we propose several novel active learning (al) strategies for statistical machine translation."], "ms": ["Kami menyediakan rangka kerja pembelajaran aktif novel untuk Smt yang menggunakan kedua-dua data berlabel dan Unlabeled.", "Dalam makalah ini, kami mencadangkan beberapa strategi pembelajaran aktif (al) novel untuk terjemahan mesin statistik."]}, {"en": ["Stochastic optimality theory (Cite-P-17-1-2) is a Widely-Used model in linguistics that did not have a theoretically sound learning method previously.", "Stochastic optimality theory (Cite-P-17-1-2) is a variant of optimality theory that tries to quantitatively predict linguistic variation."], "ms": ["Teori optimum stokastik (Cite-P-17-1-2) adalah model yang digunakan secara meluas dalam linguistik yang tidak mempunyai kaedah pembelajaran yang kukuh secara teori sebelum ini.", "Teori optimum stokastik (Cite-P-17-1-2) adalah varian teori optimum yang cuba untuk meramalkan variasi linguistik secara kuantitatif."]}, {"en": ["This method allows us to exploit the dependency between different Unsupervised Annotations to further improve the accuracy of the entire set of Annotations.", "And Thus we take a joint Annotation approach, which combines several independent Annotations to improve the overall Annotation accuracy."], "ms": ["Kaedah ini membolehkan kita mengeksploitasi kebergantungan antara Annotasi Tidak Diselia yang berbeza untuk meningkatkan lagi ketepatan keseluruhan set Annotasi.", "Dan dengan itu kita mengambil pendekatan Annotasi bersama, yang menggabungkan beberapa Annotasi bebas untuk meningkatkan ketepatan Annotasi keseluruhan."]}, {"en": ["Whitehill et al explored a probabilistic model to combine labels from both human Labelers and automatic classifiers in image classification.", "Whitehill et al proposed a probabilistic model to filter labels from Non-Experts, in the context of an image labeling task."], "ms": ["Whitehill et al meneroka model probabilistik untuk menggabungkan label dari kedua-dua Labelers manusia dan pengelas automatik dalam pengelasan imej.", "Whitehill et al mencadangkan model probabilistik untuk menapis label dari Bukan Pakar, dalam konteks tugas pelabelan imej."]}, {"en": ["Experiment results show that the proposed structural topic model can effectively discover topical structures in text, and the identified structures significantly improve the performance of tasks such as sentence Annotation and sentence ordering.", "Experiment results show that both the identified topics and topical structure are intuitive and meaningful, and they are helpful for improving the performance of tasks such as sentence Annotation and sentence ordering."], "ms": ["Hasil eksperimen menunjukkan bahawa model topik struktur yang dicadangkan dapat menemui struktur topikal secara berkesan dalam teks, dan struktur yang dikenal pasti dengan ketara meningkatkan prestasi tugas seperti Ayat Annotasi dan pesanan ayat.", "Hasil eksperimen menunjukkan bahawa kedua-dua topik yang dikenal pasti dan struktur topikal adalah intuitif dan bermakna, dan mereka berguna untuk meningkatkan prestasi tugas seperti ayat Anotasi dan perintah ayat."]}, {"en": ["It was first implemented in Chinese word Segmentation by using the maximum entropy methods.", "It was first used in Chinese word Segmentation by, where maximum entropy methods were used."], "ms": ["Ia mula-mula dilaksanakan dalam Segmentasi perkataan Cina dengan menggunakan kaedah entropi maksimum.", "Ia pertama kali digunakan dalam Segmentasi perkataan Cina oleh, di mana kaedah entropi maksimum digunakan."]}, {"en": ["In section 4, we propose a NA? ve rule based approach to detect thwarting.", "In this paper, we propose a working definition of thwarting amenable to machine learning."], "ms": ["Dalam seksyen 4, kami mencadangkan pendekatan berasaskan peraturan NA untuk mengesan menggagalkan.", "Dalam makalah ini, kami mencadangkan definisi kerja untuk menggagalkan kemudahan pembelajaran mesin."]}, {"en": ["In this work, we deal with the problem of detecting a textual review as Spam or not, I.E ., Non-Spam.", "In this work, we deal with the problem of detecting a textual review."], "ms": ["Dalam kerja ini, kita menangani masalah mengesan ulasan teks sebagai Spam atau tidak, I.E., Non-Spam.", "Dalam kerja ini, kita menangani masalah mengesan ulasan teks."]}, {"en": ["On the Macro-Averaged f 1 -Measure, our lexical Classifier outperformed the Majority-Class baseline by 0.33 (on B Eetle) and 0.18 (on s Ci E Nts B Ank) and by 13% and 3% on accuracy.", "On the Macro-Averaged f 1-Measure, our lexical Classifier outperformed the Majority-Class baseline by 0 . 33 (on B Eetle) and 0 . 18 (on s Ci E Nts B Ank)."], "ms": ["Pada Macro-Averaged f 1 -Measure, Classifier leksikal kami mengatasi garis dasar Majoriti-Kelas dengan 0.33 (pada B Eetle) dan 0.18 (pada s Ci E Nts B Ank) dan dengan 13% dan 3% pada ketepatan.", "Pada Macro-Averaged f 1-Measure, Classifier leksikal kami mengatasi garis dasar Majoriti-Kelas dengan 0. 33 (pada B Eetle) dan 0. 18 (pada s Ci E Nts B Ank)."]}, {"en": ["The performance is always evaluated on a test set from the same domain as the training set.", "Performance can be achieved when the test data is from the same domain as the training data."], "ms": ["Prestasi sentiasa dinilai pada set ujian dari domain yang sama dengan set latihan.", "Prestasi boleh dicapai apabila data ujian adalah dari domain yang sama dengan data latihan."]}, {"en": ["Labeled data for MSA we use the Penn Arabic Treebank.", "For Arabic we use the Penn Arabic Treebank, parts 1-3 in their latest versions."], "ms": ["Data yang dilabelkan untuk MSA kami menggunakan Penn Arabic Treebank.", "Untuk bahasa Arab, kami menggunakan Penn Arabic Treebank, bahagian 1-3 dalam versi terkini mereka."]}, {"en": ["Morfessor is a family of methods for Unsupervised morphological Segmentation.", "Morfessor 2.0 is a new implementation of the Morfessor baseline algorithm."], "ms": ["Morfessor adalah keluarga kaedah untuk Segmentasi morfologi yang tidak diawasi.", "Morfessor 2.0 adalah pelaksanaan baru algoritma asas Morfessor."]}, {"en": ["This paper presents results on Part-Of-Speech tagging Spanish-English Code-Switched discourse.", "In this paper we present results on the problem of Pos tagging English-Spanish Code-Switched discourse."], "ms": ["Kertas ini membentangkan hasil pada wacana Part-Of-Speech yang menandakan bahasa Sepanyol-Inggeris Code-Switched.", "Dalam makalah ini kami membentangkan hasil mengenai masalah Pos menandai wacana Bahasa Inggeris-Sepanyol-Switched."]}, {"en": ["In this paper, we propose a method to select the appropriate insertion position before decoding.", "We have proposed a neural network based insertion position selection model to reduce the computational cost of the decoding."], "ms": ["Dalam kertas ini, kami mencadangkan kaedah untuk memilih kedudukan penyisipan yang sesuai sebelum penyahkodan.", "Kami telah mencadangkan model pemilihan kedudukan penyisipan berasaskan rangkaian saraf untuk mengurangkan kos pengiraan penyahkodan."]}, {"en": ["Yu et al , 2002) used pattern recognition techniques to summarize interesting features of automatically generated graphs of Time-Series data from a gas turbine engine.", "Yu et al , 2002) has used pattern recognition techniques to summarize interesting features of automatically generated graphs of Time-Series data from a gas turbine engine."], "ms": ["Yu et al, 2002) menggunakan teknik pengecaman corak untuk meringkaskan ciri-ciri menarik grafik yang dihasilkan secara automatik data Siri Masa dari enjin turbin gas.", "Yu et al, 2002) telah menggunakan teknik pengecaman corak untuk meringkaskan ciri-ciri menarik grafik yang dihasilkan secara automatik data Siri Masa dari enjin turbin gas."]}, {"en": ["In German, Subject-Object ambiguities are frequent.", "Subject and object are usually easily determined in English."], "ms": ["Dalam bahasa Jerman, kekaburan subjek-objek sering berlaku.", "Subjek dan objek biasanya mudah ditentukan dalam bahasa Inggeris."]}, {"en": ["After the frequently used verbs were identified, the usage notes of Dictionaries and Thesarus demonstrating the fine differences of the verbs were employed in a two-part representation for lexical differentiation.", "Employing the usage notes of Dictionaries and thesaurus as a methodology, the fine differences of the verbs were demonstrated in a two-part representation for lexical differentiation."], "ms": ["Selepas kata kerja yang sering digunakan dikenal pasti, nota penggunaan Kamus dan Thesarus menunjukkan perbezaan halus kata kerja digunakan dalam perwakilan dua bahagian untuk pembezaan leksikal.", "Menggunakan nota penggunaan Kamus dan thesaurus sebagai metodologi, perbezaan halus kata kerja ditunjukkan dalam perwakilan dua bahagian untuk pembezaan leksikal."]}, {"en": ["As a consequence, word senses occurring in a coherent portion of text tend to maximize domain similarity.", "Word senses occurring in a coherent portion of text tend to maximize domain similarity."], "ms": ["Akibatnya, deria perkataan yang berlaku dalam bahagian teks yang koheren cenderung memaksimumkan persamaan domain.", "Deria perkataan yang berlaku dalam bahagian teks yang koheren cenderung memaksimumkan persamaan domain."]}, {"en": ["The third one is a Tweet collection, which are gathered by.", "The third one is a collection of Tweets, collected by."], "ms": ["Yang ketiga ialah koleksi Tweet, yang dikumpulkan oleh.", "Yang ketiga ialah koleksi Tweet, yang dikumpulkan oleh."]}, {"en": ["This hypothesis is the foundation for Distributional Semantics, in which words are represented by context vectors.", "This hypothesis is the basis for our algorithm for distinguishing literal and metaphorical senses."], "ms": ["Hipotesis ini adalah asas untuk Semantik Pengagihan, di mana perkataan diwakili oleh vektor konteks.", "Hipotesis ini adalah asas bagi algoritma kami untuk membezakan deria literal dan metafora."]}, {"en": ["In this paper, we present spot, a sentence planner, and a new methodology for automatically training spot on the basis of feedback provided by human judges.", "In this paper, we present spot, a sentence planner, and a new methodology for automatically training spot."], "ms": ["Dalam makalah ini, kami membentangkan tempat, perancang ayat, dan metodologi baru untuk tempat latihan secara automatik berdasarkan maklum balas yang diberikan oleh hakim manusia.", "Dalam kertas ini, kami membentangkan tempat, perancang ayat, dan metodologi baru untuk tempat latihan secara automatik."]}, {"en": ["Our model significantly Outperforms the previously mentioned Hypergraph model of Lu and Roth and Muis and Lu on entity mention recognition for the Ace2004 and Ace2005 Corpora.", "We show that our model significantly Outperforms a feature based mention Hypergraph model and a recent Multigraph model on the ace Dataset."], "ms": ["Model kami dengan ketara Melaksanakan model Hypergraph yang disebutkan sebelum ini Lu dan Roth dan Muis dan Lu mengenai pengiktirafan sebutan entiti untuk Ace2004 dan Ace2005 Corpora.", "Kami menunjukkan bahawa model kami dengan ketara Melaksanakan ciri-ciri berdasarkan sebut harga model Hypergraph dan model Multigraph baru-baru ini pada Dataset ace."]}, {"en": ["We present an algorithm for incremental statistical Parsing with parallel multiple Context-Free Grammars (Pmcfg).", "We present an algorithm for incremental Parsing using parallel multiple Contextfree Grammars (Pmcfg)."], "ms": ["Kami membentangkan algoritma untuk Penghuraian statistik tambahan dengan Grammar Bebas Konteks berbilang selari (Pmcfg).", "Kami membentangkan algoritma untuk Penghuraian tambahan menggunakan berbilang selari Contextfree Grammars (Pmcfg)."]}, {"en": ["We presented a novel approach to predict Reader\u00a1\u00afS rating of texts.", "Firstly, we propose a novel way to predict readers \u00a1\u00af rating of text."], "ms": ["Kami membentangkan pendekatan novel untuk meramalkan penarafan pembaca teks.", "Pertama, kami mencadangkan cara baru untuk meramalkan pembaca penarafan teks."]}, {"en": ["To do so we used the frame guidelines developed by Boydstun et al.", "To do so we use the frame guidelines developed by Boydstun et al."], "ms": ["Untuk berbuat demikian, kami menggunakan garis panduan bingkai yang dibangunkan oleh Boydstun et al.", "Untuk berbuat demikian, kami menggunakan garis panduan bingkai yang dibangunkan oleh Boydstun et al."]}, {"en": ["Lai et al proposed recurrent CNN while Johnson and Zhang proposed Semi-Supervised CNN for solving text classification task.", "Lai et al and Visin et al proposed recurrent Cnns, while Johnson and Zhang proposed Semi-Supervised Cnns for solving a text classification task."], "ms": ["Lai et al mencadangkan CNN berulang sementara Johnson dan Zhang mencadangkan CNN Semi-Supervised untuk menyelesaikan tugas pengelasan teks.", "Lai et al dan Visin et al mencadangkan Cnn berulang, manakala Johnson dan Zhang mencadangkan Cnns Semi-Supervised untuk menyelesaikan tugas pengelasan teks."]}, {"en": ["We used the Bidirectional Lstm architecture introduced by for named entity recognition.", "We use a Dnn model mainly suited for sequence tagging and is a variant of the Bi-Lstm-Crf architecture."], "ms": ["Kami menggunakan seni bina Lstm Bidirectional yang diperkenalkan oleh pengiktirafan entiti yang dinamakan.", "Kami menggunakan model Dnn yang sangat sesuai untuk penandaan urutan dan merupakan varian seni bina Bi-Lstm-Crf."]}, {"en": ["We show that knowing multiple scores for each example instead of a single score results in a more reliable estimation of a system quality.", "That knowing multiple scores for each example instead of a single score results in a more reliable estimation of the quality of a Nlp system."], "ms": ["Kami menunjukkan bahawa mengetahui pelbagai skor untuk setiap contoh dan bukannya satu skor menghasilkan anggaran kualiti sistem yang lebih dipercayai.", "Bahawa mengetahui pelbagai skor untuk setiap contoh dan bukannya satu skor menghasilkan anggaran yang lebih dipercayai mengenai kualiti sistem Nlp."]}, {"en": ["All the experiments are developed using the Scikit-Learn machine learning library.", "The experiments were conducted with the Scikit-Learn tool kit."], "ms": ["Semua eksperimen dibangunkan menggunakan perpustakaan pembelajaran mesin Scikit-Learn.", "Eksperimen dijalankan dengan kit alat Scikit-Learn."]}, {"en": ["Automatic Annotation adaptation for sequence labeling aims to enhance a Tagger with one Annotation standard by transferring knowledge from a source corpus Annotated in another standard.", "The automatic Annotation adaptation strategy for sequence labeling aims to strengthen a Tagger trained on a Corpus Annotated in one Annotation standard with a larger assistant corpus Annotated in another standard."], "ms": ["Penyesuaian Anotasi Automatik untuk pelabelan urutan bertujuan untuk meningkatkan Tagger dengan satu standard Anotasi dengan memindahkan pengetahuan dari korpus sumber Annotated dalam standard lain.", "Strategi penyesuaian Annotasi automatik untuk pelabelan urutan bertujuan untuk memperkuat Tagger yang dilatih pada Corpus Annotated dalam satu standard Annotasi dengan pembantu corpus Annotated yang lebih besar dalam standard lain."]}, {"en": ["Without any loss of generality, we propose a simple classification model using Gated recurrent unit coupled with attention.", "We propose a Minimalistic model architecture based on Gated recurrent unit combined with an attention mechanism."], "ms": ["Tanpa kehilangan generaliti, kami mencadangkan model klasifikasi mudah menggunakan unit berulang Gated ditambah dengan perhatian.", "Kami mencadangkan seni bina model Minimalistik berdasarkan unit berulang Gated digabungkan dengan mekanisme perhatian."]}, {"en": ["Our Dataset uses clinical case reports with around 100,000 Gap-Filling queries about these cases.", "In which we have constructed around 100 , 000 Cloze queries from clinical case reports."], "ms": ["Dataset kami menggunakan laporan kes klinikal dengan kira-kira 100,000 pertanyaan Gap-Filling mengenai kes-kes ini.", "Di mana kami telah membina sekitar 100,000 pertanyaan Cloze dari laporan kes klinikal."]}, {"en": ["Rules are typically defined by creating patterns around the entities, such as Lexico-Syntactic surface word patterns and dependency tree patterns.", "Rules, which can be hand Crafted or learned by a system, are commonly created by looking at the context around already known entities, such as surface word patterns and dependency patterns."], "ms": ["Peraturan biasanya ditakrifkan dengan mencipta corak di sekeliling entiti, seperti corak perkataan permukaan Lexico-Syntactic dan corak pokok dependensi.", "Peraturan, yang boleh dibuat atau dipelajari oleh sistem, biasanya dibuat dengan melihat konteks di sekitar entiti yang sudah diketahui, seperti corak perkataan permukaan dan corak kebergantungan."]}, {"en": ["The main innovation of W Asp is its use of state-of-the-art statistical machine translation techniques.", "Gorithm is its integration with state-of-the-art statistical machine translation techniques."], "ms": ["Inovasi utama W Asp adalah penggunaan teknik terjemahan mesin statistik terkini.", "Gorithm adalah integrasinya dengan teknik terjemahan mesin statistik terkini."]}, {"en": ["Word alignment is the task of identifying word Correspondences between parallel sentence pairs.", "Word alignment is the process of identifying Wordto-Word links between parallel sentences."], "ms": ["Penjajahan perkataan adalah tugas mengenal pasti perkataan Correspondences antara pasangan ayat selari.", "Penjajahan perkataan adalah proses mengenal pasti pautan Wordto-Word antara ayat selari."]}, {"en": ["In this paper we presented the word prediction system Soothsayer.", "In this paper the word prediction system Soothsayer."], "ms": ["Dalam makalah ini kami membentangkan sistem ramalan perkataan Soothsayer.", "Dalam makalah ini sistem ramalan perkataan Soothsayer."]}, {"en": ["We focused on textual structures which correspond to a well defined discourse structure and which often bear Hypernymy relations.", "We focus on specific textual structures which share the same discourse properties and that are expected to bear Hypernymy relations."], "ms": ["Kami memberi tumpuan kepada struktur tekstual yang sesuai dengan struktur wacana yang ditakrifkan dengan baik dan yang sering menanggung hubungan Hypernymy.", "Kami memberi tumpuan kepada struktur teks tertentu yang berkongsi sifat wacana yang sama dan yang dijangka menanggung hubungan Hypernymy."]}, {"en": ["Labeled data for MSA we use the Penn Arabic Treebank.", "The data we use comes from the Penn Arabic Treebank."], "ms": ["Data yang dilabelkan untuk MSA kami menggunakan Penn Arabic Treebank.", "Data yang kami gunakan berasal dari Penn Arabic Treebank."]}, {"en": ["Huck et al proposed a very effective phrase orientation model for Hpb translation.", "In Huck et al a Lexicalized reordering model for Hierarchical Phrase-Based machine translation was introduced."], "ms": ["Huck et al mencadangkan model orientasi frasa yang sangat berkesan untuk terjemahan Hpb.", "Dalam Huck et al model penyusunan semula Lexicalized untuk terjemahan mesin Hierarki Berasaskan Frasa diperkenalkan."]}, {"en": ["Sarawgi et al attempted to remove topic bias for identifying Gender-Specific stylistic markers.", "Lastly, Sarawgi et al present a study that carefully and systematically controls for topic and genre bias."], "ms": ["Sarawgi et al cuba untuk membuang bias topik untuk mengenal pasti penanda gaya Gender-Specific.", "Terakhir, Sarawgi et al menyajikan kajian yang secara hati-hati dan sistematik mengawal topik dan bias genre."]}, {"en": ["Cite-P-25-3-10 and Cite-P-25-3-8 employed Attention-Based Sequenceto-Sequence (Seq2Seq) framework only for sentence summarization.", "Cite-P-25-3-8 also employed the typical attention modeling based Seq2Seq framework, but utilized a trick to control the vocabulary size."], "ms": ["Cite-P-25-3-10 dan Cite-P-25-3-8 menggunakan kerangka Attention-Based Sequenceto-Sequence (Seq2Seq) hanya untuk ringkasan ayat.", "Cite-P-25-3-8 juga menggunakan kerangka Seq2Seq berasaskan pemodelan perhatian yang tipikal, tetapi menggunakan helah untuk mengawal saiz perbendaharaan kata."]}, {"en": ["This paper proposes a novel approach to determine textual similarity.", "This paper presents a novel approach to determine textual similarity."], "ms": ["Kertas ini mencadangkan pendekatan novel untuk menentukan persamaan teks.", "Kertas ini membentangkan pendekatan novel untuk menentukan persamaan teks."]}, {"en": ["To address this factor, we proposed an Endto-End Attention-Based neural network.", "We investigate an Endto-End Attention-Based neural network."], "ms": ["Untuk menangani faktor ini, kami mencadangkan rangkaian neural Berasaskan Perhatian Akhir-End.", "Kami menyiasat rangkaian neural berasaskan perhatian akhir."]}, {"en": ["In the following example, the first occurrence of aluminum is only considered to be Markable because it Corefers with the occurrence of this noun as a bare NP in the second clause.", "In the following example, the first occurrence of aluminum is only considered to be Markable because it Corefers with the occurrence of this noun."], "ms": ["Dalam contoh berikut, kejadian pertama aluminium hanya dianggap sebagai Markable kerana ia Tertuju dengan berlakunya kata nama ini sebagai NP kosong dalam klausa kedua.", "Dalam contoh berikut, kejadian pertama aluminium hanya dianggap sebagai Markable kerana ia Teras dengan kejadian kata nama ini."]}, {"en": ["In this work, we extend this hypothesis to Multilingual data and Joint-Space Embeddings.", "Which extends the Distributional hypothesis to Multilingual data and Joint-Space Embeddings."], "ms": ["Dalam kerja ini, kami memperluaskan hipotesis ini kepada data Multilingual dan Embeddings Bersama-Space.", "Yang memanjangkan hipotesis Pengagihan kepada data Multilingual dan Embeddings Bersama-Space."]}, {"en": ["Since a scheme in this approach can be interpreted as a conditional language model, it is suitable for Nlg tasks.", "In this approach can be interpreted as a conditional language model, it is suitable for Nlg tasks."], "ms": ["Oleh kerana skema dalam pendekatan ini dapat ditafsirkan sebagai model bahasa bersyarat, ia sesuai untuk tugas Nlg.", "Dalam pendekatan ini boleh ditafsirkan sebagai model bahasa bersyarat, ia sesuai untuk tugas Nlg."]}, {"en": ["We present a new flexible and efficient Kernel-Based framework for classification with relational similarity.", "We have developed an efficient and flexible Kernel-Based framework for comparing sets of contexts."], "ms": ["Kami membentangkan rangka kerja berasaskan Kernel fleksibel dan cekap baru untuk klasifikasi dengan persamaan hubungan.", "Kami telah membangunkan rangka kerja berasaskan Kernel yang cekap dan fleksibel untuk membandingkan set konteks."]}, {"en": ["This Parsing approach is very similar to the one used successfully by Nivre et al, but we use a maximum entropy Classifier to determine Parser actions, which makes Parsing extremely fast.", "This Parsing approach is very similar to the one used successfully by Nivre et al, but we use a maximum entropy Classifier to determine Parser actions, which makes Parsing considerably faster."], "ms": ["Pendekatan Parsing ini sangat serupa dengan pendekatan yang berjaya digunakan oleh Nivre et al, tetapi kami menggunakan Klasifikasi entropi maksimum untuk menentukan tindakan Parser, yang menjadikan Parsing sangat pantas.", "Pendekatan Parsing ini sangat serupa dengan pendekatan yang berjaya digunakan oleh Nivre et al, tetapi kami menggunakan Klasifikasi entropi maksimum untuk menentukan tindakan Parser, yang menjadikan Parsing jauh lebih pantas."]}, {"en": ["Specifically, the language model is utilized to capture the term dependence.", "Models are presented to capture the term dependence."], "ms": ["Secara khusus, model bahasa digunakan untuk menangkap istilah pergantungan.", "Model dibentangkan untuk menangkap istilah pergantungan."]}, {"en": ["A system combination implementation which has been developed at Rwth Aachen University is used to combine the outputs of different engines.", "A system combination implementation developed at Rwth Aachen University is used to combine the outputs of the different engines."], "ms": ["Pelaksanaan gabungan sistem yang telah dibangunkan di Rwth Aachen University digunakan untuk menggabungkan output enjin yang berbeza.", "Pelaksanaan gabungan sistem yang dibangunkan di Rwth Aachen University digunakan untuk menggabungkan output enjin yang berbeza."]}, {"en": ["Instead of selective binding, Vikner and Jensen Type-Shift the possessor noun using one of the Qualia roles to explain the meaning of the Genitive phrases following Partee.", "Vikner and Jensen apply the Qualia structure of the Possessee noun and Type-Shift the Possessee noun into a relational noun."], "ms": ["Daripada mengikat selektif, Vikner dan Jensen Type-Shift kata nama pemilik menggunakan salah satu peranan Qualia untuk menerangkan makna frasa Genitive berikut Partee.", "Vikner dan Jensen menggunakan struktur Qualia kata nama Possessee dan Type-Shift kata nama Possessee menjadi kata nama hubungan."]}, {"en": ["More importantly, we propose a novel Semi-Supervised machine learning objective for estimating a Crf model integrated with ve.", "With respect to Unlabeled data, we propose a novel Semi-Supervised learning objective that can be Optimized using the Expectation-Maximization (em) algorithm."], "ms": ["Lebih penting lagi, kami mencadangkan objektif pembelajaran mesin Semi-Supervised novel untuk menganggarkan model Crf yang bersepadu dengan ve.", "Berkenaan dengan data yang tidak dilabel, kami mencadangkan objektif pembelajaran Semi-Supervised novel yang boleh dioptimumkan menggunakan algoritma Expectation-Maximization (em)."]}, {"en": ["In contrast to previous methods, we are able to select chains based on their cohesive strength.", "In contrast to previous methods, we analyze the cohesive strength within a chain."], "ms": ["Berbeza dengan kaedah sebelumnya, kita dapat memilih rantai berdasarkan kekuatannya yang padu.", "Berbeza dengan kaedah sebelumnya, kami menganalisis kekuatan kohesif dalam rantai."]}, {"en": ["To our knowledge, we are the first to apply Seq2Seq model to the task of math word problem solving.", "To the best of our knowledge, this is the first work of using Dnn technology for automatic math word problem solving."], "ms": ["Untuk pengetahuan kami, kami adalah yang pertama menggunakan model Seq2Seq untuk tugas menyelesaikan masalah perkataan matematik.", "Untuk pengetahuan kami yang terbaik, ini adalah kerja pertama menggunakan teknologi Dnn untuk menyelesaikan masalah perkataan matematik automatik."]}, {"en": ["Negated event is the shortest group of words that is actually affected by the negation Cue.", "The negated event is the event or the entity that the negation indicates its absence or DENIES its occurrence."], "ms": ["Peristiwa negatif adalah kumpulan perkataan terpendek yang sebenarnya dipengaruhi oleh Cue negatif.", "Peristiwa yang ditebus ialah peristiwa atau entiti yang ditebus menunjukkan ketiadaannya atau MENDENGAR kejadiannya."]}, {"en": ["There are a number of excellent textbook presentations of hidden Markov models, so we do not present them in detail here.", "There are several excellent textbook presentations of hidden Markov models and the Forward-Backward algorithm for Expectation-Maximization, so we do not cover them in detail here."], "ms": ["Terdapat beberapa persembahan buku teks yang sangat baik model Markov tersembunyi, jadi kami tidak membentangkannya secara terperinci di sini.", "Terdapat beberapa persembahan buku teks yang sangat baik dari model Markov tersembunyi dan algoritma Forward-Backward untuk Jangkaan-Maximization, jadi kami tidak meliputinya secara terperinci di sini."]}, {"en": ["In this section we provide experiments comparing the performance of algorithm 2 with algorithm 1 as well as a baseline algorithm based on the approach of (Cite-P-13-1-15).", "In this section we provide experiments comparing the performance of algorithm 2 with algorithm 1 as well as a baseline algorithm."], "ms": ["Dalam bahagian ini kita menyediakan eksperimen membandingkan prestasi algoritma 2 dengan algoritma 1 serta algoritma asas berdasarkan pendekatan (Cite-P-13-1-15).", "Dalam bahagian ini kami menyediakan eksperimen membandingkan prestasi algoritma 2 dengan algoritma 1 serta algoritma asas."]}, {"en": ["The analysis in (Partee , 1984) of quantified sentences, introduced by a temporal connective, gives the wrong Truth-Conditions when the temporal connective in the subordinate clause is before or after.", "In (Partee , 1984), within the framework of discourse representation theory (Drt) (Cite-P-7-5-4) gives the wrong Truth-Conditions, when the temporal connective in the sentence is before or after."], "ms": ["Analisis dalam (Partee, 1984) ayat-ayat yang dikuantifikasi, diperkenalkan oleh penyambung temporal, memberikan Kebenaran-Keadaan yang salah apabila penyambung temporal dalam klausa bawahan adalah sebelum atau selepas.", "Dalam (Partee, 1984), dalam rangka teori perwakilan wacana (Drt) (Cite-P-7-5-4) memberikan Kebenaran-Keadaan yang salah, apabila penyambung temporal dalam ayat itu sebelum atau selepas."]}, {"en": ["For instance, the frequency distributions of most Commonly-Used words in a native and seven Eastern European Learner Corpora are compared on various Parts-Of-Speech categories.", "For instance, the frequency distributions of most Commonly-Used words in a native and seven Eastern European Learner Corpora are compared on different Parts-Of-Speech categories."], "ms": ["Sebagai contoh, pengedaran frekuensi perkataan yang paling biasa digunakan dalam bahasa asli dan tujuh Corpora Pelajar Eropah Timur dibandingkan dengan pelbagai kategori Bahagian-Daripada-Pertuturan.", "Sebagai contoh, pengedaran frekuensi perkataan yang paling biasa digunakan dalam bahasa asli dan tujuh Corpora Pelajar Eropah Timur dibandingkan dengan kategori Bahagian-Daripada-Pertuturan yang berbeza."]}, {"en": ["The Parsing strategies differ in terms of the order in which they recognize productions in the derivation tree.", "Parsing strategies differ in terms of the order in which they recognize productions."], "ms": ["Strategi Penghuraian berbeza dari segi susunan di mana mereka mengenali pengeluaran dalam pokok terbitan.", "Strategi penguraian berbeza dari segi susunan di mana mereka mengenali pengeluaran."]}, {"en": ["Figure 2: a comparison between the performance of baseline Hmm and Hmm+Type+Gen model for two test alignment.", "Figure 2 shows the performance of baseline Hmm and Hmm + type + Gen model for two word alignment."], "ms": ["Rajah 2: perbandingan antara prestasi model Hmm dan Hmm + Type + Gen asas untuk dua penjajaran ujian.", "Rajah 2 menunjukkan prestasi model garis dasar Hmm dan Hmm + jenis + Gen untuk dua penjajaran perkataan."]}, {"en": ["The first confusion network decoding method was based on multiple string alignment borrowed from biological sequence analysis.", "The first application of machine translation system combination used a consensus decoding strategy relying on a confusion network."], "ms": ["Kaedah penyahkodan rangkaian kekeliruan pertama adalah berdasarkan penjajaran rentetan berganda yang dipinjam daripada analisis urutan biologi.", "Aplikasi pertama gabungan sistem terjemahan mesin menggunakan strategi penyahkodan konsensus bergantung pada rangkaian kekeliruan."]}, {"en": ["We use reservoir sampling to reduce the storage complexity of a Previously-Studied Online algorithm, namely the particle filter, to constant.", "We propose using reservoir sampling in the rejuvenation step to reduce the storage complexity of the particle filter."], "ms": ["Kami menggunakan pensampelan takungan untuk mengurangkan kerumitan penyimpanan algoritma Online yang telah dipelajari sebelumnya, iaitu penapis zarah, hingga berterusan.", "Kami mencadangkan menggunakan pensampelan takungan dalam langkah peremajaan untuk mengurangkan kerumitan penyimpanan penapis zarah."]}, {"en": ["Blanco and Moldovan Annotate focus on the Negations marked with Argm-Neg role in Propbank.", "Blanco and Moldovan Annotate focus of negation in the 3,993 Negations marked with Argm-Neg semantic role in Propbank."], "ms": ["Blanco dan Moldovan Annotate memberi tumpuan kepada Negasi yang ditandai dengan peranan Argm-Neg dalam Propbank.", "Fokus Blanco dan Moldovan Annotate untuk negasi dalam 3,993 Negasi ditandai dengan peran semantik Argm-Neg di Propbank."]}, {"en": ["In this paper, we address one aspect of this problem \u00a8C Inferring predictive models to structure Task-Oriented Dialogs.", "In this paper, we discuss methods for automatically creating models of dialog structure using dialog Act and task."], "ms": ["Dalam makalah ini, kami menangani satu aspek masalah ini C Melebihi model ramalan untuk menyusun Dialog Berorientasi Tugas.", "Dalam makalah ini, kami membincangkan kaedah untuk membuat model struktur dialog secara automatik menggunakan Akta dialog dan tugas."]}, {"en": ["Our solution, \u201c Hcs, \u201d is a Convolutional neural network to classify sentiment scores.", "Our solution for determining the sentiment score extends an earlier Convolutional neural network for sentiment analysis."], "ms": ["Penyelesaian kami, Hcs, adalah rangkaian saraf Konvolutional untuk mengklasifikasikan skor sentimen.", "Penyelesaian kami untuk menentukan skor sentimen memanjangkan rangkaian saraf konvolutional yang lebih awal untuk analisis sentimen."]}, {"en": ["This is consistent with observations made in previous work that subjectivity is a property associated not with words, but with word meanings.", "Recent studies have shown that subjectivity is a language property which is directly related to word senses."], "ms": ["Ini selaras dengan pemerhatian yang dibuat dalam kerja sebelumnya bahawa subjektiviti adalah harta yang dikaitkan bukan dengan kata-kata, tetapi dengan makna kata.", "Kajian terkini menunjukkan bahawa subjektiviti adalah sifat bahasa yang berkaitan secara langsung dengan deria perkataan."]}, {"en": ["The switchboard corpus and the British national corpus are used in this study.", "We use the switchboard corpus and the British national corpus in this study."], "ms": ["Corpus papan suis dan corpus kebangsaan British digunakan dalam kajian ini.", "Kami menggunakan korpus papan suis dan korpus kebangsaan British dalam kajian ini."]}, {"en": ["Recent work by Baroni et al shows that word Embeddings trained by predict models Outperforms the count based models in various lexical semantic tasks.", "Baroni et al argues that predict models such as Word2Vec outperform count based models on a wide range of lexical semantic tasks."], "ms": ["Karya terbaru oleh Baroni et al menunjukkan bahawa perkataan Embeddings dilatih oleh model ramalan Melakukan model berdasarkan kiraan dalam pelbagai tugas semantik leksikal.", "Baroni et al berpendapat bahawa model ramalan seperti Word2Vec mengatasi model berdasarkan kiraan pada pelbagai tugas semantik leksikal."]}, {"en": ["Reasoning is a very important topic and has many important applications in the field of natural language processing.", "Reasoning is a very challenging, but basic part of natural language inference (Nli) (Cite-P-12-3-1), and many relevant tasks have been proposed such as recognizing textual Entailment (RTE) and so on."], "ms": ["Alasan adalah topik yang sangat penting dan mempunyai banyak aplikasi penting dalam bidang pemprosesan bahasa semula jadi.", "Alasan adalah bahagian yang sangat mencabar, tetapi asas kesimpulan bahasa semula jadi (Nli) (Cite-P-12-3-1), dan banyak tugas yang berkaitan telah dicadangkan seperti mengenali Entailment teks (RTE) dan sebagainya."]}, {"en": ["Medline, Medie, and a Gui-Based efficient Medline search tool, Info-Pubmed.", "From Medline, Medie, and a Gui-Based Medline search tool, Info-Pubmed."], "ms": ["Medline, Medie, dan alat carian Medline yang cekap berasaskan Gui, Info-Pubmed.", "Dari Medline, Medie, dan alat carian Medline berasaskan Gui, Info-Pubmed."]}, {"en": ["In this paper, we report on an experiment that consisted in adapting the English data of Tempeval-1 to Portuguese.", "In this paper, we described the Semi-Automatic adaptation of a Timeml Annotated corpus from English to Portuguese."], "ms": ["Dalam makalah ini, kami melaporkan eksperimen yang terdiri daripada menyesuaikan data bahasa Inggeris Tempeval-1 ke Portugis.", "Dalam makalah ini, kami menerangkan penyesuaian Semi-Automatik dari korpus Timeml Annotated dari bahasa Inggeris ke bahasa Portugis."]}, {"en": ["The set of relation types is not Pre-Specified but induced from observed Unlabeled data.", "Labeled data exists for a fixed inventory of individual relation types."], "ms": ["Set jenis hubungan tidak Diperincikan sebelum ini tetapi disebabkan oleh data yang tidak dilabelkan.", "Data yang dilabel wujud untuk inventori tetap jenis hubungan individu."]}, {"en": ["Currently, this task has not been well studied in Microblogs yet.", "Task has not been well investigated in Microblogs yet."], "ms": ["Pada masa ini, tugas ini belum dikaji dengan baik di Microblogs.", "Tugas belum disiasat dengan baik di Microblogs."]}, {"en": ["We have presented a Bipartite graph model for drawing comparisons among large groups of documents.", "In this work, we present a general framework to perform such comparisons."], "ms": ["Kami telah membentangkan model grafik Bipartit untuk membuat perbandingan di kalangan kumpulan dokumen yang besar.", "Dalam kerja ini, kami membentangkan rangka kerja umum untuk melakukan perbandingan sedemikian."]}, {"en": ["The complexity of this task challenges systems to establish the meaning, reference and identity across documents.", "That requires systems to establish the meaning, reference and identity of events."], "ms": ["Kerumitan tugas ini mencabar sistem untuk mewujudkan makna, rujukan dan identiti merentasi dokumen.", "Ini memerlukan sistem untuk mewujudkan makna, rujukan dan identiti peristiwa."]}, {"en": ["It is worth noting that this method only relies on the hierarchies in Roget \u2019 s and Wordnet.", "That can be implemented in either version of Roget \u2019 s or in Wordnet."], "ms": ["Perlu diingat bahawa kaedah ini hanya bergantung pada hierarki di Roget dan Wordnet.", "Itu boleh dilaksanakan dalam versi Roget s atau dalam Wordnet."]}, {"en": ["The focus has mostly been on detecting insincere reviews or arguments.", "And most of it has focused on either discriminating between sincere and insincere arguments."], "ms": ["Tumpuan kebanyakannya adalah untuk mengesan ulasan atau hujah yang tidak tulus.", "Kebanyakannya telah ditumpukan kepada sama ada beza antara hujah ikhlas dan tidak ikhlas."]}, {"en": ["The problem of correct identification of NES is specifically addressed and Benchmarked by the developers of information extraction system, such as the gate system.", "The problem of correct identification of named entities is specifically addressed and Benchmarked by the developers of information extraction system, such as the gate system."], "ms": ["Masalah pengenalan NES yang betul ditangani secara khusus dan ditandai oleh pemaju sistem pengekstrakan maklumat, seperti sistem gerbang.", "Masalah pengenalan entiti yang dinamakan secara khusus ditangani dan ditandai oleh pemaju sistem pengekstrakan maklumat, seperti sistem gerbang."]}, {"en": ["Particularly with the premise and Supportrel types appear to be better predictors of a Speaker\u00a1\u00afS influence rank.", "Argumentation features such as premise and support relation appear to be better predictors of a Speaker \u00a1\u00af s influence rank."], "ms": ["Terutama dengan premis dan jenis Supportrel kelihatan lebih baik peramal kedudukan pengaruh Speaker.", "Ciri-ciri hujah seperti premis dan hubungan sokongan kelihatan lebih baik peramal kedudukan pengaruh Speaker."]}, {"en": ["Our Monolingual objective follows the glove model, which learns from global word Co-Occurrence statistics.", "We employ the Pretrained word vector, glove, to obtain the fixed word Embedding of each word."], "ms": ["Objektif Monolingual kami mengikuti model sarung tangan, yang belajar dari statistik perkataan Co-Occurrence global.", "Kami menggunakan vektor perkataan Pretrained, sarung tangan, untuk mendapatkan perkataan tetap Embedding setiap perkataan."]}, {"en": ["This allows in turn to compute by intersection the occurrences of discontinuous Treelets, much like what is done in for discontinuous strings.", "This opens the possibility of computing the occurrences of discontinuous Treelets in much the same way as is done in for discontinuous Substrings."], "ms": ["Ini membolehkan pengiraan dengan persimpangan kejadian Treelets yang tidak berterusan, seperti apa yang dilakukan untuk rentetan yang tidak berterusan.", "Ini membuka kemungkinan pengkomputeran kejadian Treelets yang tidak berterusan dengan cara yang sama seperti yang dilakukan untuk Substrings yang tidak berterusan."]}, {"en": ["In this article we explored a novel learning framework, posterior Regularization, for incorporating rich constraints over the posterior distributions of word alignments.", "In this article, we use the posterior Regularization framework (Cite-P-23-13-3) to incorporate complex constraints into probabilistic models during learning."], "ms": ["Dalam artikel ini, kami meneroka rangka kerja pembelajaran baru, Regularisasi posterior, untuk menggabungkan kekangan yang kaya ke atas pengedaran posterior penjajaran perkataan.", "Dalam artikel ini, kami menggunakan kerangka Regularization posterior (Cite-P-23-13-3) untuk memasukkan kekangan kompleks ke dalam model probabilistik semasa pembelajaran."]}, {"en": ["Finally, we show that despite the joint approach, our system is still efficient.", "Despite the joint approach, our system is still efficient."], "ms": ["Akhirnya, kami menunjukkan bahawa walaupun pendekatan bersama, sistem kami masih cekap.", "Walaupun pendekatan bersama, sistem kami masih cekap."]}, {"en": ["Perplexity is frequently used as a quality measure for language models built with N-Grams extracted from text Corpora.", "In language modeling, perplexity is frequently used as a quality measure for language models built with N-Grams extracted from text Corpora."], "ms": ["Keplexity sering digunakan sebagai ukuran kualiti untuk model bahasa yang dibina dengan N-Gram yang diekstrak dari teks Corpora.", "Dalam pemodelan bahasa, kebingungan sering digunakan sebagai ukuran kualiti untuk model bahasa yang dibina dengan N-Gram yang diekstrak dari teks Corpora."]}, {"en": ["The optimization problem is addressed by using a linear programming model.", "And solve the optimization problem by using linear programming."], "ms": ["Masalah pengoptimuman ditangani dengan menggunakan model pengaturcaraan linear.", "Dan selesaikan masalah pengoptimuman dengan menggunakan pengaturcaraan linear."]}, {"en": ["Chambers and Jurafsky proposed Unsupervised induction of narrative event chains from raw Newswire texts, with narrative Cloze as the evaluation metric.", "Chambers and Jurafsky introduced the concept of narrative event chains as a representation of structured event relation knowledge."], "ms": ["Chambers dan Jurafsky mencadangkan induksi rantai peristiwa naratif yang tidak diawasi dari teks Newswire mentah, dengan naratif Cloze sebagai metrik penilaian.", "Chambers dan Jurafsky memperkenalkan konsep rantaian peristiwa naratif sebagai perwakilan pengetahuan hubungan peristiwa berstruktur."]}, {"en": ["The evaluation metric is Case-Sensitive Bleu-4.", "The evaluation method is the case insensitive Ib-M Bleu-4."], "ms": ["Metrik penilaian ialah Case-Sensitive Bleu-4.", "Kaedah penilaian adalah kes Ib-M Bleu-4 yang tidak sensitif."]}, {"en": ["This paper describes the Pku_Hit system on event detection in the Semeval-2010 task.", "In this paper, we describe the system submitted to the Semeval-2010 task."], "ms": ["Kertas ini menerangkan sistem Pku_Hit mengenai pengesanan peristiwa dalam tugas Semeval-2010.", "Dalam makalah ini, kami menerangkan sistem yang diserahkan kepada tugas Semeval-2010."]}, {"en": ["The method by Gedigian et al discriminates between literal and metaphorical use.", "Gedigian et al and Li and Sporleder distinguished the literal and Nonliteral use of a target expression in text."], "ms": ["Kaedah oleh Gedigian et al membezakan antara penggunaan literal dan metafora.", "Gedigian et al dan Li dan Sporleder membezakan penggunaan literal dan Nonliteral ungkapan sasaran dalam teks."]}, {"en": ["For work on L-Pcfgs using the em algorithm, see Petrov et al, Matsuzaki et al, Pereira and Schabes.", "For work on L-Pcfgs estimated with em, see Petrov et al, Matsuzaki et al, and Pereira and Schabes."], "ms": ["Untuk kerja-kerja L-Pcfgs menggunakan algoritma em, lihat Petrov et al, Matsuzaki et al, Pereira dan Schabes.", "Untuk kerja-kerja L-Pcfgs dianggarkan dengan em, lihat Petrov et al, Matsuzaki et al, dan Pereira dan Schabes."]}, {"en": ["Aso is a recently proposed linear Multi-Task learning algorithm, which extracts the common structures of multiple tasks to improve accuracy, via the use of auxiliary problems.", "Aso is a recently proposed linear Multi-Task learning algorithm based on empirical risk Minimization."], "ms": ["Aso adalah algoritma pembelajaran Multi-Task linear yang baru dicadangkan, yang mengekstrak struktur umum pelbagai tugas untuk meningkatkan ketepatan, melalui penggunaan masalah tambahan.", "Aso adalah algoritma pembelajaran Multi-Task linear yang baru dicadangkan berdasarkan Minimisasi risiko empirikal."]}, {"en": ["In this paper, we present a novel query expansion approach for image Captioning, in which we utilize a Distributional model of meaning for sentences.", "In this paper, we introduce a novel automatic query expansion approach for image Captioning to retrieve semantically more relevant captions."], "ms": ["Dalam makalah ini, kami membentangkan pendekatan pengembangan pertanyaan novel untuk Captioning imej, di mana kami menggunakan model makna Distributional untuk ayat.", "Dalam kertas ini, kami memperkenalkan pendekatan pengembangan pertanyaan automatik novel untuk Captioning imej untuk mengambil kapsyen yang lebih relevan secara semantikal."]}, {"en": ["We first establish a state-of-the-art baseline with a rich feature set.", "We established a state-of-the-art baseline that utilizes a variety of features."], "ms": ["Kami mula-mula menubuhkan garis dasar canggih dengan set ciri yang kaya.", "Kami menubuhkan garis dasar canggih yang menggunakan pelbagai ciri."]}, {"en": ["In this paper, we propose Koosho: an integrated environment for Japanese text input based on aerial hand gestures.", "In this paper, we proposed a novel environment for Japanese text input based on aerial hand gestures."], "ms": ["Dalam kertas ini, kami mencadangkan Koosho: persekitaran bersepadu untuk input teks Jepun berdasarkan gerak tangan udara.", "Dalam makalah ini, kami mencadangkan persekitaran novel untuk input teks Jepun berdasarkan gerak tangan udara."]}, {"en": ["We show that the model succeeds in this task and, Furthermore, that it is capable of predicting correct spatial arrangements for unseen objects if either CNN features or word Embeddings of the objects are provided.", "We show, first, that both CNN features and word Embeddings are good predictors of human judgments, and second, that these vectors can be further specialized in spatial knowledge if we update them by Backpropagation when learning the model in the task of predicting spatial arrangements of objects."], "ms": ["Kami menunjukkan bahawa model berjaya dalam tugas ini dan, Tambahan pula, ia mampu meramalkan susunan ruang yang betul untuk objek yang tidak kelihatan jika sama ada ciri CNN atau Embeddings perkataan objek disediakan.", "Kami menunjukkan, pertama, bahawa kedua-dua ciri CNN dan Embedding perkataan adalah peramal yang baik penghakiman manusia, dan kedua, bahawa vektor ini boleh lebih khusus dalam pengetahuan ruang jika kita mengemas kini mereka dengan Backpropagation apabila mempelajari model dalam tugas meramalkan susunan ruang objek."]}, {"en": ["In this paper, we propose a Generative model \u2013 called Entity-Topic model, to effectively join the above two complementary directions together.", "In this paper, we propose a method to jointly model and exploit the context compatibility, the topic."], "ms": ["Dalam makalah ini, kami mencadangkan model Generatif yang dipanggil model Entity-Topic, untuk menggabungkan dua arah pelengkap di atas secara berkesan.", "Dalam kertas kerja ini, kami mencadangkan kaedah untuk bersama-sama memodelkan dan mengeksploitasi keserasian konteks, topik."]}, {"en": ["Dropout is a technique that involves randomly dropping units during training to prevent Overfitting and Co-Adaptation of Neurons.", "Dropout is a Regularization technique in which units and their connections are randomly dropped from the neural network during training."], "ms": ["Dropout adalah teknik yang melibatkan unit secara rawak menjatuhkan semasa latihan untuk mencegah pemasangan dan penyesuaian bersama Neuron.", "Dropout adalah teknik Regularization di mana unit dan sambungan mereka secara rawak digugurkan dari rangkaian saraf semasa latihan."]}, {"en": ["Our system is notable in that for tasks C \u00a8C f, they operated on raw text while all other systems used tagged events and temporal expressions in the corpus as input.", "For task C-F we operated on features automatically computed from raw text rather than using the tagged events and temporal expressions in the corpus."], "ms": ["Sistem kami terkenal kerana untuk tugas C C f, mereka beroperasi pada teks mentah sementara semua sistem lain menggunakan peristiwa bertanda dan ungkapan temporal dalam korpus sebagai input.", "Untuk tugas C-F kami mengendalikan ciri-ciri yang dikira secara automatik dari teks mentah dan bukannya menggunakan peristiwa bertanda dan ungkapan temporal dalam korpus."]}, {"en": ["Mikolov et al have also shown that distributed vector representations over large Corpora in a continuous space model capture many linguistic Regularities and key aspects of words.", "Mikolov et al have proposed to obtain Cross-Lingual word representations by learning a linear mapping between two Monolingual word Embedding spaces."], "ms": ["Mikolov et al juga telah menunjukkan bahawa perwakilan vektor yang diedarkan ke atas Corpora yang besar dalam model ruang berterusan menangkap banyak linguistik Keteraturan dan aspek utama perkataan.", "Mikolov et al telah mencadangkan untuk mendapatkan perwakilan perkataan Cross-Lingual dengan mempelajari pemetaan linear antara dua ruang Embedding perkataan Monolingual."]}, {"en": ["We constructed a type signature for the Xtag English grammar, an existing Broad-Coverage grammar of English.", "We applied our system to the Xtag English grammar 3, which is a large-scale Fb-Ltag grammar for English."], "ms": ["Kami membina tandatangan jenis untuk tatabahasa Bahasa Inggeris Xtag, tatabahasa Bahasa Inggeris Broad-Coverage yang ada.", "Kami menggunakan sistem kami untuk tatabahasa Bahasa Inggeris Xtag 3, yang merupakan tatabahasa Fb-Ltag berskala besar untuk bahasa Inggeris."]}, {"en": ["Moreover, the adversarial examples in neural image Captioning highlight the inconsistency in visual language grounding between humans and machines, suggesting a possible weakness of current machine vision and perception machinery.", "Adversarial examples in neural image Captioning Crafted by Show-And-Fool highlight the inconsistency in visual language grounding between humans and machines, suggesting a possible weakness of current machine vision and perception machinery."], "ms": ["Selain itu, contoh-contoh musuh dalam imej neural Captioning menonjolkan ketidakkonsistenan dalam asas bahasa visual antara manusia dan mesin, mencadangkan kelemahan yang mungkin penglihatan mesin semasa dan jentera persepsi.", "Contoh-contoh yang berbeza dalam imej neural Captioning yang direka oleh Show-And-Fool menonjolkan ketidakkonsistenan dalam asas bahasa visual antara manusia dan mesin, mencadangkan kelemahan yang mungkin mesin penglihatan mesin semasa dan jentera persepsi."]}, {"en": ["As discussed in section 4, these findings shed new light on why \u201c syntactic \u201d constraints have not yet helped to improve the accuracy of statistical machine translation.", "Under the constraints of independently generated Monolingual Parse trees might be the main reason why \u201c syntactic \u201d constraints have not yet increased the accuracy of Smt systems."], "ms": ["Seperti yang dibincangkan dalam seksyen 4, penemuan ini memberi penerangan baru mengapa kekangan sintaktik masih belum membantu meningkatkan ketepatan terjemahan mesin statistik.", "Di bawah kekangan pokok Monolingual Parse yang dihasilkan secara bebas mungkin menjadi sebab utama mengapa kekangan syntactic belum meningkatkan ketepatan sistem Smt."]}, {"en": ["In this paper, we describe a method of using document similarity measures to describe differences in behavior between native and Non-Native speakers of English in a writing task.", "In this paper, we describe a method of using document similarity measures to describe differences in behavior between native and Non-Native speakers of English."], "ms": ["Dalam makalah ini, kami menerangkan kaedah menggunakan langkah persamaan dokumen untuk menggambarkan perbezaan tingkah laku antara penutur asli dan bukan asli bahasa Inggeris dalam tugas menulis.", "Dalam makalah ini, kami menerangkan kaedah menggunakan langkah persamaan dokumen untuk menggambarkan perbezaan tingkah laku antara penutur asli dan bukan asli bahasa Inggeris."]}, {"en": ["In this paper we have presented a Bayesian model of category acquisition.", "In this paper we focus on categories acquired from natural language stimuli, that is words."], "ms": ["Dalam makalah ini kami telah membentangkan model Bayesian pemerolehan kategori.", "Dalam makalah ini kita memberi tumpuan kepada kategori yang diperoleh daripada rangsangan bahasa semula jadi, iaitu perkataan."]}, {"en": ["In this paper, we present different models for sentence realisation.", "In this paper, we present five models for sentence realisation."], "ms": ["Dalam makalah ini, kami membentangkan model yang berbeza untuk merealisasikan ayat.", "Dalam kertas ini, kami membentangkan lima model untuk merealisasikan ayat."]}, {"en": ["On the other hand, Mem2Seq is able to produce the correct responses in this two examples.", "On the other hand, Mem2Seq is able to produce the correct responses."], "ms": ["Sebaliknya, Mem2Seq mampu menghasilkan jawapan yang betul dalam dua contoh ini.", "Sebaliknya, Mem2Seq mampu menghasilkan jawapan yang betul."]}, {"en": ["We present an aggregation approach that learns a regression model from Crowdsourced Annotations to predict Aggregated labels for instances that have no expert Adjudications.", "We train a regression model that predicts Aggregated labels for unseen instances and compare the predictions to expert Annotations."], "ms": ["Kami membentangkan pendekatan agregat yang mempelajari model regresi dari Crowdsourced Annotations untuk meramalkan label agregat untuk contoh yang tidak mempunyai Adjudications pakar.", "Kami melatih model regresi yang meramalkan label agregat untuk kejadian yang tidak kelihatan dan membandingkan ramalan dengan Annotasi pakar."]}, {"en": ["Cui et al learned transformations of dependency paths from questions to answers to improve passage ranking.", "Cui et al measured sentence similarity based on similarity measures between dependency paths among aligned words."], "ms": ["Cui et al belajar transformasi laluan dependensi dari soalan kepada jawapan untuk meningkatkan kedudukan laluan.", "Cui et al mengukur persamaan ayat berdasarkan ukuran persamaan antara laluan dependensi antara perkataan yang sejajar."]}, {"en": ["This kind of one-shot approach is useful but it does not usually perform well to various Datasets or tasks.", "Although this one-shot learning paradigm is very useful, it will never make an Nlp system understand the natural language because it does not accumulate."], "ms": ["Pendekatan satu pukulan seperti ini berguna tetapi biasanya tidak berfungsi dengan baik untuk pelbagai Dataset atau tugas.", "Walaupun paradigma pembelajaran satu pukulan ini sangat berguna, ia tidak akan membuat sistem Nlp memahami bahasa semula jadi kerana ia tidak terkumpul."]}, {"en": ["Zhu et al also used the Bioscope corpus and employed techniques developed for shallow semantic Parsing for detecting scope.", "Finally, Zhu et al approach the scope learning problem via simplified shallow semantic Parsing."], "ms": ["Zhu et al juga menggunakan korpus Bioscope dan teknik yang digunakan dibangunkan untuk Parsing semantik cetek untuk mengesan skop.", "Akhirnya, Zhu et al mendekati masalah pembelajaran skop melalui penguraian semantik cetek yang dipermudahkan."]}, {"en": ["The extracted Mwes are integrated into the Urdu Pargram grammar, a computational grammar for Urdu running with Xle and based on the syntax formalism of LFG.", "An Nlp tool where the Mwes can be employed is the Urdu Pargram grammar, which is based on the Lexical-Functional grammar formalism."], "ms": ["Mwes yang diekstrak diintegrasikan ke dalam tatabahasa Urdu Pargram, tatabahasa pengiraan untuk Urdu berjalan dengan Xle dan berdasarkan formalisme sintaks LFG.", "Alat Nlp di mana Mwes boleh digunakan adalah tatabahasa Urdu Pargram, yang berdasarkan formalisme tatabahasa Leksi-Fungsional."]}, {"en": ["Most of the following works focused on feature engineering and machine learning models.", "Most of the following work focused on feature engineering and machine learning models."], "ms": ["Kebanyakan kerja berikut memberi tumpuan kepada model kejuruteraan ciri dan pembelajaran mesin.", "Kebanyakan kerja berikut memberi tumpuan kepada model kejuruteraan ciri dan pembelajaran mesin."]}, {"en": ["This process enables the system to understand user utterances based on the context of a dialogue.", "The system cannot tell whether the user utterance corresponds to a dialogue act."], "ms": ["Proses ini membolehkan sistem memahami ucapan pengguna berdasarkan konteks dialog.", "Sistem tidak dapat memberitahu sama ada ucapan pengguna sepadan dengan tindakan dialog."]}, {"en": ["For the representation of textual data we use both Tfidf and the word Embedding representation of the data.", "Here, for textual representation of captions, we use Fisher-Encoded Word2Vec features."], "ms": ["Untuk perwakilan data teks, kami menggunakan kedua-dua Tfidf dan perkataan Embedding perwakilan data.", "Di sini, untuk perwakilan teks kapsyen, kami menggunakan ciri Word2Vec Fisher-Encoded."]}, {"en": ["As pointed out in section 3.5, the majority of sentences require zero or few corrections.", "In section 3 . 5, the majority of sentences require zero or few corrections."], "ms": ["Seperti yang dinyatakan dalam seksyen 3.5, majoriti ayat memerlukan sifar atau sedikit pembetulan.", "Dalam seksyen 3.5, majoriti ayat memerlukan sifar atau sedikit pembetulan."]}, {"en": ["Summarization systems that directly optimize for more topic signatures during content selection have fared very well in evaluations.", "Summarization systems that directly optimize the number of topic signature words during content selection have fared very well in evaluations."], "ms": ["Sistem ringkasan yang mengoptimumkan secara langsung untuk lebih banyak tandatangan topik semasa pemilihan kandungan telah berjaya dalam penilaian.", "Sistem ringkasan yang secara langsung mengoptimumkan bilangan perkataan tandatangan topik semasa pemilihan kandungan telah berjaya dalam penilaian."]}, {"en": ["Our Nmt systems are trained on 1M parallel sentences of the Europarl corpus for En-Fr and En-De.", "We use the Europarl English-French parallel corpus plus around 1M segments of Symantec translation memory."], "ms": ["Sistem Nmt kami dilatih pada ayat selari 1M korpus Europarl untuk En-Fr dan En-De.", "Kami menggunakan korpus selari Bahasa Inggeris-Perancis Europarl ditambah sekitar segmen 1M memori terjemahan Symantec."]}, {"en": ["Many complex emotions are ignored by current automatic emotion detectors because they are not programmed to seek out these \u201c undefined \u201d emotions.", "But existing automatic emotion detectors are restricted to identify only a small set of emotions."], "ms": ["Banyak emosi kompleks diabaikan oleh pengesan emosi automatik semasa kerana mereka tidak diprogramkan untuk mencari emosi yang tidak ditentukan ini.", "Tetapi pengesan emosi automatik yang sedia ada terhad untuk mengenal pasti hanya sekumpulan kecil emosi."]}, {"en": ["In this paper we have proposed a model which incorporates Coreferential information of candidates to improve pronoun resolution.", "In this paper, we present a supervised Learning-Based pronoun resolution system which incorporates Coreferential information of candidates."], "ms": ["Dalam makalah ini kami telah mencadangkan model yang menggabungkan maklumat Coreferential calon untuk meningkatkan resolusi kata ganti.", "Dalam makalah ini, kami membentangkan sistem resolusi kata ganti berasaskan pembelajaran yang diselia yang menggabungkan maklumat Coreferential calon."]}, {"en": ["We used the rules for reordering German constituent Parses of Collins et al together with the additional rules described by Fraser.", "We use the rules for reordering German constituent Parses of Collins et al together with the additional rules described by Fraser."], "ms": ["Kami menggunakan peraturan untuk menyusun semula konstituen Jerman Parses of Collins et al bersama dengan peraturan tambahan yang dijelaskan oleh Fraser.", "Kami menggunakan peraturan untuk menyusun semula konstituen Jerman Parses of Collins et al bersama dengan peraturan tambahan yang dijelaskan oleh Fraser."]}, {"en": ["These energy functions are Encoded from interior design guidelines or learned from input scene data.", "These energy functions are Encoded from design guidelines or learned from scene data."], "ms": ["Fungsi tenaga ini dikodkan dari garis panduan reka bentuk dalaman atau dipelajari dari data adegan input.", "Fungsi tenaga ini dikodkan dari garis panduan reka bentuk atau dipelajari dari data tempat kejadian."]}, {"en": ["Te is a task of determining if the truth of a text entails the truth of another text (hypothesis).", "Te is a generic paradigm for semantic inference, where the objective is to recognize whether a target meaning can be inferred from a given text."], "ms": ["Te adalah tugas menentukan sama ada kebenaran teks melibatkan kebenaran teks lain (hipotesis).", "Te adalah paradigma generik untuk kesimpulan semantik, di mana objektifnya adalah untuk mengenali sama ada makna sasaran boleh disimpulkan daripada teks yang diberikan."]}, {"en": ["One is to acquire unknown words from Corpora and put them into a dictionary, and the other is to estimate a model that can identify unknown words correctly ,.", "One is to find unknown words from Corpora and put them into a dictionary, and the other is to estimate a model that can identify unknown words correctly ,."], "ms": ["Salah satunya ialah memperoleh perkataan yang tidak diketahui dari Corpora dan memasukkannya ke dalam kamus, dan yang lain adalah untuk menganggarkan model yang dapat mengenal pasti perkataan yang tidak diketahui dengan betul.", "Salah satunya ialah mencari kata-kata yang tidak diketahui dari Corpora dan memasukkannya ke dalam kamus, dan yang lain adalah untuk menganggarkan model yang dapat mengenal pasti kata-kata yang tidak diketahui dengan betul."]}, {"en": ["We use the voted Perceptron algorithm as the kernel machine.", "We train a linear Classifier using the averaged Perceptron algorithm."], "ms": ["Kami menggunakan algoritma Perceptron yang dipilih sebagai mesin kernel.", "Kami melatih Classifier linear menggunakan algoritma Perceptron purata."]}, {"en": ["We described mineral, a system for extraction and Normalization of disorder mentions in clinical text, with which we participated in task 14 of Semeval 2015.", "We present the mineral (medical information extraction and linking) system for recognizing and Normalizing mentions of clinical conditions, with which we participated in task 14 of Semeval 2015."], "ms": ["Kami menerangkan mineral, sistem untuk pengekstrakan dan Normalisasi sebutan gangguan dalam teks klinikal, yang mana kami mengambil bahagian dalam tugas 14 Semeval 2015.", "Kami membentangkan sistem mineral (pengekstrak maklumat perubatan dan pemaut) untuk mengenali dan menormalkan sebutan keadaan klinikal, yang mana kami mengambil bahagian dalam tugas 14 Semeval 2015."]}, {"en": ["Our experiment results demonstrate the effectiveness of our NSW detection method and the benefit of NSW detection for NER.", "Our experiment results demonstrate that our proposed system gives a significant performance improvement on NSW detection."], "ms": ["Hasil eksperimen kami menunjukkan keberkesanan kaedah pengesanan NSW kami dan manfaat pengesanan NSW untuk NER.", "Hasil eksperimen kami menunjukkan bahawa sistem yang dicadangkan kami memberikan peningkatan prestasi yang signifikan terhadap pengesanan NSW."]}, {"en": ["Automatically learning representations of book plots, as structured summaries of their content, has attracted much attention (CF, Cite-P-15-1-16 for a review).", "While automatic induction of plot representations has attracted considerable attention (see Cite-P-15-1-16)."], "ms": ["Perwakilan pembelajaran secara automatik plot buku, sebagai ringkasan berstruktur kandungan mereka, telah menarik banyak perhatian (CF, Cite-P-15-1-16 untuk ulasan).", "Walaupun induksi automatik perwakilan plot telah menarik perhatian yang besar (lihat Cite-P-15-1-16)."]}, {"en": ["To train the feature weights, we made use of a novel Two-Phase training algorithm that incorporates a probabilistic training objective and standard minimum error training.", "To obtain their corresponding weights, we adapted the Minimum-Error-Rate training algorithm to train the Outside-Layer model."], "ms": ["Untuk melatih berat ciri, kami menggunakan algoritma latihan Dua Fasa novel yang menggabungkan objektif latihan probabilistik dan latihan ralat minimum standard.", "Untuk mendapatkan berat yang sepadan, kami menyesuaikan algoritma latihan Minimum-Ralat untuk melatih model Luar Ruang."]}, {"en": ["The results in the Unsupervised setting is comparable to the best reported values.", "In the Unsupervised setting are comparable to the best reported values."], "ms": ["Keputusan dalam tetapan Unsupervised adalah setanding dengan nilai yang dilaporkan terbaik.", "Dalam tetapan Unsupervised adalah setanding dengan nilai yang dilaporkan terbaik."]}, {"en": ["A Synset is a set of synonyms that are interchangeable in some context.", "A Synset is a set of mutual synonyms, which can be represented as a clique graph where nodes are words and edges are synonymy relations."], "ms": ["Sinset ialah satu set sinonim yang boleh ditukar ganti dalam sesetengah konteks.", "Sinset ialah satu set sinonim bersama, yang boleh diwakili sebagai graf serong di mana nod adalah perkataan dan tepi adalah hubungan sinonim."]}, {"en": ["In this paper, we propose a novel framework that learns the Term-Weighting function.", "In this paper, we propose a general Term-Weighting learning framework, t weak, that learns the Term-Weighting function."], "ms": ["Dalam makalah ini, kami mencadangkan rangka kerja novel yang mempelajari fungsi Jangka-Weighting.", "Dalam makalah ini, kami mencadangkan kerangka pembelajaran Jangka-Weighting umum, yang lemah, yang mempelajari fungsi Jangka-Weighting."]}, {"en": ["In Subtask B, participants must determine which type of irony a particular Tweet contains.", "In Subtask B, participants must determine which type of irony."], "ms": ["Dalam Subtugas B, peserta mesti menentukan jenis ironi yang mengandungi Tweet tertentu.", "Dalam Subtugas B, peserta mesti menentukan jenis ironi."]}, {"en": ["We describe the tagging strategies that can be found in the literature and evaluate their relative performances.", "We describe the Ie framework and the experimental setup used for comparing the various tagging strategies."], "ms": ["Kami menerangkan strategi penandaan yang boleh didapati dalam kesusasteraan dan menilai persembahan relatif mereka.", "Kami menerangkan rangka kerja Ie dan persediaan eksperimen yang digunakan untuk membandingkan pelbagai strategi penandaan."]}, {"en": ["Experiments on Pku, Msra and Ctb6 benchmark Datasets show that our model Outperforms the previous neural network models and state-of-the-art methods.", "On three popular benchmark Datasets (Pku, Msra and Ctb6), and the experimental results show that our model achieves the state-of-the-art performance."], "ms": ["Eksperimen pada Pku, Msra dan Ctb6 penanda aras Dataset menunjukkan bahawa model kami Melaksanakan model rangkaian saraf sebelumnya dan kaedah canggih.", "Pada tiga Dataset penanda aras yang popular (Pku, Msra dan Ctb6), dan hasil eksperimen menunjukkan bahawa model kami mencapai prestasi canggih."]}, {"en": ["Generation quality is primarily evaluated with BLEU, using Sacrebleu.", "We also measure overall performance with Uncased BLEU."], "ms": ["Kualiti generasi dinilai terutamanya dengan BLEU, menggunakan Sacrebleu.", "Kami juga mengukur prestasi keseluruhan dengan Uncased BLEU."]}, {"en": ["Cite-P-18-1-4 combine pattern matching and machine learning.", "Cite-P-18-1-4 combined a Rule-Based approach and machine learning."], "ms": ["Cite-P-18-1-4 menggabungkan pemadanan corak dan pembelajaran mesin.", "Cite-P-18-1-4 menggabungkan pendekatan berasaskan peraturan dan pembelajaran mesin."]}, {"en": ["In this paper, we describe a novel approach to Cascaded learning and inference on sequences.", "In this paper, we adopt the method to weight features on an upper sequence labeling stage."], "ms": ["Dalam makalah ini, kami menerangkan pendekatan novel untuk pembelajaran dan kesimpulan Cascaded pada urutan.", "Dalam kertas ini, kami menggunakan kaedah untuk ciri berat pada peringkat pelabelan urutan atas."]}, {"en": ["Explicit semantic analysis is a variation on the standard Vector-Space model in which the dimensions of the vector are directly equivalent to abstract concepts.", "Explicit semantic analysis is a variation on the standard Vectorial model in which the dimensions of the vector are directly equivalent to abstract concepts."], "ms": ["Analisis semantik eksploisit adalah variasi pada model Vektor-Space standard di mana dimensi vektor secara langsung bersamaan dengan konsep abstrak.", "Analisis semantik eksploisit adalah variasi pada model Vektor standard di mana dimensi vektor secara langsung bersamaan dengan konsep abstrak."]}, {"en": ["These systems have been created for English, Portuguese, Italian and German.", "Similar approaches were applied in multiple other languages, including Italian, German and Basque."], "ms": ["Sistem-sistem ini telah dicipta untuk bahasa Inggeris, Portugis, Itali dan Jerman.", "Pendekatan yang sama digunakan dalam pelbagai bahasa lain, termasuk Itali, Jerman dan Basque."]}, {"en": ["Glorot et al, proposed a deep learning approach which learns to extract a meaningful representation for each review in an Unsupervised fashion.", "On the other hand, Glorot et al, proposed a deep learning approach which learns to extract a meaningful representation for each review in an Unsupervised fashion."], "ms": ["Glorot et al, mencadangkan pendekatan pembelajaran mendalam yang belajar untuk mengekstrak perwakilan yang bermakna untuk setiap ulasan dalam fesyen yang tidak diawasi.", "Sebaliknya, Glorot et al, mencadangkan pendekatan pembelajaran mendalam yang belajar untuk mengekstrak perwakilan yang bermakna untuk setiap ulasan dalam fesyen yang tidak diawasi."]}, {"en": ["In addition to SIMPLIFYING the task, K & M\u00a1\u00afS Noisy-Channel formulation is also appealing.", "In addition to improving the original K & M Noisy-Channel model, we create Unsupervised and Semi-Supervised models of the task."], "ms": ["Selain SIMPLIFYING tugas, formulasi K & M S Noisy-Channel juga menarik.", "Selain meningkatkan model K & M Noisy-Channel yang asal, kami mencipta model tugas yang tidak diawasi dan separa diawasi."]}, {"en": ["The Encoder units are Bidirectional Lstms while the Decoder unit incorporates an Lstm with DOT product attention.", "The Encoder is implemented with a Bi-Directional Lstm, and the Decoder a uni-directional one."], "ms": ["Unit Encoder adalah Lstm Bidirectional manakala unit Decoder menggabungkan Lstm dengan perhatian produk DOT.", "Encoder dilaksanakan dengan Lstm Bi-Directional, dan Decoder satu uni-arah."]}, {"en": ["In this perspective, kernel methods are a viable approach to implicitly and easily explore feature spaces Encoding Dependencies.", "In contrast, kernel methods allow for automatically generating all possible Dependencies."], "ms": ["Dalam perspektif ini, kaedah kernel adalah pendekatan yang berdaya maju untuk secara tersirat dan mudah meneroka ruang ciri Mengenali Dependensi.", "Sebaliknya, kaedah kernel membolehkan untuk menjana semua Dependensi yang mungkin secara automatik."]}, {"en": ["The model parameters, \u4f4d U, are estimated using numerical optimization methods to maximize the Log-Likelihood of the training data.", "Model parameters that maximize the Loglikelihood of the training data are computed using a numerical optimization method."], "ms": ["Parameter model, U, dianggarkan menggunakan kaedah pengoptimuman berangka untuk memaksimumkan Log-Likelihood data latihan.", "Parameter model yang memaksimumkan Loglikelihood data latihan dikira menggunakan kaedah pengoptimuman berangka."]}, {"en": ["Our Hdp-Based method Outperforms all methods over the Semeval-2010 Wsi Dataset, and is also superior to other topic Modelling-Based approaches to Wsi based on the Semeval-2007 Dataset.", "Hdp-Based Wsi is superior to other topic Model-Based approaches to Wsi, and indeed, better than the Best-Published results for both Semeval Datasets."], "ms": ["Kaedah berasaskan Hdp kami Melaksanakan semua kaedah melalui Set Data Wsi Semeval-2010, dan juga lebih unggul daripada pendekatan berasaskan pemodelan topik lain untuk Wsi berdasarkan Set Data Semeval-2007.", "Wsi Berasaskan Hdp lebih unggul daripada pendekatan Model Berasaskan topik lain untuk Wsi, dan sememangnya, lebih baik daripada hasil Terbaik yang diterbitkan untuk kedua-dua Set Data Semeval."]}, {"en": ["We used the Stanford Parser to create Parse trees that modeled the language structure of patient and therapist utterances.", "We Pre-Processed the data to add Part-Ofspeech tags and Dependencies between words using the Stanford Parser."], "ms": ["Kami menggunakan Stanford Parser untuk mencipta pokok Parse yang memodelkan struktur bahasa ucapan pesakit dan ahli terapi.", "Kami telah memproses data untuk menambah tag Bahagian Ucapan dan Dependensi antara perkataan menggunakan Stanford Parser."]}, {"en": ["We also train and test Unsupervised Pos induction on the Conll 2007 SPLITS of the Penn Treebank using the Hyper-Parameter settings from Ontonotes.", "We evaluate our Semi-Supervised approach on the Conll 2009 distribution of the Penn Treebank WSJ corpus."], "ms": ["Kami juga melatih dan menguji induksi Pos Unsupervised pada SPLITS Conll 2007 Penn Treebank menggunakan tetapan Hyper-Parameter dari Ontonotes.", "Kami menilai pendekatan Semi-Supervised kami mengenai pengedaran Conll 2009 korpus Penn Treebank WSJ."]}, {"en": ["Szarvas et al, hence we also applied a method based on conditional random fields in our experiments.", "Szarvas et al , 2012, hence we also relied on a method based on conditional random fields in our experiments."], "ms": ["Oleh itu, kami juga menggunakan kaedah berdasarkan medan rawak bersyarat dalam eksperimen kami.", "Szarvas et al, 2012, oleh itu kami juga bergantung kepada kaedah berdasarkan medan rawak bersyarat dalam eksperimen kami."]}, {"en": ["In addition, the task has generated considerable information for further examination of preposition behavior.", "That will provide further insights into the characterization of preposition behavior."], "ms": ["Di samping itu, tugas itu telah menghasilkan maklumat yang cukup untuk pemeriksaan lanjut mengenai tingkah laku preposisi.", "Ini akan memberikan gambaran lebih lanjut mengenai ciri tingkah laku preposisi."]}, {"en": ["The motivation is that it is beneficial to have access to more than one source form since different source forms can provide complementary information, E.G ., different stems.", "It is often beneficial to have access to more than one source form since different source forms can provide complementary information, E . G ., different stems; and (II)."], "ms": ["Motivasinya adalah bahawa ia bermanfaat untuk mempunyai akses kepada lebih daripada satu bentuk sumber kerana bentuk sumber yang berbeza dapat memberikan maklumat pelengkap, E.G., batang yang berbeza.", "Ia sering bermanfaat untuk mempunyai akses kepada lebih daripada satu bentuk sumber kerana bentuk sumber yang berbeza dapat memberikan maklumat pelengkap, E. G., batang yang berbeza; dan (II)."]}, {"en": ["In this paper, we perform Nnjm adaptation using L1-Specific Learner text with a kl divergence Regularized objective function.", "In this paper, we adapt a neural network joint model (Nnjm) using L1-Specific Learner text."], "ms": ["Dalam kertas kerja ini, kami melaksanakan adaptasi Nnjm menggunakan teks L1-Specific Learner dengan fungsi objektif kl divergence Regularized.", "Dalam makalah ini, kami menyesuaikan model sendi rangkaian saraf (Nnjm) menggunakan teks L1-Specific Learner."]}, {"en": ["It will be made freely available to other researchers.", "As well as an implementation of the approach will be made freely available."], "ms": ["Ia akan disediakan secara percuma kepada penyelidik lain.", "Selain itu, pelaksanaan pendekatan ini akan disediakan secara percuma."]}, {"en": ["In this paper, we propose a linguistically grounded algorithm for alias detection.", "In this paper, we propose an approach based on linguistic knowledge for identification of Aliases."], "ms": ["Dalam makalah ini, kami mencadangkan algoritma berasaskan linguistik untuk pengesanan alias.", "Dalam makalah ini, kami mencadangkan pendekatan berdasarkan pengetahuan linguistik untuk mengenal pasti Aliases."]}, {"en": ["We define sense Annotation as a synonymy judgment task, following Al-Sabbagh et al , 2013 , 2014B.", "We define sense Annotation as a synonymy judgment task, following Al-Sabbagh et al."], "ms": ["Kami mendefinisikan pengertian Annotasi sebagai tugas penghakiman sinonim, mengikuti Al-Sabbagh et al, 2013, 2014B.", "Kami mendefinisikan anotasi akal sebagai tugas penghakiman sinonim, mengikuti Al-Sabbagh et al."]}, {"en": ["We used conditional random fields to conduct the automatic Annotation experiments using our Annotated corpus.", "We applied a supervised Machine-Learning approach, based on conditional random fields."], "ms": ["Kami menggunakan medan rawak bersyarat untuk menjalankan eksperimen Annotasi automatik menggunakan korpus Annotasi kami.", "Kami menggunakan pendekatan pembelajaran mesin yang diawasi, berdasarkan medan rawak bersyarat."]}, {"en": ["By coupling different relations, Cpra takes into account relation associations and enables implicit data sharing among them.", "Cpra couples the classification tasks of multiple relations, and enables implicit data sharing and Regularization."], "ms": ["Dengan gandingan hubungan yang berbeza, Cpra mengambil kira persatuan hubungan dan membolehkan perkongsian data tersirat di antara mereka.", "Cpra menggabungkan tugas klasifikasi pelbagai hubungan, dan membolehkan perkongsian data tersirat dan Regularisasi."]}, {"en": ["In this paper, we extend Mert and Mbr decoding to work on Hypergraphs produced by Scfg-Based mt systems.", "In this paper, we have described how Mert can be employed to estimate the weights for the linear loss function."], "ms": ["Dalam kertas kerja ini, kami memperluaskan penyahkodan Mert dan Mbr untuk bekerja pada Hypergraphs yang dihasilkan oleh sistem mt berasaskan Scfg.", "Dalam kertas ini, kami telah menerangkan bagaimana Mert boleh digunakan untuk menganggarkan berat untuk fungsi kehilangan linear."]}, {"en": ["Cite-P-17-1-18 proposed a Multi-Level Feature-Based framework for spelling error correction including a modification of Brill and Moore\u00a1\u00afS model (2000).", "In spelling error correction, Cite-P-17-1-3 proposed employing a Generative model for candidate generation."], "ms": ["Cite-P-17-1-18 mencadangkan rangka kerja Multi-Level Feature-Based untuk pembetulan ralat ejaan termasuk pengubahsuaian model Brill dan MooreS (2000).", "Dalam pembetulan ralat ejaan, Cite-P-17-1-3 mencadangkan menggunakan model Generatif untuk generasi calon."]}, {"en": ["Meanwhile, document clustering and document classification results show that our models improve the Document-Topic assignments compared to the baseline models, especially on Datasets with few or short documents.", "From the external Corpora, our new models produce significant improvements on topic coherence, document clustering and document classification tasks, especially on Datasets with few or short documents."], "ms": ["Sementara itu, hasil pengelompokan dokumen dan pengelasan dokumen menunjukkan bahawa model kami meningkatkan tugasan Dokumen-Topik berbanding model asas, terutamanya pada Dataset dengan beberapa atau dokumen pendek.", "Dari Corpora luaran, model baru kami menghasilkan peningkatan yang ketara pada tugas koheren topik, pengelompokan dokumen dan pengelasan dokumen, terutamanya pada Dataset dengan beberapa atau dokumen pendek."]}, {"en": ["In these respects it is quite similar to the LKB Parser-Generator system.", "It is a more efficient Re-Implementation of the chart Parser and generator of the LKB."], "ms": ["Dalam hal ini ia agak serupa dengan sistem LKB Parser-Generator.", "Ia adalah Pelaksana Semula yang lebih cekap dari Parser carta dan penjana LKB."]}, {"en": ["In this paper, we focus on the extraction of temporal relations between medical events (event), temporal expressions (Timex3) and document creation time (Dct).", "In this article, we have presented a work focusing on the extraction of temporal relations between medical events, temporal expressions and document creation time."], "ms": ["Dalam makalah ini, kami memberi tumpuan kepada pengekstrakan hubungan temporal antara peristiwa perubatan (peristiwa), ungkapan temporal (Timex3) dan masa penciptaan dokumen (Dct).", "Dalam artikel ini, kami telah membentangkan kerja yang memberi tumpuan kepada pengekstrakan hubungan temporal antara peristiwa perubatan, ungkapan temporal dan masa penciptaan dokumen."]}, {"en": ["Cahill et al developed a method for automatic Annotation of LFG F-Structure on the Penn-Ii Treebank.", "Cahill et al presents a set of Penn-Ii Treebank-Based LFG Parsing resources."], "ms": ["Cahill et al membangunkan kaedah untuk Annotasi automatik F-Structure LFG di Penn-Ii Treebank.", "Cahill et al menyajikan satu set sumber Parsing LFG Berasaskan Penn-Ii Treebank."]}, {"en": ["Despite being a natural comparison and addition, previous work on attentive neural architectures do not consider hand-crafted features.", "Despite being a natural comparison and addition, previous work on attentive neural architectures have not considered hand-crafted features."], "ms": ["Walaupun perbandingan dan penambahan semula jadi, kerja sebelumnya mengenai seni bina saraf perhatian tidak menganggap ciri buatan tangan.", "Walaupun perbandingan dan penambahan semula jadi, kerja sebelumnya mengenai seni bina saraf perhatian tidak menganggap ciri buatan tangan."]}, {"en": ["We presented a host of neural models and a novel Semantic-Driven approach for tackling the task of Guesstwo.", "We present a host of neural approaches and a novel Semantic-Driven model for tackling the Guesstwo task."], "ms": ["Kami membentangkan pelbagai model saraf dan pendekatan Semantik-Driven novel untuk menangani tugas Guesstwo.", "Kami membentangkan pelbagai pendekatan saraf dan model Semantik-Driven novel untuk menangani tugas Guesstwo."]}, {"en": ["The Tagger uses a Bigram hidden Markov model augmented with a statistical unknown word Guesser.", "The Tagger uses a Bigram Hmm augmented with a statistical unknown word Guesser."], "ms": ["Tagger menggunakan model Markov tersembunyi Bigram yang ditambah dengan perkataan Guesser yang tidak diketahui statistik.", "Tagger menggunakan Bigram Hmm ditambah dengan perkataan yang tidak diketahui statistik."]}, {"en": ["The French Treebank is a Treebank of 21,564 sentences Annotated with constituency Annotation.", "The French Treebank is a syntactically Annotated corpus 7 of 569,039 tokens."], "ms": ["Treebank Perancis adalah Treebank yang mempunyai 21,564 ayat Annotated dengan Annotation kawasan.", "Treebank Perancis adalah korpus Annotated syntactically 7 daripada 569,039 token."]}, {"en": ["As a sequence Labeler we use conditional random fields.", "The second decoding method is to use conditional random field."], "ms": ["Sebagai Label jujukan kita menggunakan medan rawak bersyarat.", "Kaedah penyahkodan kedua adalah menggunakan medan rawak bersyarat."]}, {"en": ["We employ the ranking mode of the popular learning package SVM light.", "We used the SVM light package with a linear kernel."], "ms": ["Kami menggunakan mod ranking pakej pembelajaran popular SVM cahaya.", "Kami menggunakan pakej cahaya SVM dengan kernel linear."]}, {"en": ["Stroppa et al added Source-Side Contextual features to a state-of-the-art Log-Linear Pb-Smt system by incorporating Contextdependent Phrasal translation probabilities learned using decision trees.", "Stroppa et al add Source-Side Contextual features into a phrase based Smt system by integrating context dependent Phrasal translation probabilities learned using a Decision-Tree Classifier."], "ms": ["Stroppa et al added Source-Side Contextual features to a state-of-the-art Log-Linear Pb-Smt system by incorporating Contextdependent Phrasal translation probabilities learned using decision trees.", "Stroppa et al add Source-Side Contextual features into a phrase based Smt system by integrating context dependent Phrasal translation probabilities learned using a Decision-Tree Classifier."]}, {"en": ["In such models, the target character can only influence the prediction as features.", "In such models, the target character can only influence the prediction."], "ms": ["Dalam model sedemikian, watak sasaran hanya boleh mempengaruhi ramalan sebagai ciri.", "Dalam model sedemikian, watak sasaran hanya boleh mempengaruhi ramalan."]}, {"en": ["For each Node P/, compute thickness Hij of each Subr~F & ant Sij in the following way: Math-P-20-7-0", "For each Node P /, compute thickness Hij of each Subr ~ f & ant Sij."], "ms": ["Untuk setiap Node P/, pengiraan ketebalan Hij setiap SubrF & semut Sij dengan cara berikut: Math-P-20-7-0", "Untuk setiap Nod P/, pengiraan ketebalan Hij bagi setiap Subrf & semut Sij."]}, {"en": ["In the training data, we found that 50.98% sentences labeled as \u201c should be extracted \u201d belongs to the first 5 sentences, which may cause the trained model tends to select more leading sentences.", "In the training data, we found that 50 . 98% sentences labeled as \u201c should be extracted \u201d belongs to the first 5 sentences, which may cause."], "ms": ["Dalam data latihan, kami mendapati bahawa 50.98% ayat yang dilabel sebagai \"harus diekstrak\" tergolong dalam 5 ayat pertama, yang boleh menyebabkan model terlatih cenderung memilih lebih banyak ayat utama.", "Dalam data latihan, kami mendapati bahawa 50.98% ayat yang dilabel sebagai \"seharus diekstrak\" tergolong dalam 5 ayat pertama, yang mungkin menyebabkan."]}, {"en": ["Our Parser performs a weighted deductive Parsing, based on this deduction system.", "The Parser performs a weighted deductive Parsing, based on this deduction system."], "ms": ["Penghurai kami melakukan penghuraian deduktif berwajaran, berdasarkan sistem pemotongan ini.", "Parser melakukan penguraian deduktif berwajaran, berdasarkan sistem pemotongan ini."]}, {"en": ["Chiang et al added thousands of Linguistically-Motivated features to Hierarchical and syntax systems, however, the source syntax features are derived from the research above.", "Chiang et al used features indicating problematic use of syntax to improve performance within Hierarchical and Syntax-Based translation."], "ms": ["Chiang et al menambah beribu-ribu ciri-ciri Linguistik-Motivasi kepada sistem Hierarki dan sintaks, bagaimanapun, ciri-ciri sintaks sumber berasal dari penyelidikan di atas.", "Chiang et al menggunakan ciri-ciri yang menunjukkan penggunaan sintaks yang bermasalah untuk meningkatkan prestasi dalam terjemahan Hierarki dan Berasaskan Sintaks."]}, {"en": ["In this paper, we apply this new method to text Chunking.", "In this paper, we compare Regularized winnow and winnow Algorithms on text Chunking."], "ms": ["Dalam kertas ini, kami menggunakan kaedah baru ini untuk Chunking teks.", "Dalam kertas ini, kita membandingkan Algoritma winnow dan winnow yang biasa pada Chunking teks."]}, {"en": ["In this Subtask, LIN et al and Rutherford and Xue explored rich features such as Word-Pairs, dependency rules, production rules and Brown cluster pairs.", "Lin et Alanalyzed the impacts of features extracted from Contextual information, constituent Parse trees, dependency Parse trees, and word pairs."], "ms": ["Dalam Subtugas ini, LIN et al dan Rutherford dan Xue meneroka ciri-ciri kaya seperti Word-Pairs, peraturan kebergantungan, peraturan pengeluaran dan pasangan kluster Brown.", "Lin et Alanalyzed kesan ciri-ciri yang diekstrak daripada maklumat Kontekstual, pokok Parse konstituen, pokok Parse dependensi, dan pasangan perkataan."]}, {"en": ["The topic of large-scale distributed language models is relatively new, and existing work is restricted to N-Grams only.", "The topic of large scale distributed language models is relatively new, and existing works are restricted to N-Grams only."], "ms": ["Topik model bahasa diedarkan berskala besar agak baru, dan kerja sedia ada terhad kepada N-Gram sahaja.", "Topik model bahasa diedarkan berskala besar agak baru, dan karya sedia ada terhad kepada N-Gram sahaja."]}, {"en": ["The Stanford Parser was used to produce constituent structure trees.", "The Stanford Parser is used to extract the Pos information."], "ms": ["Stanford Parser digunakan untuk menghasilkan pokok struktur konstituen.", "Stanford Parser digunakan untuk mengekstrak maklumat Pos."]}, {"en": ["To address the above-mentioned issues, we present Wikikreator \u00a8C a system that can automatically generate content for Wikipedia stubs.", "In this work, we present Wikikreator, a system that is capable of generating content automatically."], "ms": ["Untuk menangani isu-isu yang disebutkan di atas, kami membentangkan Wikikreator C sistem yang secara automatik boleh menjana kandungan untuk stub Wikipedia.", "Dalam kerja ini, kami membentangkan Wikikreator, sistem yang mampu menjana kandungan secara automatik."]}, {"en": ["The Smt systems were trained using the Moses Toolkit and the experiment management system.", "All Smt models were developed using the Moses Phrase-Based mt Toolkit and the experiment management system."], "ms": ["Sistem Smt dilatih menggunakan Musa Toolkit dan sistem pengurusan eksperimen.", "Semua model Smt dibangunkan menggunakan Musa Phrase-Based mt Toolkit dan sistem pengurusan eksperimen."]}, {"en": ["This paper explores Document-Level Smt from the tense perspective.", "In this paper, we propose N-Gram-Based tense."], "ms": ["Kertas ini meneroka Smt Tahap Dokumen dari perspektif tegang.", "Dalam kertas ini, kami mencadangkan tense berasaskan N-Gram."]}, {"en": ["The IBM translation models (Cite-P-14-3-1) have been tremendously important in statistical machine translation (Smt).", "Ibm translation models have been hugely influential in statistical machine translation."], "ms": ["Model terjemahan IBM (Cite-P-14-3-1) sangat penting dalam terjemahan mesin statistik (Smt).", "Model terjemahan Ibm telah sangat berpengaruh dalam terjemahan mesin statistik."]}, {"en": ["We used the kernel version of the Large-Margin ranking approach from which solves the optimization problem in figure 2.", "We use the kernel version of the Large-Margin ranking approach from which solves the optimization problem in Figure 3 below."], "ms": ["Kami menggunakan versi kernel pendekatan ranking Large-Margin dari mana menyelesaikan masalah pengoptimuman dalam angka 2.", "Kami menggunakan versi kernel pendekatan ranking Large-Margin yang menyelesaikan masalah pengoptimuman dalam Rajah 3 di bawah."]}, {"en": ["Neural networks have achieved promising results for sentiment classification.", "Neural network methods have achieved promising results for sentiment classification."], "ms": ["Rangkaian saraf telah mencapai keputusan yang menjanjikan untuk pengelasan sentimen.", "Kaedah rangkaian saraf telah mencapai keputusan yang menjanjikan untuk pengelasan sentimen."]}, {"en": ["Evodag 4 is a genetic programming system specifically tailored to tackle classification and regression problems on very high dimensional vector spaces and large Datasets.", "Evodag 3 is a genetic programming system specifically tailored to tackle classification and regression problems on very high dimensional vector spaces and large Datasets."], "ms": ["Evodag 4 adalah sistem pengaturcaraan genetik yang khusus disesuaikan untuk menangani masalah pengelasan dan regresi pada ruang vektor dimensi tinggi dan Dataset besar.", "Evodag 3 adalah sistem pengaturcaraan genetik yang khusus disesuaikan untuk menangani masalah pengelasan dan regresi pada ruang vektor dimensi tinggi dan Dataset besar."]}, {"en": ["Chapman et al created a simple regular expression algorithm called Negex that can detect phrases indicating negation and identify medical terms falling within the negative scope.", "As a representative, Chapman et al developed a simple regular Expression-Based algorithm to detect negation signals and identify medical terms which fall within the negation scope."], "ms": ["Chapman et al mencipta algoritma ungkapan biasa yang mudah dipanggil Negex yang boleh mengesan frasa yang menunjukkan negatif dan mengenal pasti istilah perubatan yang jatuh dalam skop negatif.", "Sebagai wakil, Chapman et al membangunkan algoritma berasaskan ekspresi biasa yang mudah untuk mengesan isyarat negatif dan mengenal pasti istilah perubatan yang berada dalam skop negatif."]}, {"en": ["Ample Re-Search in cognitive science suggests that human meaning representations are not merely a product of our linguistic exposure, but are also grounded in our perceptual system and Sensori-Motor experience.", "Research in cognitive science suggests that human meaning representations are grounded in our perceptual system and Sensori-Motor experience."], "ms": ["Analisis Semula yang cukup dalam sains kognitif menunjukkan bahawa perwakilan makna manusia bukan sekadar produk pendedahan linguistik kita, tetapi juga didasarkan pada sistem persepsi kita dan pengalaman Sensori-Motor.", "Penyelidikan dalam sains kognitif menunjukkan bahawa perwakilan makna manusia didasarkan pada sistem persepsi dan pengalaman Sensori-Motor kami."]}, {"en": ["These features are present in many spoken dialogue systems and do not require additional computation, which makes this a very cheap method to detect problems.", "Since they employ features that are present in the majority of spoken dialogue systems and can be obtained with little or no computational overhead."], "ms": ["Ciri-ciri ini terdapat dalam banyak sistem dialog lisan dan tidak memerlukan pengiraan tambahan, yang menjadikan ini kaedah yang sangat murah untuk mengesan masalah.", "Oleh kerana mereka menggunakan ciri-ciri yang terdapat dalam majoriti sistem dialog lisan dan boleh didapati dengan sedikit atau tiada overhead pengiraan."]}, {"en": ["Therefore, we treat candidate extraction as a latent variable and train these two stages jointly with reinforcement learning (Rl).", "We regard candidate extraction as a latent variable and train the Two-Stage process jointly with reinforcement learning."], "ms": ["Oleh itu, kami menganggap pengekstrakan calon sebagai pemboleh ubah laten dan melatih kedua-dua peringkat ini bersama-sama dengan pembelajaran pengukuhan (Rl).", "Kami menganggap pengekstrakan calon sebagai pemboleh ubah laten dan melatih proses Dua Peringkat bersama dengan pembelajaran pengukuhan."]}, {"en": ["Property norms have the potential to aid a wide range of semantic tasks, provided that they can be obtained for large numbers of concepts.", "Property norms are a valuable source of semantic information, and can potentially be applied to a variety of Nlp tasks, but are expensive to obtain."], "ms": ["Norma harta mempunyai potensi untuk membantu pelbagai tugas semantik, dengan syarat mereka boleh diperolehi untuk sebilangan besar konsep.", "Norma harta adalah sumber maklumat semantik yang berharga, dan berpotensi digunakan untuk pelbagai tugas Nlp, tetapi mahal untuk diperoleh."]}, {"en": ["We use the performance measure optimization framework proposed by Joachims for optimizing these Metrics.", "We directly optimize f \u5c3e using the support vector method for optimizing performance measures proposed by Joachims."], "ms": ["Kami menggunakan rangka kerja pengoptimuman ukuran prestasi yang dicadangkan oleh Joachims untuk mengoptimumkan Metrik ini.", "Kami secara langsung mengoptimumkan f menggunakan kaedah vektor sokongan untuk mengoptimumkan langkah-langkah prestasi yang dicadangkan oleh Joachims."]}, {"en": ["The feature weights for all approaches were tuned by using Pairwise ranking optimization on the Wmt12 benchmark.", "Feature weights are tuned using Pairwise ranking optimization on the Mt04 benchmark."], "ms": ["Berat ciri untuk semua pendekatan ditala dengan menggunakan pengoptimuman kedudukan Pairwise pada penanda aras Wmt12.", "Berat ciri ditala menggunakan pengoptimuman kedudukan Pairwise pada penanda aras Mt04."]}, {"en": ["In this work, we focus on the coherence and Readability aspects of the problem.", "In this work, we present an approach for producing readable and cohesive."], "ms": ["Dalam kerja ini, kita memberi tumpuan kepada aspek koheren dan Kebolehbacaan masalah.", "Dalam kerja ini, kami membentangkan pendekatan untuk menghasilkan boleh dibaca dan kohesif."]}, {"en": ["Recent studies show that character sequence labeling is an effective method of Chinese word Segmentation for machine learning.", "Several studies showed that using a dictionary brings improvement for Chinese word Segmentation."], "ms": ["Kajian terkini menunjukkan bahawa pelabelan urutan aksara adalah kaedah berkesan Segmentasi perkataan Cina untuk pembelajaran mesin.", "Beberapa kajian menunjukkan bahawa menggunakan kamus membawa peningkatan untuk Segmentasi perkataan Cina."]}, {"en": ["This paper describes our deep Learning-Based approach to sentiment analysis in Twitter as part of Semeval-2016 task 4.", "In this paper, we have presented our deep Learning-Based approach to Twitter sentiment analysis."], "ms": ["Kertas ini menerangkan pendekatan mendalam kami untuk analisis sentimen di Twitter sebagai sebahagian daripada tugas Semeval-2016 4.", "Dalam makalah ini, kami telah membentangkan pendekatan Berasaskan Pembelajaran mendalam kami untuk analisis sentimen Twitter."]}, {"en": ["As an area of great linguistic and cultural diversity, Asian language resources have received much less attention than their Western counterparts.", "Since Asia has great linguistic and cultural diversity, Asian language resources have received much less attention than their Western counterparts."], "ms": ["Sebagai kawasan kepelbagaian linguistik dan budaya yang hebat, sumber bahasa Asia telah mendapat perhatian yang kurang daripada rakan-rakan Barat mereka.", "Oleh kerana Asia mempunyai kepelbagaian linguistik dan budaya yang hebat, sumber bahasa Asia telah mendapat perhatian yang kurang daripada rakan-rakan Barat mereka."]}, {"en": ["In general, we could get the Optimized parameters though minimum error rate training on the development set.", "We set the feature weights by optimizing the BLEU score directly using minimum error rate training on the development set."], "ms": ["Secara umum, kita boleh mendapatkan parameter Optimized walaupun latihan kadar ralat minimum pada set pembangunan.", "Kami menetapkan berat ciri dengan mengoptimumkan skor BLEU secara langsung menggunakan latihan kadar ralat minimum pada set pembangunan."]}, {"en": ["Our architecture can also capture the multiple granular interactions by several stacked Coupled-Lstms layers.", "Compared with this paradigm, we can stack our C-Lstms to model Multiple-Granularity interactions."], "ms": ["Seni bina kami juga dapat menangkap pelbagai interaksi berbutir dengan beberapa lapisan Coupled-Lstms yang disusun.", "Berbanding dengan paradigma ini, kita boleh menyusun C-Lstms kita untuk model interaksi Pelbagai-Granulariti."]}, {"en": ["In particular, in order to be applicable as an Slu model, semantic information must be added manually, since only syntactic structures can be induced automatically in this case.", "As an Slu model, semantic information must be added manually, since only syntactic structures can be induced automatically."], "ms": ["Khususnya, untuk digunakan sebagai model Slu, maklumat semantik mesti ditambah secara manual, kerana hanya struktur sintaktik yang dapat diaruh secara automatik dalam kes ini.", "Sebagai model Slu, maklumat semantik mesti ditambah secara manual, kerana hanya struktur sintaktik yang dapat diinduksi secara automatik."]}, {"en": ["To our knowledge, our work is the first to perform both identification and resolution of Chinese Anaphoric zero pronouns using a machine learning approach.", "And our present work is the first to perform both identification and resolution of Chinese Anaphoric zero pronouns using a machine learning approach."], "ms": ["Untuk pengetahuan kami, kerja kami adalah yang pertama untuk melaksanakan kedua-dua pengenalan dan resolusi kata ganti sifar Anaphoric Cina menggunakan pendekatan pembelajaran mesin.", "Dan kerja kami sekarang adalah yang pertama untuk melaksanakan kedua-dua pengenalan dan resolusi kata ganti sifar Anaphoric Cina menggunakan pendekatan pembelajaran mesin."]}, {"en": ["Bollen et al explored the notion that public mood can be correlated to and even predictive of economic indicators.", "Bollen et al have focused on modeling public mood on a variety of axes to correlate with socio-economic factors and to predict the Dow Jones Industrial average."], "ms": ["Bollen et al meneroka tanggapan bahawa mood awam boleh dikaitkan dengan dan bahkan meramalkan penunjuk ekonomi.", "Bollen et al telah memberi tumpuan kepada pemodelan mood awam pada pelbagai paksi untuk dikaitkan dengan faktor sosio-ekonomi dan untuk meramalkan purata Dow Jones Industrial."]}, {"en": ["Word2Vec has become a standard method that builds dense vector representations, which are the weights of a neural network layer predicting neighboring words.", "Word2Vec has been proposed for building word representations in vector space, which consists of two models, including continuous bag of word and Skipgram."], "ms": ["Word2Vec telah menjadi kaedah standard yang membina perwakilan vektor padat, yang merupakan berat lapisan rangkaian saraf yang meramalkan kata-kata jiran.", "Word2Vec telah dicadangkan untuk membina perwakilan perkataan dalam ruang vektor, yang terdiri daripada dua model, termasuk beg perkataan berterusan dan Skipgram."]}, {"en": ["The uniform information density hypothesis holds that speakers tend to maintain a relatively constant rate of information transfer during speech production.", "The uniform information density hypothesis suggests that speakers try to distribute information uniformly across their utterances."], "ms": ["Hipotesis ketumpatan maklumat seragam memegang bahawa penutur cenderung mengekalkan kadar pemindahan maklumat yang agak tetap semasa pengeluaran pertuturan.", "Hipotesis ketumpatan maklumat seragam mencadangkan bahawa pembesar suara cuba mengedarkan maklumat secara seragam merentasi ucapan mereka."]}, {"en": ["We use the Sockeye implementation of a transformer for all of our experiments.", "We use a transformer model for all of our experiments."], "ms": ["Kami menggunakan pelaksanaan Sockeye transformer untuk semua eksperimen kami.", "Kami menggunakan model transformer untuk semua eksperimen kami."]}, {"en": ["Centering and other discourse theories argue that topical entities are likely to appear in prominent syntactic positions such as subject or object.", "Centering theory argues that these syntactic positions have low Salience in comparison with subject and object position."], "ms": ["Teori-teori pusat dan wacana lain berpendapat bahawa entiti topikal mungkin muncul dalam kedudukan sintaktik yang menonjol seperti subjek atau objek.", "Teori pusat berpendapat bahawa kedudukan sintaktik ini mempunyai Salience yang rendah berbanding dengan kedudukan subjek dan objek."]}, {"en": ["We propose a Selectional preference feature for String-To-Tree statistical machine translation based on the information Theoretic measure of Resnik.", "We propose three Variants of a Selectional preference feature for String-To-Tree statistical machine translation based on the Selectional Association measure of Resnik."], "ms": ["Kami mencadangkan ciri pilihan Pemilihan untuk terjemahan mesin statistik String-To-Tree berdasarkan ukuran Teori maklumat Resnik.", "Kami mencadangkan tiga Varian ciri pilihan Pemilihan untuk terjemahan mesin statistik String-To-Tree berdasarkan ukuran Persatuan Pemilihan Resnik."]}, {"en": ["Then, we will compare the translation results when restricting the search to either of these constraints.", "Second, we restrict the search to each of these constraints and compare the resulting translation."], "ms": ["Kemudian, kita akan membandingkan hasil terjemahan apabila menyekat carian kepada salah satu daripada kekangan ini.", "Kedua, kami menyekat carian kepada setiap kekangan ini dan membandingkan terjemahan yang dihasilkan."]}, {"en": ["We used the labeled Bracketing metric Parseval.", "We use the f 1 measure according to the Parseval metric."], "ms": ["Kami menggunakan Parseval metrik Bracketing berlabel.", "Kami menggunakan ukuran f 1 mengikut metrik Parseval."]}, {"en": ["In this paper, we introduce the Multi-Column Convolutional neural networks (Mccnns) to automatically analyze questions from multiple aspects.", "In this paper, we introduce Multi-Column Convolutional neural networks (Mccnns) to understand questions from three different aspects (namely, answer path, answer context, and answer type."], "ms": ["Dalam makalah ini, kami memperkenalkan rangkaian saraf Multi-Column Convolutional (Mccnns) untuk menganalisis soalan secara automatik dari pelbagai aspek.", "Dalam makalah ini, kami memperkenalkan rangkaian saraf Multi-Column Convolutional (Mccnns) untuk memahami soalan dari tiga aspek yang berbeza (iaitu, laluan jawapan, konteks jawapan, dan jenis jawapan."]}, {"en": ["A major aspect of the Bild project is that a specific Parametrization of the deduction process is represented in the lexicon as well as in the grammar to obtain efficient structures of control.", "Aspects of control structure a major aspect of the Bild project is that specific Parametrization of the deduction process is represented in the lexicon as well as in the grammar to obtain efficient structures of control."], "ms": ["Aspek utama projek Bild adalah bahawa Parametrisasi tertentu proses pemotongan diwakili dalam leksikon dan juga dalam tatabahasa untuk mendapatkan struktur kawalan yang cekap.", "Aspek struktur kawalan aspek utama projek Bild adalah bahawa Parametrisasi khusus proses pemotongan diwakili dalam leksikon serta tatabahasa untuk mendapatkan struktur kawalan yang cekap."]}, {"en": ["Framenet is a manually constructed Database based on frame Semantics.", "Framenet is a three-year Nsf-Supported project in Corpus-Based computational Lexicography, now in its second year (Nsf Iri-9618838, tools for lexicon building)."], "ms": ["Framenet adalah Pangkalan Data yang dibina secara manual berdasarkan Semantik bingkai.", "Framenet adalah projek Nsf-Supported tiga tahun dalam Lexicography komputasi berasaskan Corpus, kini dalam tahun kedua (Nsf Iri-9618838, alat untuk bangunan leksikon)."]}, {"en": ["We present a novel Beam-Search Decoder for grammatical error correction.", "In this work, we present a novel Beam-Search Decoder for grammatical error correction."], "ms": ["Kami membentangkan novel Beam-Search Decoder untuk pembetulan ralat tatabahasa.", "Dalam karya ini, kami membentangkan novel Beam-Search Decoder untuk pembetulan ralat tatabahasa."]}, {"en": ["In this paper, we address a major challenge in paraphrase research \u2014 the lack of parallel Corpora.", "In this paper, we present a new method to collect large-scale Sentential paraphrases from Twitter."], "ms": ["Dalam makalah ini, kami menangani cabaran utama dalam penyelidikan parafrasa - kekurangan Corpora selari.", "Dalam makalah ini, kami membentangkan kaedah baru untuk mengumpulkan parafrasa Sentential berskala besar dari Twitter."]}, {"en": ["Experiments show that knowledge about Multiword expressions leads to an increase of between 7.5% and 9.5% in accuracy of shallow Parsing in sentences containing these Multiword expressions.", "Multiwords expressions leads to an increase of between 7 . 5% and 9 . 5% in accuracy of shallow Parsing of sentences that contain these Multiword expressions."], "ms": ["Eksperimen menunjukkan bahawa pengetahuan tentang ungkapan Multiword membawa kepada peningkatan antara 7.5% dan 9.5% dalam ketepatan Parsing cetek dalam ayat yang mengandungi ungkapan Multiword ini.", "Ungkapan Multiwords membawa kepada peningkatan antara 7.5% dan 9.5% dalam ketepatan Parsing cetek ayat yang mengandungi ungkapan Multiword ini."]}, {"en": ["Our system gave the highest scores reported for the Nlg 2011 shared task on deep input Linearization (Cite-P-25-1-3).", "Shared task, Cite-P-25-1-5 achieved the best reported results on Linearizing deep input representation."], "ms": ["Sistem kami memberikan skor tertinggi yang dilaporkan untuk tugas bersama Nlg 2011 pada input mendalam Linearization (Cite-P-25-1-3).", "Tugas yang dikongsi, Cite-P-25-1-5 mencapai hasil yang paling baik dilaporkan pada perwakilan input yang mendalam Linearizing."]}, {"en": ["In order to avoid Over-Fitting, dropout Regularization was also used.", "Furthermore, L2 Regularization and dropout are adopted to avoid Overfitting."], "ms": ["Untuk mengelakkan Over-Fitting, Regularization dropout juga digunakan.", "Tambahan pula, L2 Regularization dan putus sekolah diterima pakai untuk mengelakkan Overfitting."]}, {"en": ["Chart Parsing is a method of building a Parse tree that systematically explores combinations based on a set of grammatical rules, while using a chart to store partial results.", "Chart Parsing is a commonly used algorithm for Parsing natural language texts."], "ms": ["Carta Parsing adalah kaedah membina pokok Parse yang secara sistematik meneroka kombinasi berdasarkan satu set peraturan tatabahasa, sambil menggunakan carta untuk menyimpan hasil separa.", "Parsing Carta ialah algoritma yang biasa digunakan untuk menghuraikan teks bahasa semula jadi."]}, {"en": ["We observe noticeable improvements over the Baselines on machine translation and summarization tasks by using pointer Softmax.", "Using our proposed model, we observe improvements on two tasks, neural machine translation on the Europarl English to French parallel Corpora and text summarization."], "ms": ["Kami melihat peningkatan ketara ke atas Baselines pada tugas terjemahan mesin dan ringkasan dengan menggunakan penunjuk Softmax.", "Menggunakan model yang dicadangkan kami, kami memerhatikan penambahbaikan pada dua tugas, terjemahan mesin saraf pada bahasa Inggeris Europarl ke Corpora selari Perancis dan ringkasan teks."]}, {"en": ["The task of semantic textual similarity is aimed at measuring the degree of semantic equivalence between a pair of texts.", "The task of semantic textual similarity measures the degree of semantic equivalence between two sentences."], "ms": ["Tugas kesamaan teks semantik bertujuan mengukur tahap kesetaraan semantik antara sepasang teks.", "Tugas persamaan teks semantik mengukur tahap kesetaraan semantik antara dua ayat."]}, {"en": ["Hence, little is known on their true ability to reveal the underlying morphological structure of a word and their semantic capabilities.", "However, little is known on their ability to reveal the underlying morphological structure of a word, which is a crucial skill for high-level semantic."], "ms": ["Oleh itu, sedikit yang diketahui mengenai keupayaan sebenar mereka untuk mendedahkan struktur morfologi asas perkataan dan keupayaan semantik mereka.", "Walau bagaimanapun, sedikit yang diketahui mengenai keupayaan mereka untuk mendedahkan struktur morfologi asas perkataan, yang merupakan kemahiran penting untuk semantik peringkat tinggi."]}, {"en": ["For Why-Questions, we also expect to gain improvement from the addition of structural information.", "That for the relatively complex problem of Why-Qa, a significant improvement can be gained by the addition of structural information."], "ms": ["Untuk Kenapa-Questions, kami juga menjangkakan untuk mendapat peningkatan daripada penambahan maklumat struktur.", "Bahawa untuk masalah yang agak kompleks Why-Qa, peningkatan yang ketara boleh diperolehi dengan penambahan maklumat struktur."]}, {"en": ["We compare the Feature-Based logistic regression Classifier to different Convolutional neural network architectures.", "We compare different approaches including a logistic regression Classifier using similarity features."], "ms": ["Kami membandingkan Klasifikasi regresi logistik Berasaskan Ciri dengan seni bina rangkaian neural Konvolutional yang berbeza.", "Kami membandingkan pendekatan yang berbeza termasuk Klasifikasi regresi logistik menggunakan ciri-ciri persamaan."]}, {"en": ["Unsupervised Pos tagging is a classic problem in Unsupervised learning that has been tackled with various approaches.", "Tagging without supervision is a Quintessential problem in Unsupervised learning."], "ms": ["Unsupervised Pos tag adalah masalah klasik dalam pembelajaran Unsupervised yang telah ditangani dengan pelbagai pendekatan.", "Tagging tanpa pengawasan adalah masalah Quintessential dalam pembelajaran yang tidak diawasi."]}, {"en": ["We participated in the Semeval-2007 Coarse-Grained English All-Words task and fine-grained English All-Words task.", "Which participated in the Coarse-Grained English All-Words task and fine-grained English All-Words task of Semeval-2007."], "ms": ["Kami mengambil bahagian dalam tugas Semeval-2007 Coarse-Grained English All-Words dan tugas All-Words English yang halus.", "Yang mengambil bahagian dalam tugas All-Words Bahasa Inggeris kasar dan tugas All-Words Bahasa Inggeris halus Semeval-2007."]}, {"en": ["In this paper, we propose a method to reduce the number of wrong labels.", "In this paper, we propose a method to reduce the number of wrong labels generated by Ds."], "ms": ["Dalam kertas ini, kami mencadangkan kaedah untuk mengurangkan bilangan label yang salah.", "Dalam kertas ini, kami mencadangkan kaedah untuk mengurangkan bilangan label yang salah yang dihasilkan oleh Ds."]}, {"en": ["Such architectures have later been extended to jointly model intent detection and slot filling in multiple domains.", "Such an architecture has been further extended to jointly model intent detection and slot filling in multiple domains."], "ms": ["Seni bina sedemikian kemudiannya diperluaskan untuk model pengesanan niat bersama dan pengisian slot dalam pelbagai domain.", "Seni bina sedemikian telah diperluaskan lagi untuk model pengesanan niat bersama dan pengisian slot dalam pelbagai domain."]}, {"en": ["Secondly, we propose a Log-Linear model for computing the paraphrase likelihood.", "We propose a Log-Linear model to compute the paraphrase likelihood of two patterns."], "ms": ["Kedua, kami mencadangkan model Log-Linear untuk mengira kemungkinan parafrasa.", "Kami mencadangkan model Log-Linear untuk mengira kemungkinan parafrasa dua corak."]}, {"en": ["In this paper, we have presented a simple but effective Semi-Supervised approach to learning the Meta features from the Auto-Parsed data for dependency Parsing.", "In this paper, we propose a novel Semi-Supervised approach to addressing the problem by transforming the base features into high-level features (I . E . Meta features)."], "ms": ["Dalam makalah ini, kami telah membentangkan pendekatan Semi-Supervised yang mudah tetapi berkesan untuk mempelajari ciri Meta dari data Auto-Parsed untuk Penghuraian dependensi.", "Dalam makalah ini, kami mencadangkan pendekatan Semi-Supervised novel untuk menangani masalah dengan mengubah ciri asas menjadi ciri tahap tinggi (I. E. Ciri Meta)."]}, {"en": ["Coreference resolution systems are typically trained with Heuristic loss functions that require careful tuning.", "Coreference resolution systems typically operate by making sequences of local decisions."], "ms": ["Sistem resolusi sfera biasanya dilatih dengan fungsi kehilangan Heuristik yang memerlukan penalaan yang teliti.", "Sistem resolusi teras biasanya beroperasi dengan membuat urutan keputusan tempatan."]}, {"en": ["Type theory with records is an extension of Standard type theory shown to be useful in Semantics and dialogue Modelling.", "Type theory with records is an extension of Standard type theory shown useful in Semantics and dialogue Modelling."], "ms": ["Teori jenis dengan rekod adalah lanjutan teori jenis Standard yang ditunjukkan berguna dalam Pemodelan Semantik dan dialog.", "Teori jenis dengan rekod adalah lanjutan teori jenis Standard yang ditunjukkan berguna dalam Pemodelan Semantik dan dialog."]}, {"en": ["Its underlying Seq2Seq model consists of an Lstm Encoder and an Lstm Decoder.", "The Lstm model is based on an Encoderdecoder framework."], "ms": ["Model Seq2Seq yang mendasarinya terdiri daripada Lstm Encoder dan Lstm Decoder.", "Model Lstm adalah berdasarkan kerangka Encoderdecoder."]}, {"en": ["In this work, we aim to take advantage of both the classification and the Smt approaches.", "In this paper, we propose to combine the output from a Classification-Based system and an Smt-Based system to improve the correction."], "ms": ["Dalam kerja ini, kami berhasrat untuk memanfaatkan kedua-dua klasifikasi dan pendekatan Smt.", "Dalam makalah ini, kami mencadangkan untuk menggabungkan output dari sistem Berasaskan Klasifikasi dan sistem Berasaskan Smt untuk meningkatkan pembetulan."]}, {"en": ["From a theoretical perspective, it is accepted that negation has scope and focus, and that the focus yields positive interpretations.", "From a theoretical perspective, it is accepted that negation has scope and focus, and that the Focusnot just the Scope-Yields positive interpretations."], "ms": ["Dari perspektif teori, diterima bahawa penolakan mempunyai skop dan fokus, dan fokus menghasilkan tafsiran positif.", "Dari perspektif teori, diterima bahawa penolakan mempunyai skop dan fokus, dan bahawa Fokus bukan hanya tafsiran positif Scope-Yields."]}, {"en": ["Bastings et al relied on Graph-Convolutional networks primarily developed for Modelling Graph-Structured data.", "Bastings et al used neural monkey to develop a new Convolutional architecture for Encoding the input sentences using dependency trees."], "ms": ["Bastings et al bergantung kepada rangkaian Grafik-Konvolutional yang dibangunkan terutamanya untuk data Model Grafik-Structured.", "Bastings et al menggunakan monyet neural untuk membangunkan seni bina Konvolutional baru untuk Mengencoding ayat input menggunakan pokok dependensi."]}, {"en": ["Johnson and Charniak proposed a Tag-Based noisy channel model, which showed great improvement over a Boosting-Based Classifier.", "Johnson and Charniak proposed a Tagbased noisy channel model which showed great improvement over boosting based Classifier."], "ms": ["Johnson dan Charniak mencadangkan model saluran bising berasaskan Tag, yang menunjukkan peningkatan yang besar berbanding Boosting-Based Classifier.", "Johnson dan Charniak mencadangkan model saluran bising berasaskan Tag yang menunjukkan peningkatan yang besar berbanding meningkatkan Classifier berasaskan."]}, {"en": ["Quality estimation is the process of predicting the quality of a machine translation system without human intervention or reference translations.", "Quality estimation of machine translation is an area that focuses on predicting the quality of new, unseen machine translation data without relying on human references."], "ms": ["Penganggaran kualiti adalah proses meramalkan kualiti sistem terjemahan mesin tanpa campur tangan manusia atau terjemahan rujukan.", "Penganggaran kualiti terjemahan mesin adalah kawasan yang memberi tumpuan kepada meramalkan kualiti data terjemahan mesin baru yang tidak dapat dilihat tanpa bergantung kepada rujukan manusia."]}, {"en": ["Cite-P-18-1-7 argue that the key to success lies in Hyperparameter tuning rather than in the Model\u00a1\u00afS architecture.", "Cite-P-18-1-7 further suggest that the performance advantage of neural network based models is largely due to Hyperparameter optimization."], "ms": ["Cite-P-18-1-7 berpendapat bahawa kunci kejayaan terletak pada penalaan Hyperparameter dan bukannya dalam seni bina ModelS.", "Cite-P-18-1-7 selanjutnya mencadangkan bahawa kelebihan prestasi model berasaskan rangkaian saraf sebahagian besarnya disebabkan oleh pengoptimuman Hyperparameter."]}, {"en": ["Mann Encoded specific inference rules to improve extraction of information about Ceos.", "Mann Encoded specific inference rules to improve extraction of Ceo in the Muc management succession task."], "ms": ["Mann Mengenkod peraturan kesimpulan khusus untuk meningkatkan pengekstrakan maklumat mengenai Ceos.", "Mann Mengenkod peraturan kesimpulan khusus untuk meningkatkan pengekstrakan Ceo dalam tugas penggantian pengurusan Muc."]}, {"en": ["Incorporation (Cgi), based on the technique developed", "Incorporation, based on the technique developed at Cmu."], "ms": ["Penggabungan (Cgi), berdasarkan teknik yang dibangunkan", "Penggabungan, berdasarkan teknik yang dibangunkan di Cmu."]}, {"en": ["In this paper, we describe a new Multimodal Dataset that consists of gaze measurements and spoken descriptions collected in parallel during an image inspection task.", "In this paper, we present the spoken narratives and gaze Dataset (snag), which contains gaze information and spoken narratives Co-Captured from observers."], "ms": ["Dalam kertas ini, kami menerangkan Dataset Multimodal baru yang terdiri daripada pengukuran pandangan dan penerangan lisan yang dikumpulkan selari semasa tugas pemeriksaan imej.", "Dalam makalah ini, kami menyajikan narasi yang dituturkan dan gaze Dataset (snag), yang berisi informasi gaze dan narasi yang dituturkan Co-Captured dari para pengamat."]}, {"en": ["In this paper, we describe a Sequenceto-Sequence model for AMR Parsing and present different ways to tackle the data Sparsity problem.", "In this paper, we have proposed several methods to make the Sequenceto-Sequence model work competitively against conventional AMR Parsing."], "ms": ["Dalam makalah ini, kami menerangkan model Sequenceto-Sequence untuk AMR Parsing dan membentangkan cara yang berbeza untuk mengatasi masalah Sparsity data.", "Dalam makalah ini, kami telah mencadangkan beberapa kaedah untuk menjadikan model Sequenceto-Sequence berfungsi secara kompetitif terhadap AMR Parsing konvensional."]}, {"en": ["In this paper, we aim to incorporate word Sememes into word representation learning (Wrl) and learn improved word Embeddings in a Low-Dimensional semantic space.", "In this paper, we present that, word Sememe information can improve word representation learning (Wrl), which maps words into a Low-Dimensional semantic space."], "ms": ["Dalam makalah ini, kami bertujuan untuk memasukkan perkataan Sememes ke dalam pembelajaran perwakilan perkataan (Wrl) dan mempelajari Embedding kata yang lebih baik dalam ruang semantik Rendah Dimensi.", "Dalam makalah ini, kami menyampaikan bahawa, maklumat Sememe perkataan dapat meningkatkan pembelajaran perwakilan kata (Wrl), yang memetakan kata-kata ke ruang semantik Rendah Dimensi."]}, {"en": ["Among them, the machine Learning-Based techniques showed excellent performance in many recent research studies.", "Among them, the machine Learning-Based techniques showed excellent performance in many research studies."], "ms": ["Antaranya, teknik berasaskan pembelajaran mesin menunjukkan prestasi yang sangat baik dalam banyak kajian penyelidikan baru-baru ini.", "Antaranya, teknik berasaskan pembelajaran mesin menunjukkan prestasi yang sangat baik dalam banyak kajian penyelidikan."]}, {"en": ["The experimental results demonstrate promising and reasonable performance of our approach.", "Empirical analysis on a Human-Labeled data set demonstrates the promising results of our proposed approach."], "ms": ["Hasil eksperimen menunjukkan prestasi pendekatan kami yang menjanjikan dan munasabah.", "Analisis empirikal pada set data Human-Labeled menunjukkan hasil yang menjanjikan pendekatan kami yang dicadangkan."]}, {"en": ["Brown clustering is a commonly used Unsupervised method for grouping words into a hierarchy of clusters.", "Brown clustering is an Agglomerative algorithm that induces a Hierarchical clustering of words."], "ms": ["Brown clustering adalah kaedah Unsupervised yang biasa digunakan untuk mengelompokkan perkataan ke dalam hierarki kluster.", "Brown clustering adalah algoritma Agglomerative yang mendorong gugusan perkataan Hierarki."]}, {"en": ["In this paper, we propose a new hybrid kernel for re.", "In this paper, we have proposed a new hybrid kernel for re."], "ms": ["Dalam kertas ini, kami mencadangkan kernel hibrid baru untuk re.", "Dalam kertas ini, kami telah mencadangkan kernel hibrid baru untuk re."]}, {"en": ["Chu et al have demonstrated that many standard machine learning Algorithms can be phrased as Mapreduce tasks, thus illuminating the versatility of this framework.", "Chu et al presented the Mapreduce framework for a wide range of machine learning Algorithms, including the em algorithm."], "ms": ["Chu et al telah menunjukkan bahawa banyak Algoritma pembelajaran mesin standard boleh difrasa sebagai tugas Mapreduce, dengan itu menerangi fleksibiliti rangka kerja ini.", "Chu et al membentangkan rangka kerja Mapreduce untuk pelbagai Algoritma pembelajaran mesin, termasuk algoritma em."]}, {"en": ["Finally, such representations are Fed into a Classifier to detect the review Spam.", "Based on such representations, the Classifier could identify the opinion Spam."], "ms": ["Akhirnya, perwakilan tersebut adalah Fed ke dalam Classifier untuk mengesan Spam ulasan.", "Berdasarkan perwakilan tersebut, Klasifier boleh mengenal pasti pendapat Spam."]}, {"en": ["In this paper, we described a text Chunking system using Regularized winnow.", "In this paper, we compare Regularized winnow and winnow Algorithms on text Chunking."], "ms": ["Dalam kertas ini, kami menerangkan sistem Chunking teks menggunakan winnow Regularized.", "Dalam kertas ini, kita membandingkan Algoritma winnow dan winnow yang biasa pada Chunking teks."]}, {"en": ["For String-To-Tree translation, we Parse the German target side with Bitpar.", "We Parse all German and English articles with Bitpar to extract Verb-Argument relations."], "ms": ["Untuk terjemahan String-To-Tree, kami Menghuraikan sisi sasaran Jerman dengan Bitpar.", "Kami Menghuraikan semua artikel Jerman dan Inggeris dengan Bitpar untuk mengekstrak hubungan Verb-Argument."]}, {"en": ["We consider the problem of Parsing Non-Recursive Context-Free Grammars, I.E ., Context-Free Grammars that generate finite languages.", "We will consider Parsing Grammars in Chomsky normal form (Cnf), I . E ., Grammars with rules of the form."], "ms": ["Kami mempertimbangkan masalah Parsing Grammar Bebas Konteks Bukan Rekursif, I.E., Grammar Bebas Konteks yang menghasilkan bahasa terhingga.", "Kami akan mempertimbangkan Parsing Grammars dalam bentuk normal Chomsky (Cnf), I. E., Grammars dengan peraturan bentuk."]}, {"en": ["This indicated that gaze behaviour is more reliable when the reader has understood the text.", "If a reader has understood the text completely, their gaze behaviour is more reliable."], "ms": ["Ini menunjukkan bahawa tingkah laku gaze lebih dipercayai apabila pembaca telah memahami teks.", "Jika pembaca memahami teks sepenuhnya, tingkah laku pandangan mereka lebih dipercayai."]}, {"en": ["This is precisely the relative frequency estimate we seek.", "That requires relative frequency estimation."], "ms": ["Ini adalah anggaran frekuensi relatif yang kita cari.", "Ini memerlukan anggaran frekuensi relatif."]}, {"en": ["Our performance comparison shows how effective our voting strategies can be: they top the Rankings in the Semeval task, outperforming even elaborate ensemble strategies.", "Our performance comparison shows that our voting techniques outperform traditional soft voting, as well as other systems submitted to the shared task."], "ms": ["Perbandingan prestasi kami menunjukkan betapa berkesan strategi pengundian kami: mereka mendahului Kedudukan dalam tugas Semeval, mengatasi strategi ensemble yang rumit.", "Perbandingan prestasi kami menunjukkan bahawa teknik pengundian kami mengatasi pengundian lembut tradisional, serta sistem lain yang diserahkan kepada tugas bersama."]}, {"en": ["While we do report BLEU, the primary goal in our work is to achieve highest possible F1 score.", "We use BLEU scores as the performance measure in our evaluation."], "ms": ["Walaupun kami melaporkan BLEU, matlamat utama dalam kerja kami adalah untuk mencapai skor F1 yang paling tinggi.", "Kami menggunakan skor BLEU sebagai ukuran prestasi dalam penilaian kami."]}, {"en": ["In this paper, we provide a new probabilistic model for word alignment where word alignments are associated with linguistically motivated alignment types.", "In this paper, we propose a novel task which is the joint prediction of word alignment and alignment types."], "ms": ["Dalam makalah ini, kami menyediakan model probabilistik baru untuk penjajaran kata di mana penjajaran kata dikaitkan dengan jenis penjajaran bermotivasi linguistik.", "Dalam makalah ini, kami mencadangkan tugas baru yang merupakan ramalan bersama jenis penjajaran dan penjajaran perkataan."]}, {"en": ["We present a novel method for Aligning a sequence of instructions to a Video of someone carrying out a task.", "In this paper, we have presented a novel method for Aligning instructional text to videos."], "ms": ["Kami membentangkan kaedah baru untuk Menjalin urutan arahan ke Video seseorang yang menjalankan tugas.", "Dalam makalah ini, kami telah membentangkan kaedah baru untuk Menterjemahkan teks pengajaran ke video."]}, {"en": ["One method that has been quite successful in many applications is the snow architecture.", "One method that has been successfully applied to a number of linguistic problems is the winnow algorithm."], "ms": ["Salah satu kaedah yang telah berjaya dalam banyak aplikasi adalah seni bina salji.", "Salah satu kaedah yang telah berjaya digunakan untuk beberapa masalah linguistik adalah algoritma Winnow."]}, {"en": ["Idf weighting and Part-Of-Speech tagging are applied on the examined sentences to support the identification of words that are highly descriptive in each sentence.", "Weighting and Part-Of-Speech tagging are used to support the identification of words that are highly descriptive in each sentence."], "ms": ["Penandaan Idf dan Part-Of-Speech digunakan pada ayat yang diperiksa untuk menyokong pengenalan perkataan yang sangat deskriptif dalam setiap ayat.", "Penandaan berat dan Part-Of-Speech digunakan untuk menyokong pengenalpastian perkataan yang sangat deskriptif dalam setiap ayat."]}, {"en": ["For all data sets, we trained a 5-Gram language model using the Sri language modeling Toolkit.", "We built a 5-Gram language model from it with the Sri language modeling Toolkit."], "ms": ["Untuk semua set data, kami melatih model bahasa 5-Gram menggunakan Toolkit pemodelan bahasa Sri.", "Kami membina model bahasa 5-Gram dari situ dengan Toolkit pemodelan bahasa Sri."]}, {"en": ["Corston-Oliver et al treated the evaluation of mt outputs as classification problem between human translation and machine translation.", "Corston-Oliver et al use a classification method to measure machine translation system quality at the sentence level as being Human-Like translation or machine translated."], "ms": ["Corston-Oliver et al merawat penilaian output mt sebagai masalah pengelasan antara terjemahan manusia dan terjemahan mesin.", "Corston-Oliver et al menggunakan kaedah pengelasan untuk mengukur kualiti sistem terjemahan mesin pada tahap ayat sebagai terjemahan manusia-seperti atau terjemahan mesin."]}, {"en": ["We use an implementation based on blocks and Theano for evaluation.", "We use an implementation based on blocks and Theano."], "ms": ["Kami menggunakan pelaksanaan berdasarkan blok dan Theano untuk penilaian.", "Kami menggunakan pelaksanaan berdasarkan blok dan Theano."]}, {"en": ["We introduced Marian, a self-contained neural machine translation Toolkit written in C++ with focus on efficiency and research.", "We present Marian, an efficient and self-contained neural machine translation framework with an integrated automatic differentiation engine based on dynamic computation."], "ms": ["Kami memperkenalkan Marian, Toolkit terjemahan mesin saraf yang lengkap yang ditulis dalam C ++ dengan tumpuan kepada kecekapan dan penyelidikan.", "Kami membentangkan Marian, rangka kerja terjemahan mesin saraf yang cekap dan lengkap dengan enjin pembezaan automatik bersepadu berdasarkan pengiraan dinamik."]}, {"en": ["We explore the fact that many poorly Resourced languages are closely related to well equipped languages, which enables low-level techniques such as Character-Based translation.", "We investigate the use of Character-Level translation models to support the translation from and to Under-Resourced languages."], "ms": ["Kami meneroka hakikat bahawa banyak bahasa Resourced yang kurang berkaitan dengan bahasa yang dilengkapi dengan baik, yang membolehkan teknik peringkat rendah seperti terjemahan Berasaskan Karakter.", "Kami menyiasat penggunaan model terjemahan Character-Level untuk menyokong terjemahan dari dan ke bahasa Under-Resourced."]}, {"en": ["In this paper, we study how to incorporate Extrinsic cues into the network, beyond just generic word Embeddings.", "In this work, we present an approach to feed generic cues into the training process of such networks, leading to better generalization abilities."], "ms": ["Dalam makalah ini, kami mengkaji cara memasukkan isyarat Extrinsic ke dalam rangkaian, di luar hanya perkataan generik Embeddings.", "Dalam kerja ini, kami membentangkan pendekatan untuk memberi isyarat generik ke dalam proses latihan rangkaian sedemikian, yang membawa kepada kebolehan generalisasi yang lebih baik."]}, {"en": ["Best\u2013Worst Scaling (Bws) is a Less-Known, and more recently introduced, variant of comparative Annotation.", "Worst Scaling (Bws) is an alternative method of Annotation that is claimed to produce high-quality Annotations."], "ms": ["Best Worst Scaling (Bws) adalah kurang dikenali, dan baru-baru ini diperkenalkan, varian perbandingan Annotation.", "Penskalaan Terburuk (Bws) adalah kaedah alternatif Annotasi yang didakwa menghasilkan Annotasi berkualiti tinggi."]}, {"en": ["To integrate multiple TK representations into a single model we apply a Classifier stacking approach.", "To integrate multiple TK models into a single model we apply a Classifier stacking approach."], "ms": ["Untuk mengintegrasikan pelbagai perwakilan TK ke dalam model tunggal, kami menggunakan pendekatan penumpuan Pengkelasan.", "Untuk mengintegrasikan pelbagai model TK ke dalam model tunggal, kami menggunakan pendekatan penumpuan Pengkelasan."]}, {"en": ["Semantic role labeling is the task of locating and labeling the semantic arguments to Predicates.", "Semantic role labelling is the task of identifying the Predicates in a sentence, their semantic arguments and the roles these arguments take."], "ms": ["Pelabelan peranan semantik adalah tugas mencari dan melabelkan hujah semantik kepada Predicates.", "Pelabelan peranan semantik adalah tugas mengenal pasti Predicates dalam ayat, hujah semantik mereka dan peranan hujah-hujah ini diambil."]}, {"en": ["Kalchbrenner and Blunsom utilize a simple Convolution model to generate phrase Embeddings from word Embeddings.", "Kalchbrenner and Blunsom use top-level, composed distributed representations of sentences to guide generation in a machine translation setting."], "ms": ["Kalchbrenner dan Blunsom menggunakan model Convolution yang mudah untuk menghasilkan frasa Embeddings dari perkataan Embeddings.", "Kalchbrenner dan Blunsom menggunakan peringkat atas, terdiri perwakilan diedarkan ayat untuk membimbing generasi dalam tetapan terjemahan mesin."]}, {"en": ["Discussion in section 6 considers the implications of our experimental results.", "In section 6 considers the implications of our experimental results."], "ms": ["Perbincangan dalam seksyen 6 mempertimbangkan implikasi hasil eksperimen kami.", "Bahagian 6 mempertimbangkan implikasi hasil eksperimen kami."]}, {"en": ["To enable other researchers to use this new notion of S-Relevance, we have published the Annotated S-Relevance corpus used in this paper.", "To use this new notion of S-Relevance, we have published the Annotated S-Relevance corpus used in this paper."], "ms": ["Untuk membolehkan penyelidik lain menggunakan tanggapan baru S-Relevance ini, kami telah menerbitkan korpus S-Relevan Teranotasi yang digunakan dalam kertas ini.", "Untuk menggunakan tanggapan baru ini mengenai S-Relevan, kami telah menerbitkan korpus S-Relevan Teranotasi yang digunakan dalam kertas ini."]}, {"en": ["It has been tried to combine Chat-Oriented dialogue systems with Taskoriented dialogue systems.", "This strategy is taken by some of the previously built dialogue systems that integrate Task-Oriented Dialogues and Chat-Oriented dialogues."], "ms": ["Ia telah cuba menggabungkan sistem dialog Berorientasi Chat dengan sistem dialog Berorientasi Tugas.", "Strategi ini diambil oleh beberapa sistem dialog yang dibina sebelum ini yang mengintegrasikan Dialog Berorientasi Tugas dan dialog Berorientasi Chat."]}, {"en": ["We will describe and evaluate two approaches to this compilation problem.", "We will describe and evaluate two compilation approaches to approximating a typed unification grammar."], "ms": ["Kami akan menerangkan dan menilai dua pendekatan untuk masalah kompilasi ini.", "Kami akan menerangkan dan menilai dua pendekatan kompilasi untuk menghampiri tatabahasa penyatuan yang ditaip."]}, {"en": ["Word sense Disambiguation is one of the large open problems in the field of natural language processing, and in recent years has attracted considerable research interest.", "Wsd has been recognized as one of the most important subjects in natural language processing, especially in machine translation, information Retrieval, and so on."], "ms": ["Disambiguasi kata adalah salah satu masalah terbuka yang besar dalam bidang pemprosesan bahasa semula jadi, dan dalam beberapa tahun kebelakangan ini telah menarik minat penyelidikan yang besar.", "Wsd telah diiktiraf sebagai salah satu subjek yang paling penting dalam pemprosesan bahasa semula jadi, terutamanya dalam terjemahan mesin, pengambilan maklumat, dan sebagainya."]}, {"en": ["Word representations have proven useful for many Nlp tasks, E.G ., Brown clusters as features in dependency Parsing (Cite-P-15-3-5).", "Word representations derived from Unlabeled text have proven useful for many Nlp tasks, E . G ., Part-Of-Speech (Pos)."], "ms": ["Perwakilan perkataan telah terbukti berguna untuk banyak tugas Nlp, E.G., Brown clusters sebagai ciri dalam Parsing dependensi (Cite-P-15-3-5).", "Perwakilan perkataan yang berasal dari teks Unlabeled telah terbukti berguna untuk banyak tugas Nlp, E. G., Part-Of-Speech (Pos)."]}, {"en": ["Our confidence based approach can be used to improve these tasks.", "Learning with confidence can improve standard methods."], "ms": ["Pendekatan berasaskan keyakinan kami boleh digunakan untuk meningkatkan tugas-tugas ini.", "Belajar dengan keyakinan boleh meningkatkan kaedah standard."]}, {"en": ["Zheng et al first paid attention to generating comments for news articles by proposing a Gated attention neural network model to address the Contextual relevance and the diversity of comments.", "Zheng et al proposed a Gated attention neural network model to generate comments for news article, which addressed the Contextual relevance and the diversity of comments."], "ms": ["Zheng et al pertama kali memberi perhatian untuk menghasilkan komen untuk artikel berita dengan mencadangkan model rangkaian saraf perhatian yang diselaraskan untuk menangani relevansi Kontekstual dan kepelbagaian komen.", "Zheng et al mencadangkan model rangkaian saraf perhatian yang dipertingkatkan untuk menghasilkan komen untuk artikel berita, yang menangani relevansi Kontekstual dan kepelbagaian komen."]}, {"en": ["Stroppa et al added Source-Side Contextual features to a state-of-the-art Log-Linear Pb-Smt system by incorporating Contextdependent Phrasal translation probabilities learned using decision trees.", "Stroppa et al added Souce-Side context features to a Phrase-Based translation system, including conditional probabilities of the same form that we use."], "ms": ["Stroppa et al added Source-Side Contextual features to a state-of-the-art Log-Linear Pb-Smt system by incorporating Contextdependent Phrasal translation probabilities learned using decision trees.", "Stroppa et al menambah ciri konteks Souce-Side kepada sistem terjemahan Berasaskan Frasa, termasuk kebarangkalian bersyarat dengan bentuk yang sama yang kita gunakan."]}, {"en": ["A Pcfg Math-W-3-1-3-146 is reduced if Math-W-3-1-3-154 is reduced.", "For any Pcfg Math-W-7-1-0-40, there are equivalent Ppdts."], "ms": ["A Pcfg Math-W-3-1-3-146 dikurangkan jika Math-W-3-1-3-154 dikurangkan.", "Bagi mana-mana Pcfg Math-W-7-1-0-40, terdapat Ppdts yang setara."]}, {"en": ["Kalchbrenner and Blunsom introduced recurrent continuous translation models that comprise a class for purely continuous Sentence-Level translation models.", "The recurrent continuous translation models proposed by Kalchbrenner and Blunsom also adopt the recurrent language model."], "ms": ["Kalchbrenner dan Blunsom memperkenalkan model terjemahan berterusan berulang yang terdiri daripada kelas untuk model terjemahan Tahap-Kesan berterusan semata-mata.", "Model terjemahan berterusan berulang yang dicadangkan oleh Kalchbrenner dan Blunsom juga menggunakan model bahasa berulang."]}, {"en": ["So far, they have been quite successfully applied to 56 Part-Of-Speech tagging, syntactic Parsing, semantic role labeling, opinion mining, etc.", "So far, they have been quite successfully applied to Part-Of-Speech tagging, syntactic Parsing, semantic role labeling, opinion mining, etc."], "ms": ["Setakat ini, mereka telah berjaya digunakan untuk penandaan Bahagian-Of-Speech 56, Parsing sintaktik, pelabelan peranan semantik, perlombongan pendapat, dan lain-lain.", "Setakat ini, mereka telah berjaya digunakan untuk penandaan Part-Of-Speech, Parsing sintaktik, pelabelan peranan semantik, perlombongan pendapat, dan lain-lain."]}, {"en": ["We use stacked Denoising Autoencoder to build the Corpus-Based model.", "We employ the stacked Denoising Auto-Encoder to build the Corpus-Based Classifier."], "ms": ["Kami menggunakan Denoising Autoencoder yang disusun untuk membina model berasaskan Corpus.", "Kami menggunakan Denoising Auto-Encoder yang disusun untuk membina Klasifier Berasaskan Corpus."]}, {"en": ["Our approach to relation Embedding is based on a variant of the glove word Embedding model.", "We use glove word Embeddings, an Unsupervised learning algorithm for obtaining vector representations of words."], "ms": ["Pendekatan kami untuk Embedding hubungan adalah berdasarkan varian model Embedding perkataan sarung tangan.", "Kami menggunakan perkataan sarung tangan Embeddings, algoritma pembelajaran yang tidak diawasi untuk mendapatkan perwakilan vektor perkataan."]}, {"en": ["We used Crfsuite and the glove word vector.", "We used 300-Dimensional Pre-Trained glove word Embeddings."], "ms": ["Kami menggunakan Crfsuite dan perkataan sarung tangan vektor.", "Kami menggunakan perkataan sarung tangan Pra-Latihan 300 Dimensional Embeddings."]}, {"en": ["In this paper, we have shown that this extra formal power can be used in NL processing.", "In this report, we show that this increased power can be used to define the above-mentioned linguistic phenomena."], "ms": ["Dalam makalah ini, kami telah menunjukkan bahawa kuasa formal tambahan ini dapat digunakan dalam pemprosesan NL.", "Dalam laporan ini, kami menunjukkan bahawa peningkatan kuasa ini boleh digunakan untuk menentukan fenomena linguistik yang disebutkan di atas."]}, {"en": ["Deep learning models in various forms have been the standard for solving Vqa.", "Deep and Non-Deep learning approaches for solving Vqa have also been proposed."], "ms": ["Model pembelajaran mendalam dalam pelbagai bentuk telah menjadi standard untuk menyelesaikan Vqa.", "Pendekatan pembelajaran yang mendalam dan tidak mendalam untuk menyelesaikan Vqa juga telah dicadangkan."]}, {"en": ["Blei and McAuliffe proposed supervised Lda that can handle sentiments as observed labels.", "Blei and McAuliffe and Ramage et al used document labels in supervised setting."], "ms": ["Blei dan McAuliffe mencadangkan Lda yang diselia yang boleh menangani sentimen seperti label yang diperhatikan.", "Blei dan McAuliffe dan Ramage et al menggunakan label dokumen dalam tetapan yang diawasi."]}, {"en": ["We used the Hindmono corpus which contains roughly 45 million sentences to build our language model in Hindi.", "We used the Hindencorp Monolingual corpus as the Monolingual Hindi reference corpus."], "ms": ["Kami menggunakan korpus Hindmono yang mengandungi kira-kira 45 juta ayat untuk membina model bahasa kami dalam bahasa Hindi.", "Kami menggunakan korpus Monolingual Hindencorp sebagai korpus rujukan Hindi Monolingual."]}, {"en": ["The salt behind the corn flakes on the shelf above the Fridge is in this context preferable to the White powder.", "On the shelf above the Fridge is in this context preferable to the White powder."], "ms": ["Garam di belakang serpihan jagung di rak di atas Petir adalah dalam konteks ini lebih baik daripada serbuk Putih.", "Di rak di atas peti sejuk adalah dalam konteks ini lebih baik daripada serbuk Putih."]}, {"en": ["Bleu and Nist are calculated as the Geometric mean of N-Grams multiplied by a brevity penalty, comparing a machine translation and a reference text.", "Bleu is calculated as the Geometric mean of N-Grams comparing a machine translation and a reference text."], "ms": ["Bleu dan Nist dikira sebagai min Geometrik bagi N-Gram didarabkan dengan penalti singkatan, membandingkan terjemahan mesin dan teks rujukan.", "Bleu dikira sebagai min Geometrik bagi N-Gram yang membandingkan terjemahan mesin dan teks rujukan."]}, {"en": ["We tried two available re tools for extracting semantic relations from scientific publications.", "We experimented with two available relation extraction (re) tools."], "ms": ["Kami mencuba dua alat re yang tersedia untuk mengekstrak hubungan semantik dari penerbitan saintifik.", "Kami bereksperimen dengan dua alat pengekstrakan hubungan (re) yang ada."]}, {"en": ["In this paper, we discuss Inter-Dialect mt in general and Cantonese-Mandarin mt in particular.", "In this paper, we discuss Inter-Dialect mt in general and Cantonese-Mandarin mt."], "ms": ["Dalam makalah ini, kita membincangkan Inter-Dialek mt secara umum dan Kantonis-Mandarin mt khususnya.", "Dalam makalah ini, kita membincangkan Inter-Dialek mt secara umum dan Kantonis-Mandarin mt."]}, {"en": ["In order to amplify the contribution of important words in the final representation, we use a Context-Aware attention mechanism, that aggregates all the intermediate hidden States using their relative importance.", "Hence, we introduce an attention mechanism to extract the words that are important to the meaning of the post, and aggregate the representation of those informative words to form a vector."], "ms": ["Untuk menguatkan sumbangan kata-kata penting dalam perwakilan akhir, kami menggunakan mekanisme perhatian Konteks-Perhatian, yang menggabungkan semua Negeri tersembunyi perantaraan menggunakan kepentingan relatif mereka.", "Oleh itu, kami memperkenalkan mekanisme perhatian untuk mengekstrak perkataan yang penting untuk makna jawatan, dan agregat perwakilan kata-kata bermaklumat untuk membentuk vektor."]}, {"en": ["One of the important open questions in natural language generation is how the common, Rulebased approaches to generation can be combined with recent insights from statistical Nlp.", "One of the important open questions in natural language generation is how the common Rule-Based approaches to generation can be combined with recent insights from statistical natural language processing."], "ms": ["Salah satu soalan terbuka penting dalam penjanaan bahasa semula jadi adalah bagaimana pendekatan yang biasa, Rulebased untuk generasi boleh digabungkan dengan pandangan baru-baru ini dari statistik Nlp.", "Salah satu soalan terbuka penting dalam penjanaan bahasa semula jadi adalah bagaimana pendekatan berasaskan peraturan yang sama untuk generasi boleh digabungkan dengan pandangan baru-baru ini dari pemprosesan bahasa semula jadi statistik."]}, {"en": ["In this paper, we propose a deep architecture to model the strong interaction of sentence pair with two Coupled-Lstms.", "In this paper, we propose an Endto-End deep architecture to capture the strong interaction."], "ms": ["Dalam makalah ini, kami mencadangkan seni bina yang mendalam untuk memodelkan interaksi pasangan ayat yang kuat dengan dua Coupled-Lstms.", "Dalam makalah ini, kami mencadangkan seni bina mendalam Endto-End untuk menangkap interaksi yang kuat."]}, {"en": ["The experiments show that our framework is effective; it achieves higher F1-Measure than three state-of-the-art systems.", "The experiments not only show that our system achieves higher F1-Measure than other state-of-the-art systems."], "ms": ["Eksperimen menunjukkan bahawa rangka kerja kami berkesan; ia mencapai F1-Measure yang lebih tinggi daripada tiga sistem canggih.", "Eksperimen ini bukan sahaja menunjukkan bahawa sistem kami mencapai F1-Measure yang lebih tinggi daripada sistem canggih yang lain."]}, {"en": ["It has been shown that the Skip-Gram with negative sampling algorithm in Word2Vec corresponds to implicit Factorization of the PMI matrix.", "A recent study shows that the technique behind Word2Vec is very similar to implicit matrix Factorization."], "ms": ["Telah ditunjukkan bahawa Skip-Gram dengan algoritma persampelan negatif dalam Word2Vec sepadan dengan Pemfaktoran tersirat matriks PMI.", "Satu kajian baru-baru ini menunjukkan bahawa teknik di sebalik Word2Vec sangat serupa dengan Pemfaktoran matriks tersirat."]}, {"en": ["We compare our method with the Template-Based method and the Verb-Categorization method.", "We compare our system with the Rule-Based approach Aris, the purely statistical approach Kazb, and the mixed approach Uiuc system."], "ms": ["Kami membandingkan kaedah kami dengan kaedah Berasaskan Templat dan kaedah Verb-Categorization.", "Kami membandingkan sistem kami dengan pendekatan berasaskan peraturan Aris, pendekatan statistik semata-mata Kazb, dan sistem Uiuc pendekatan campuran."]}, {"en": ["The algorithm takes word vectors and uses them and the network structure to induce the sense vectors.", "In this work, we instead derive sense vectors by Embedding the graph structure of a semantic network."], "ms": ["Algoritma mengambil vektor perkataan dan menggunakannya dan struktur rangkaian untuk mendorong vektor deria.", "Dalam kerja ini, kita sebaliknya memperoleh vektor rasa dengan Mengemukakan struktur grafik rangkaian semantik."]}, {"en": ["Extensive experiments have leveraged word Embeddings to find general semantic relations.", "Word Embeddings have shown to capture synonyms and analogies."], "ms": ["Eksperimen yang luas telah memanfaatkan perkataan Embeddings untuk mencari hubungan semantik umum.", "Perkataan Embedding telah menunjukkan untuk menangkap sinonim dan analogi."]}, {"en": ["Previous work has shown that Unlabeled text can be used to induce Unsupervised word clusters that can improve performance of many supervised Nlp tasks.", "Unsupervised word Embeddings trained from large amounts of Unlabeled data have been shown to improve many Nlp tasks."], "ms": ["Kerja terdahulu telah menunjukkan bahawa teks Unlabeled boleh digunakan untuk mendorong kluster perkataan Unsupervised yang boleh meningkatkan prestasi banyak tugas Nlp yang diawasi.", "Embedding perkataan yang tidak diawasi yang dilatih dari sejumlah besar data Unlabeled telah ditunjukkan untuk meningkatkan banyak tugas Nlp."]}, {"en": ["The key component is the alignment model.", "Key component is the so-called alignment model."], "ms": ["Komponen utama ialah model penjajaran.", "Komponen utama ialah model penjajaran yang dipanggil."]}, {"en": ["Bykh and Meurers systematically explored Nonlexicalized and Lexicalized Context-Free grammar production rules.", "Bykh and Meurers presented an ensemble Classifier based on Lexicalized and Non-Lexicalized local syntactic features."], "ms": ["Bykh dan Meurers secara sistematik meneroka peraturan pengeluaran tatabahasa Nonlexicalized dan Lexicalized Context-Free.", "Bykh dan Meurers mempersembahkan ensemble Classifier berdasarkan ciri-ciri sintaktik tempatan Lexicalized dan Non-Lexicalized."]}, {"en": ["We use weight tying between target and output Embeddings.", "We use weight tying to limit the search space for parameters."], "ms": ["Kami menggunakan pengikatan berat antara sasaran dan output Embeddings.", "Kami menggunakan pengikatan berat untuk menghadkan ruang carian untuk parameter."]}, {"en": ["For all systems we compared, the language model is a 5-Gram Kenlm, which uses modified Kneser-Ney smoothing and tuning is performed to maximize the BLEU score using minimum error rate training.", "The final scoring function also incorporates a 5-Gram language model trained on a Subset of common crawl, estimated with Kneser-Ney smoothing using Kenlm."], "ms": ["Untuk semua sistem yang kami bandingkan, model bahasa adalah Kenlm 5-Gram, yang menggunakan smoothing dan penalaan Kneser-Ney yang diubahsuai dilakukan untuk memaksimumkan skor BLEU menggunakan latihan kadar ralat minimum.", "Fungsi pemarkahan akhir juga menggabungkan model bahasa 5-Gram yang dilatih pada Subset merangkak biasa, dianggarkan dengan smoothing Kneser-Ney menggunakan Kenlm."]}, {"en": ["The Vhred model (Serban et al . , 2017) integrates the Vae with the Hred to model Twitter and Ubuntu IRC conversations by introducing an utterance latent variable.", "Serban et al . (2017) further exploit an utterance latent variable in the Hierarchical Rnns by incorporating the Variational Autoencoder (Vae) framework."], "ms": ["Model Vhred (Serban et al., 2017) menggabungkan Vae dengan perbualan Hred untuk model Twitter dan Ubuntu IRC dengan memperkenalkan pemboleh ubah laten ucapan.", "Serban et al. (2017) seterusnya mengeksploitasi pembolehubah laten ucapan dalam Rnn Hierarki dengan menggabungkan rangka kerja Variational Autoencoder (Vae)."]}, {"en": ["A comparison between models demonstrates that Rnns outperform Crfs, even when they use word Embeddings as the only features.", "Target identification show that Rnns, without using any hand-crafted features, outperform Feature-Rich Crf-Based models."], "ms": ["Perbandingan antara model menunjukkan bahawa Rnns mengatasi Crfs, walaupun mereka menggunakan Embeddings perkataan sebagai satu-satunya ciri.", "Pengenalpastian sasaran menunjukkan bahawa Rnns, tanpa menggunakan sebarang ciri buatan tangan, mengatasi model berasaskan Crf Feature-Rich."]}, {"en": ["Bastings et al relied on Graph-Convolutional networks primarily developed for Modelling Graph-Structured data.", "And Bastings et al extend the use of graph Convolutional network to Nlp tasks."], "ms": ["Bastings et al bergantung kepada rangkaian Grafik-Konvolutional yang dibangunkan terutamanya untuk data Model Grafik-Structured.", "Dan Bastings et al memanjangkan penggunaan rangkaian Konvolutional graf ke tugas Nlp."]}, {"en": ["Yasuda et al and foster et al ranked the sentence pairs in the General-Domain corpus according to the perplexity scores of sentences, which are computed with respect to In-Domain language models.", "Foster et al used phrase pairs instead of sentences and learned weights for them using In-Domain features based on word frequencies and Perplexities."], "ms": ["Yasuda et al dan foster et al meletakkan pasangan ayat dalam korpus General-Domain mengikut skor kebingungan ayat, yang dikira berkenaan dengan model bahasa In-Domain.", "Foster et al menggunakan pasangan frasa dan bukannya ayat dan mempelajari berat untuk mereka menggunakan ciri-ciri In-Domain berdasarkan frekuensi perkataan dan Kerumitan."]}, {"en": ["For image features, we use the Precomputed features provided by Faghri et al, which are extracted from the Fc7 layer of Vgg-19.", "For the image labels, we use the representation of the last layer of the Vgg neural network."], "ms": ["Untuk ciri imej, kami menggunakan ciri Precomputed yang disediakan oleh Faghri et al, yang diekstrak dari lapisan Fc7 Vgg-19.", "Untuk label imej, kami menggunakan perwakilan lapisan terakhir rangkaian saraf Vgg."]}, {"en": ["It has been shown in previous work on relation extraction that the shortest dependency path between any two entities captures the information required to assert a relationship between them.", "It has been shown in previous work on relation extraction that the shortest path between any two entities captures the the information required to assert a relationship between them."], "ms": ["Telah ditunjukkan dalam kerja sebelumnya mengenai pengekstrakan hubungan bahawa jalan kebergantungan terpendek antara dua entiti menangkap maklumat yang diperlukan untuk menegaskan hubungan antara mereka.", "Telah ditunjukkan dalam kerja sebelumnya mengenai pengekstrakan hubungan bahawa jalan terpendek antara dua entiti menangkap maklumat yang diperlukan untuk menegaskan hubungan antara mereka."]}, {"en": ["To maximize size and Heterogeneity, we here refer to the argument web (Cite-P-17-1-4), which is to our knowledge the largest Ground-Truth argument Database available so far.", "Here derive an argument graph from the complete argument web (Cite-P-17-1-4), a large Ground-Truth Database consisting of about 50 , 000 argument units."], "ms": ["Untuk memaksimumkan saiz dan Heterogeneity, kami merujuk kepada web hujah (Cite-P-17-1-4), yang kepada pengetahuan kami pangkalan data hujah Ground-Truth terbesar yang tersedia setakat ini.", "Di sini memperoleh graf argumen dari web argumen lengkap (Cite-P-17-1-4), Pangkalan Data Ground-Truth yang besar yang terdiri daripada kira-kira 50,000 unit argumen."]}, {"en": ["We show that such cues have predictive power even when extracted from the first 20 seconds of the conversations.", "Using this setting, we show that linguistic cues and conversational patterns extracted from the first 20 seconds of a team."], "ms": ["Kami menunjukkan bahawa isyarat sedemikian mempunyai kuasa ramalan walaupun diekstrak dari 20 saat pertama perbualan.", "Menggunakan tetapan ini, kami menunjukkan bahawa isyarat linguistik dan corak perbualan yang diekstrak dari 20 saat pertama pasukan."]}, {"en": ["Each sentence is linguistically analyzed by a Pcfg-La Parser trained on the Penn Treebank.", "Each utterance U is accompanied by syntax, a syntactic analysis in Penn Treebank format."], "ms": ["Setiap ayat dianalisis secara linguistik oleh seorang Pcfg-La Parser yang dilatih di Penn Treebank.", "Setiap ucapan U disertakan dengan sintaks, analisis sintaksis dalam format Penn Treebank."]}, {"en": ["We propose to use the symmetric Kl-Divergence metric to measure the tag distribution divergence.", "We propose a metric based on symmetric kl divergence to filter out the highly divergent training instances."], "ms": ["Kami mencadangkan untuk menggunakan metrik Kl-Divergence simetri untuk mengukur perbezaan pengedaran tag.", "Kami mencadangkan metrik berdasarkan perbezaan simetri kl untuk menapis contoh latihan yang sangat berbeza."]}, {"en": ["Syntax-Based models either use linguistic Annotation on the source language side, target language side or are syntactic in a structural sense only.", "Many of these systems exploit Linguistically-Derived syntactic information either on the target side, the source side, or both."], "ms": ["Model berasaskan sintaks sama ada menggunakan anotasi linguistik di sisi bahasa sumber, sisi bahasa sasaran atau sintaksis dalam erti kata struktur sahaja.", "Kebanyakan sistem ini mengeksploitasi maklumat sintaksis yang Diperlukan secara linguistik sama ada di sisi sasaran, sisi sumber, atau kedua-duanya."]}, {"en": ["Blacoe and Lapata compare several types of vector representations for semantic composition tasks.", "Blacoe and Lapata compare different arithmetic functions across multiple representations on a range of Compositionality benchmarks."], "ms": ["Blacoe dan Lapata membandingkan beberapa jenis perwakilan vektor untuk tugas komposisi semantik.", "Blacoe dan Lapata membandingkan fungsi aritmetik yang berbeza merentasi pelbagai perwakilan pada pelbagai penanda aras Komposisi."]}, {"en": ["While world knowledge has been shown to improve Learning-Based Coreference Resolvers, the improvements were typically obtained by incorporating world knowledge into a fairly weak baseline Resolver.", "While each of these three sources of world knowledge has been shown to improve Coreference resolution, the improvements were typically obtained by incorporating world knowledge (as features) into a baseline Resolver composed of a rather weak Coreference model."], "ms": ["Walaupun pengetahuan dunia telah ditunjukkan untuk meningkatkan Pembelajaran Coreference Resolvers, penambahbaikan biasanya diperolehi dengan menggabungkan pengetahuan dunia ke dalam Resolver asas yang agak lemah.", "Walaupun setiap tiga sumber pengetahuan dunia ini telah ditunjukkan untuk meningkatkan resolusi Coreference, penambahbaikan biasanya diperolehi dengan memasukkan pengetahuan dunia (sebagai ciri) ke dalam Resolver asas yang terdiri daripada model Coreference yang agak lemah."]}, {"en": ["Barzilay and Mckeown presented an Unsupervised learning approach to extract paraphrases of words and phrases from different English translations of the identical source language sentences.", "Barzilay and Mckeown used a Corpus-Based method to identify paraphrases from a corpus of multiple English translations of the same source text."], "ms": ["Barzilay dan Mckeown membentangkan pendekatan pembelajaran yang tidak diawasi untuk mengekstrak parafrasa kata dan frasa dari terjemahan bahasa Inggeris yang berbeza dari ayat bahasa sumber yang sama.", "Barzilay dan Mckeown menggunakan kaedah berasaskan Corpus untuk mengenal pasti parafrasa dari korpus terjemahan bahasa Inggeris yang berbeza dari teks sumber yang sama."]}, {"en": ["This paper described the method Hitsz-Icrc system used for Qa Tempeval challenge.", "This paper presents the Hitsz-Icrc system designed for the Qa Tempeval challenge."], "ms": ["Kertas ini menerangkan kaedah sistem Hitsz-Icrc yang digunakan untuk cabaran Qa Tempeval.", "Kertas ini membentangkan sistem Hitsz-Icrc yang direka untuk cabaran Qa Tempeval."]}, {"en": ["The desired output is a mapping from terms to their corresponding Hypernyms, which can naturally be represented as a weighted Bipartite graph (Term-Label graph).", "The desired output is a document argumentation graph structure, such as the one in figure 1, where propositions are denoted by letter subscripts, and the associated argumentation graph shows their types and support relations between them."], "ms": ["Output yang dikehendaki adalah pemetaan dari istilah kepada Hypernyms yang sepadan, yang secara semula jadi boleh diwakili sebagai graf Bipartite berwajaran (graf Terma-Label).", "Output yang dikehendaki adalah struktur grafik argumentasi dokumen, seperti yang terdapat dalam angka 1, di mana proposisi dilambangkan oleh subskrip huruf, dan graf argumentasi yang berkaitan menunjukkan jenis dan hubungan sokongan antara mereka."]}, {"en": ["Dong et al used dependency Parsing for Twitter sentiment classification to find the words syntactically connected to the target of interest.", "Dong et al perform targeted sentiment classification by using a recursive neural network to model the transmission of sentiment signal from opinion Baring expressions to a target."], "ms": ["Dong et al menggunakan dependensi Parsing untuk klasifikasi sentimen Twitter untuk mencari kata-kata yang berkaitan secara sintaksis dengan sasaran minat.", "Dong et al melaksanakan klasifikasi sentimen sasaran dengan menggunakan rangkaian saraf rekursif untuk memodelkan penghantaran isyarat sentimen dari pendapat Baring ungkapan kepada sasaran."]}, {"en": ["Supervised approaches to dependency Parsing have been successful for languages where relatively large Treebanks are available.", "Supervised approaches to dependency Parsing have been very successful for many Resource-Rich languages, where relatively large Treebanks are available."], "ms": ["Pendekatan yang diawasi untuk penghuraian dependensi telah berjaya untuk bahasa di mana Treebanks yang agak besar tersedia.", "Pendekatan yang diawasi untuk Penghuraian dependensi sangat berjaya untuk banyak bahasa Sumber-Rich, di mana Treebanks yang agak besar tersedia."]}, {"en": ["We describe the tagging strategies that can be found in the literature and evaluate their relative performances.", "In this paper, we describe the tagging strategies that can be found in the literature."], "ms": ["Kami menerangkan strategi penandaan yang boleh didapati dalam kesusasteraan dan menilai persembahan relatif mereka.", "Dalam makalah ini, kami menerangkan strategi penandaan yang boleh didapati dalam kesusasteraan."]}, {"en": ["Some of the very effective ml approaches used in NER are me, Crf and SVM.", "The representative ml approaches used in NER are hidden Markov model, me, Crfs and SVM."], "ms": ["Antara pendekatan ml yang sangat berkesan yang digunakan dalam NER adalah saya, Crf dan SVM.", "Pendekatan Ml perwakilan yang digunakan dalam NER adalah model Markov tersembunyi, saya, Crfs dan SVM."]}, {"en": ["To remedy the above mentioned effects, we extended the normalized frequency of Cite-P-12-1-0 to a normalized correlation criterion to spot translation equivalents.", "For Domain-Specific translation tasks, we exploited a normalized correlation method to spot the translation equivalents."], "ms": ["Untuk membetulkan kesan yang disebutkan di atas, kami memperluaskan frekuensi normal Cite-P-12-1-0 kepada kriteria korelasi normal untuk melihat setara terjemahan.", "Untuk tugas terjemahan Domain-Specific, kami mengeksploitasi kaedah korelasi yang normal untuk melihat setara terjemahan."]}, {"en": ["Inui et al proposes a Rule-Based system for text simplification aimed at deaf people.", "Inui et al proposed a Rule-Based system for text simplification aimed at deaf people."], "ms": ["Inui et al mengusulkan sistem Berasaskan Peraturan untuk penyederhanaan teks yang ditujukan kepada orang pekak.", "Inui et al mencadangkan sistem Berasaskan Peraturan untuk penyederhanaan teks yang bertujuan untuk orang pekak."]}, {"en": ["In addition, we used word category information of a Chinese thesaurus for verb Disambiguation.", "In addition, we used word category information of a Chinese thesaurus."], "ms": ["Di samping itu, kami menggunakan maklumat kategori perkataan tesaurus Cina untuk kata kerja Disambiguation.", "Di samping itu, kami menggunakan maklumat kategori perkataan tesaurus Cina."]}, {"en": ["The experimental results show the effectiveness of the proposed approach.", "Experimental results show that the proposed approach can outperform the baseline."], "ms": ["Hasil eksperimen menunjukkan keberkesanan pendekatan yang dicadangkan.", "Hasil eksperimen menunjukkan bahawa pendekatan yang dicadangkan dapat mengatasi garis dasar."]}, {"en": ["The model is based on the idea that missing or corrupted values for one field can be inferred from values in other fields of the record.", "That is based on the idea that plausible values for a given field could be inferred from the context provided by the other fields in the record."], "ms": ["Model ini berdasarkan idea bahawa nilai yang hilang atau rosak untuk satu medan boleh disimpulkan daripada nilai dalam bidang lain dalam rekod.", "Itu berdasarkan idea bahawa nilai yang masuk akal untuk medan tertentu dapat disimpulkan dari konteks yang diberikan oleh medan lain dalam catatan."]}, {"en": ["Standard LM benchmarks in English include the Penn Treebank, the 1 billion word benchmark, and the Hutter prize data.", "Standard English LM benchmarks are the Penn Treebank and the 1 billion word benchmark."], "ms": ["Penanda aras LM standard dalam bahasa Inggeris termasuk Penn Treebank, penanda aras perkataan 1 bilion, dan data hadiah Hutter.", "Tanda aras LM Bahasa Inggeris Standard adalah Penn Treebank dan penanda aras perkataan 1 bilion."]}, {"en": ["This phenomenon suggests that grammatical features may play a more important role in predicting and measuring L2 Readability.", "Work suggest that grammatical features can play a role in predicting reading difficulty levels."], "ms": ["Fenomena ini menunjukkan bahawa ciri tatabahasa mungkin memainkan peranan yang lebih penting dalam meramalkan dan mengukur Kebolehbacaan L2.", "Kerja mencadangkan bahawa ciri tatabahasa boleh memainkan peranan dalam meramalkan tahap kesukaran membaca."]}, {"en": ["Reliably resolving these references is critical for dialogue success.", "Correctly resolving these references is critical yet challenging for artificial agents."], "ms": ["Penyelesaian rujukan ini adalah kritikal untuk kejayaan dialog.", "Penyelesaian rujukan ini adalah kritikal tetapi mencabar untuk agen buatan."]}, {"en": ["In this work we have presented the first application of Nli to non-English data.", "This is the first reported application of Nli to non-English data."], "ms": ["Dalam kerja ini kami telah membentangkan aplikasi pertama Nli kepada data bukan bahasa Inggeris.", "Ini adalah aplikasi Nli yang pertama dilaporkan kepada data bukan bahasa Inggeris."]}, {"en": ["Researchers have proven that the Target-Side Monolingual data can greatly enhance the Decoder model of Nmt.", "Experiments also demonstrate that Nmt is more effective for incorporating the Source-Side Monolingual data."], "ms": ["Penyelidik telah membuktikan bahawa data Monolingual Sasaran-Side dapat meningkatkan model Decoder Nmt.", "Eksperimen juga menunjukkan bahawa Nmt lebih berkesan untuk menggabungkan data Monolingual Sumber-Side."]}, {"en": ["In this paper we first present an in-depth analysis of the state of the art in order to clarify this issue.", "In this paper, we have analyzed the state of the art in order to clarify why novel text."], "ms": ["Dalam makalah ini kita pertama kali membentangkan analisis mendalam mengenai keadaan seni untuk menjelaskan isu ini.", "Dalam makalah ini, kami telah menganalisis keadaan seni untuk menjelaskan mengapa teks novel."]}, {"en": ["Bo? Rschinger et al . (2011) introduced an approach to grounded language learning based on Unsupervised Pcfg induction.", "Borschinger et al . (2011) \u00a1\u00af s approach to reducing the problem of grounded learning of semantic Parsers to Pcfg induction."], "ms": ["Bo? Rschinger et al. (2011) memperkenalkan pendekatan untuk pembelajaran bahasa berasaskan berdasarkan induksi Pcfg yang tidak diawasi.", "Borschinger et al. (2011) pendekatan untuk mengurangkan masalah pembelajaran asas Parsers semantik kepada induksi Pcfg."]}, {"en": ["The derivations licenced by a lexical category sequence were created using the Ccg Parser described in Clark and Curran.", "The training data for the dependency model was created by first Supertagging the sentences in sections 2-21, using the Supertagger described in Clark and Curran."], "ms": ["Hasil yang dilesenkan oleh urutan kategori leksikal dicipta menggunakan Parser Ccg yang diterangkan dalam Clark dan Curran.", "Data latihan untuk model dependensi dicipta oleh Supertagging pertama ayat dalam seksyen 2-21, menggunakan Supertagger yang diterangkan dalam Clark dan Curran."]}, {"en": ["School of thought analysis is an important yet Not-Well-Elaborated scientific knowledge discovery task.", "School of thought analysis has been identified an important fine-grained scientific knowledge discovery task."], "ms": ["Sekolah analisis pemikiran adalah satu tugas penemuan pengetahuan saintifik yang penting tetapi tidak baik.", "Sekolah analisis pemikiran telah dikenal pasti satu tugas penemuan pengetahuan saintifik halus yang penting."]}, {"en": ["We present B aye s um (for \u00a1\u00b0Bayesian Summarization\u00a1\u00b1), a model for sentence extraction in Query-Focused summarization.", "We describe B aye s um, an algorithm for performing Query-Focused summarization."], "ms": ["Kami membentangkan B aye s um (untuk Bayesian Summarization), model untuk pengekstrakan ayat dalam Ringkasan Bertanya-Fokus.", "Kami menerangkan B aye s um, algoritma untuk melaksanakan Ringkasan Berkualiti Pertanyaan."]}, {"en": ["We do this by compiling the rules resulting from an Adaboost Classifier into a Finite-State transducer.", "We adopt here is to compile the model of a Classifier into a weighted Finite-State transducer (Wfst)."], "ms": ["Kami melakukan ini dengan menyusun peraturan yang dihasilkan daripada Pengelas Adaboost menjadi transduser Finite-State.", "Kami menggunakan di sini adalah untuk menyusun model Pengelas ke dalam transduser Finite-State berwajaran (Wfst)."]}, {"en": ["We evaluate our approach on word similarity and relational similarity Frameworks, reporting state-of-the-art performance on multiple Datasets.", "By Leveraging these representations and Lexical-Semantic knowledge, we put forward a semantic similarity measure with state-of-the-art performance on multiple Datasets."], "ms": ["Kami menilai pendekatan kami mengenai persamaan perkataan dan persamaan hubungan Rangka kerja, melaporkan prestasi terkini pada pelbagai Dataset.", "Dengan memanfaatkan perwakilan ini dan pengetahuan Lexical-Semantic, kami mengemukakan ukuran persamaan semantik dengan prestasi canggih pada pelbagai Dataset."]}, {"en": ["Shimbo and Hara and Hara et al considered many features for coordination Disambiguation and automatically Optimized their weights, which were Heuristically determined in Kurohashi and Nagao, by using a Discriminative learning model.", "Shimbo and Hara considered many features for coordination Disambiguation and automatically Optimized their weights, which were Heuristically determined in Kurohashi and Nagao, using a Discriminative learning model."], "ms": ["Shimbo dan Hara dan Hara et al menganggap banyak ciri untuk koordinasi Disambiguation dan secara automatik Optimized berat mereka, yang ditentukan Heuristically dalam Kurohashi dan Nagao, dengan menggunakan model pembelajaran Discriminative.", "Shimbo dan Hara menganggap banyak ciri untuk koordinasi Disambiguation dan secara automatik Optimized berat mereka, yang ditentukan Heuristically dalam Kurohashi dan Nagao, menggunakan model pembelajaran Discriminative."]}, {"en": ["The main advantage for the proposed new method for Nlg is that the complexity of the grammatical decision making process during Nlg can be vastly reduced, because the Ebl method supports the Adaption of a Nlg system to a particular use of a language.", "Decision making process during natural language generation can be vastly reduced, because the Ebl method supports Adaption of a Nlg system to a particular language use."], "ms": ["Kelebihan utama untuk kaedah baru yang dicadangkan untuk Nlg adalah bahawa kerumitan proses membuat keputusan tatabahasa semasa Nlg dapat dikurangkan dengan banyak, kerana kaedah Ebl menyokong Penyesuaian sistem Nlg untuk penggunaan bahasa tertentu.", "Proses membuat keputusan semasa penjanaan bahasa semula jadi boleh dikurangkan dengan ketara, kerana kaedah Ebl menyokong Penyesuaian sistem Nlg untuk penggunaan bahasa tertentu."]}, {"en": ["Moore et al , 2006, introduced a Discriminative model of 1-To-N and M-To-1 alignments, and similarly to the best results were obtained using Hmms trained to agree and intersected model 4.", "Lacoste-Julien et al , 2006) created a Discriminative model able to model 1-To-1 , 1-To-2 and 2-to-1 alignments for which the best results were obtained using features based on symmetric Hmms trained to agree, and intersected model 4."], "ms": ["Moore et al, 2006, memperkenalkan model Diskriminatif bagi penjajaran 1-To-N dan M-To-1, dan juga hasil terbaik diperolehi menggunakan Hmms terlatih untuk bersetuju dan bersilang model 4.", "Lacoste-Julien et al, 2006) mencipta model Discriminative yang mampu untuk model 1-To-1, 1-To-2 dan 2-to-1 penjajaran yang mana keputusan terbaik diperolehi menggunakan ciri-ciri berdasarkan simetri Hmms dilatih untuk bersetuju, dan model bersilang 4."]}, {"en": ["Meanwhile, the system Domain-Free rules aim to help the human Annotator in scoring semantic equivalence of sentence pair.", "One of its main goals, the system suggests a set of Domain-Free rules to help the human Annotator in scoring semantic equivalence of two sentences."], "ms": ["Sementara itu, sistem peraturan Domain-Free bertujuan untuk membantu Annotator manusia dalam menjaringkan kesetaraan semantik pasangan ayat.", "Salah satu matlamat utamanya, sistem ini mencadangkan satu set peraturan Bebas Domain untuk membantu Annotator manusia dalam menjaringkan kesetaraan semantik dua ayat."]}, {"en": ["We use Penndiscourse Treebank and Penn Treebank data through this entire work.", "We use the whole Penn Treebank corpus as our data set."], "ms": ["Kami menggunakan data Penndiscourse Treebank dan Penn Treebank melalui keseluruhan kerja ini.", "Kami menggunakan keseluruhan Penn Treebank corpus sebagai set data kami."]}, {"en": ["As each edge in the confusion network only has a single word, it is possible to produce inappropriate translations such as \u00a1\u00b0He is like of Apples\u00a1\u00b1.", "As each edge in the confusion network only has a single word, it is possible to produce inappropriate translations such as \u00a1\u00b0."], "ms": ["Oleh kerana setiap kelebihan dalam rangkaian kekeliruan hanya mempunyai satu perkataan, adalah mungkin untuk menghasilkan terjemahan yang tidak sesuai seperti \"Dia seperti Apple.\"", "Oleh kerana setiap tepi dalam rangkaian kekeliruan hanya mempunyai satu perkataan, adalah mungkin untuk menghasilkan terjemahan yang tidak sesuai seperti."]}, {"en": ["In this approach, tree structures for the source, target, or both are used for model training.", "In this approach, source, target tree structures are used for model training."], "ms": ["Dalam pendekatan ini, struktur pokok untuk sumber, sasaran, atau kedua-duanya digunakan untuk latihan model.", "Dalam pendekatan ini, sumber, struktur pokok sasaran digunakan untuk latihan model."]}, {"en": ["A critical problem for the Task-Specific ranking is training data Insufficiency, which may be solved by using the data extracted from click log.", "For Task-Specific ranking, we propose to extract Clickthrough data and incorporate it with dedicated training data."], "ms": ["Masalah kritikal untuk kedudukan Task-Specific adalah latihan kekurangan data, yang boleh diselesaikan dengan menggunakan data yang diekstrak dari log klik.", "Untuk kedudukan Task-Specific, kami mencadangkan untuk mengekstrak data Clickthrough dan menggabungkannya dengan data latihan khusus."]}, {"en": ["Systems were Optimized on the Wmt08 French-English development data using minimum error rate training and tested on the Wmt08 test data.", "The systems were tuned using a small extracted parallel Dataset with minimum error rate training and then tested with different test sets."], "ms": ["Sistem telah dioptimumkan pada data pembangunan Wmt08 Perancis-Inggeris menggunakan latihan kadar ralat minimum dan diuji pada data ujian Wmt08.", "Sistem-sistem itu ditala menggunakan Dataset selari yang diekstrak kecil dengan latihan kadar ralat minimum dan kemudian diuji dengan set ujian yang berbeza."]}, {"en": ["We used weighted textual matrix Factorization to model the Semantics of the sentences.", "Our previous work models the sentences in the weighted matrix Factorization framework."], "ms": ["Kami menggunakan pemfaktoran matriks teks berwajaran untuk memodelkan Semantik ayat.", "Kerja terdahulu kami memodelkan ayat dalam rangka kerja pemfaktoran matriks berwajaran."]}, {"en": ["There exists a variety of different Metrics, Eg, word error rate, Position-Independent word error rate, BLEU score, Nist score, meteor, Gtm.", "The most widely used are word error rate, position independent word error rate, the BLEU score and the Nist score."], "ms": ["Terdapat pelbagai Metrik yang berbeza, Eg, kadar ralat perkataan, kadar ralat perkataan kedudukan bebas, skor BLEU, skor Nist, meteor, Gtm.", "Yang paling banyak digunakan ialah kadar ralat perkataan, kadar ralat perkataan bebas kedudukan, skor BLEU dan skor Nist."]}, {"en": ["Lin and Hovy first introduced topic signatures which are topic relevant terms for summarization.", "Lin and Hovy proposed the idea of extracting Topic-Based signature terms for summarization."], "ms": ["Lin dan Hovy pertama kali memperkenalkan tandatangan topik yang merupakan istilah yang berkaitan dengan topik untuk ringkasan.", "Lin dan Hovy mencadangkan idea mengekstrak istilah tandatangan berasaskan topik untuk ringkasan."]}, {"en": ["Sennrich et al proposed a method to control the level of politeness in target sentence in English-To-German translation.", "In a more recent work, Sennrich et al carry out translation from English to German while controlling the degree of politeness."], "ms": ["Sennrich et al mencadangkan kaedah untuk mengawal tahap kesopanan dalam ayat sasaran dalam terjemahan Inggeris-Ke-Jerman.", "Dalam karya yang lebih baru, Sennrich et al menjalankan terjemahan dari bahasa Inggeris ke bahasa Jerman sambil mengawal tahap kesopanan."]}, {"en": ["Costa and Branco explore the usefulness of a wider range of explicitly Aspectual features for temporal relation classification.", "Costa and Branco showed that Aspectual indicators improve temporal relation classification in Tempeval challenges, which emerged in conjunction with Timeml and Timebanks."], "ms": ["Costa dan Branco meneroka kegunaan pelbagai ciri Aspektual yang lebih luas untuk pengelasan hubungan temporal.", "Costa dan Branco menunjukkan bahawa penunjuk Aspektual meningkatkan klasifikasi hubungan temporal dalam cabaran Tempeval, yang muncul bersama dengan Timeml dan Timebanks."]}, {"en": ["In this paper, we addressed the semantic modeling of relational patterns.", "Construction, this paper addresses semantic modeling of relational patterns."], "ms": ["Dalam makalah ini, kami membahas pemodelan semantik pola relasi.", "Pembinaan, kertas ini menangani pemodelan semantik corak hubungan."]}, {"en": ["Our baseline system is a state-of-the-art Smt system which Adapts Bracketing Transduction Grammars to Phrasal translation and equips itself with a maximum entropy based reordering model.", "Our baseline is a state-of-the-art Smt system which Adapts Bracketing Transduction Grammars to Phrasal translation and augment itself with a maximum entropy based reordering model."], "ms": ["Sistem asas kami adalah sistem Smt canggih yang menyesuaikan Grammar Transduksi Penjejakan ke terjemahan Phrasal dan melengkapkan dirinya dengan model penyusunan semula berasaskan entropi maksimum.", "Asas kami adalah sistem Smt canggih yang menyesuaikan Grammar Transduksi Penjejakan ke terjemahan Phrasal dan menambah dirinya dengan model penyusunan semula berasaskan entropi maksimum."]}, {"en": ["Bhargava and Kondrak present a method for applying Transliterations to Grapheme-To-Phoneme conversion.", "Bhargava and Kondrak propose a Reranking approach that uses supplemental Transliterations to improve Grapheme-To-Phoneme conversion of names."], "ms": ["Bhargava dan Kondrak membentangkan kaedah untuk menggunakan Transliterasi kepada penukaran Grapheme-To-Phoneme.", "Bhargava dan Kondrak mencadangkan pendekatan Reranking yang menggunakan Transliterasi tambahan untuk meningkatkan penukaran nama Grapheme-To-Phoneme."]}, {"en": ["Various sequence labeling models have been proposed, like hidden Markov models, structured Perceptron, conditional random fields and Svm-Hmm.", "Many models have been proposed for sequence labeling tasks, such as hidden Markov models, conditional random fields, Max-Margin Markov networks and others."], "ms": ["Pelbagai model pelabelan urutan telah dicadangkan, seperti model Markov tersembunyi, Perceptron berstruktur, medan rawak bersyarat dan Svm-Hmm.", "Banyak model telah dicadangkan untuk tugas pelabelan urutan, seperti model Markov tersembunyi, medan rawak bersyarat, rangkaian Max-Margin Markov dan lain-lain."]}, {"en": ["The work by Nepveu et al constitutes a domain adaptation technique and not an Online learning technique, since the proposed cache components require pre-existent models estimated in batch mode.", "Their technique shares similar limitations with the work presented in Nepveu et al, since it requires pre-existent models estimated in batch mode."], "ms": ["Karya Nepveu et al merupakan teknik penyesuaian domain dan bukan teknik pembelajaran dalam talian, kerana komponen cache yang dicadangkan memerlukan model pra-wujud yang dianggarkan dalam mod batch.", "Teknik mereka berkongsi batasan yang sama dengan kerja yang dibentangkan di Nepveu et al, kerana ia memerlukan model pra-wujud yang dianggarkan dalam mod batch."]}, {"en": ["In this paper, we apply syntactic substitution for generating sentences, which corresponds to Transfer-Based machine translation.", "In this paper, we propose an automatic quantitative expansion method for a sentence set that contains sentences of the same meaning."], "ms": ["Dalam makalah ini, kami menggunakan penggantian sintaktik untuk menghasilkan ayat, yang sesuai dengan terjemahan mesin Berasaskan Pemindahan.", "Dalam makalah ini, kami mencadangkan kaedah pengembangan kuantitatif automatik untuk set ayat yang mengandungi ayat dengan makna yang sama."]}, {"en": ["In particular, many neural network approaches have been proposed and shown better performance in relation classification and relation extraction.", "Recently, deep learning has also been introduced to propose an end-to-end Convolutional neural network for relation classification."], "ms": ["Khususnya, banyak pendekatan rangkaian saraf telah dicadangkan dan menunjukkan prestasi yang lebih baik dalam pengelasan hubungan dan pengekstrakan hubungan.", "Baru-baru ini, pembelajaran mendalam juga telah diperkenalkan untuk mencadangkan rangkaian saraf konvolutional hujung ke hujung untuk pengelasan hubungan."]}, {"en": ["The tasks are organized based on some research works.", "The task is organized based on some research works."], "ms": ["Tugas-tugas disusun berdasarkan beberapa kerja penyelidikan.", "Tugas ini dianjurkan berdasarkan beberapa kerja penyelidikan."]}, {"en": ["The current state-of-the-art in Smt are Phrase-Based systems.", "The current state-of-the-art in machine translation is Phrase-Based Smt."], "ms": ["Keadaan terkini dalam Smt adalah sistem berasaskan frasa.", "Keadaan terkini dalam terjemahan mesin adalah Smt Berasaskan Frasa."]}, {"en": ["In addition, using lexical SETS improves the model \u2019 s performance on three of the most challenging verbs.", "Called lexical SETS (Cite-P-12-1-5), the model \u2019 s performance improved in a preliminary experiment for the three most difficult verbs."], "ms": ["Di samping itu, menggunakan SETS leksikal meningkatkan prestasi model pada tiga kata kerja yang paling mencabar.", "Dipanggil SETS leksikal (Cite-P-12-1-5), prestasi model meningkat dalam eksperimen awal untuk tiga kata kerja yang paling sukar."]}, {"en": ["Socher et al proposed a feature learning algorithm to discover explanatory factors in sentiment classification.", "Socher et al proposed the recursive neural network that has been proven to be efficient in terms of constructing sentences representations."], "ms": ["Socher et al mencadangkan algoritma pembelajaran ciri untuk menemui faktor penjelasan dalam pengelasan sentimen.", "Socher et al mencadangkan rangkaian saraf rekursif yang telah terbukti berkesan dari segi membina perwakilan ayat."]}, {"en": ["We also find that the rules used in our model are more suitable for long-distance reordering and translating long sentences.", "Our model has better capability to perform long-distance reordering and is more suitable for translating long sentences."], "ms": ["Kami juga mendapati bahawa peraturan yang digunakan dalam model kami lebih sesuai untuk penyusunan semula jarak jauh dan menerjemahkan ayat panjang.", "Model kami mempunyai keupayaan yang lebih baik untuk melakukan penyusunan semula jarak jauh dan lebih sesuai untuk menerjemahkan ayat panjang."]}, {"en": ["As a separate task, there has been extensive work on utterance Segmentation.", "With gold standard utterance Segmentation, much work exists on detecting Disfluencies."], "ms": ["Sebagai tugas yang berasingan, terdapat banyak kerja mengenai Segmentasi ucapan.", "Dengan Segmentasi ucapan standard emas, banyak kerja wujud untuk mengesan Kecacatan."]}, {"en": ["Central to our approach is the construction of High-Accuracy, High-Coverage Multilingual Wikipedia entity type Mappings.", "Central to our approach is the intuition that word meaning is represented as a probability distribution over a set of latent senses and is modulated by context."], "ms": ["Pusat kepada pendekatan kami adalah pembinaan Pengkursan Tinggi, Pemetaan Jenis entiti Wikipedia Multilingual Berbilang Bahasa Tinggi.", "Pusat pendekatan kami adalah intuisi bahawa makna perkataan diwakili sebagai pengagihan kebarangkalian atas satu set deria laten dan dimodulasi mengikut konteks."]}, {"en": ["By contrast, the construction specific transformations appear to be more sensitive to Parsing strategy but have a constant positive effect over several languages.", "By contrast, the Construction-Specific transformations targeting coordination and verb groups appear to have a more Language-Independent effect (for languages to which they are applicable."], "ms": ["Sebaliknya, transformasi khusus pembinaan kelihatan lebih sensitif terhadap strategi Parsing tetapi mempunyai kesan positif yang berterusan terhadap beberapa bahasa.", "Sebaliknya, transformasi Pembinaan-Spesifik yang mensasarkan koordinasi dan kumpulan kata kerja nampaknya mempunyai kesan yang lebih bebas bahasa (untuk bahasa yang mana ia terpakai."]}, {"en": ["This year, we were unable to follow the methodology outlined in Graham et al for evaluation of Segment-Level Metrics because the sampling of sentences did not provide sufficient number of assessments of the same segment.", "This year, again we were unable to follow the methodology outlined in Graham et al for evaluation of Segment-Level Metrics because the sampling of sentences did not provide sufficient number of assessments of the same segment."], "ms": ["Tahun ini, kami tidak dapat mengikuti metodologi yang digariskan dalam Graham et al untuk penilaian Metrik Tahap Segmen kerana persampelan ayat tidak memberikan jumlah penilaian yang mencukupi untuk segmen yang sama.", "Tahun ini, sekali lagi kita tidak dapat mengikuti metodologi yang digariskan dalam Graham et al untuk penilaian Metrik Tahap Segmen kerana persampelan ayat tidak memberikan jumlah penilaian yang mencukupi untuk segmen yang sama."]}, {"en": ["The Penn discourse Treebank we use the Penn discourse Treebank, the largest available manually Annotated Corpora of discourse on top of one million word tokens from the Wall Street Journal.", "We use the Penn discourse Treebank, a Corpus Annotated at the discourse level upon the Penn Treebank, giving access to a gold syntactic Annotation, and composed of articles from the Wall Street Journal."], "ms": ["Treebank wacana Penn kami menggunakan Treebank wacana Penn, Corpora wacana yang paling banyak terdapat secara manual di atas satu juta token perkataan dari Wall Street Journal.", "Kami menggunakan Penn discourse Treebank, Corpus Annotated di peringkat wacana di Penn Treebank, memberikan akses kepada Annotasi sintaksis emas, dan terdiri daripada artikel dari Wall Street Journal."]}, {"en": ["For Englishto-Arabic translation, our model yields a +1.04 BLEU average improvement over a state-of-the-art baseline.", "For Englishto-Arabic translation, we achieve a + 1 . 04 BLEU average improvement by Tiling our model."], "ms": ["Untuk terjemahan Bahasa Inggeris-Arab, model kami menghasilkan peningkatan purata +1.04 BLEU berbanding garis asas terkini.", "Untuk terjemahan Bahasa Inggeris-Arab, kami mencapai peningkatan purata + 1.04 BLEU dengan Mengikat model kami."]}, {"en": ["In this paper, we solely focus on the problem of decoding given a trained neural machine translation model.", "In this paper, we tackle the problem of decoding in neural machine translation."], "ms": ["Dalam makalah ini, kami hanya menumpukan pada masalah penyahkodan yang diberikan model terjemahan mesin saraf terlatih.", "Dalam makalah ini, kita menangani masalah penyahkodan dalam terjemahan mesin saraf."]}, {"en": ["All our Smt systems are built with the Moses Toolkit, and word alignments are generated by the Berkeley Aligner.", "Our Smt systems are built with the Moses Toolkit, while word alignment is produced by the Berkeley Aligner."], "ms": ["Semua sistem Smt kami dibina dengan Musa Toolkit, dan penjajaran perkataan dihasilkan oleh Berkeley Aligner.", "Sistem Smt kami dibina dengan Musa Toolkit, sementara penjajaran perkataan dihasilkan oleh Berkeley Aligner."]}, {"en": ["We follow the inference approach in and formalize this process as an integer linear program.", "We follow and formalize semantic inference as an integer linear program."], "ms": ["Kami mengikuti pendekatan kesimpulan dalam dan memformalkan proses ini sebagai program linear integer.", "Kami mengikuti dan memformalkan kesimpulan semantik sebagai program linear integer."]}, {"en": ["In this paper, we study and design models for learning to detect ancillary information in the context of pi.", "In this paper, we study and design models for extracting Atfs from a sentence with respect to another one."], "ms": ["Dalam kertas kerja ini, kami mengkaji dan merancang model untuk belajar mengesan maklumat sampingan dalam konteks pi.", "Dalam makalah ini, kami mengkaji dan merancang model untuk mengekstrak Atfs dari ayat berkenaan dengan yang lain."]}, {"en": ["Based on BLEU, it computes N-Gram precision of the system output against reference sentences.", "The system output is evaluated using the meteor and BLEU scores computed against a single reference sentence."], "ms": ["Berdasarkan BLEU, ia mengira ketepatan N-Gram output sistem berbanding ayat rujukan.", "Output sistem dinilai menggunakan skor meteor dan BLEU yang dikira berbanding dengan satu ayat rujukan."]}, {"en": ["One such feature is the constraint that two case elements with the same case do not modify a verb.", "One such feature is the knowledge of the semantic clusters in a domain."], "ms": ["Satu ciri sedemikian adalah kekangan bahawa dua elemen kes dengan kes yang sama tidak mengubah kata kerja.", "Salah satu ciri tersebut adalah pengetahuan tentang kelompok semantik dalam suatu domain."]}, {"en": ["The argument comprehension reasoning task aims to reconstruct and analyze the argument reasoning.", "In the argument reasoning comprehension task, the Organizer extracts the instances from room for debate."], "ms": ["Tugas penalaran pemahaman hujah bertujuan untuk membina semula dan menganalisis penalaran hujah.", "Dalam tugas pemahaman alasan hujah, Penganjur mengekstrak contoh dari ruang untuk perdebatan."]}, {"en": ["Then, from dependency trees in the data, we extract different types of Subtrees.", "And then we extract Subtrees from dependency Parsing trees."], "ms": ["Kemudian, dari pokok dependensi dalam data, kami mengekstrak pelbagai jenis Subtrees.", "Kemudian kami (Allah) mengeluarkan pokok-pokok yang berbuah dari pokok-pokok yang berbuah."]}, {"en": ["Finkel and Manning propose a Crf-Based constituency Parser which takes each named entity as a constituent in the Parsing tree.", "Finkel and Manning proposed a Crf-Based constituency Parser for nested named entities such that each named entity is a constituent in the Parse tree."], "ms": ["Finkel dan Manning mencadangkan Parser konstituen berasaskan Crf yang mengambil setiap entiti yang dinamakan sebagai konstituen dalam pokok Parsing.", "Finkel dan Manning mencadangkan Parser konstituen berasaskan Crf untuk entiti bernama bersarang sedemikian rupa sehingga setiap entiti bernama adalah konstituen dalam pokok Parse."]}, {"en": ["We use glove Embeddings for the English tasks and Fasttext Embeddings for all Newswire tasks.", "We use different Pretrained word Embeddings such as glove 1 and Fasttext 2 as the initial word Embeddings."], "ms": ["Kami menggunakan sarung tangan Embeddings untuk tugas bahasa Inggeris dan Fasttext Embeddings untuk semua tugas Newswire.", "Kami menggunakan perkataan Pretrained Embeddings yang berbeza seperti sarung tangan 1 dan Fasttext 2 sebagai perkataan awal Embeddings."]}, {"en": ["A typical query spelling correction system employs a noisy channel model.", "Most spell checking systems are based on a noisy channel formulation."], "ms": ["Sistem pembetulan ejaan pertanyaan biasa menggunakan model saluran bising.", "Kebanyakan sistem pemeriksaan ejaan adalah berdasarkan perumusan saluran bising."]}, {"en": ["We also present a Lwfg Parser as a deductive system.", "We present the Parsing algorithm as a deductive system."], "ms": ["Kami juga membentangkan Parser Lwfg sebagai sistem deduktif.", "Kami membentangkan algoritma Penguraian sebagai sistem deduktif."]}, {"en": ["We used the machine translation quality metric BLEU to measure the similarity between machine generated Tweets and the held out tests sets.", "For the evaluation of translation quality, we used the BLEU metric, which measures the N-Gram overlap between the translated output and one or more reference translations."], "ms": ["Kami menggunakan metrik kualiti terjemahan mesin BLEU untuk mengukur persamaan antara Tweet yang dihasilkan mesin dan set ujian yang diadakan.", "Untuk penilaian kualiti terjemahan, kami menggunakan metrik BLEU, yang mengukur pertindihan N-Gram antara output yang diterjemahkan dan satu atau lebih terjemahan rujukan."]}, {"en": ["In contrast, we successfully utilize implicit Task-Based feedback collected in a Cross-Lingual search task to improve Task-Specific and machine translation quality Metrics.", "Implicit Task-Based feedback that has been gathered in a Cross-Lingual search task can be used successfully to improve Task-Specific Metrics."], "ms": ["Sebaliknya, kami berjaya menggunakan maklum balas Berasaskan Tugas tersirat yang dikumpulkan dalam tugas carian Cross-Lingual untuk meningkatkan Metrik kualiti terjemahan Tugas-Specific dan mesin.", "Maklum balas berasaskan tugas tersirat yang telah dikumpulkan dalam tugas carian Cross-Lingual boleh digunakan dengan jayanya untuk meningkatkan Metrik Khusus Tugas."]}, {"en": ["In this paper we suggest a shift in focus from constraining locality and complexity through Tree-And Set-Locality to constraining locality and complexity through restrictions on the Derivational distance between trees in the same tree set in a valid derivation.", "We suggest a shift in focus from constraining locality and complexity through restrictions that all trees in a tree set must Adjoin within a single tree or tree set to constraining locality and complexity through restrictions on the Derivational distance between trees in the same tree set in a valid derivation."], "ms": ["Dalam makalah ini kami mencadangkan peralihan fokus dari kekangan lokaliti dan kerumitan melalui Tree-And Set-Locality kepada kekangan lokaliti dan kerumitan melalui sekatan pada jarak Derivasi antara pokok dalam pokok yang sama yang ditetapkan dalam terbitan yang sah.", "Kami mencadangkan peralihan tumpuan dari kekangan lokaliti dan kerumitan melalui sekatan bahawa semua pokok dalam set pokok mesti Adjoin dalam satu set pokok atau pokok untuk mengekang lokaliti dan kerumitan melalui sekatan pada jarak Derivasi antara pokok dalam set pokok yang sama dalam terbitan yang sah."]}, {"en": ["We then consider approaches drawing off of Word2Vec, paragraph vectors, and Skip-Thoughts.", "We consider morphological similarity, paths in Wordnet, and Cosine similarity of Word2Vec Embeddings."], "ms": ["Kami kemudian mempertimbangkan pendekatan yang menarik dari Word2Vec, vektor perenggan, dan Skip-Thoughts.", "Kami menganggap persamaan morfologi, laluan dalam Wordnet, dan persamaan Kosine Embeddings Word2Vec."]}, {"en": ["For instance, Klein and Manning introduced an approach where the objective function is the product of the probabilities of a Generative Phrase-Structure and a dependency Parsers.", "For instance, Klein and Manning introduced an approach where the objective function is the product of the probabilities of a Generative phrase structure and a dependency Parser."], "ms": ["Sebagai contoh, Klein dan Manning memperkenalkan pendekatan di mana fungsi objektif adalah produk kemungkinan Frasa-Struktur Generatif dan Parsers dependensi.", "Sebagai contoh, Klein dan Manning memperkenalkan pendekatan di mana fungsi objektif adalah hasil daripada kebarangkalian struktur frasa Generatif dan Parser dependensi."]}, {"en": ["The additional baseline, Bigram baseline, is a Bigram-Based language model trained on the Bnc with Srilm, using the standard language model settings for computing Log-Probabilities of Bigrams.", "The third baseline, a Bigram language model, was constructed by training a 2-Gram language model from the large English Ukwac web corpus using the Srilm Toolkit with default Good-Turing smoothing."], "ms": ["Garis dasar tambahan, garis dasar Bigram, adalah model bahasa berasaskan Bigram yang dilatih pada Bnc dengan Srilm, menggunakan tetapan model bahasa standard untuk pengkomputeran Log-Probabilities of Bigrams.", "Garis dasar ketiga, model bahasa Bigram, dibina dengan melatih model bahasa 2-Gram dari korpus web Ukwac Inggeris yang besar menggunakan Srilm Toolkit dengan smoothing Good-Turing lalai."]}, {"en": ["In Multi-Instance learning, the uncertainty of instance labels can be taken into account.", "In the learning process, the uncertainty of instance labels can be taken into account."], "ms": ["Dalam pembelajaran pelbagai keadaan, ketidakpastian label contoh boleh diambil kira.", "Dalam proses pembelajaran, ketidakpastian label contoh boleh diambil kira."]}, {"en": ["This paper has described our system submission to the Semeval 2016 Sts shared task.", "This paper describes our participation in the Semeval 2016 Sts shared task."], "ms": ["Kertas ini telah menerangkan penyerahan sistem kami kepada tugas bersama Semeval 2016 Sts.", "Kertas kerja ini menerangkan penyertaan kami dalam tugas bersama Semeval 2016 Sts."]}, {"en": ["Versions of the L Imsi broadcast news transcription system have been developed in American English, French, German, Mandarin and Portuguese.", "At L Imsi, broadcast news transcription systems have been developed for English, French, German, Mandarin and Portuguese."], "ms": ["Versi sistem transkripsi berita siaran L Imsi telah dibangunkan dalam bahasa Inggeris Amerika, Perancis, Jerman, Mandarin dan Portugis.", "Di L Imsi, sistem transkripsi berita siaran telah dibangunkan untuk bahasa Inggeris, Perancis, Jerman, Mandarin dan Portugis."]}, {"en": ["Here we review the parameters of the standard Phrase-Based translation model (Cite-P-17-1-20).", "And we report the performance of a Phrase-Based statistical model (Cite-P-17-1-19) estimated using these Monolingual features."], "ms": ["Di sini kita mengkaji parameter model terjemahan Berasaskan Frasa standard (Cite-P-17-1-20).", "Dan kami melaporkan prestasi model statistik Berasaskan Frasa (Cite-P-17-1-19) yang dianggarkan menggunakan ciri Monolingual ini."]}, {"en": ["This paper presents an approach to the problem of Taxonomy construction from texts focusing on the Hyponym-Hypernym relation between two terms.", "In this paper, we present an approach for the Unsupervised knowledge extraction for Taxonomies of concepts."], "ms": ["Kertas ini membentangkan pendekatan kepada masalah pembinaan Taksonomi daripada teks yang memberi tumpuan kepada hubungan Hyponym-Hypernym antara dua istilah.", "Dalam makalah ini, kami membentangkan pendekatan untuk pengekstrakan pengetahuan yang tidak diawasi untuk Taksonomi konsep."]}, {"en": ["This is implemented with a Discriminative model using a Crf sequence Tagger.", "This is a high accuracy tagging task often performed using a sequence Classifier."], "ms": ["Ini dilaksanakan dengan model Diskriminatif menggunakan Tagger urutan Crf.", "Ini adalah tugas penandaan ketepatan tinggi yang sering dilakukan menggunakan Klasifier urutan."]}, {"en": ["Here, for textual representation of captions, we use Fisher-Encoded Word2Vec features.", "For efficiency, we follow the Hierarchical Softmax optimization used in Word2Vec."], "ms": ["Di sini, untuk perwakilan teks kapsyen, kami menggunakan ciri Word2Vec Fisher-Encoded.", "Untuk kecekapan, kami mengikuti pengoptimuman Hierarki Softmax yang digunakan dalam Word2Vec."]}, {"en": ["Our approach to relation Embedding is based on a variant of the glove word Embedding model.", "We use the glove algorithm to obtain 300-Dimensional word Embeddings from a Union of these Corpora."], "ms": ["Pendekatan kami untuk Embedding hubungan adalah berdasarkan varian model Embedding perkataan sarung tangan.", "Kami menggunakan algoritma sarung tangan untuk mendapatkan Embedding perkataan 300-Dimensional dari Kesatuan Corpora ini."]}, {"en": ["It is widely acknowledged that good Mwe processing strategies are necessary for Nlp systems to work effectively, since these kinds of word combinations are very frequent in both text and speech.", "It is widely acknowledged in the Nlp community that Multiword expressions are a challenge for many Nlp applications, due to their idiosyncratic behaviour at different levels of linguistic description."], "ms": ["Ia diakui secara meluas bahawa strategi pemprosesan Mwe yang baik diperlukan untuk sistem Nlp berfungsi dengan berkesan, kerana kombinasi perkataan jenis ini sangat kerap dalam kedua-dua teks dan ucapan.", "Ia diakui secara meluas dalam komuniti Nlp bahawa ungkapan Multiword adalah cabaran bagi banyak aplikasi Nlp, kerana tingkah laku idiosinkratik mereka pada tahap penerangan linguistik yang berbeza."]}, {"en": ["Based on this intuition, we proposed an Event-Based time label propagation model called confidence boosting in which time label information can be propagated between documents and events on a Bipartite graph.", "With Feature-Based methods, we proposed an Event-Based time label propagation model called confidence boosting in which Timestamps are propagated on a Document-Event Bipartite graph according to relative temporal relations between documents and events for dating documents."], "ms": ["Berdasarkan intuisi ini, kami mencadangkan model penyebaran label masa berasaskan peristiwa yang dipanggil peningkatan keyakinan di mana maklumat label masa boleh disebarkan antara dokumen dan peristiwa pada graf Bipartite.", "Dengan kaedah Berasaskan Ciri, kami mencadangkan model penyebaran label masa berasaskan peristiwa yang dipanggil peningkatan keyakinan di mana Timestamps disebarkan pada grafik Bipartit Dokumen-Event mengikut hubungan temporal relatif antara dokumen dan peristiwa untuk dokumen temu janji."]}, {"en": ["In this paper, we describe a new approach for the collection of image Annotation Datasets.", "In this work, we aim to relieve the data acquisition bottleneck associated with automatic image Annotation."], "ms": ["Dalam kertas ini, kami menerangkan pendekatan baru untuk pengumpulan Dataset Anotasi imej.", "Dalam kerja ini, kami bertujuan untuk melegakan kesesakan pemerolehan data yang berkaitan dengan Annotasi imej automatik."]}, {"en": ["Goldstein-Stewart et al also carried out some Cross-Topic experiments by Concatenating the texts of an author from different genres.", "Goldstein-Stewart et al performed a study on Cross-Topic authorship Attribution by Concatenating the texts of an author from different genres on the same topics."], "ms": ["Goldstein-Stewart et al juga menjalankan beberapa eksperimen Cross-Topic dengan Menggabungkan teks pengarang dari genre yang berbeza.", "Goldstein-Stewart et al melakukan kajian mengenai Atribusi Penulisan Cross-Topic dengan Menyatakan teks pengarang dari genre yang berbeza pada topik yang sama."]}, {"en": ["The Factorization model allows us to determine which dimensions are important for a particular context, and adapt the Dependency-Based feature vector of the word accordingly.", "Within the latent space, our model exploits the latent space to determine the features that are important for a particular context, and adapt the original (Out-Of-Context) Dependency-Based feature vector of the target word."], "ms": ["Model Factorization membolehkan kita menentukan dimensi mana yang penting untuk konteks tertentu, dan menyesuaikan vektor ciri berdasarkan Dependensi perkataan dengan sewajarnya.", "Dalam ruang terpendam, model kami mengeksploitasi ruang terpendam untuk menentukan ciri-ciri yang penting untuk konteks tertentu, dan menyesuaikan vektor ciri asal (Out-Of-Context) berdasarkan ketergantungan perkataan sasaran."]}, {"en": ["Lemmatization is the process to determine the Root/Dictionary form of a surface word.", "Lemmatization is the process of reducing a word to its base form, normally the dictionary lookup form (Lemma) of the word."], "ms": ["Lemmatisasi adalah proses untuk menentukan bentuk Root / Kamus perkataan permukaan.", "Lemmatisasi adalah proses mengurangkan perkataan ke bentuk asasnya, biasanya bentuk carian kamus (Lemma) perkataan."]}, {"en": ["To address the latter problem, we avoid feature engineering and instead adopt Convolutional architecture with piecewise Max pooling to automatically learn relevant features.", "To address the second problem, we adopt Convolutional architecture to automatically learn relevant features without complicated Nlp Preprocessing."], "ms": ["Untuk mengatasi masalah yang terakhir, kami mengelakkan kejuruteraan ciri dan sebaliknya menggunakan seni bina Konvolutional dengan penyatuan Max piecewise untuk mempelajari ciri-ciri yang relevan secara automatik.", "Untuk mengatasi masalah kedua, kami menggunakan seni bina Konvolusi untuk mempelajari ciri-ciri yang relevan secara automatik tanpa pemprosesan Nlp yang rumit."]}, {"en": ["Szpektor et al defined a fully Unsupervised learning algorithm for Web-Based extraction of Entailment relations.", "Szpektor et al describe the tease method for extracting Entailing relation Templates from the web."], "ms": ["Szpektor et al mentakrifkan algoritma pembelajaran sepenuhnya Unsupervised untuk pengekstrakan hubungan Entailment berasaskan Web.", "Szpektor et al menerangkan kaedah menggoda untuk mengekstrak Templat hubungan Entailing dari web."]}, {"en": ["A popular approach are Phrase-Based models which translate short sequences of words together.", "The most widely used approach derives phrase pairs from word alignment matrix."], "ms": ["Pendekatan yang popular adalah model berasaskan frasa yang menterjemahkan urutan pendek perkataan bersama-sama.", "Pendekatan yang paling banyak digunakan berasal dari pasangan frasa dari matriks penjajaran perkataan."]}, {"en": ["But this kind of memory is known to have a severely constrained storage capacity \u00a1\u00aa possibly constrained to as few as three or four distinct elements.", "Short-term memory is known to have severe capacity limitations of perhaps no more than three to four distinct elements."], "ms": ["Tetapi memori seperti ini diketahui mempunyai kapasiti penyimpanan yang sangat terhad a mungkin terhad kepada hanya tiga atau empat elemen yang berbeza.", "Ingatan jangka pendek diketahui mempunyai batasan kapasiti yang teruk mungkin tidak lebih daripada tiga hingga empat elemen yang berbeza."]}, {"en": ["Rasooli and Collins proposed a method to induce dependency Parser in the target language 100 using a dependency Parser in the source language and a parallel corpus.", "Rasooli and Collins proposed a method to induce dependency Parser in TL using a dependency Parser in sl and a parallel corpus."], "ms": ["Rasooli dan Collins mencadangkan kaedah untuk mendorong penghurai dependensi dalam bahasa sasaran 100 menggunakan penghurai dependensi dalam bahasa sumber dan korpus selari.", "Rasooli dan Collins mencadangkan kaedah untuk mendorong penghurai dependensi dalam TL menggunakan penghurai dependensi dalam sl dan korpus selari."]}, {"en": ["Through extensive experiments on real Datasets, we demonstrated effectiveness of Kgeval.", "Through experiments on Real-World Datasets, we demonstrate that Kgeval best estimates kg accuracy."], "ms": ["Melalui eksperimen yang luas pada Dataset sebenar, kami menunjukkan keberkesanan Kgeval.", "Melalui eksperimen pada Dataset Dunia Nyata, kami menunjukkan bahawa Kgeval menganggarkan ketepatan kg."]}, {"en": ["We train a 4-Gram language model on the Xinhua portion of the Gigaword corpus using the Sri language Toolkit with modified Kneser-Ney smoothing.", "We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword menggunakan Toolkit bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Tan et al used a local feature selection method to ensure the performance of trigger classification and applied multiple levels of patterns to improve their coverage in argument classification.", "Tan et al employ local feature selection and explicit discrimination of positive and negative features to ensure the performance of trigger type determination."], "ms": ["Tan et al menggunakan kaedah pemilihan ciri tempatan untuk memastikan prestasi pengelasan pencetus dan menggunakan pelbagai tahap corak untuk meningkatkan liputan mereka dalam pengelasan hujah.", "Tan et al menggunakan pemilihan ciri tempatan dan diskriminasi eksplisit ciri positif dan negatif untuk memastikan prestasi penentuan jenis pencetus."]}, {"en": ["Following on the instructional corpus, we use 26 relations, and treat the reversals of Non-Commutative relations as separate relations.", "Our experiments on the instructional corpus consider the same 26 primary relations used in and also treat the reversals of Non-Commutative relations as separate relations."], "ms": ["Berikutan korpus pengajaran, kami menggunakan 26 hubungan, dan memperlakukan pembalikan hubungan Bukan Kommutatif sebagai hubungan yang berasingan.", "Eksperimen kami mengenai korpus pengajaran menganggap 26 hubungan utama yang sama digunakan dalam dan juga memperlakukan pembalikan hubungan Bukan Kommutatif sebagai hubungan yang berasingan."]}, {"en": ["To avoid those given in Cite-P-3-15-8 and used in all of the previous repeated evaluations based upon the testing Cor-Work.", "In Cite-P-3-15-8 and used in all of the previous repeated evaluations based upon the testing."], "ms": ["Untuk mengelakkan mereka yang diberikan dalam Cite-P-3-15-8 dan digunakan dalam semua penilaian berulang sebelumnya berdasarkan ujian Cor-Work.", "Dalam Cite-P-3-15-8 dan digunakan dalam semua penilaian berulang sebelumnya berdasarkan ujian."]}, {"en": ["Rishabh Iyer acknowledges support from the Microsoft research Ph.D fellowship.", "Iyer acknowledges support from the Microsoft research pH . D fellowship."], "ms": ["Rishabh Iyer mengakui sokongan daripada penyelidikan Microsoft Ph.D fellowship.", "Iyer mengakui sokongan dari pH penyelidikan Microsoft. D persekutuan."]}, {"en": ["This paper presents a Predicate-Argument structure analysis that simultaneously conducts Zero-Anaphora resolution.", "In this paper, we present a Predicate-Argument structure analysis that simultaneously resolves the Anaphora of zero pronouns."], "ms": ["Kertas ini membentangkan analisis struktur Predicate-Argument yang secara serentak menjalankan resolusi Zero-Anaphora.", "Dalam makalah ini, kami membentangkan analisis struktur Predicate-Argument yang pada masa yang sama menyelesaikan Anaphora kata ganti sifar."]}, {"en": ["In this task we used the Trec question Dataset 10 which contains 5952 questions.", "We used the Uiuic Dataset which contains 5,952 Factoid questions 4 to train a Multi-Class question Classifier."], "ms": ["Dalam tugas ini kami menggunakan Dataset Soalan Trec 10 yang mengandungi 5952 soalan.", "Kami menggunakan Uiuic Dataset yang mengandungi 5,952 soalan Factoid 4 untuk melatih Classifier soalan Multi-Class."]}, {"en": ["Discriminative models in syntactic and semantic Parsers usually use millions of features.", "For syntactic and semantic dependency Parsing, people usually define a very High-Dimensional feature."], "ms": ["Model diskriminasi dalam Parsers sintaktik dan semantik biasanya menggunakan berjuta-juta ciri.", "Untuk penghuraian sintaksis dan semantik, orang biasanya mentakrifkan ciri yang sangat tinggi dimensi."]}, {"en": ["However, adding confusion matrix features improves the predictive model (section 4).", "Combining averaged scores with features based on confusion frequencies improves prediction quality."], "ms": ["Walau bagaimanapun, menambah ciri matriks kekeliruan meningkatkan model ramalan (seksyen 4).", "Menggabungkan skor purata dengan ciri berdasarkan frekuensi kekeliruan meningkatkan kualiti ramalan."]}, {"en": ["The data collection methods used to compile the Dataset provided in Offenseval is described in Zampieri et al.", "The methods employed for gathering the data, preparation and compilation of Dataset, used in Offenseval shared task is described in Zampieri et al."], "ms": ["Kaedah pengumpulan data yang digunakan untuk menyusun Dataset yang disediakan dalam Offenseval diterangkan dalam Zampieri et al.", "Kaedah yang digunakan untuk mengumpulkan data, penyediaan dan penyusunan Dataset, yang digunakan dalam tugas dikongsi Offenseval dijelaskan dalam Zampieri et al."]}, {"en": ["In this paper we investigate a novel method to detect asymmetric Entailment relations between verbs.", "In this paper we presented a method to discover asymmetric Entailment relations between verbs."], "ms": ["Dalam makalah ini kita menyiasat kaedah novel untuk mengesan hubungan Entailment asimetri antara kata kerja.", "Dalam makalah ini kami membentangkan kaedah untuk menemui hubungan Entailment asimetri antara kata kerja."]}, {"en": ["Pitler and Nenkova showed that syntactic features extracted from constituent Parse trees are very useful in Disambiguating discourse Connectives.", "Pitler and Nenkova showed how syntactic features could be used in Disambiguating both usage ambiguity and sense ambiguity."], "ms": ["Pitler dan Nenkova menunjukkan bahawa ciri-ciri sintaktik yang diekstrak daripada pokok Parse konstituen sangat berguna dalam wacana Disambiguating Connectives.", "Pitler dan Nenkova menunjukkan bagaimana ciri-ciri sintaktik boleh digunakan dalam Mengubah kedua-dua kekaburan penggunaan dan kekaburan rasa."]}, {"en": ["We trained a statistical model using data derived from the Chinese Treebank and reported promising preliminary results.", "Trained and tested on data derived from the Chinese Treebank, our model achieves a classification accuracy of close to 90 %."], "ms": ["Kami melatih model statistik menggunakan data yang berasal dari Treebank Cina dan melaporkan hasil awal yang menjanjikan.", "Dilatih dan diuji pada data yang berasal dari Treebank Cina, model kami mencapai ketepatan pengelasan hampir 90%."]}, {"en": ["Escudero et al tested the supervised adaptation scenario on the DSO corpus, which had examples from the Brown corpus and Wall Street Journal corpus.", "Escudero et al tested the supervised adaptation setting on the DSO corpus, which had examples from the Brown corpus and Wall Street Journal corpus."], "ms": ["Escudero et al menguji senario penyesuaian yang diawasi pada korpus DSO, yang mempunyai contoh dari korpus Brown dan korpus Wall Street Journal.", "Escudero et al menguji tetapan penyesuaian yang diawasi pada korpus DSO, yang mempunyai contoh dari korpus Brown dan korpus Wall Street Journal."]}, {"en": ["The sense Collocation method of Moldovan et al is based on the pair of word senses of NC constituents.", "As mentioned above, Moldovan et al showed that the sense Collocation of NCS is a key feature when interpreting NCS."], "ms": ["Kaedah kolokasi deria Moldovan et al adalah berdasarkan pasangan deria perkataan juzuk NC.", "Seperti yang dinyatakan di atas, Moldovan et al menunjukkan bahawa pengertian Collocation of NCS adalah ciri utama ketika menafsirkan NCS."]}, {"en": ["Kalchbrenner et al introduced a dynamic K-Max pooling to handle variable length sequences.", "Kalchbrenner et al developed a Cnnbased model that can be used for sentence Modelling problems."], "ms": ["Kalchbrenner et al memperkenalkan kumpulan K-Max dinamik untuk mengendalikan urutan panjang berubah-ubah.", "Kalchbrenner et al membangunkan model berasaskan Cnn yang boleh digunakan untuk masalah Pemodelan ayat."]}, {"en": ["The SVM is based on Discriminative approach and makes use of both positive and negative examples to learn the distinction between the two classes.", "The SVM is based on Discr Iminative approach and makes use of both Pos Itive and negative examples to learn the distinction between the two classes."], "ms": ["SVM adalah berdasarkan pendekatan Diskriminatif dan menggunakan kedua-dua contoh positif dan negatif untuk mempelajari perbezaan antara kedua-dua kelas.", "SVM adalah berdasarkan pendekatan Discr Iminative dan menggunakan kedua-dua contoh Pos Itive dan negatif untuk mempelajari perbezaan antara kedua-dua kelas."]}, {"en": ["We propose to formalize a scene (I.E ., a domain of objects and their properties and relations) as a labeled directed graph and describe the content selection problem (which properties and relations to include in a description for an object? )", "We propose to formalize a scene (consisting of a set of objects with various properties and relations) as a labeled directed graph and describe content selection (which properties to include in a referring expression)."], "ms": ["Kami mencadangkan untuk memformalkan adegan (I.E., domain objek dan sifat dan hubungan mereka) sebagai grafik terarah berlabel dan menerangkan masalah pemilihan kandungan (sifat dan hubungan mana yang akan dimasukkan dalam keterangan untuk objek?)", "Kami mencadangkan untuk memformalkan adegan (berdasarkan satu set objek dengan pelbagai sifat dan hubungan) sebagai grafik terarah berlabel dan menerangkan pemilihan kandungan (sifat yang akan dimasukkan dalam ungkapan rujukan)."]}, {"en": ["It forms a hierarchy of nested Subgraphs whose cohesiveness and size respectively increase and decrease with K.", "It forms a hierarchy of Subgraphs that are Recursively included in one another and whose cohesiveness and size respectively increases and decreases with K."], "ms": ["Ia membentuk hierarki Subgraf bersarang yang kohesif dan saiz masing-masing meningkat dan berkurangan dengan K.", "Ia membentuk hierarki Subgraf yang secara Rekursif dimasukkan dalam satu sama lain dan yang kohesif dan saiz masing-masing meningkat dan berkurangan dengan K."]}, {"en": ["We used Julius as the Lvcsr and Julian as the Dssr.", "We use Julius as the Lvcsr and Julian as the Dssr."], "ms": ["Kami menggunakan Julius sebagai Lvcsr dan Julian sebagai Dssr.", "Kita menggunakan Julius sebagai Lvcsr dan Julian sebagai Dssr."]}, {"en": ["Zelenko et al described a recursive kernel based on shallow Parse trees to detect Personaffiliation and Organization-Location relations, in which a relation example is the least common Subtree containing two entity nodes.", "Zelenko et al , 2003) devised a kernel on shallow Parse trees to detect relations between named entities, such as the Person-Affiliation relation between a person name and an organization name."], "ms": ["Zelenko et al menggambarkan kernel rekursif berdasarkan pokok Parse cetek untuk mengesan hubungan Personaffiliation dan Organization-Location, di mana contoh hubungan adalah Subtree yang paling tidak biasa yang mengandungi dua nod entiti.", "Zelenko et al, 2003) mencipta kernel pada pokok Parse cetek untuk mengesan hubungan antara entiti yang dinamakan, seperti hubungan Person-Affiliation antara nama orang dan nama organisasi."]}, {"en": ["Mohammad et al leverage a large sentiment lexicon in a SVM model, achieving the best results in the Semeval 2013 benchmark on Sentence-Level sentiment analysis.", "The relevance of these features is supported by Mohammad et al that produced the top ranked system at Semeval-2013 and Semeval-2014 for sentiment classification of Tweets using emotional Lexicons."], "ms": ["Mohammad et al memanfaatkan leksikon sentimen yang besar dalam model SVM, mencapai hasil terbaik dalam penanda aras Semeval 2013 mengenai analisis sentimen Tahap Sentence.", "Kerelatifan ciri-ciri ini disokong oleh Mohammad et al yang menghasilkan sistem kedudukan teratas di Semeval-2013 dan Semeval-2014 untuk pengelasan sentimen Tweets menggunakan Leksikon emosi."]}, {"en": ["Recently, Pantel and Ravichandran extended this approach by making use of all syntactic dependency features for each noun.", "Pantel and Ravichandran extended his work by including all syntactic dependency relations for each considered noun."], "ms": ["Baru-baru ini, Pantel dan Ravichandran memperluaskan pendekatan ini dengan menggunakan semua ciri kebergantungan sintaktik untuk setiap kata nama.", "Pantel dan Ravichandran melanjutkan kerjanya dengan memasukkan semua hubungan kebergantungan sintaktik untuk setiap kata nama yang dianggap."]}, {"en": ["Issue framing is related to the broader challenges of Biased language analysis and subjectivity.", "Issue framing is related to both analyzing Biased language and subjectivity."], "ms": ["Pembingkaian isu berkaitan dengan cabaran yang lebih luas analisis bahasa Biased dan subjektiviti.", "Pembingkaian isu berkaitan dengan kedua-dua menganalisis bahasa Biased dan subjektiviti."]}, {"en": ["First, we show that the ensemble can be unfolded into a single large neural network which imitates the output of the ensemble system.", "In a first step, we describe how to construct a single large neural network which imitates the output of an ensemble of multiple networks."], "ms": ["Pertama, kami menunjukkan bahawa ensemble boleh dibentangkan ke dalam satu rangkaian saraf besar yang meniru output sistem ensemble.", "Dalam langkah pertama, kami menerangkan cara membina satu rangkaian saraf besar yang meniru output ensemble rangkaian berbilang."]}, {"en": ["We also apply an Hmm method in conjunction with a local classification model to predict a global Phoneme sequence given a word.", "Phoneme sequences, we propose to apply an Hmm method after a local Phoneme prediction."], "ms": ["Kami juga menggunakan kaedah Hmm bersama dengan model klasifikasi tempatan untuk meramalkan urutan Phoneme global yang diberikan perkataan.", "Urutan Phoneme, kami mencadangkan untuk menggunakan kaedah Hmm selepas ramalan Phoneme tempatan."]}, {"en": ["Lexical features are a major source of information in state-of-the-art Coreference Resolvers.", "Lexical features are a major source of information in current Coreference Resolvers."], "ms": ["Ciri-ciri leksikal adalah sumber utama maklumat dalam Pemecah Coreference yang canggih.", "Ciri-ciri leksikal adalah sumber utama maklumat dalam Pemecah Teras semasa."]}, {"en": ["Le and Mikolov introduced Paragraph-Level vectors, a Fixed-Length feature representations for Variable-Length texts.", "Le and Mikolov presented the paragraph vector algorithm to learn a Fixed-Size feature representation for documents."], "ms": ["Le dan Mikolov memperkenalkan vektor Paragraf-Level, perwakilan ciri Tetap-Length untuk teks Variable-Length.", "Le dan Mikolov membentangkan algoritma vektor perenggan untuk mempelajari perwakilan ciri Tetap Saiz untuk dokumen."]}, {"en": ["A Seed-Expansion approach is proposed to extract the arguments correctly.", "And a Seed-Expansion approach is utilized for argument extraction."], "ms": ["Pendekatan Pengembangan Benih dicadangkan untuk mengekstrak hujah dengan betul.", "Dan pendekatan Pengembangan Benih digunakan untuk pengekstrakan hujah."]}, {"en": ["As a key property of our tool, we store all intermediate Annotation results and record the User\u00a8Csystem interaction data.", "Which enables us to efficiently guide the Annotators, to store all their intermediate results, and to record user \u00a8C system interaction data."], "ms": ["Sebagai harta utama alat kami, kami menyimpan semua hasil Annotasi perantaraan dan merakam data interaksi Pengguna Sistem.", "Yang membolehkan kami membimbing Annotator dengan cekap, menyimpan semua hasil perantaraan mereka, dan merakam data interaksi sistem C pengguna."]}, {"en": ["The data structure is a list which is mainly accessed Wittl a typical LIFO stack policy.", "Our data structure is a Trie in which individual nodes are represented by B-Trees, which are searched in parallel (section 3) and arranged compactly in memory (section 4)."], "ms": ["Struktur data adalah senarai yang terutamanya diakses Wittl dasar tumpukan LIFO yang tipikal.", "Struktur data kami adalah Trie di mana nod individu diwakili oleh B-Trees, yang dicari secara selari (seksyen 3) dan disusun padat dalam ingatan (seksyen 4)."]}, {"en": ["Since Multilinguality is a key need in today \u2019 s information society, and because Wcls have been tested overwhelmingly only with the English language, we provide experiments for three different languages, namely English, French and Italian.", "Multilinguality is the premise of the lump approach: we use representations which lie towards Language-Independence as we aim to be able to approach similar tasks on other languages, paying the least possible effort."], "ms": ["Oleh kerana Multilinguality adalah keperluan utama dalam masyarakat maklumat hari ini, dan kerana Wcls telah diuji secara besar-besaran hanya dengan bahasa Inggeris, kami menyediakan eksperimen untuk tiga bahasa yang berbeza, iaitu Bahasa Inggeris, Perancis dan Itali.", "Multilinguality adalah premis pendekatan benjolan: kami menggunakan perwakilan yang terletak pada Kemerdekaan Bahasa kerana kami berhasrat untuk dapat mendekati tugas yang serupa pada bahasa lain, membayar usaha yang paling sedikit."]}, {"en": ["Here, for textual representation of captions, we use Fisher-Encoded Word2Vec features.", "For the Embeddings trained on stack overflow corpus, we use the Word2Vec implementation of Gensim 8 Toolkit."], "ms": ["Di sini, untuk perwakilan teks kapsyen, kami menggunakan ciri Word2Vec Fisher-Encoded.", "Untuk Embeddings yang dilatih pada korpus limpahan timbunan, kami menggunakan pelaksanaan Word2Vec Gensim 8 Toolkit."]}, {"en": ["Marcu and Echihabi presented an Unsupervised method to recognize discourse relations held between arbitrary spans of text.", "Marcu and Echihabi presented the Unsupervised approach to recognize the discourse relations by using word pair probabilities between two adjacent sentences."], "ms": ["Marcu dan Echihabi membentangkan kaedah Unsupervised untuk mengiktiraf hubungan wacana yang diadakan antara rentang teks sewenang-wenangnya.", "Marcu dan Echihabi membentangkan pendekatan Unsupervised untuk mengenali hubungan wacana dengan menggunakan kebarangkalian pasangan perkataan antara dua ayat bersebelahan."]}, {"en": ["This model extends the Phrase-Based model by using the formal synchronous grammar to well capture the Recursiveness of language during translation.", "The N-Gram translation model is a Markov model over Phrasal bilingual Tuples and can improve the Phrase-Based translation system by providing Contextual Dependencies between phrase pairs."], "ms": ["Model ini memanjangkan model Berasaskan Frasa dengan menggunakan tatabahasa segerak formal untuk menangkap Keberulangan bahasa semasa terjemahan.", "Model terjemahan N-Gram adalah model Markov berbanding Tuple dwibahasa Phrasal dan boleh meningkatkan sistem terjemahan Berasaskan Frasa dengan menyediakan Dependensi Kontekstual antara pasangan frasa."]}, {"en": ["In previous work using the Propbank corpus, Gildea and Palmer developed a system to predict semantic roles from sentences and their Parse trees as determined by the statistical Parser of Collins.", "Gildea and Palmer developed a system to predict semantic roles from sentences and their Parse trees as determined by the statistical Parser of Collins."], "ms": ["Dalam kerja-kerja terdahulu menggunakan korpus Propbank, Gildea dan Palmer membangunkan sistem untuk meramalkan peranan semantik dari ayat dan pokok Parse mereka seperti yang ditentukan oleh statistik Parser of Collins.", "Gildea dan Palmer membangunkan sistem untuk meramalkan peranan semantik dari ayat dan pokok Parse mereka seperti yang ditentukan oleh statistik Parser of Collins."]}, {"en": ["By using the teaching process, we can reduce the performance gap between mixed and upper case NER by as much as 39% for Muc-6 and 22% for Muc-7.", "For Muc-6, this way of using Unlabeled text can bring a relative reduction in errors of 38 . 68% between the upper case and mixed case Ners."], "ms": ["Dengan menggunakan proses pengajaran, kita dapat mengurangkan jurang prestasi antara NER kes campuran dan atas sebanyak 39% untuk Muc-6 dan 22% untuk Muc-7.", "Untuk Muc-6, cara menggunakan teks Unlabeled ini boleh membawa pengurangan relatif dalam kesilapan 38.68% antara kes atas dan kes campuran Ners."]}, {"en": ["In this paper, we investigate other methods for converting a System-Generated bit string into a memorable sequence of English words.", "In this paper, we investigate methods for converting arbitrary bit strings into English word sequences."], "ms": ["Dalam makalah ini, kami menyiasat kaedah lain untuk menukar rentetan bit yang dihasilkan oleh Sistem menjadi urutan kata-kata Inggeris yang tidak dapat dilupakan.", "Dalam kertas ini, kami menyiasat kaedah untuk menukar rentetan bit sewenang-wenangnya ke dalam urutan perkataan Inggeris."]}, {"en": ["As there is no standard Chinese corpus, no Chinese experimental results are reported in.", "As there is no standard Chinese corpus, no Chinese experimental results are reported in and."], "ms": ["Oleh kerana tidak ada korpus Cina standard, tidak ada hasil eksperimen Cina yang dilaporkan.", "Oleh kerana tidak ada korpus Cina standard, tidak ada hasil eksperimen Cina yang dilaporkan dalam dan."]}, {"en": ["Experimental results show our proposed framework Outperforms the state-of-the-art baseline by over 7% in F-Measure.", "Experimental results show that the proposed model achieves 83% in F-Measure, and Outperforms the state-of-the-art baseline."], "ms": ["Hasil eksperimen menunjukkan rangka kerja yang dicadangkan kami Melaksanakan garis dasar terkini dengan lebih 7% dalam F-Measure.", "Hasil eksperimen menunjukkan bahawa model yang dicadangkan mencapai 83% dalam F-Measure, dan Melaksanakan garis dasar terkini."]}, {"en": ["The most relevant work to this paper are Kazama and Torisawa, Toral and Munoz, Cucerzan, Richman and Schone.", "The most relevant to our work are Kazama and Torisawa, Toral and Mu\u5e3dOz, and Cucerzan."], "ms": ["Karya yang paling relevan dengan kertas ini ialah Kazama dan Torisawa, Toral dan Munoz, Cucerzan, Richman dan Schone.", "Yang paling relevan dengan kerja kami ialah Kazama dan Torisawa, Toral dan MuOz, dan Cucerzan."]}, {"en": ["With its growing size and coverage, the Internet has become an attractive source of material for linguistic resources, used both for linguistics and natural language processing applications.", "The web is a very rich source of linguistic data, and in the last few years it has been used intensively by linguists and language Technologists for many tasks."], "ms": ["Dengan saiz dan liputannya yang semakin meningkat, Internet telah menjadi sumber bahan yang menarik untuk sumber linguistik, yang digunakan untuk aplikasi pemprosesan bahasa dan bahasa semula jadi.", "Web adalah sumber data linguistik yang sangat kaya, dan dalam beberapa tahun kebelakangan ini ia telah digunakan secara intensif oleh ahli bahasa dan ahli teknologi bahasa untuk banyak tugas."]}, {"en": ["Looking at the Cue-Level scores, we find that the precision of our system and that of Morante and Daelemans drops by an equal amount for the Bsp Cross-Text testing.", "Having obtained the system output of Morante and Daelemans, however, we also computed Cue-Level scores for their system."], "ms": ["Melihat skor Cue-Level, kami mendapati bahawa ketepatan sistem kami dan Morante dan Daelemans jatuh dengan jumlah yang sama untuk ujian Bsp Cross-Text.", "Setelah memperoleh output sistem Morante dan Daelemans, bagaimanapun, kami juga mengira skor Cue-Level untuk sistem mereka."]}, {"en": ["In this paper, we expand ongoing research into Multi-Sense Embeddings by first proposing a new version based on Chinese restaurant processes that achieves state of the art performance on simple word similarity matching tasks.", "We introduce a Multi-Sense Embedding model based on Chinese restaurant processes that achieves state of the art performance on matching human word similarity judgments."], "ms": ["Dalam makalah ini, kami memperluas penyelidikan berterusan ke dalam Embedding Multi-Sense dengan pertama kali mencadangkan versi baru berdasarkan proses restoran Cina yang mencapai prestasi seni pada tugas yang sepadan dengan persamaan kata sederhana.", "Kami memperkenalkan model Multi-Sense Embedding berdasarkan proses restoran Cina yang mencapai prestasi seni pada penilaian kesamaan perkataan manusia yang sepadan."]}, {"en": ["In this paper, we propose a framework of Multi-Target Smt.", "In this paper, we have proposed a method for Multi-Target translation."], "ms": ["Dalam makalah ini, kami mencadangkan kerangka Multi-Target Smt.", "Dalam makalah ini, kami telah mencadangkan kaedah untuk terjemahan Multi-Target."]}, {"en": ["Cite-P-16-3-9 did suggest using syntactic errors in their work but did not investigate them in any detail.", "Cite-P-16-3-9 also suggested that syntactic features (syntactic errors) might be useful features, but only investigated this idea at a shallow level."], "ms": ["Cite-P-16-3-9 mencadangkan menggunakan kesilapan sintaktik dalam kerja mereka tetapi tidak menyiasat mereka dengan terperinci.", "Cite-P-16-3-9 juga mencadangkan bahawa ciri-ciri sintaktik (kesilapan sintaktik) mungkin merupakan ciri berguna, tetapi hanya menyiasat idea ini pada tahap cetek."]}, {"en": ["Semeval-2016 task 4 comprises five Subtasks, three of which represent a significant departure from previous editions.", "Semeval-2016 task 8 is the task of recovering this type of semantic formalism for plain text."], "ms": ["Semeval-2016 tugas 4 terdiri daripada lima Subtugas, tiga daripadanya mewakili pemergian yang ketara dari edisi sebelumnya.", "Semeval-2016 Task 8 adalah tugas memulihkan jenis formalisme semantik ini untuk teks biasa."]}, {"en": ["Semantic textual similarity measures the degree of equivalence between the meanings of two text sequences.", "Semantic textual similarity assess the degree to which two Snippets of text mean the same thing."], "ms": ["Kesamaan teks semantik mengukur tahap kesetaraan antara makna dua urutan teks.", "Keserupaan teks semantik menilai sejauh mana dua coretan teks bermaksud perkara yang sama."]}, {"en": ["The BLEU score or bilingual evaluation under study is a method to measure the difference between machine and human translations.", "The BLEU score, introduced by Papineni et al, is a metric for evaluating the quality of a candidate translation by comparing it to one or more reference translations."], "ms": ["Skor BLEU atau penilaian dwibahasa di bawah kajian adalah kaedah untuk mengukur perbezaan antara terjemahan mesin dan manusia.", "Skor BLEU, yang diperkenalkan oleh Papineni et al, adalah metrik untuk menilai kualiti terjemahan calon dengan membandingkannya dengan satu atau lebih terjemahan rujukan."]}, {"en": ["Logical derivations were used to combine clauses and remove easily Inferable clauses in.", "Logical derivations were used to combine clauses and to remove easily Inferrable clauses in."], "ms": ["Derivasi logik digunakan untuk menggabungkan klausa dan mengeluarkan klausa mudah disimpulkan dalam.", "Derivasi logik digunakan untuk menggabungkan klausa dan untuk membuang klausa mudah disimpulkan dalam."]}, {"en": ["The second one is a Reimplementation of a Phrase-Based Decoder with Lexicalized reordering model based on maximum entropy principle proposed by Xiong et al.", "The second one is a Btg Decoder with Lexicalized reordering model based on maximum entropy principle as proposed by Xiong et al."], "ms": ["Yang kedua ialah Penerapan Semula Dekoder Berasaskan Frasa dengan model penyusunan semula Lexicalized berdasarkan prinsip entropi maksimum yang dicadangkan oleh Xiong et al.", "Yang kedua ialah Btg Decoder dengan model penyusunan semula Lexicalized berdasarkan prinsip entropi maksimum seperti yang dicadangkan oleh Xiong et al."]}, {"en": ["A hybrid method called Tribayes is then introduced that combines the best of the previous two methods.", "A hybrid method, Tribayes, was then introduced to exploit this Complementarity by applying Trigrams."], "ms": ["Kaedah hibrid yang dipanggil Tribayes kemudian diperkenalkan yang menggabungkan yang terbaik dari dua kaedah sebelumnya.", "Satu kaedah hibrid, Tribayes, kemudian diperkenalkan untuk mengeksploitasi Pelengkapan ini dengan menggunakan Trigrams."]}, {"en": ["Hacioglu et al showed that tagging phrase by phrase is better than word by word.", "Hacioglu et al showed that tagging Phrase-Byphrase is better than Word-By-Word."], "ms": ["Hacioglu et al menunjukkan bahawa tag frasa mengikut frasa adalah lebih baik daripada perkataan demi perkataan.", "Hacioglu et al menunjukkan bahawa tag Phrase-Byphrase lebih baik daripada Word-By-Word."]}, {"en": ["Thus, the entropy is the logarithm of the local perplexity at a given point in the word string.", "Entropy is a measure of the uncertainty of a probability distribution."], "ms": ["Oleh itu, entropi adalah logaritma kebingungan tempatan pada titik tertentu dalam rentetan perkataan.", "Entropi adalah ukuran ketidakpastian pengagihan kebarangkalian."]}, {"en": ["In this paper, we showed how Oe Adverbials and Dongan Adverbials contribute to constructing the temporal interpretation of Korean sentences.", "In this paper, we Elucidate how Korean temporal markers, Oe and Dongan contribute to specifying the event."], "ms": ["Dalam makalah ini, kami menunjukkan bagaimana Oe Adverbials dan Dongan Adverbials menyumbang untuk membina tafsiran temporal ayat Korea.", "Dalam makalah ini, kami menerangkan bagaimana penanda temporal Korea, Oe dan Dongan menyumbang untuk menentukan acara tersebut."]}, {"en": ["Under this model, we incorporate various constraints to improve the linguistic quality of the compressed sentences.", "By incorporating this sentence compression model, our summarization system can yield significant performance gain in linguistic quality."], "ms": ["Di bawah model ini, kami menggabungkan pelbagai kekangan untuk meningkatkan kualiti linguistik ayat termampat.", "Dengan menggabungkan model pemampatan ayat ini, sistem penjumlahan kami dapat menghasilkan keuntungan prestasi yang signifikan dalam kualiti linguistik."]}, {"en": ["State-of-the-art statistical Parsers and Pos Taggers perform very well when trained with large amounts of In-Domain data.", "Statistical Parsers and Pos Taggers perform very well when trained with large amounts of data."], "ms": ["Parsers dan Pos Taggers statistik canggih berfungsi dengan baik apabila dilatih dengan sejumlah besar data In-Domain.", "Penggantungan statistik dan Pos Taggers berfungsi dengan baik apabila dilatih dengan sejumlah besar data."]}, {"en": ["We tried to follow the underlying idea of the task, that is, evaluating the gap of full-fledged recognizing textual Entailment systems with respect to compositional Distributional semantic models (Cdsms) applied to this task.", "Of the task, that is, evaluating the gap of full-fledged recognizing textual Entailment systems with respect to compositional Distributional semantic models (Cdsms) applied to this task."], "ms": ["Kami cuba mengikuti idea asas tugas, iaitu, menilai jurang sistem Entailment teks yang diiktiraf sepenuhnya berkenaan dengan model semantik Pengagihan komposisi (Cdsms) yang digunakan untuk tugas ini.", "Daripada tugas itu, iaitu, menilai jurang sistem Entailment teks yang diiktiraf sepenuhnya berkenaan dengan model semantik Pengagihan komposisi (Cdsms) yang digunakan untuk tugas ini."]}, {"en": ["A solution to this problem relies on the use of expectation maximization.", "Thus, optimizing this objective remains straightforward with the Expectation-Maximization algorithm."], "ms": ["Penyelesaian kepada masalah ini bergantung kepada penggunaan pemaksiman jangkaan.", "Oleh itu, mengoptimumkan objektif ini tetap mudah dengan algoritma Jangkaan-Maximization."]}, {"en": ["Wang and Jiang build Question-Aware passage representation with Match-Lstm, and predict answer boundaries in the passage with pointer networks.", "Wang and Jiang combine Match-Lstm, originally introduced in and pointer networks to produce the boundary of the answer."], "ms": ["Wang dan Jiang membina perwakilan petikan Question-Aware dengan Match-Lstm, dan meramalkan sempadan jawapan dalam petikan dengan rangkaian penuding.", "Wang dan Jiang menggabungkan Match-Lstm, yang pada asalnya diperkenalkan dalam dan rangkaian penuding untuk menghasilkan sempadan jawapan."]}, {"en": ["On the other hand, the majority of corpus Statistics approaches to Noun-Noun compound interpretation collect statistics on the occurrence frequency of the noun constituents and use them in a probabilistic model.", "On the other hand, the majority of corpus Statistics approaches to noun compound interpretation collect statistics on the occurrence frequency of the noun constituents and use them in a probabilistic model."], "ms": ["Sebaliknya, majoriti Statistik korpus pendekatan kepada tafsiran kompaun Noun-Noun mengumpul statistik mengenai kekerapan kejadian juzuk kata nama dan menggunakannya dalam model probabilistik.", "Sebaliknya, majoriti Statistik korpus pendekatan untuk tafsiran kompaun kata nama mengumpul statistik mengenai kekerapan kejadian juzuk kata nama dan menggunakannya dalam model probabilistik."]}, {"en": ["Section 3 shows that a Generative 1 LM built with our Classifier is competitive to modified Kneser-Ney smoothing and can outperform it if sufficiently rich features are incorporated.", "Our Classifier consistently matches modified Kneser-Ney smoothing and can outperform it if sufficiently rich features are incorporated."], "ms": ["Seksyen 3 menunjukkan bahawa Generative 1 LM yang dibina dengan Classifier kami adalah kompetitif untuk melicinkan Kneser-Ney yang diubahsuai dan boleh mengatasi jika ciri-ciri yang cukup kaya digabungkan.", "Pengelas kami secara konsisten sepadan dengan smoothing Kneser-Ney yang diubahsuai dan boleh mengatasi jika ciri-ciri yang cukup kaya digabungkan."]}, {"en": ["We evaluated our approach with experiments on three Multimodal tasks using public Datasets and compare its performance with state-of-the-art models.", "On the Multimodal emotion recognition task, our model achieves better results compared to the state-of-the-art models across all emotions."], "ms": ["Kami menilai pendekatan kami dengan eksperimen pada tiga tugas Multimodal menggunakan Dataset awam dan membandingkan prestasinya dengan model canggih.", "Pada tugas pengiktirafan emosi Multimodal, model kami mencapai hasil yang lebih baik berbanding model canggih di semua emosi."]}, {"en": ["We also introduce word appearance in context.", "To consider word order, and introduce word appearance in context."], "ms": ["Kami juga memperkenalkan penampilan perkataan dalam konteks.", "Untuk mempertimbangkan perintah perkataan, dan memperkenalkan penampilan perkataan dalam konteks."]}, {"en": ["Wei and GAO derived external features based on the relevant Tweet collection to assist the ranking of the original sentences for Extractive summarization in a fashion of supervised machine learning.", "Wei and GAO derived external features based on a collection of relevant Tweets to assist the ranking of the original sentences for highlight generation."], "ms": ["Wei dan GAO memperoleh ciri luaran berdasarkan koleksi Tweet yang berkaitan untuk membantu kedudukan ayat asal untuk ringkasan Ekstratif dalam cara pembelajaran mesin yang diawasi.", "Wei dan GAO memperoleh ciri luaran berdasarkan koleksi Tweet yang berkaitan untuk membantu kedudukan ayat asal untuk generasi kemuncak."]}, {"en": ["In this paper, we focus on an inference technique called amortized inference (Cite-P-13-3-0), where previous solutions to inference problems are used to speed up new instances.", "In this paper, first, we introduce a new amortized inference algorithm called the Margin-Based amortized inference, which uses the notion of structured margin to identify inference problems."], "ms": ["Dalam makalah ini, kami memberi tumpuan kepada teknik kesimpulan yang dipanggil kesimpulan pelunasan (Cite-P-13-3-0), di mana penyelesaian sebelumnya untuk masalah kesimpulan digunakan untuk mempercepat kejadian baru.", "Dalam makalah ini, pertama, kami memperkenalkan algoritma kesimpulan pelunasan baru yang disebut kesimpulan pelunasan Berasaskan Margin, yang menggunakan tanggapan margin berstruktur untuk mengenal pasti masalah kesimpulan."]}, {"en": ["Although the system performs well within a limited textual domain, further research is needed to make it effective for Open-Domain question answering and text Summarisation.", "Considering the Knowledge-Poor approach, experiments with a more complex textual domain show that the system is unsuitable for Wide-Coverage tasks such as question answering and Summarisation."], "ms": ["Walaupun sistem ini berfungsi dengan baik dalam domain teks yang terhad, penyelidikan lebih lanjut diperlukan untuk menjadikannya berkesan untuk menjawab soalan Open-Domain dan Summarisasi teks.", "Memandangkan pendekatan Knowledge-Poor, eksperimen dengan domain teks yang lebih kompleks menunjukkan bahawa sistem ini tidak sesuai untuk tugas-tugas Wide-Coverage seperti menjawab soalan dan Ringkasan."]}, {"en": ["Models based on the current scheme performed appreciably better than the baseline.", "Features derived from Annotated data performed better than a baseline trained on Unigram features."], "ms": ["Model berdasarkan skema semasa dilakukan dengan lebih baik daripada garis dasar.", "Ciri-ciri yang diperolehi daripada data Annotated dilakukan lebih baik daripada garis dasar yang dilatih pada ciri Unigram."]}, {"en": ["Consequently, the number of feature structures is no longer finite as defined in, and therefore the Generative capacity of the formalism is extended.", "Consequently the number of possible feature structures is no longer finite and therefore, in contrast to standard Ftag, the formalism is no longer equivalent to tag."], "ms": ["Oleh itu, bilangan struktur ciri tidak lagi terhingga seperti yang ditakrifkan dalam, dan oleh itu kapasiti Generatif formalisme diperluaskan.", "Oleh itu, bilangan struktur ciri yang mungkin tidak lagi terhingga dan oleh itu, berbeza dengan Ftag standard, formalisme tidak lagi setara dengan tag."]}, {"en": ["Generally, we may think of Math-W-2-6-1-123 as arbitrary strings over arbitrary Alphabets Math-W-2-6-1-142.", "That minimizes the sum of distances, for a given distance function Math-W-5-1-1-112, to a list of strings Math-W-5-1-1-124."], "ms": ["Secara amnya, kita mungkin menganggap Math-W-2-6-1-123 sebagai rentetan sewenang-wenang atas Alphabets sewenang-wenangnya Math-W-2-6-1-142.", "Ini meminimumkan jumlah jarak, untuk fungsi jarak tertentu Math-W-5-1-1-112, ke senarai rentetan Math-W-5-1-1-124."]}, {"en": ["Since most available Caption Datasets have been constructed for English language, there are few Datasets for Japanese.", "Recently, a few Caption Datasets in languages other than English have been constructed."], "ms": ["Oleh kerana kebanyakan Dataset Caption yang tersedia telah dibina untuk bahasa Inggeris, terdapat beberapa Dataset untuk bahasa Jepun.", "Baru-baru ini, beberapa Set Data Caption dalam bahasa selain bahasa Inggeris telah dibina."]}, {"en": ["We use Maege to Mimic a setting of ranking against Precision-Oriented outputs.", "We use Maege to perform a detailed analysis of metric behavior, showing that correcting some types of errors."], "ms": ["Kami menggunakan Maege ke Mimic penetapan kedudukan terhadap output Berorientasi Precision.", "Kami menggunakan Maege untuk melakukan analisis terperinci mengenai tingkah laku metrik, menunjukkan bahawa membetulkan beberapa jenis kesalahan."]}, {"en": ["The grammar matrix is couched within the Head-Driven phrase structure grammar framework.", "The grammar is grounded in the theoretical framework of Hpsg and uses minimal Recursion Semantics for the semantic representation."], "ms": ["Matriks tatabahasa terletak dalam rangka kerja tatabahasa struktur frasa Head-Driven.", "Tatabahasa ini didasarkan pada kerangka teori Hpsg dan menggunakan Semantik Rekursi minimum untuk perwakilan semantik."]}, {"en": ["We report results in terms of Case-Insensitive 4-Gram BLEU scores.", "We evaluate our results with Case-Sensitive Bleu-4 metric."], "ms": ["Kami melaporkan hasil dari segi skor BLEU 4-Gram yang tidak sensitif.", "Kami menilai keputusan kami dengan metrik Case-Sensitive Bleu-4."]}, {"en": ["To perform Qa, we used the framework of Berant et al, as implemented in Sempre.", "Our baseline system is the Parser of Berant et al, called Sempre."], "ms": ["Untuk melaksanakan Qa, kami menggunakan rangka kerja Berant et al, seperti yang dilaksanakan di Sempre.", "Sistem asas kami adalah Parser Berant et al, yang dipanggil Sempre."]}, {"en": ["Wikification is the task of identifying and linking expressions in text to their referent Wikipedia pages.", "Wikification is a particularly useful task for short messages such as Tweets because it allows a reader to easily grasp the related topics and enriched information from the KB."], "ms": ["Wikification adalah tugas mengenal pasti dan menghubungkan ungkapan dalam teks ke halaman Wikipedia rujukan mereka.", "Wikification adalah tugas yang sangat berguna untuk mesej pendek seperti Tweets kerana ia membolehkan pembaca memahami topik yang berkaitan dengan mudah dan maklumat yang diperkaya dari KB."]}, {"en": ["Also because word frequencies are Zipf-Distributed, this often means that there is little relevant training data for a substantial fraction of parameters, especially in New domains.", "Because word frequencies are Zipf distributed, this often means that there is little relevant training data for a substantial fraction of parameters, especially in New domains."], "ms": ["Juga kerana frekuensi perkataan adalah Zipf-Distributed, ini sering bermakna bahawa terdapat sedikit data latihan yang relevan untuk sebahagian kecil parameter, terutamanya dalam domain Baru.", "Oleh kerana frekuensi perkataan diedarkan Zipf, ini sering bermaksud bahawa terdapat sedikit data latihan yang relevan untuk sebahagian kecil parameter, terutama dalam domain Baru."]}, {"en": ["Word Embeddings are dense, low dimensional, and Real-Valued vectors that can capture syntactic and semantic properties of the words.", "Word vectors are distributed representations which are designed to carry Contextual information of words if their training meets certain criteria."], "ms": ["Embedding perkataan adalah vektor yang padat, rendah dimensi, dan Real-Valued yang boleh menangkap sifat sintaktik dan semantik perkataan.", "Vektor perkataan adalah perwakilan diedarkan yang direka untuk membawa maklumat kontekstual perkataan jika latihan mereka memenuhi kriteria tertentu."]}, {"en": ["Large scale knowledge bases like Dbpedia and Freebase provide structured information in diverse domains.", "Several massive knowledge bases such as Dbpedia and Freebase have been released."], "ms": ["Pangkalan pengetahuan berskala besar seperti Dbpedia dan Freebase menyediakan maklumat berstruktur dalam pelbagai domain.", "Beberapa pangkalan pengetahuan besar seperti Dbpedia dan Freebase telah dikeluarkan."]}, {"en": ["The Regressor used is a random forest Regressor in the implementation provided by Scikit-Learn.", "We use a random forest Classifier, as implemented in Scikit-Learn."], "ms": ["Regressor yang digunakan adalah Regressor hutan rawak dalam pelaksanaan yang disediakan oleh Scikit-Learn.", "Kami menggunakan Classifier hutan rawak, seperti yang dilaksanakan dalam Scikit-Learn."]}, {"en": ["Our model regards Associative Anaphora as a kind of zero Anaphora and resolves it in the same manner as zero Anaphora resolution that uses automatically acquired case frames.", "Model regards Associative Anaphora as a kind of zero Anaphora and resolves it in the same manner as zero Anaphora resolution using automatically acquired lexical knowledge."], "ms": ["Model kami menganggap Anaphora Asosiatif sebagai sejenis Anaphora sifar dan menyelesaikannya dengan cara yang sama seperti resolusi Anaphora sifar yang menggunakan bingkai kes yang diperoleh secara automatik.", "Model menganggap Anaphora Asosiatif sebagai sejenis Anaphora sifar dan menyelesaikannya dengan cara yang sama seperti resolusi Anaphora sifar menggunakan pengetahuan leksikal yang diperoleh secara automatik."]}, {"en": ["After topics are discovered by topic modeling techniques, these topics are conventionally represented by their top N words or terms.", "With topic modeling, the top associated words of topics can be used as good Descriptors for topics in a hierarchy."], "ms": ["Selepas topik ditemui oleh teknik pemodelan topik, topik-topik ini secara konvensional diwakili oleh kata-kata atau istilah N teratas mereka.", "Dengan pemodelan topik, perkataan topik yang berkaitan dengan bahagian atas boleh digunakan sebagai Penerangan yang baik untuk topik dalam hierarki."]}, {"en": ["The Predictions-As-Features methods suffer from the drawback that they methods can \u2019 t model Dependencies between current label and the latter labels.", "For one label, the Predictions-As-Features methods can model Dependencies between former labels and the current label, but they can \u2019 t model Dependencies between the current label and the latter labels."], "ms": ["Kaedah Predictions-As-Features mengalami kelemahan bahawa kaedah mereka boleh model Dependensi antara label semasa dan label terakhir.", "Untuk satu label, kaedah Predictions-As-Features boleh memodelkan Dependencies antara label bekas dan label semasa, tetapi mereka boleh model Dependencies antara label semasa dan label terakhir."]}, {"en": ["In this paper our focus is on choosing useful Bigrams and estimating accurate weights to use in the Concept-Based Ilp methods.", "In this paper, we adopt the Ilp based summarization framework, and propose methods to improve Bigram concept."], "ms": ["Dalam makalah ini, tumpuan kami adalah untuk memilih Bigrams yang berguna dan menganggarkan berat yang tepat untuk digunakan dalam kaedah Ilp Berasaskan Konsep.", "Dalam makalah ini, kami mengadopsi kerangka summarisasi berbasis Ilp, dan mengusulkan metode untuk meningkatkan konsep Bigram."]}, {"en": ["Marcu and Echihabi presented an Unsupervised method to recognize discourse relations held between arbitrary spans of text.", "Marcu and Echihabi 2002) proposed a method to identify discourse relations between text segments using Na\u8302Ve Bayes classifiers trained on a huge corpus."], "ms": ["Marcu dan Echihabi membentangkan kaedah Unsupervised untuk mengiktiraf hubungan wacana yang diadakan antara rentang teks sewenang-wenangnya.", "Marcu dan Echihabi 2002) mencadangkan kaedah untuk mengenal pasti hubungan wacana antara segmen teks menggunakan pengelas NaVe Bayes yang dilatih pada korpus besar."]}, {"en": ["And we utilized Hmm method for Pos tagging and Morpheme-Analysis-Based method to predict POSS for new words.", "And they utilized Hmm method for Pos tagging and Morpheme-Analysis-Based method to predict POSS for new words."], "ms": ["Dan kami menggunakan kaedah Hmm untuk penandaan Pos dan kaedah Morpheme-Analysis-Based untuk meramalkan POSS untuk perkataan baru.", "Dan mereka menggunakan kaedah Hmm untuk penandaan Pos dan kaedah Morpheme-Analysis-Based untuk meramalkan POSS untuk perkataan baru."]}, {"en": ["Summarization is the task of condensing a piece of text to a shorter version that contains the main information from the original.", "Summarization is a classic text processing problem."], "ms": ["Ringkasan adalah tugas untuk memampatkan sekeping teks ke versi yang lebih pendek yang mengandungi maklumat utama dari yang asal.", "Ringkasan adalah masalah pemprosesan teks klasik."]}, {"en": ["Second, we develop a novel integer linear programming (Ilp) based abstractive summarization technique to generate text from the classified content.", "Second, we propose a novel abstractive summarization technique based on an optimization framework that generates Section-Specific summaries for Wikipedia."], "ms": ["Kedua, kami membangunkan satu teknik summarisasi abstraktif berasaskan integer integer novel (Ilp) untuk menghasilkan teks dari kandungan diklasifikasikan.", "Kedua, kami mencadangkan teknik ringkasan abstraktif novel berdasarkan kerangka pengoptimuman yang menghasilkan ringkasan Seksyen-Spesifik untuk Wikipedia."]}, {"en": ["Because similarity is only one particular type of relatedness, comparison to similarity norms fails to give a complete view of a relatedness measure \u2019 s efficacy.", "Since similarity is only one type of relatedness, comparison to similarity norms fails to provide a complete view of a measure \u2019 s ability to capture more general types of relatedness."], "ms": ["Kerana persamaan hanya satu jenis keserasian tertentu, perbandingan dengan norma keserasian gagal memberikan pandangan lengkap mengenai ukuran keserasian dan keberkesanannya.", "Oleh kerana persamaan hanya satu jenis keserasian, perbandingan dengan norma keserasian gagal memberikan pandangan lengkap mengenai keupayaan mengukur untuk menangkap jenis keserasian yang lebih umum."]}, {"en": ["In section 2 we discuss related work, section 3 details the algorithm, section 4 describes the evaluation protocol and section 5 presents our results.", "In section 2 we discuss related work, section 3 details the algorithm, section 4 describes the evaluation protocol."], "ms": ["Dalam seksyen 2 kita membincangkan kerja yang berkaitan, seksyen 3 memperincikan algoritma, seksyen 4 menerangkan protokol penilaian dan seksyen 5 membentangkan keputusan kami.", "Dalam seksyen 2 kita membincangkan kerja yang berkaitan, seksyen 3 memperincikan algoritma, seksyen 4 menerangkan protokol penilaian."]}, {"en": ["Kim and Hovy and Bethard et al explore the usefulness of semantic roles provided by Framenet for both opinion holder and opinion target extraction.", "Kim and Hovy and Bethard et al examine the usefulness of semantic roles provided by Framenet 1 for both Oh and opinion target extraction."], "ms": ["Kim dan Hovy dan Bethard et al meneroka kegunaan peranan semantik yang disediakan oleh Framenet untuk kedua-dua pemegang pendapat dan pengekstrakan sasaran pendapat.", "Kim dan Hovy dan Bethard et al mengkaji kegunaan peranan semantik yang disediakan oleh Framenet 1 untuk kedua-dua Oh dan pengekstrakan sasaran pendapat."]}, {"en": ["Nevertheless, it is well-known that K-Means has the major drawback of not being able to separate data points that are not linearly separable in the given feature space ,.", "Nevertheless, it is well-known that K-Means has the major drawback of not being able to separate data points that are not linearly separable in the given feature space and cai et al ,."], "ms": ["Walau bagaimanapun, adalah diketahui bahawa K-Means mempunyai kelemahan utama kerana tidak dapat memisahkan titik data yang tidak dapat dipisahkan secara linear dalam ruang ciri yang diberikan.", "Walau bagaimanapun, adalah diketahui bahawa K-Means mempunyai kelemahan utama kerana tidak dapat memisahkan titik data yang tidak dapat dipisahkan secara linear dalam ruang ciri yang diberikan dan cai et al."]}, {"en": ["Systems were Optimized on the Wmt08 French-English development data using minimum error rate training and tested on the Wmt08 test data.", "The Smt system was tuned on the development set Newstest10 with minimum error rate training using the BLEU error rate measure as the optimization criterion."], "ms": ["Sistem telah dioptimumkan pada data pembangunan Wmt08 Perancis-Inggeris menggunakan latihan kadar ralat minimum dan diuji pada data ujian Wmt08.", "Sistem Smt ditala pada set pembangunan Newstest10 dengan latihan kadar ralat minimum menggunakan ukuran kadar ralat BLEU sebagai kriteria pengoptimuman."]}, {"en": ["Semantic roles are obtained by using the Parser by Zhang et al.", "Semantic roles were obtained by using the Parser by Zhang et al."], "ms": ["Peranan semantik diperolehi dengan menggunakan Parser oleh Zhang et al.", "Peranan semantik diperolehi dengan menggunakan Parser oleh Zhang et al."]}, {"en": ["In this paper, we experiment with three different methods of Pos error detection using the Ifd corpus.", "In this paper, we experiment with three complementary methods for automatically detecting errors in the Pos Annotation."], "ms": ["Dalam makalah ini, kami bereksperimen dengan tiga kaedah pengesanan ralat Pos yang berbeza menggunakan korpus Ifd.", "Dalam makalah ini, kami bereksperimen dengan tiga kaedah pelengkap untuk mengesan kesilapan secara automatik dalam Pos Annotation."]}, {"en": ["The experiments were done on the English Penn Treebank, using standard Head-Percolation rules to convert the phrase structure into dependency trees.", "The English experiments were performed on the Penn Treebank, using a standard set of Head-Selection rules to convert the phrase structure syntax of the Treebank to a dependency tree representation."], "ms": ["Eksperimen dilakukan pada Penn Treebank Inggeris, menggunakan peraturan Head-Percolation standard untuk menukar struktur frasa menjadi pokok dependensi.", "Eksperimen bahasa Inggeris dilakukan di Penn Treebank, menggunakan set peraturan Pilihan Kepala standard untuk menukar sintaks struktur frasa Treebank menjadi perwakilan pokok dependensi."]}, {"en": ["We evaluate and compare both approaches on two lexical substitution Datasets, one English and one German.", "We use two standard lexical substitution Datasets, one English and one German."], "ms": ["Kami menilai dan membandingkan kedua-dua pendekatan pada dua Dataset penggantian leksikal, satu bahasa Inggeris dan satu bahasa Jerman.", "Kami menggunakan dua Dataset penggantian leksikal standard, satu bahasa Inggeris dan satu bahasa Jerman."]}, {"en": ["We introduce Non-Lexical rules using the same approach as for the Hierarchical rules of Chiang.", "We extract Hierarchical rules from the aligned parallel texts using the constraints developed by Chiang."], "ms": ["Kami memperkenalkan peraturan Non-Lexical menggunakan pendekatan yang sama seperti peraturan Hierarki Chiang.", "Kami mengekstrak peraturan Hierarki daripada teks selari yang sejajar menggunakan kekangan yang dibangunkan oleh Chiang."]}, {"en": ["This method is an Entropy-Based cutoff method, and can be considered an extension of the work of Seymore and Rosenfeld.", "Among them, probability is very similar to that proposed by Seymore and Rosenfeld."], "ms": ["Kaedah ini adalah kaedah pemotongan berasaskan Entropi, dan boleh dianggap sebagai lanjutan kerja Seymore dan Rosenfeld.", "Antaranya, kebarangkalian adalah sangat serupa dengan yang dicadangkan oleh Seymore dan Rosenfeld."]}, {"en": ["Recaps not only help the audience absorb the essence of previous episodes, but also grab People\u00a1\u00afS attention with upcoming plots.", "Shows help the audience absorb the essence of previous episodes, and grab their attention with upcoming plots."], "ms": ["Recaps bukan sahaja membantu penonton menyerap intipati episod sebelumnya, tetapi juga menarik perhatian People S dengan plot yang akan datang.", "Rancangan membantu penonton menyerap intipati episod sebelumnya, dan menarik perhatian mereka dengan plot yang akan datang."]}, {"en": ["We implemented our models in Pytorch with a Codebase derived from Opennmt-Py.", "We implemented all models in python using the Pytorch deep learning library."], "ms": ["Kami melaksanakan model kami di Pytorch dengan Codebase yang berasal dari Opennmt-Py.", "Kami melaksanakan semua model dalam python menggunakan perpustakaan pembelajaran mendalam Pytorch."]}, {"en": ["We define a new task, argument facet similarity (Afs), and show that we can predict Afs with a .54 correlation score, versus an Ngram system baseline of .39 and a semantic textual similarity system baseline of .45.", "We introduce a new task of argument facet similarity (Afs) aimed at identifying facets across opinionated Dialogs and show that we can identify Afs with a correlation of . 54."], "ms": ["Kami menentukan tugas baru, persamaan aspek hujah (Afs), dan menunjukkan bahawa kita boleh meramalkan Afs dengan skor korelasi.54, berbanding garis dasar sistem Ngram.39 dan garis dasar sistem persamaan teks semantik.45.", "Kami memperkenalkan tugas baru persamaan aspek hujah (Afs) yang bertujuan untuk mengenal pasti aspek di seluruh Dialog pendapat dan menunjukkan bahawa kita boleh mengenal pasti Afs dengan korelasi."]}, {"en": ["In this paper, we propose to strike a balance between availability and Restrictedness by making use of discourse markers.", "In this paper, we proposed to use discourse markers as indicators for paradigmatic relations between words."], "ms": ["Dalam makalah ini, kami mencadangkan untuk mencapai keseimbangan antara ketersediaan dan Sekatan dengan menggunakan penanda wacana.", "Dalam makalah ini, kami mencadangkan untuk menggunakan penanda wacana sebagai penunjuk untuk hubungan paradigmatik antara perkataan."]}, {"en": ["Each target word occurs in a sentence and it may be the case that those words surrounding the target give extra information as to its complexity.", "And it may be the case that those words surrounding the target give extra information as to its complexity."], "ms": ["Setiap kata sasaran berlaku dalam ayat dan mungkin berlaku bahawa kata-kata yang mengelilingi sasaran memberikan maklumat tambahan mengenai kerumitannya.", "Dan mungkin kata-kata yang mengelilingi sasaran memberikan maklumat tambahan mengenai kerumitannya."]}, {"en": ["In this paper, we propose to incorporate the supervised method into the Concept-Based Ilp framework.", "In this paper, we propose a Bigram based supervised method for Extractive document summarization."], "ms": ["Dalam makalah ini, kami mencadangkan untuk memasukkan kaedah yang diawasi ke dalam kerangka Ilp Berasaskan Konsep.", "Dalam makalah ini, kami mencadangkan kaedah yang diawasi berdasarkan Bigram untuk ringkasan dokumen Extractive."]}, {"en": ["However, aspect extraction is a complex task that also requires fine-grained domain Embeddings.", "Aspect extraction is a key task of opinion mining (Cite-P-15-1-14)."], "ms": ["Walau bagaimanapun, pengekstrakan aspek adalah tugas yang kompleks yang juga memerlukan pengekodan domain halus.", "Pengekstrakan aspek adalah tugas utama perlombongan pendapat (Cite-P-15-1-14)."]}, {"en": ["Garfield was the first to define a classification scheme, while Finney was the first to suggest that a citation Classifier could be automated.", "Garfield is probably the first to discuss an automatic computation of a citation classification."], "ms": ["Garfield adalah yang pertama untuk menentukan skim pengelasan, manakala Finney adalah yang pertama untuk mencadangkan bahawa pengelasan petikan boleh automatik.", "Garfield mungkin yang pertama membincangkan pengiraan automatik klasifikasi petikan."]}, {"en": ["In this paper, we describe our approach to intermediate semantic representations in the interpretation of temporal expressions.", "In this paper, we are concerned with the interpretation of temporal expressions in text: that is, given an occurrence in a text of an expression like that marked in italics."], "ms": ["Dalam makalah ini, kami menerangkan pendekatan kami untuk perwakilan semantik perantaraan dalam tafsiran ungkapan temporal.", "Dalam makalah ini, kita prihatin dengan tafsiran ungkapan temporal dalam teks: iaitu, diberikan kejadian dalam teks ungkapan seperti yang ditandai dalam italik."]}, {"en": ["We evaluate our method by means of the Europarl corpus.", "We have compiled a suitable corpus for this task from the Europarl corpus."], "ms": ["Kami menilai kaedah kami melalui korpus Europarl.", "Kami telah menyusun korpus yang sesuai untuk tugas ini dari korpus Europarl."]}, {"en": ["The recently suggested idea of partial textual Entailment may remedy this problem.", "Textual Entailment can be successfully adapted to this setting."], "ms": ["Idea yang dicadangkan baru-baru ini mengenai Entailment teks separa boleh menyelesaikan masalah ini.", "Entailment Tekstual boleh berjaya disesuaikan dengan tetapan ini."]}, {"en": ["Our approach can therefore be adapted to languages with dependency Treebanks, since Ccg lexical categories can be easily extracted from dependency Treebanks.", "Our approach can therefore be adapted to other languages with dependency Treebanks, since Ccg lexical categories can be easily extracted from dependency Treebanks."], "ms": ["Oleh itu, pendekatan kami boleh disesuaikan dengan bahasa dengan dependency Treebanks, kerana kategori leksikal Ccg boleh dengan mudah diekstrak dari dependency Treebanks.", "Oleh itu, pendekatan kami boleh disesuaikan dengan bahasa lain dengan Treebank dependensi, kerana kategori leksikal Ccg boleh dengan mudah diekstrak dari Treebank dependensi."]}, {"en": ["Unfortunately, many knowledge graph entities lack such textual descriptions.", "Knowledge graphs often lack a succinct textual description."], "ms": ["Malangnya, banyak entiti graf pengetahuan kekurangan deskripsi teks seperti itu.", "Graf pengetahuan sering kekurangan penerangan teks ringkas."]}, {"en": ["This paper presents an Open-Domain textual Question-Answering system that uses several feedback loops to enhance its performance.", "This paper has presented a Q & / a system that employs several feedback mechanisms that provide lexical and semantic alternations to the question."], "ms": ["Kertas ini membentangkan sistem Jawapan Soalan Tekstual Open-Domain yang menggunakan beberapa gelung maklum balas untuk meningkatkan prestasinya.", "Kertas kerja ini telah membentangkan sistem Q&/ yang menggunakan beberapa mekanisme maklum balas yang memberikan perubahan leksikal dan semantik kepada soalan."]}, {"en": ["Recent studies on review helpfulness prediction have been shown effective by using Handcrafted features.", "Recent studies on review helpfulness require plenty of labeled samples."], "ms": ["Kajian terkini mengenai kajian ramalan keberkesanan telah ditunjukkan berkesan dengan menggunakan ciri-ciri buatan tangan.", "Kajian terkini mengenai kajian keberkesanan memerlukan banyak sampel berlabel."]}, {"en": ["Minimum error rate training is a crucial component to many state-of-the-art Nlp applications, such as machine translation and speech recognition.", "Minimum error rate training is the algorithm for Log-Linear model parameter training most used in state-of-the-art statistical machine translation systems."], "ms": ["Latihan kadar ralat minimum adalah komponen penting bagi banyak aplikasi Nlp canggih, seperti terjemahan mesin dan pengiktirafan pertuturan.", "Latihan kadar ralat minimum adalah algoritma untuk latihan parameter model Log-Linear yang paling banyak digunakan dalam sistem terjemahan mesin statistik terkini."]}, {"en": ["Uccaapp supports Annotation with a variety of formal properties, including Discontiguous units, Inter-Sentence Annotation, Reentrancy and Multi-Layered Annotation, making it suitable for other syntactic and semantic Annotation schemes that use these properties.", "Uccaapp supports a variety of formal properties that have proven useful for syntactic and semantic representation, such as Discontiguous phrases, multiple parents and empty elements."], "ms": ["Uccaapp menyokong Annotasi dengan pelbagai sifat formal, termasuk unit Discontiguous, Annotasi Inter-Sentence, Reentrancy dan Multi-Layered Annotation, menjadikannya sesuai untuk skema Annotasi sintaktik dan semantik lain yang menggunakan sifat-sifat ini.", "Uccaapp menyokong pelbagai sifat formal yang telah terbukti berguna untuk perwakilan sintaktik dan semantik, seperti frasa yang tidak jelas, pelbagai ibu bapa dan unsur kosong."]}, {"en": ["Part-Of-Speech tags are obtained using the Treetag-Ger.", "The Treetagger is employed to compile a Part-Of-Speech tagged word frequency list."], "ms": ["Tag Part-Of-Speech diperolehi menggunakan Treetag-Ger.", "Treetagger digunakan untuk menyusun senarai frekuensi perkataan yang ditandai Bahagian-Daripada-Pertuturan."]}, {"en": ["Lapata and brew and Li and brew proposed probabilistic models for calculating prior probabilities of verb classes for a verb.", "Lapata and brew and Li and brew focused on this issue, and described methods for inducing probabilities of Verb-Class associations."], "ms": ["Lapata dan brew dan Li dan brew mencadangkan model probabilistik untuk mengira kebarangkalian kelas kata kerja sebelumnya untuk kata kerja.", "Lapata dan brew dan Li dan brew memberi tumpuan kepada isu ini, dan menerangkan kaedah untuk mendorong kemungkinan persatuan Verb-Class."]}, {"en": ["As there are many other Nlp problems in which there is an interesting minority class, the BRF method might be applied to those problems also.", "In which there is an interesting minority class, the BRF method might be applied to those problems."], "ms": ["Oleh kerana terdapat banyak masalah Nlp lain di mana terdapat kelas minoriti yang menarik, kaedah BRF mungkin digunakan untuk masalah tersebut juga.", "Di mana terdapat kelas minoriti yang menarik, kaedah BRF mungkin digunakan untuk masalah tersebut."]}, {"en": ["Wang et al proposed the topical N-Gram model that adds a layer of complexity to allow the formation of Bigrams to be determined by the context.", "Besides, Wang et al proposed the topical N-Gram model that allows the generation of Ngrams based on the context."], "ms": ["Wang et al mencadangkan model N-Gram topikal yang menambah lapisan kerumitan untuk membolehkan pembentukan Bigrams ditentukan oleh konteks.", "Selain itu, Wang et al mencadangkan model N-Gram topikal yang membolehkan generasi Ngram berdasarkan konteks."]}, {"en": ["Applying our methods to the task of compound noun interpretation, we have shown that combining lexical and relational similarity is a very effective approach that Surpasses either similarity model taken individually.", "We apply our methods to a compound interpretation task and demonstrate that combining models of lexical and relational similarity can give state-of-the-art results on a compound noun interpretation task, surpassing the performance attained by either model taken alone."], "ms": ["Menggunakan kaedah kami untuk tugas tafsiran kata nama kompaun, kami telah menunjukkan bahawa menggabungkan persamaan leksikal dan hubungan adalah pendekatan yang sangat berkesan yang Menyelesaikan sama ada model persamaan diambil secara individu.", "Kami menggunakan kaedah kami untuk tugas tafsiran kompaun dan menunjukkan bahawa menggabungkan model persamaan leksikal dan hubungan dapat memberikan hasil canggih pada tugas tafsiran kata nama kompaun, melebihi prestasi yang dicapai oleh salah satu model yang diambil sendiri."]}, {"en": ["For Chinese, the Concatenated Trigram model in Shao et al is applied.", "For Chinese, the Concatenated Trigram model introduced in Shao et al is employed."], "ms": ["Bagi orang Cina, model Trigram Concatenated dalam Shao et al digunakan.", "Bagi orang Cina, model Concatenated Trigram yang diperkenalkan dalam Shao et al digunakan."]}, {"en": ["To determine the word classes, one can use the algorithm of Brown et al for finding the classes.", "We used the Brown word clustering algorithm to obtain the word clusters."], "ms": ["Untuk menentukan kelas perkataan, seseorang boleh menggunakan algoritma Brown et al untuk mencari kelas.", "Kami menggunakan algoritma pengelompokan perkataan Brown untuk mendapatkan kluster perkataan."]}, {"en": ["The translation model was smoothed in both directions with Kn smoothing.", "The translation model was smoothed in both directions with Kneser-Ney smoothing."], "ms": ["Model terjemahan telah dilicinkan dalam kedua-dua arah dengan Kn smoothing.", "Model terjemahan dilicinkan dalam kedua-dua arah dengan smoothing Kneser-Ney."]}, {"en": ["In this article we survey past and current work on question answering in restricted domains.", "We have presented an overview of methods used in Qa in restricted domains."], "ms": ["Dalam artikel ini kami meninjau kerja masa lalu dan semasa mengenai jawapan soalan dalam domain terhad.", "Kami telah membentangkan gambaran keseluruhan kaedah yang digunakan dalam Qa dalam domain terhad."]}, {"en": ["These curves clearly demonstrate that parameter averaging helps to stabilize the learning and improve generalization capacity.", "Averaging the model parameters is effective in stabilizing the learning and improves generalization capacity."], "ms": ["Keluk ini jelas menunjukkan bahawa parameter purata membantu menstabilkan pembelajaran dan meningkatkan kapasiti generalisasi.", "Menguatkan parameter model adalah berkesan dalam menstabilkan pembelajaran dan meningkatkan kapasiti generalisasi."]}, {"en": ["This system uses Discriminative Large-Margin learning techniques coupled with a decoding algorithm that searches the space of all Compressions.", "That uses a Discriminative Large-Margin learning framework coupled with a novel feature set defined on compressed Bigrams."], "ms": ["Sistem ini menggunakan teknik pembelajaran skala besar-Margin yang diskriminatif ditambah dengan algoritma penyahkodan yang mencari ruang semua Pemampatan.", "Itu menggunakan kerangka pembelajaran Large-Margin Discriminative ditambah dengan set ciri novel yang ditakrifkan pada Bigrams yang dimampatkan."]}, {"en": ["Summarization is a classic text processing problem.", "Summarization is a Well-Studied problem in the literature."], "ms": ["Ringkasan adalah masalah pemprosesan teks klasik.", "Ringkasan adalah masalah yang dikaji dengan baik dalam kesusasteraan."]}, {"en": ["A challenge set consists of a small set of sentences, each Hand-Designed to probe a system \u2019 s capacity to bridge a particular structural divergence between languages.", "Our challenge set consists of short sentences that each focus on one particular phenomenon, which makes it easy to collect reliable manual assessments of mt output by asking direct Yes-No questions."], "ms": ["Satu set cabaran terdiri daripada satu set kecil ayat, setiap Hand-Designed untuk menyiasat sistem dan keupayaan untuk jambatan perbezaan struktur tertentu antara bahasa.", "Set cabaran kami terdiri daripada ayat pendek yang masing-masing memberi tumpuan kepada satu fenomena tertentu, yang memudahkan untuk mengumpul penilaian manual output mt yang boleh dipercayai dengan bertanya soalan Ya-Tidak langsung."]}, {"en": ["However, to the best of our knowledge, there is no attempt in the literature to build a resource that Associates words with senses.", "There is no attempt in the literature to automatically associate words with human senses, in this section."], "ms": ["Walau bagaimanapun, untuk pengetahuan kami yang terbaik, tidak ada percubaan dalam kesusasteraan untuk membina sumber yang Associates perkataan dengan deria.", "Tidak ada percubaan dalam kesusasteraan untuk mengaitkan perkataan secara automatik dengan deria manusia, dalam bahagian ini."]}, {"en": ["This weight vector is learned using a simple Perceptron like algorithm similar to the one used in.", "The model is trained using a variant of the structured Perceptron, similar to the algorithm of."], "ms": ["Vektor berat ini dipelajari menggunakan Perceptron mudah seperti algoritma yang serupa dengan yang digunakan dalam.", "Model ini dilatih menggunakan varian Perceptron berstruktur, serupa dengan algoritma."]}, {"en": ["Intrinsic evaluation of the resulting vectors shows that geographic context alone does provide useful information about semantic relatedness.", "Using intrinsic methods of evaluation, we show that the resulting Geo-Word Embeddings themselves Encode information about semantic relatedness."], "ms": ["Penilaian intrinsik vektor yang dihasilkan menunjukkan bahawa konteks geografi sahaja memberikan maklumat berguna mengenai hubungan semantik.", "Menggunakan kaedah penilaian intrinsik, kami menunjukkan bahawa Embedding Geo-Word yang dihasilkan sendiri Mengenal pasti maklumat mengenai hubungan semantik."]}, {"en": ["This kernel has shown very promising results in SRL.", "Kernel has shown promising results in semantic role classification."], "ms": ["Kernel ini telah menunjukkan hasil yang sangat menjanjikan dalam SRL.", "Kernel telah menunjukkan hasil yang menjanjikan dalam pengelasan peranan semantik."]}, {"en": ["In this paper, we propose an approach that favors the use of normalized Dictionaries by generating Virtual/Materialized personalized views.", "And considering the personalized needs of users, we propose an approach for generating personalized views starting from a normalized dictionary with respect to lexical MARKUP framework."], "ms": ["Dalam makalah ini, kami mencadangkan pendekatan yang menyokong penggunaan Kamus yang dinormalisasi dengan menghasilkan pandangan peribadi Maya / Materi.", "Dan memandangkan keperluan pengguna yang diperibadikan, kami mencadangkan pendekatan untuk menghasilkan pandangan peribadi bermula dari kamus yang dinormalisasi berkenaan dengan kerangka MARKUP leksikal."]}, {"en": ["In the context of Ir, Decompounding has an analogous effect to stemming, and it significantly improves Retrieval results (Cite-P-26-3-1).", "In the context of Ir, Decompounding has an analogous effect to stemming, and it significantly improves Retrieval."], "ms": ["Dalam konteks Ir, Decompounding mempunyai kesan analog untuk stemming, dan ia meningkatkan hasil Retrieval (Cite-P-26-3-1) dengan ketara.", "Dalam konteks Ir, Decompounding mempunyai kesan analog untuk stemming, dan ia meningkatkan Retrieval dengan ketara."]}, {"en": ["Examples of such neural networks are linear networks, deeper Feed-Forward neural networks, or recurrent neural networks.", "The proposed neural models have a large number of variations, such as Feed-Forward networks, Hierarchical models, recurrent neural networks, and recursive neural networks."], "ms": ["Contoh rangkaian neural sedemikian ialah rangkaian linear, rangkaian neural Feed-Forward yang lebih mendalam, atau rangkaian neural berulang.", "Model neural yang dicadangkan mempunyai sejumlah besar variasi, seperti rangkaian Feed-Forward, model Hierarki, rangkaian neural berulang, dan rangkaian neural berulang."]}, {"en": ["In linguistics various subtypes of elliptical constructions are studied.", "Numerous subtypes of elliptical constructions are distinguished in linguistics."], "ms": ["Dalam linguistik pelbagai subjenis pembinaan elips dikaji.", "Banyak subjenis pembinaan elips dibezakan dalam linguistik."]}, {"en": ["Experimental results indicate that this method can consistently and significantly improve translation quality over individual translation outputs.", "Experimental results on spoken language translation show that this hybrid method significantly improves the translation quality, which Outperforms the method."], "ms": ["Hasil eksperimen menunjukkan bahawa kaedah ini dapat meningkatkan kualiti terjemahan secara konsisten dan signifikan berbanding output terjemahan individu.", "Hasil eksperimen pada terjemahan bahasa lisan menunjukkan bahawa kaedah hibrid ini secara signifikan meningkatkan kualiti terjemahan, yang Outperforms kaedah."]}, {"en": ["In this paper, we are concerned with the reasons that cause the errors.", "In this paper, we analyze the reasons that cause errors."], "ms": ["Dalam kertas ini, kita bimbang dengan sebab-sebab yang menyebabkan kesilapan.", "Dalam kertas ini, kita menganalisis sebab-sebab yang menyebabkan kesilapan."]}, {"en": ["The neural networks are trained using an extension of the Rwthlm Toolkit.", "The Alignment-Based Nns are trained using an extension of the Rwthlm Toolkit."], "ms": ["Rangkaian saraf dilatih menggunakan lanjutan Rwthlm Toolkit.", "Nns Berasaskan Penjajahan dilatih menggunakan lanjutan Rwthlm Toolkit."]}, {"en": ["As a sequence Labeler we use conditional random fields.", "In particular, we consider conditional random fields and a variation of Autoslog."], "ms": ["Sebagai Label jujukan kita menggunakan medan rawak bersyarat.", "Khususnya, kita mempertimbangkan medan rawak bersyarat dan variasi Autoslog."]}, {"en": ["As mentioned in previous sections, we apply our measure word generation Module into Smt output as a Post-Processing step.", "As mentioned in previous sections, we apply our measure word generation Module into Smt output."], "ms": ["Seperti yang dinyatakan dalam bahagian sebelumnya, kami menggunakan Modul penjanaan perkataan ukuran kami ke output Smt sebagai langkah Pasca Pemprosesan.", "Seperti yang dinyatakan dalam bahagian sebelumnya, kami menggunakan Modul penjanaan perkataan ukuran kami ke dalam output Smt."]}, {"en": ["One of the earliest work is an extension of Word2Vec to learn a distributed representation of text.", "Pv is an Unsupervised framework that learns distributed representations for sentences and documents."], "ms": ["Salah satu karya terawal adalah lanjutan Word2Vec untuk mempelajari perwakilan teks yang diedarkan.", "Pv adalah rangka kerja yang tidak diawasi yang mempelajari perwakilan diedarkan untuk ayat dan dokumen."]}, {"en": ["We also applied topic modeling in order to get topic distributions over set of sentences.", "We also apply topic modeling in order to get topic distribution over each sentence set."], "ms": ["Kami juga menggunakan pemodelan topik untuk mendapatkan pengedaran topik di atas set ayat.", "Kami juga menggunakan pemodelan topik untuk mendapatkan pengedaran topik di setiap set ayat."]}, {"en": ["Pang et al examined the effectiveness of using supervised learning methods to identify document level sentiments.", "Pang et al conducted early polarity classification of reviews using supervised approaches."], "ms": ["Pang et al meneliti keberkesanan menggunakan kaedah pembelajaran yang diawasi untuk mengenal pasti sentimen tahap dokumen.", "Pang et al menjalankan klasifikasi polariti awal ulasan menggunakan pendekatan yang diawasi."]}, {"en": ["All linear SVM models were implemented with Scikit-Learn and trained and tested using Liblinear Backend.", "All models were implemented in python, using Scikit-Learn machine learning library."], "ms": ["Semua model SVM linear dilaksanakan dengan Scikit-Learn dan dilatih dan diuji menggunakan Liblinear Backend.", "Semua model dilaksanakan dalam python, menggunakan perpustakaan pembelajaran mesin Scikit-Learn."]}, {"en": ["For more details on the original definition of tags, we refer the reader to, Kroch and Joshi, or Vijayshanker.", "For more details on the original definition of tags, we refer the reader to Joshi, Kroch and Joshi or Vijay-Shanker."], "ms": ["Untuk maklumat lanjut mengenai definisi asal tag, kami merujuk pembaca kepada, Kroch dan Joshi, atau Vijayshanker.", "Untuk maklumat lanjut mengenai definisi asal tag, kami merujuk pembaca kepada Joshi, Kroch dan Joshi atau Vijay-Shanker."]}, {"en": ["To pursue a better method to predict the order between two neighboring blocks 1, Xiong et al present an enhanced Btg with a maximum entropy based reordering model.", "Xiong et al also used a maximum entropy Classifier, in this case to train the reordering component of their mt model."], "ms": ["Untuk meneruskan kaedah yang lebih baik untuk meramalkan susunan antara dua blok jiran 1, Xiong et al membentangkan Btg yang dipertingkatkan dengan model penyusunan semula berasaskan entropi maksimum.", "Xiong et al juga menggunakan pengelasan entropi maksimum, dalam kes ini untuk melatih komponen penyusunan semula model mt mereka."]}, {"en": ["Bunescu and Mooney give a shortest path dependency kernel for relation extraction.", "Bunescu and Mooney proposed a shortest path dependency kernel."], "ms": ["Bunescu dan Mooney memberikan kernel dependensi laluan terpendek untuk pengekstrakan hubungan.", "Bunescu dan Mooney mencadangkan kernel dependensi laluan terpendek."]}, {"en": ["Examples include the widely known discourse Parsing work of.", "Examples include the widely known discourse Parsing work by Marcu."], "ms": ["Contohnya termasuk wacana yang terkenal Penghuraian karya.", "Contohnya termasuk wacana yang terkenal Parsing karya oleh Marcu."]}, {"en": ["This makes our approach applicable to different Nmt architectures.", "To integrate Monolingual training data, our approach can be easily applied to other Nmt systems."], "ms": ["Ini menjadikan pendekatan kami terpakai kepada seni bina Nmt yang berbeza.", "Untuk mengintegrasikan data latihan Monolingual, pendekatan kami boleh digunakan dengan mudah untuk sistem Nmt yang lain."]}, {"en": ["These articles are then used to learn a vector of word frequencies, wherewith answer candidates are rated afterwards.", "Click patterns are then utilized for constructing a large and heterogeneous training corpus for answer."], "ms": ["Artikel-artikel ini kemudian digunakan untuk mempelajari vektor frekuensi perkataan, di mana calon jawapan dinilai selepas itu.", "Corak klik kemudian digunakan untuk membina korpus latihan yang besar dan heterogen untuk menjawab."]}, {"en": ["We use glove Embeddings for the English tasks and Fasttext Embeddings for all Newswire tasks.", "For the Word-Embedding based Classifier, we use the glove Pre-Trained word Embeddings."], "ms": ["Kami menggunakan sarung tangan Embeddings untuk tugas bahasa Inggeris dan Fasttext Embeddings untuk semua tugas Newswire.", "Untuk Klasifier berasaskan Word-Embedding, kami menggunakan Embedding perkataan Pra-Trained sarung tangan."]}, {"en": ["Our Monolingual objective follows the glove model, which learns from global word Co-Occurrence statistics.", "Our approach to relation Embedding is based on a variant of the glove word Embedding model."], "ms": ["Objektif Monolingual kami mengikuti model sarung tangan, yang belajar dari statistik perkataan Co-Occurrence global.", "Pendekatan kami untuk Embedding hubungan adalah berdasarkan varian model Embedding perkataan sarung tangan."]}, {"en": ["We proposed a new model that jointly learns Multilingual Multimodal representations using the image as a pivot between languages.", "We also propose a single model for learning representations of images and multiple languages."], "ms": ["Kami mencadangkan model baru yang bersama-sama mempelajari perwakilan Multimodal Multilingual menggunakan imej sebagai pivot antara bahasa.", "Kami juga mencadangkan model tunggal untuk perwakilan pembelajaran imej dan pelbagai bahasa."]}, {"en": ["In our framework, each Classifier learns to focus on the cases where the other classifiers are less confident.", "In their filtering consequences, we propose to train them jointly, so that each Classifier can focus on the gaps of the others."], "ms": ["Dalam rangka kerja kami, setiap Pengelas belajar untuk memberi tumpuan kepada kes-kes di mana pengelas lain kurang yakin.", "Dalam akibat penapisan mereka, kami mencadangkan untuk melatih mereka bersama, supaya setiap Pengkelas boleh memberi tumpuan kepada jurang yang lain."]}, {"en": ["Liao and Grishman , 2010) use Cross-Event inference to help with the extraction of role Fillers shared across events.", "Liao and Grishman propose document level Cross-Event inference to improve event extraction."], "ms": ["Liao dan Grishman (2010) menggunakan kesimpulan Cross-Event untuk membantu pengekstrakan peranan Fillers dikongsi merentasi peristiwa.", "Liao dan Grishman mencadangkan rumusan Cross-Event peringkat dokumen untuk meningkatkan pengekstrakan peristiwa."]}, {"en": ["In this paper, we present an evaluation and error analysis of a Cross-Lingual application that we developed for a Government-Sponsored evaluation, the 5W task.", "In this paper, we present an error analysis of a new Cross-Lingual task: the 5W task, a Sentence-Level understanding task which seeks to return the English."], "ms": ["Dalam makalah ini, kami membentangkan analisis penilaian dan kesilapan aplikasi Cross-Lingual yang kami kembangkan untuk penilaian yang ditaja oleh Kerajaan, tugas 5W.", "Dalam makalah ini, kami membentangkan analisis kesilapan tugas Cross-Lingual baru: tugas 5W, tugas pemahaman Tahap Sentence yang bertujuan untuk mengembalikan bahasa Inggeris."]}, {"en": ["On Wmt\u00a1\u00af16 English-Romanian translation we achieve accuracy that is very competitive to the current state-of-the-art result.", "We achieve competitive accuracy to the state-of-the-art and on WMT \u00a1\u00af 15 English-German."], "ms": ["Pada Wmt 16 terjemahan Bahasa Inggeris-Romanian kami mencapai ketepatan yang sangat kompetitif dengan hasil terkini terkini.", "Kami mencapai ketepatan kompetitif kepada state-of-the-art dan pada WMT dalam 15 Bahasa Inggeris-Jerman."]}, {"en": ["Finally, we explain how other more efficient Variants of the basic Parser can be obtained by Determinizing Portionsof the basic Non-Deterministic Pushdown machine while still using the same Pseudo-Parallel driver.", "Finally, we explain how other more efficient Variants of the basic Parser can be obtained by Determinizing portions of the basic Non-Deterministic Pushdown machine while still using the same Pseudo-Parallel driver."], "ms": ["Akhirnya, kami menerangkan bagaimana Variants lain yang lebih cekap Parser asas boleh diperolehi dengan Menentukan Bahagian Mesin Pushdown Non-Deterministik asas semasa masih menggunakan pemandu Pseudo-Parallel yang sama.", "Akhirnya, kami menerangkan bagaimana Variants lain yang lebih cekap Parser asas boleh diperolehi dengan menentukan bahagian mesin Pushdown Non-Deterministic asas sambil masih menggunakan pemandu Pseudo-Parallel yang sama."]}, {"en": ["Nevertheless, these methods yield the same poor performance in short texts as traditional topic models.", "However, the extensions of these models require carefully tailored graphical models."], "ms": ["Walau bagaimanapun, kaedah ini menghasilkan prestasi yang sama buruk dalam teks pendek sebagai model topik tradisional.", "Walau bagaimanapun, sambungan model-model ini memerlukan model grafik yang disesuaikan dengan teliti."]}, {"en": ["Neural machine translation is a new paradigm in machine translation powered by recent advances in sequence to sequence learning Frameworks.", "Neural machine translation is an emerging technique which utilizes deep neural networks, to generate end-to-end translation."], "ms": ["Terjemahan mesin saraf adalah paradigma baru dalam terjemahan mesin yang dikuasakan oleh kemajuan terkini dalam urutan ke Rangka Kerja pembelajaran urutan.", "Terjemahan mesin saraf adalah teknik yang muncul yang menggunakan rangkaian saraf yang mendalam, untuk menghasilkan terjemahan hujung ke hujung."]}, {"en": ["For the Unsupervised mapping we ran using the source and target language Monolingual spaces.", "For both Unsupervised and lightly supervised mapping we used muse with default parameters."], "ms": ["Untuk pemetaan Unsupervised kami berlari menggunakan sumber dan bahasa sasaran ruang Monolingual.", "Untuk pemetaan tidak diawasi dan ringan, kami menggunakan muse dengan parameter lalai."]}, {"en": ["This paper presents a novel approach using recurrent neural networks for estimating the quality of machine translation output.", "In this paper we present a recurrent neural networks approach for estimating the quality of machine translation output."], "ms": ["Kertas ini membentangkan pendekatan novel menggunakan rangkaian neural berulang untuk menganggarkan kualiti output terjemahan mesin.", "Dalam makalah ini kami membentangkan pendekatan rangkaian saraf berulang untuk menganggarkan kualiti output terjemahan mesin."]}, {"en": ["We used a K-Best version of the Mira algorithm.", "We used the Mstparser to generate K-Best lists."], "ms": ["Kami menggunakan algoritma Mira versi K-Best.", "Kami menggunakan Mstparser untuk menghasilkan senarai K-Best."]}, {"en": ["The first two are from Semeval 2014, containing reviews of restaurant and laptop domains, which are widely used in previous works.", "The first two are from the Semeval 2014 task 4 1, which contains the reviews in laptop and restaurants, respectively."], "ms": ["Dua yang pertama adalah dari Semeval 2014, mengandungi ulasan domain restoran dan komputer riba, yang digunakan secara meluas dalam karya sebelumnya.", "Dua yang pertama adalah dari Semeval 2014 tugas 4 1, yang mengandungi ulasan di komputer riba dan restoran, masing-masing."]}, {"en": ["Word Embedding has shown promising results in variety of the Nlp applications, such as named entity recognition, sentiment analysis and Parsing.", "Word Embeddings have shown promising results in Nlp tasks, such as named entity recognition, sentiment analysis or Parsing."], "ms": ["Word Embedding telah menunjukkan hasil yang menjanjikan dalam pelbagai aplikasi Nlp, seperti pengiktirafan entiti bernama, analisis sentimen dan Parsing.", "Embeddings Word telah menunjukkan hasil yang menjanjikan dalam tugas Nlp, seperti pengiktirafan entiti bernama, analisis sentimen atau Penghuraian."]}, {"en": ["The technique is generally applicable to natural language generation systems, which perform Hierarchical text structuring based on a theory of coherence relations with certain additional assumptions.", "But the technique can be applied to other Nlg systems that perform Hierarchical text structuring based on a theory of coherence relations (with additional assumptions."], "ms": ["Teknik ini secara amnya terpakai kepada sistem penjanaan bahasa semula jadi, yang melaksanakan penstrukturan teks Hierarki berdasarkan teori hubungan koheren dengan andaian tambahan tertentu.", "Tetapi teknik ini boleh digunakan untuk sistem Nlg lain yang melakukan penyusunan teks Hierarki berdasarkan teori hubungan koheren (dengan andaian tambahan."]}, {"en": ["To find Bursty patterns from data streams, Kleinberg proposed a state machine to model the arrival times of documents in a stream.", "In his seminal work, Kleinberg proposed a state machine to model the arrival times of documents in a stream in order to identify bursts."], "ms": ["Untuk mencari corak Bursty dari aliran data, Kleinberg mencadangkan mesin negara untuk memodelkan masa ketibaan dokumen dalam aliran.", "Dalam karya seminalnya, Kleinberg mencadangkan mesin negara untuk memodelkan masa ketibaan dokumen dalam aliran untuk mengenal pasti pecah."]}, {"en": ["We note that in this example, the score of translating \u201c dos \u201d to \u201c make \u201d was higher than the score of translating \u201c dos \u201d to \u201c both \u201d.", "In this example, the score of translating \u201c dos \u201d to \u201c make \u201d was higher than the score of translating \u201c dos \u201d to \u201c both \u201d."], "ms": ["Kami perhatikan bahawa dalam contoh ini, skor menterjemahkan dos dan dos untuk membuat adalah lebih tinggi daripada skor menterjemahkan dos dan kedua-duanya.", "Dalam contoh ini, skor menterjemahkan dos untuk membuat adalah lebih tinggi daripada skor menterjemahkan dos kepada kedua-dua."]}, {"en": ["Our Attentional models yield a boost of up to 5.0 BLEU over Non-Attentional systems which already incorporate known techniques such as dropout.", "Attention yields large gains of up to 5 . 0 BLEU over Non-Attentional models that already incorporate known techniques such as dropout."], "ms": ["Model Perhatian kami menghasilkan peningkatan sehingga 5.0 BLEU berbanding sistem Bukan Perhatian yang sudah menggabungkan teknik yang dikenali seperti putus sekolah.", "Perhatian menghasilkan keuntungan besar sehingga 5.0 BLEU berbanding model Non-Attentional yang sudah menggabungkan teknik yang dikenali seperti putus sekolah."]}, {"en": ["Providing information about lexical category probabilities (Cite-P-19-1-1) assigned by the Supertagger can be useful during Parsing.", "Lexical categories can be easily extracted from dependency Treebanks (Cite-P-19-1-2, Cite-P-19-1-0)."], "ms": ["Memberi maklumat mengenai kebarangkalian kategori leksikal (Cite-P-19-1-1) yang diberikan oleh Supertagger boleh berguna semasa Parsing.", "Kategori leksikal boleh diekstrak dengan mudah dari Treebank dependensi (Cite-P-19-1-2, Cite-P-19-1-0)."]}, {"en": ["A semantic bias is used to associate Collocations with the appropriate meaning relation, if one exists.", "Co-Occurrences are used to build a semantic lexicon based on Collocative meaning."], "ms": ["Bias semantik digunakan untuk mengaitkan Collocations dengan hubungan makna yang sesuai, jika ada.", "Co-Occurrences digunakan untuk membina leksikon semantik berdasarkan makna Collocative."]}, {"en": ["A major challenge of semantic Parsing is the vocabulary mismatch problem between natural language and target Ontology.", "Major challenge of semantic Parsing is the structural mismatch between a natural language sentence and its target logical form, which are mainly raised by the vocabulary."], "ms": ["Cabaran utama penguraian semantik adalah masalah ketidakpadanan perbendaharaan kata antara bahasa semula jadi dan Ontologi sasaran.", "Cabaran utama Parsing semantik adalah ketidakpadanan struktur antara ayat bahasa semula jadi dan bentuk logik sasarannya, yang kebanyakannya dibangkitkan oleh perbendaharaan kata."]}, {"en": ["Xu et al picked up heterogeneous information along the left and right Sub-Path of the Sdp respectively, Leveraging recurrent neural networks with long short term memory units.", "Xu et al represent heterogeneous features as Embeddings and propose a multichannel Lstm based recurrent neural network for picking up information along the Sdp."], "ms": ["Xu et al mengambil maklumat heterogen di sepanjang Sub-Path kiri dan kanan Sdp masing-masing, Memanfaatkan rangkaian neural berulang dengan unit ingatan jangka pendek yang panjang.", "Xu et al mewakili ciri heterogen sebagai Embeddings dan mencadangkan rangkaian neural berulang berasaskan Lstm multichannel untuk mengambil maklumat di sepanjang Sdp."]}, {"en": ["We explicitly model missing words to alleviate the Sparsity problem in modeling short texts.", "Handle missing words, we decide to model sentences using a weighted matrix."], "ms": ["Kami secara eksplisit memodelkan perkataan yang hilang untuk mengurangkan masalah Sparsity dalam memodelkan teks pendek.", "Mengendalikan perkataan yang hilang, kami memutuskan untuk memodelkan ayat menggunakan matriks berwajaran."]}, {"en": ["The Roark Parser is an incremental syntactic Parser based language model that uses rich lexical and syntactic contexts as features to predict its next moves.", "Roark implements an incremental Top-Down and Left-Corner Parsing model, which is used as a syntactic language model for a speech recognition task."], "ms": ["Parser Roark adalah model bahasa berasaskan sintaks tambahan yang menggunakan konteks leksikal dan sintaks yang kaya sebagai ciri untuk meramalkan pergerakan seterusnya.", "Roark melaksanakan model Penghuraian Top-Down dan Left-Corner yang meningkat, yang digunakan sebagai model bahasa sintaktik untuk tugas pengiktirafan pertuturan."]}, {"en": ["Glaysher and Moldovan demonstrated an efficiency gain by explicitly Disallowing constituents that cross chunk boundaries.", "Glaysher and Moldovan demonstrated an efficiency gain by explicitly Disallowing entries in chart cells that would result in constituents that cross chunk boundaries."], "ms": ["Glaysher dan Moldovan menunjukkan keuntungan kecekapan dengan secara jelas Membenarkan konstituen yang melintasi sempadan cebisan.", "Glaysher dan Moldovan menunjukkan keuntungan kecekapan dengan secara jelas Membenarkan penyertaan dalam sel carta yang akan menghasilkan konstituen yang melintasi sempadan cebisan."]}, {"en": ["The Pdtb is the largest corpus Annotated for discourse relations, formed by newspaper articles from the Wall Street Journal.", "The Penn discourse Treebank is the largest available corpus of Annotations for discourse relations, covering one million words of the Wall Street Journal."], "ms": ["Pdtb adalah korpus terbesar Annotated untuk hubungan wacana, yang dibentuk oleh artikel akhbar dari Wall Street Journal.", "Penn discourse Treebank adalah korpus Annotasi yang tersedia terbesar untuk hubungan wacana, yang merangkumi satu juta perkataan Wall Street Journal."]}, {"en": ["Xu et al represent heterogeneous features as Embeddings and propose a multichannel Lstm based recurrent neural network for picking up information along the Sdp.", "Xu et al applied long short term memory based recurrent neural networks along the shortest dependency path."], "ms": ["Xu et al mewakili ciri heterogen sebagai Embeddings dan mencadangkan rangkaian neural berulang berasaskan Lstm multichannel untuk mengambil maklumat di sepanjang Sdp.", "Xu et al menggunakan rangkaian neural berulang berasaskan ingatan jangka pendek yang panjang di sepanjang laluan kebergantungan terpendek."]}, {"en": ["However, for efficiently solving the Tsp, the model is restricted to Pairwise features which examine only a pair of words and their neighborhood.", "Since this model relies on solving a Tsp efficiently, it cannot capture features other than Pairwise features that examine the words and neighborhood."], "ms": ["Walau bagaimanapun, untuk menyelesaikan Tsp dengan cekap, model ini terhad kepada ciri Pairwise yang hanya memeriksa sepasang perkataan dan kejiranan mereka.", "Oleh kerana model ini bergantung pada menyelesaikan Tsp dengan cekap, ia tidak dapat menangkap ciri selain ciri Pairwise yang memeriksa kata-kata dan kejiranan."]}, {"en": ["This also corresponds to a syntactic similarity: all the verbs of this group share the same preferred syntactic Subcategorization frames.", "In general: verbs that are similar in meaning also tend to have similar Subcategorization frames and Selectional preferences."], "ms": ["Ini juga sepadan dengan persamaan sintaksis: semua kata kerja kumpulan ini berkongsi bingkai Subkategoriisasi sintaksis pilihan yang sama.", "Secara umum: kata kerja yang serupa dalam makna juga cenderung mempunyai bingkai Subkategoriisasi yang serupa dan pilihan pilihan."]}, {"en": ["We adopt a Previously-Proposed Wsi methodology for the task, which is based on a Hierarchical Dirichlet process (Hdp), a Non-Parametric topic model.", "We developed a Word-Sense induction (Wsi) system based on topic Modelling, specifically a Hierarchical Dirichlet process."], "ms": ["Kami menggunakan metodologi Wsi yang dicadangkan sebelum ini untuk tugas itu, yang berdasarkan proses Hierarki Dirichlet (Hdp), model topik Non-Parametrik.", "Kami membangunkan sistem induksi Word-Sense (Wsi) berdasarkan Pemodelan topik, khususnya proses Dirichlet Hierarki."]}, {"en": ["The method of Clarke and Lapata uses a Trigram language model to score Compressions.", "Clarke and Lapata presented an Unsupervised method that finds the best compression using integer linear programming."], "ms": ["Kaedah Clarke dan Lapata menggunakan model bahasa Trigram untuk menjaringkan mampatan.", "Clarke dan Lapata membentangkan kaedah Unsupervised yang mendapati pemampatan terbaik menggunakan pengaturcaraan linear integer."]}, {"en": ["The marked systems produce statistically significant improvements as measured by Bootstrap Resampling method on BLEU over the baseline system.", "It is found that the difference between the baseline and the model is significant producing statistically significant improvements as measured by the Bootstrap Resampling method."], "ms": ["Sistem yang ditandai menghasilkan peningkatan yang signifikan secara statistik seperti yang diukur oleh kaedah Bootstrap Resampling pada BLEU berbanding sistem garis dasar.", "Didapati bahawa perbezaan antara garis dasar dan model adalah signifikan menghasilkan peningkatan statistik yang signifikan seperti yang diukur oleh kaedah Bootstrap Resampling."]}, {"en": ["These improvements demonstrate the importance of combining complementary objectives in a joint model for robust Disambiguation.", "Performance indicates that the semantic signatures provide a powerful resource for joint Disambiguation."], "ms": ["Peningkatan ini menunjukkan pentingnya menggabungkan objektif pelengkap dalam model bersama untuk Disambiguasi yang mantap.", "Prestasi menunjukkan bahawa tandatangan semantik menyediakan sumber yang kuat untuk Disambiguasi bersama."]}, {"en": ["It has been shown that domain information is fundamental for Wsd.", "It is been shown that domain information is fundamental for Wsd."], "ms": ["Telah ditunjukkan bahawa maklumat domain adalah asas untuk Wsd.", "Telah ditunjukkan bahawa maklumat domain adalah asas untuk Wsd."]}, {"en": ["In this paper, we propose a supervised model for Keyphrase extraction from research papers, which are embedded in citation networks.", "To this end, we design novel features for Keyphrase extraction based on citation context."], "ms": ["Dalam makalah ini, kami mencadangkan model yang diawasi untuk pengekstrakan Keyphrase dari kertas penyelidikan, yang tertanam dalam rangkaian petikan.", "Untuk tujuan ini, kami merancang ciri novel untuk pengekstrakan Keyphrase berdasarkan konteks petikan."]}, {"en": ["In order for these techniques to be more broadly applicable, they need to be extended to apply on weighted packed representations of ambiguous input.", "Classification approaches need to be extended to be applicable on weighted packed representations of ambiguous input."], "ms": ["Agar teknik-teknik ini lebih luas digunakan, mereka perlu diperluaskan untuk memohon perwakilan yang dibungkus berwajaran input samar-samar.", "Pendekatan pengelasan perlu diperluaskan untuk digunakan pada perwakilan yang dibungkus berwajaran input samar-samar."]}, {"en": ["We propose an algorithm based on the Lesk Wsd algorithm in order to perform Unsupervised visual sense Disambiguation on our Dataset.", "We propose an Unsupervised algorithm based on Lesk which performs visual sense Disambiguation."], "ms": ["Kami mencadangkan algoritma berdasarkan algoritma Lesk Wsd untuk melaksanakan Disambiguasi deria visual yang tidak diawasi pada Dataset kami.", "Kami mencadangkan algoritma Unsupervised berdasarkan Lesk yang melakukan Disambiguasi deria visual."]}, {"en": ["The implementation is done via the Tensorflow library.", "All the code is written using Tensorflow over the Wiktionary Dataset."], "ms": ["Pelaksanaan dilakukan melalui perpustakaan Tensorflow.", "Semua kod ditulis menggunakan Tensorflow melalui Wiktionary Dataset."]}, {"en": ["Dzikovska et al showed that a statistical Classifier trained on this data set can be used in combination with a semantic interpreter to significantly improve the overall quality of natural language interpretation in a Dialogue-Based its.", "Dzikovska et al used a statistical Classifier based on lexical overlap, taken from, and evaluated 3 different Rule-Based policies for combining its output with that of the semantic interpreter."], "ms": ["Dzikovska et al menunjukkan bahawa Klasifikasi statistik yang dilatih pada set data ini boleh digunakan dalam kombinasi dengan jurubahasa semantik untuk meningkatkan kualiti keseluruhan tafsiran bahasa semula jadi dalam Dialog Berasaskannya.", "Dzikovska et al menggunakan Klasifikasi statistik berdasarkan pertindihan leksikal, diambil dari, dan menilai 3 dasar Berasaskan Peraturan yang berbeza untuk menggabungkan outputnya dengan jurubahasa semantik."]}, {"en": ["In this paper, we propose a simple and efficient model for using retrieved sentence pairs to guide an existing Nmt model at test time.", "In this paper, we propose a simple, fast, and effective method for recalling previously seen translation."], "ms": ["Dalam kertas kerja ini, kami mencadangkan model yang mudah dan cekap untuk menggunakan pasangan ayat yang diambil untuk membimbing model Nmt sedia ada pada masa ujian.", "Dalam makalah ini, kami mencadangkan kaedah yang mudah, cepat, dan berkesan untuk mengingat semula terjemahan yang dilihat sebelumnya."]}, {"en": ["Then, we describe the enhanced models that incorporate temporal and semantic information about speech and eye gaze for word acquisition.", "We investigate the incorporation of extra knowledge, specifically Speech-Gaze temporal information and domain knowledge, with eye gaze to facilitate word acquisition."], "ms": ["Kemudian, kami menerangkan model yang dipertingkatkan yang menggabungkan maklumat temporal dan semantik mengenai ucapan dan pandangan mata untuk pemerolehan perkataan.", "Kami menyiasat penggabungan pengetahuan tambahan, khususnya maklumat temporal Speech-Gaze dan pengetahuan domain, dengan pandangan mata untuk memudahkan pemerolehan perkataan."]}, {"en": ["In this work, we tackle the problem of mapping Trending Twitter topics to entities from Wikipedia.", "In this work, we address the new problem of Topically Annotating a Trending Hashtag."], "ms": ["Dalam kerja ini, kami menangani masalah pemetaan topik Twitter Trending kepada entiti dari Wikipedia.", "Dalam kerja ini, kami menangani masalah baru Topically Annotating a Trending Hashtag."]}, {"en": ["We have used the continuous Bag-Of-Words model of Mikolov et al with a window size of eight by training the model with Wikipedia text corpus, we obtained word Embeddings for most of the lemmas and words contained in the Vuamc.", "We extract continuous vector representations for concepts using the continuous Log-Linear Skipgram model of Mikolov et al, trained on the 100M word British national corpus."], "ms": ["Kami telah menggunakan model Bag-Of-Words berterusan Mikolov et al dengan saiz tingkap lapan dengan melatih model dengan korpus teks Wikipedia, kami memperoleh Embedding perkataan untuk kebanyakan lemma dan perkataan yang terkandung dalam Vuamc.", "Kami mengekstrak perwakilan vektor berterusan untuk konsep menggunakan model Log-Linear Skipgram berterusan Mikolov et al, dilatih pada perkataan 100M korpus kebangsaan British."]}, {"en": ["In section 4, we present an active learning method using the learning with Rationales framework and present relevant results.", "In this section, we provide a brief background on data Annotation with Rationales in the context of active learning."], "ms": ["Dalam seksyen 4, kami membentangkan kaedah pembelajaran aktif menggunakan pembelajaran dengan kerangka Rationales dan membentangkan hasil yang relevan.", "Dalam bahagian ini, kami memberikan latar belakang ringkas mengenai Data Annotation dengan Rationales dalam konteks pembelajaran aktif."]}, {"en": ["We adopt the Sentence-Level evaluation metric used in Pado et al results are shown in Table 4.", "Results of our proposed models compared against the baseline models described in Pado et al are shown in Table 2."], "ms": ["Kami menggunakan metrik penilaian Tahap Sentence yang digunakan dalam keputusan Pado et al ditunjukkan dalam Jadual 4.", "Hasil model yang dicadangkan kami berbanding model asas yang dijelaskan dalam Pado et al ditunjukkan dalam Jadual 2."]}, {"en": ["The performance of the different systems is evaluated in terms of translation error rate, BLEU, and precision.", "We evaluate the performance of different translation models using both BLEU and Ter Metrics."], "ms": ["Prestasi sistem yang berbeza dinilai dari segi kadar ralat terjemahan, BLEU, dan ketepatan.", "Kami menilai prestasi model terjemahan yang berbeza menggunakan kedua-dua BLEU dan Ter Metrics."]}, {"en": ["However, Handcrafted Multimodal Grammars can be brittle with respect to unexpected, erroneous, or Disfluent inputs.", "Based on Handcrafted Grammars, Multimodal Grammars can be brittle with respect to Extragrammatical, erroneous and Disfluent input."], "ms": ["Walau bagaimanapun, Grammar Multimodal buatan tangan boleh menjadi rapuh berkenaan dengan input yang tidak dijangka, salah, atau terjejas.", "Berdasarkan Grammar buatan tangan, Grammar Multimodal boleh menjadi rapuh berkenaan dengan input Extragrammatical, salah dan mempengaruhi."]}, {"en": ["First, a statistical Parser is used to generate a Semantically-Augmented Parse tree (Sapt), where each internal Node includes both a syntactic and semantic label.", "First, a statistical Parser is used to construct a Semantically-Augmented Parse tree that captures the semantic interpretation of individual words."], "ms": ["Pertama, Parser statistik digunakan untuk menghasilkan pokok Parse Semantically-Augmented (Sapt), di mana setiap Node dalaman merangkumi label sintaktik dan semantik.", "Pertama, Parser statistik digunakan untuk membina pokok Parse Semantically-Augmented yang menangkap tafsiran semantik perkataan individu."]}, {"en": ["We will also try to further exploit the Factorized representation with Discriminative learning.", "In this work, we will go further to investigate Factorization of rule structures."], "ms": ["Kami juga akan cuba mengeksploitasi perwakilan Factorized dengan pembelajaran Discriminative.", "Dalam kerja ini, kita akan pergi lebih jauh untuk menyiasat Pemfaktoran struktur peraturan."]}, {"en": ["Yu and Hatzivassiloglou, Kim and Hovy, Hu and Liu, and Grefenstette et al 4 all begin by first creating Prior-Polarity Lexicons.", "Morinaga et al, Yu and Hatzivassiloglou, Kim and Hovy, Hu and Liu, and Grefenstette et al 11 all begin by first creating Prior-Polarity Lexicons."], "ms": ["Yu dan Hatzivassiloglou, Kim dan Hovy, Hu dan Liu, dan Grefenstette et al 4 semuanya bermula dengan pertama mencipta Leksikon Prior-Polarity.", "Morinaga et al, Yu dan Hatzivassiloglou, Kim dan Hovy, Hu dan Liu, dan Grefenstette et al 11 semuanya bermula dengan mula-mula mencipta Leksikon Prior-Polarity."]}, {"en": ["Shi and Mihalcea propose the integration of Verbnet, Wordnet and Framenet into a knowledge base and use it in the building of a semantic Parser.", "For instance, shi and Mihalcea improve semantic Parsing using the knowledge of an aligned resource of Framenet, Wordnet, and Verbnet."], "ms": ["Shi dan Mihalcea mencadangkan integrasi Verbnet, Wordnet dan Framenet ke dalam pangkalan pengetahuan dan menggunakannya dalam membina Parser semantik.", "Sebagai contoh, Shi dan Mihalcea meningkatkan Parsing semantik menggunakan pengetahuan sumber yang diselaraskan Framenet, Wordnet, dan Verbnet."]}, {"en": ["Su et al also apply Htmm to Monolingual data and apply the results to machine translation.", "Su et al use the topic distribution of In-Domain Monolingual corpus to adapt the translation model."], "ms": ["Su et al juga menerapkan Htmm ke data Monolingual dan menerapkan hasilnya ke terjemahan mesin.", "Su et al menggunakan pengedaran topik korpus Monolingual In-Domain untuk menyesuaikan model terjemahan."]}, {"en": ["Cite-P-24-3-9 trained a Multi-Speaker speech Recognizer using Permutation-Free training without explicit objective function for separation.", "Cite-P-24-3-9 considered direct optimization of a Deep-Learning-Based Asr Recognizer without an explicit separation Module."], "ms": ["Cite-P-24-3-9 melatih Pengiktirafan pertuturan Multi-Speaker menggunakan latihan Permutation-Free tanpa fungsi objektif yang jelas untuk pemisahan.", "Cite-P-24-3-9 dianggap pengoptimuman langsung Pengiktirafan Asr Berasaskan Pembelajaran Deep tanpa Modul pemisahan yang jelas."]}, {"en": ["Chambers and Jurafsky presented an Unsupervised learning system for narrative Schemas based on Coreferent arguments in chains of verbs.", "Mcintyre and Lapata create a story generation system that draws on earlier work on narrative Schemas."], "ms": ["Chambers dan Jurafsky membentangkan sistem pembelajaran yang tidak diawasi untuk Schemas naratif berdasarkan hujah Coreferent dalam rantai kata kerja.", "Mcintyre dan Lapata mencipta sistem penjanaan cerita yang menarik kerja awal mengenai Schemas naratif."]}, {"en": ["The paraphrase Database contains millions of English paraphrases automatically extracted from bilingual parallel Corpora.", "The paraphrase Database contains millions of automatically acquired paraphrases in 21 languages associated with features that serve to their ranking."], "ms": ["Pangkalan data parafrasa mengandungi berjuta-juta parafrasa bahasa Inggeris yang diekstrak secara automatik dari Corpora selari dwibahasa.", "Pangkalan data parafrasa mengandungi berjuta-juta parafrasa yang diperoleh secara automatik dalam 21 bahasa yang berkaitan dengan ciri-ciri yang berfungsi untuk kedudukan mereka."]}, {"en": ["A named entity Recognizer (NER) trained on an English corpus does not have the same performance when applied to Machine-Translated text.", "Named entity Recognizer (NER) generally has worse performance on machine translated text, because of the poor syntax of the mt output."], "ms": ["Pengiktiraf entiti bernama (NER) yang dilatih pada korpus bahasa Inggeris tidak mempunyai prestasi yang sama apabila digunakan pada teks yang diterjemahkan Mesin.", "Entiti bernama Pengiktirafan (NER) umumnya mempunyai prestasi yang lebih buruk pada teks yang diterjemahkan mesin, kerana sintaks output mt yang lemah."]}, {"en": ["The Nmt architecture is an Attentional Encoder-Decoder model similar to and uses a long short-term memory as the recurrent cell.", "The baseline is the Bidirectional Sequence-Tosequence model using long short-term memory which is a kind of Rnn."], "ms": ["Seni bina Nmt adalah model Attentional Encoder-Decoder yang serupa dengan dan menggunakan ingatan jangka pendek yang panjang sebagai sel berulang.", "Garis dasar ialah model Bidirectional Sequence-Tosequence menggunakan ingatan jangka pendek panjang yang merupakan sejenis Rnn."]}, {"en": ["We start by formulating a general hypothesis testing framework for a comparison between two Algorithms.", "We propose a Replicability analysis framework for a statistically sound analysis of multiple comparisons between Algorithms."], "ms": ["Kita mulakan dengan merumuskan rangka kerja ujian hipotesis umum untuk perbandingan antara dua Algoritma.", "Kami mencadangkan rangka kerja analisis Replikasi untuk analisis statistik yang baik mengenai pelbagai perbandingan antara Algoritma."]}, {"en": ["We Encode domain knowledge as first order logic (Fol) rules and automatically integrate them with a topic model to produce clusters shaped by the data and the constraints at hand.", "We Encode as first order logic rules and automatically combine with a topic model developed specifically for the relation extraction task."], "ms": ["Kami Mengenal pasti pengetahuan domain sebagai peraturan logik pesanan pertama (Fol) dan secara automatik mengintegrasikannya dengan model topik untuk menghasilkan kluster yang dibentuk oleh data dan kekangan yang ada.", "Kami Mengkodkan sebagai peraturan logik pesanan pertama dan secara automatik menggabungkan dengan model topik yang dibangunkan khusus untuk tugas pengekstrakan hubungan."]}, {"en": ["Explicit discourse Connectives can potentially be exploited to collect more training data to collect more data and boost the performance.", "Discourse Connectives gather additional training instances that lead to significant performance gain."], "ms": ["Sambungan wacana eksploit berpotensi dieksploitasi untuk mengumpulkan lebih banyak data latihan untuk mengumpulkan lebih banyak data dan meningkatkan prestasi.", "Sambungan Wacana mengumpulkan contoh latihan tambahan yang membawa kepada peningkatan prestasi yang ketara."]}, {"en": ["Yet further research work is still expected to make it effective with complicated relation extraction tasks such as the one defined in ace.", "The current Technologies are expected to be further advanced to be effective for relatively complicated relation extraction tasks such as the one defined in ace."], "ms": ["Namun kerja penyelidikan lanjut masih dijangka menjadikannya berkesan dengan tugas pengekstrakan hubungan yang rumit seperti yang ditakrifkan dalam ace.", "Teknologi semasa dijangka akan maju lebih jauh untuk menjadi berkesan untuk tugas pengekstrakan hubungan yang agak rumit seperti yang ditakrifkan dalam ace."]}, {"en": ["As second data set we use a noun compound data set of 54,571 nouns from Germanet , 21 which has been constructed by Henrich and Hinrichs.", "As third Dataset we use a noun compound Dataset of 54,571 nouns from Germanet 7, which has been constructed by Henrich and Hinrichs."], "ms": ["Sebagai set data kedua kami menggunakan set data kompaun kata nama 54,571 kata nama dari Germanet, 21 yang telah dibina oleh Henrich dan Hinrichs.", "Sebagai Dataset ketiga kami menggunakan dataset sebatian kata nama 54,571 kata nama dari Germanet 7, yang telah dibina oleh Henrich dan Hinrichs."]}, {"en": ["In this paper, we extend the work on using latent Cross-Language topic models for identifying word translations across comparable Corpora.", "We have improved precision scores of the methods relying on Per-Topic word distributions from a Cross-Language topic model."], "ms": ["Dalam makalah ini, kami memperluas kerja menggunakan model topik Cross-Language laten untuk mengenal pasti terjemahan perkataan di seluruh Corpora yang setanding.", "Kami telah meningkatkan skor ketepatan kaedah bergantung kepada pengedaran perkataan Per-Topic dari model topik Cross-Language."]}, {"en": ["Word representations, especially Brown clusters, have been extensively used for named entity recognition, Parsing and Pos tagging.", "Learned word representations are widely used in Nlp tasks such as tagging, named entity recognition, and Parsing."], "ms": ["Perwakilan perkataan, terutamanya kluster Brown, telah digunakan secara meluas untuk pengiktirafan entiti bernama, penandaan Parsing dan Pos.", "Perwakilan perkataan dipelajari digunakan secara meluas dalam tugas Nlp seperti penandaan, pengiktirafan entiti dinamakan, dan Parsing."]}, {"en": ["Finally, words in time expressions demonstrate similar syntactic behaviour.", "And that the words in time expressions demonstrate similar syntactic behaviour."], "ms": ["Akhirnya, perkataan dalam ungkapan masa menunjukkan tingkah laku sintaksis yang serupa.", "Dan bahawa perkataan dalam ungkapan masa menunjukkan tingkah laku sintaksis yang serupa."]}, {"en": ["Sundermeyer et al proposed Word-And Phrase-Based Rnn translation models and applied them to Rescore N-Best lists, reporting major improvements.", "Sundermeyer et al also used Bidirectional Lstm Rnn model to improve strong Baselines when modeling translation."], "ms": ["Sundermeyer et al mencadangkan model terjemahan Rnn Berasaskan Perkataan-Dan Frasa dan menggunakannya untuk senarai Rescore N-Best, melaporkan peningkatan besar.", "Sundermeyer et al juga menggunakan model Lstm Rnn Bidirectional untuk meningkatkan garis dasar yang kuat apabila memodelkan terjemahan."]}, {"en": ["Recently, Mesgar and Strube modeled these coherence patterns by Subgraphs of the graph representation of documents.", "Mesgar and Strube extend the entity graph as coherence model to measure the Readability of texts."], "ms": ["Baru-baru ini, Mesgar dan Strube memodelkan corak koheren ini oleh Subgraf perwakilan graf dokumen.", "Mesgar dan Strube memanjangkan graf entiti sebagai model koheren untuk mengukur Kebolehbacaan teks."]}, {"en": ["All the parameters are Initialized with Xavier method.", "All parameters are Initialized using Glorot Initialization."], "ms": ["Semua parameter diawalkan dengan kaedah Xavier.", "Semua parameter diawalkan menggunakan Glorot Initialization."]}, {"en": ["Schwartz and Hearst implemented an algorithm for identifying Acronyms by using Parenthetical expressions as a marker of a short form.", "Schwartz and Hearst implemented a simple algorithm that finds the shortest expression containing all Alphanumerical letters of an abbreviation."], "ms": ["Schwartz dan Hearst melaksanakan algoritma untuk mengenal pasti Acronyms dengan menggunakan ungkapan Parenthetical sebagai penanda bentuk pendek.", "Schwartz dan Hearst melaksanakan algoritma mudah yang mendapati ungkapan terpendek yang mengandungi semua huruf Alphanumerical singkatan."]}, {"en": ["Hierarchical neural models have already been successfully used in Document-Level language modeling and document classification.", "Similar concepts of modeling documents Hierarchically have shown benefits in some supervised tasks such as text classification."], "ms": ["Model neural hierarki telah berjaya digunakan dalam pemodelan bahasa Dokumen-Level dan pengelasan dokumen.", "Konsep serupa bagi dokumen pemodelan Hierarki telah menunjukkan faedah dalam beberapa tugas yang diselia seperti pengelasan teks."]}, {"en": ["Top-Down cues, on the other hand, were found to be effective only on a Subset of the data, which corresponds to the interesting contrasts that cause lexical variation.", "Contrasts with a high degree of accuracy, although Top-Down cues proved to be effective only on an interesting Subset of the data."], "ms": ["Sebaliknya, isyarat Top-Down didapati berkesan hanya pada Subset data, yang sepadan dengan kontras menarik yang menyebabkan variasi leksikal.", "Berbeza dengan tahap ketepatan yang tinggi, walaupun isyarat Top-Down terbukti berkesan hanya pada Subset data yang menarik."]}, {"en": ["Labeledlda is applied, utilizing constraints based on an Open-Domain Database (Freebase) as a source of supervision.", "To achieve this performance, using Labeledlda to exploit Freebase Dictionaries as a source of distant supervision."], "ms": ["Labeledlda digunakan, menggunakan kekangan berdasarkan Pangkalan Data Open-Domain (Freebase) sebagai sumber pengawasan.", "Untuk mencapai prestasi ini, menggunakan Labeledlda untuk mengeksploitasi Kamus Freebase sebagai sumber pengawasan jauh."]}, {"en": ["Niessen and Ney describe an approach for translation from German to English that combines verbs with associated particles, and also Reorders questions.", "Niessen and Ney , 2004, describe a method that combines Morphologically-Split verbs in German, and also Reorders questions in English and German."], "ms": ["Niessen dan Ney menerangkan pendekatan untuk terjemahan dari bahasa Jerman ke bahasa Inggeris yang menggabungkan kata kerja dengan zarah yang berkaitan, dan juga Reorders soalan.", "Niessen dan Ney, 2004, menerangkan kaedah yang menggabungkan kata kerja Morfologi-Split dalam bahasa Jerman, dan juga Reorders soalan dalam bahasa Inggeris dan Jerman."]}, {"en": ["We seek to bridge this gap by adopting the feature set of the best performing Sts system at Semeval-2015, Sultan et al , 2015.", "We present three supervised models of sentence similarity based on the winning system at Semeval-2015, Sultan et al , 2015."], "ms": ["Kami berusaha untuk merapatkan jurang ini dengan mengamalkan set ciri sistem Sts berprestasi terbaik di Semeval-2015, Sultan et al, 2015.", "Kami membentangkan tiga model yang diawasi persamaan ayat berdasarkan sistem kemenangan di Semeval-2015, Sultan et al, 2015."]}, {"en": ["As for recurrent models, our model Outperforms Rnns but is below state of the art Lstm models.", "As for recurrent models, even if our model Outperforms Rnns, it is well below state-of-the-art."], "ms": ["Bagi model berulang, model kami Outperforms Rnns tetapi berada di bawah keadaan model Lstm seni.", "Bagi model berulang, walaupun model kami Outperforms Rnns, ia jauh di bawah state-of-the-art."]}, {"en": ["In this paper, we introduce a neural network approach to learn continuous document representation for sentiment classification.", "In this work, we develop neural models in a sequential way, and Encode sentence Semantics and their relations automatically."], "ms": ["Dalam makalah ini, kami memperkenalkan pendekatan rangkaian saraf untuk mempelajari perwakilan dokumen berterusan untuk pengelasan sentimen.", "Dalam kerja ini, kami membangunkan model saraf dengan cara berurutan, dan Mengkodkan Semantik ayat dan hubungan mereka secara automatik."]}, {"en": ["Previous research on document sentiment classification has shown that machine learning based classifiers perform much better compared to Rule-Based systems.", "On document level, previous work have shown that traditional text classification approaches can be quite effective when applied to sentiment analysis."], "ms": ["Penyelidikan terdahulu mengenai klasifikasi sentimen dokumen telah menunjukkan bahawa pengelas berasaskan pembelajaran mesin berprestasi lebih baik berbanding sistem berasaskan peraturan.", "Pada tahap dokumen, kerja terdahulu telah menunjukkan bahawa pendekatan pengelasan teks tradisional boleh menjadi agak berkesan apabila digunakan untuk analisis sentimen."]}, {"en": ["We evaluate our approach on the English portion of the Conll-2012 Dataset.", "Data for all our experiments is taken from the English portion of the Conll-2012 Coreference resolution tasks."], "ms": ["Kami menilai pendekatan kami pada bahagian Bahasa Inggeris dari Set Data Conll-2012.", "Data untuk semua eksperimen kami diambil dari bahagian Bahasa Inggeris tugas resolusi Coreference Conll-2012."]}, {"en": ["First, we will consider the Itg constraints.", "In the next section, we will describe these constraints."], "ms": ["Pertama, kita akan mempertimbangkan kekangan Itg.", "Di bahagian seterusnya, kami akan menerangkan kekangan ini."]}, {"en": ["Thus it is impossible to construct rules to identify humor.", "Recognizing humor in text is challenging due to the complex characteristics of humor."], "ms": ["Oleh itu, mustahil untuk membina peraturan untuk mengenal pasti humor.", "Mengiktiraf humor dalam teks adalah mencabar kerana ciri-ciri humor yang kompleks."]}, {"en": ["Previous research indicates that automated communication systems are more effective if they take into account the Affective and mental States of the user.", "Automated communicative systems that are more sensitive to the Emotive and the mental States of their users are often more successful than more neutral conversational agents."], "ms": ["Penyelidikan terdahulu menunjukkan bahawa sistem komunikasi automatik lebih berkesan jika mereka mengambil kira Negeri Affektif dan mental pengguna.", "Sistem komunikatif automatik yang lebih sensitif terhadap Emotif dan Negara mental pengguna mereka sering lebih berjaya daripada ejen perbualan yang lebih neutral."]}, {"en": ["Grammar induction is a task within the field of natural language processing that attempts to construct a grammar of a given language solely on the basis of positive examples of this language.", "Grammar induction is a central problem in computational linguistics, the aim of which is to induce linguistic structures from an Unannotated text corpus."], "ms": ["Induksi tatabahasa adalah tugas dalam bidang pemprosesan bahasa semula jadi yang cuba membina tatabahasa bahasa tertentu semata-mata berdasarkan contoh positif bahasa ini.", "Induksi tatabahasa adalah masalah utama dalam linguistik komputasi, tujuannya adalah untuk mendorong struktur linguistik dari korpus teks Unannotated."]}, {"en": ["Pennell and Liu proposed to use a Character-Level mt model for text Normalization.", "Pennell and Liu , 2011) Firstly introduced an mt method at the Character-Level for Normalization."], "ms": ["Pennell dan Liu mencadangkan untuk menggunakan model mt Character-Level untuk Normalisasi teks.", "Pennell dan Liu (2011) Pertama memperkenalkan kaedah mt di Aras-Kadar Aksara untuk Normalisasi."]}, {"en": ["Particularly, wan used machine translation to translate the source language to the target language to bridge the gap and applied the Co-Training approach.", "Wan incorporated Unlabeled data in the target language into Classifier with Co-Training to improve classification performance."], "ms": ["Terutamanya, wan menggunakan terjemahan mesin untuk menterjemahkan bahasa sumber kepada bahasa sasaran untuk merapatkan jurang dan menggunakan pendekatan Latihan Bersama.", "Wan menggabungkan data Unlabeled dalam bahasa sasaran ke dalam Klasifier dengan Latihan Bersama untuk meningkatkan prestasi klasifikasi."]}, {"en": ["Storyline detection from news articles aims at summarizing events described under a certain news topic and revealing how those events evolve over time.", "Storyline detection from news articles aims at summarizing events described under a certain news topic."], "ms": ["Pengesanan jalan cerita dari artikel berita bertujuan untuk meringkaskan peristiwa yang dijelaskan di bawah topik berita tertentu dan mendedahkan bagaimana peristiwa-peristiwa itu berkembang dari masa ke masa.", "Pengesanan jalan cerita dari artikel berita bertujuan untuk meringkaskan peristiwa yang dijelaskan di bawah topik berita tertentu."]}, {"en": ["There are several studies about grammatical error correction using Phrase-Based statistical machine translation.", "For dealing with any types of errors, grammatical error correction methods using Phrase-Based statistical machine translation are proposed."], "ms": ["Terdapat beberapa kajian mengenai pembetulan ralat tatabahasa menggunakan terjemahan mesin statistik Berasaskan Frasa.", "Untuk menangani sebarang jenis kesilapan, kaedah pembetulan ralat tatabahasa menggunakan terjemahan mesin statistik Berasaskan Frasa dicadangkan."]}, {"en": ["An alternative approach to training structured linear classifiers is based on Maximum-Margin Markov networks.", "The second learning algorithm we consider is the Large-Margin approach for structured prediction."], "ms": ["Pendekatan alternatif untuk melatih pengelas linear berstruktur adalah berdasarkan rangkaian Maximum-Margin Markov.", "Algoritma pembelajaran kedua yang kita anggap adalah pendekatan Large-Margin untuk ramalan berstruktur."]}, {"en": ["Scqa learns the shared model parameters and the similarity metric by minimizing the energy function connecting the twin networks.", "Scqa learns the similarity metric for Question-Question pairs by Leveraging the Question-Answer pairs available in Cqa forum."], "ms": ["Scqa mempelajari parameter model bersama dan metrik persamaan dengan meminimumkan fungsi tenaga yang menghubungkan rangkaian kembar.", "Scqa mempelajari metrik persamaan untuk pasangan Soalan-Pertanyaan dengan Memanfaatkan pasangan Soalan-Penjawab yang terdapat di forum Cqa."]}, {"en": ["We show that this approach Outperforms several baseline methods when judged against Goal-Acts identified by human Annotators.", "Our results show that this Semi-Supervised learning approach Outperforms several baseline methods in identifying the prototypical goal activities."], "ms": ["Kami menunjukkan bahawa pendekatan ini Melaksanakan beberapa kaedah asas apabila dinilai terhadap Matlamat-Akta yang dikenal pasti oleh Annotator manusia.", "Hasil kami menunjukkan bahawa pendekatan pembelajaran Semi-Supervised ini Melaksanakan beberapa kaedah asas dalam mengenal pasti aktiviti matlamat prototipikal."]}, {"en": ["The gunning fog index uses average sentence length and the percentage of words with at least three syllables.", "Similarly, the gunning fog index is based on the average number of words per sentence and the percentage of words with three or more syllables."], "ms": ["Indeks kabut gunning menggunakan panjang ayat purata dan peratusan perkataan dengan sekurang-kurangnya tiga suku kata.", "Begitu juga, indeks kabut gunning adalah berdasarkan bilangan purata perkataan setiap ayat dan peratusan perkataan dengan tiga atau lebih suku kata."]}, {"en": ["Experimental results show that our models can rank the Ground-Truth error position toward the top of the candidate list.", "To determine which one should be corrected, the best model can rank the Ground-Truth error position within the top two."], "ms": ["Hasil eksperimen menunjukkan bahawa model kami boleh meletakkan kedudukan ralat Ground-Truth ke arah bahagian atas senarai calon.", "Untuk menentukan mana yang harus diperbetulkan, model terbaik boleh meletakkan kedudukan ralat Ground-Truth dalam dua teratas."]}, {"en": ["Sifier (step 3) by expanding its training data using distributed vector representations of words.", "By enhancing the training set using Unsupervised distributed representations of words."], "ms": ["Sifier (langkah 3) dengan memperluaskan data latihannya menggunakan perwakilan vektor yang diedarkan perkataan.", "Dengan meningkatkan set latihan menggunakan perwakilan perkataan yang diedarkan tanpa pengawasan."]}, {"en": ["We perform Chinese word Segmentation, Pos tagging, and dependency Parsing for the Chinese sentences with Stanford Corenlp.", "We first conduct word Segmentation with Jieba and part of speech Annotation using Stanford Corenlp Toolkit."], "ms": ["Kami melakukan Segmentasi perkataan Cina, penandaan Pos, dan Penghuraian dependensi untuk ayat Cina dengan Stanford Corenlp.", "Kami pertama kali menjalankan Segmentasi perkataan dengan Jieba dan sebahagian daripada Annotasi pertuturan menggunakan Stanford Corenlp Toolkit."]}, {"en": ["We train a ranking SVM model to identify (structured) problem answers from unstructured answer text.", "A ranking SVM model is trained to automatically extract problem answers from the answer text provided by Cqa."], "ms": ["Kami melatih model SVM ranking untuk mengenal pasti (berstruktur) jawapan masalah dari teks jawapan tidak berstruktur.", "Model SVM ranking dilatih untuk mengekstrak jawapan masalah secara automatik dari teks jawapan yang disediakan oleh Cqa."]}, {"en": ["Animacy is a an inherent property of the Referents of nouns which has been claimed to figure as an influencing factor in a range of different grammatical phenomena in various languages and it is correlated with central linguistic concepts such as Agentivity and discourse Salience.", "Animacy is the semantic property of nouns denoting whether, or to what extent, the referent of that noun is alive, Human-Like or even Cognitively sophisticated."], "ms": ["Animacy adalah sifat yang wujud dari Rujukan kata nama yang telah dituntut sebagai faktor yang mempengaruhi pelbagai fenomena tatabahasa yang berbeza dalam pelbagai bahasa dan ia berkaitan dengan konsep linguistik pusat seperti Agentiviti dan wacana Salience.", "Animacy adalah sifat semantik kata nama yang menunjukkan sama ada, atau sejauh mana, rujukan kata nama itu masih hidup, Manusia-Seperti atau bahkan Kognitif canggih."]}, {"en": ["Approximate inference can be done by Loopy belief propagation.", "In general, we can still do efficient joint inference using approximate belief propagation."], "ms": ["Kesimpulan kira-kira boleh dilakukan oleh penyebaran kepercayaan Loopy.", "Secara umum, kita masih boleh melakukan kesimpulan bersama yang cekap menggunakan ramalan kepercayaan anggaran."]}, {"en": ["Brown was used through the interface provided by Nltk.", "The English text was Tokenized using the word Tokenize routine from Nltk."], "ms": ["Brown digunakan melalui antara muka yang disediakan oleh Nltk.", "Teks bahasa Inggeris adalah Tokenized menggunakan perkataan Tokenize rutin dari Nltk."]}, {"en": ["The other potential problem is the so-called \u201c Bag-Of-Sentences \u201d assumption implicitly made by most of these Summarizers.", "Another potential problem is the fact that web counts are far more noisy than counts obtained from a Well-Edited, carefully balanced corpus."], "ms": ["Masalah lain yang berpotensi adalah apa yang dipanggil \"Bat-Of-Sentences\" andaian yang secara tersirat dibuat oleh kebanyakan Summarizers ini.", "Satu lagi masalah yang berpotensi adalah hakikat bahawa jumlah web jauh lebih bising daripada jumlah yang diperoleh dari korpus yang baik dan seimbang."]}, {"en": ["In this paper we present a simple approach to Unsupervised semantic role labeling.", "In this paper we describe an Unsupervised method for semantic role induction."], "ms": ["Dalam makalah ini kita membentangkan pendekatan mudah untuk pelabelan peranan semantik yang tidak diawasi.", "Dalam makalah ini kita menerangkan kaedah yang tidak diawasi untuk induksi peranan semantik."]}, {"en": ["We make use of the Mpqa subjectivity lexicon.", "We use the subjectivity lexicon from the Mpqa project."], "ms": ["Kami menggunakan leksikon subjektiviti Mpqa.", "Kami menggunakan leksikon subjektiviti dari projek Mpqa."]}, {"en": ["We propose two inexpensive methods for training alignment models solely using free text, by generating artificial Question-Answer pairs from discourse structures.", "We address this issue, and investigate whether alignment models for Qa can be trained from artificial Question-Answer pairs generated from discourse structures imposed on free text."], "ms": ["Kami mencadangkan dua kaedah yang murah untuk model penjajaran latihan semata-mata menggunakan teks percuma, dengan menghasilkan pasangan Question-Answer buatan dari struktur wacana.", "Kami menangani isu ini, dan menyiasat sama ada model penjajaran untuk Qa boleh dilatih dari pasangan Question-Answer tiruan yang dihasilkan dari struktur wacana yang dikenakan pada teks percuma."]}, {"en": ["Ties and relations in a knowledge base (KB) by jointly Embedding the Union of all available schema Types\u2014Not only types from multiple structured databases (such as Freebase or Wikipedia Infoboxes), but also types expressed as textual patterns from raw text.", "In a knowledge base (KB) by jointly Embedding the Union of all available schema types \u2014 not only types from multiple structured databases (such as Freebase or Wikipedia Infoboxes), but also types expressed as textual patterns from raw text."], "ms": ["Hubungan dan hubungan dalam pangkalan pengetahuan (KB) dengan bersama-sama Embedding Kesatuan semua jenis skema yang tersedia - Bukan sahaja jenis dari pangkalan data berstruktur berganda (seperti Freebase atau Wikipedia Infoboxes), tetapi juga jenis yang dinyatakan sebagai corak teks dari teks mentah.", "Dalam pangkalan pengetahuan (KB) dengan bersama-sama Embedding Kesatuan semua jenis skema yang tersedia - bukan sahaja jenis dari pangkalan data berstruktur berganda (seperti Freebase atau Wikipedia Infoboxes), tetapi juga jenis yang dinyatakan sebagai corak teks dari teks mentah."]}, {"en": ["Particularly, we investigate the use of Speech-Gaze temporal information and Word-Entity semantic relatedness to facilitate word acquisition.", "We investigate the incorporation of extra knowledge, specifically Speech-Gaze temporal information and domain knowledge, with eye gaze to facilitate word acquisition."], "ms": ["Khususnya, kami menyiasat penggunaan maklumat temporal Speech-Gaze dan hubungan semantik Word-Entity untuk memudahkan pemerolehan kata.", "Kami menyiasat penggabungan pengetahuan tambahan, khususnya maklumat temporal Speech-Gaze dan pengetahuan domain, dengan pandangan mata untuk memudahkan pemerolehan perkataan."]}, {"en": ["Stance detection is the task of estimating whether the attitude expressed in a text towards a given topic is \u2018 in favour \u2019, \u2018 against \u2019, or \u2018 neutral \u2019.", "Stance detection is the task of automatically determining from text whether the author is in favor of the given target, against the given target, or whether neither inference is likely."], "ms": ["Pengesanan santun adalah tugas untuk menganggarkan sama ada sikap yang dinyatakan dalam teks ke arah topik tertentu adalah memihak kepada, terhadap, atau neutral.", "Pengesanan santun adalah tugas menentukan secara automatik dari teks sama ada pengarang memihak kepada sasaran yang diberikan, terhadap sasaran yang diberikan, atau sama ada tidak ada kesimpulan yang mungkin."]}, {"en": ["We use Case-Insensitive Bleu-4 and Rouge-L as evaluation Metrics for question decomposition.", "For evaluation, we used the Case-Insensitive BLEU metric with a single reference."], "ms": ["Kami menggunakan Case-Insensitive Bleu-4 dan Rouge-L sebagai Metrik penilaian untuk penguraian soalan.", "Untuk penilaian, kami menggunakan metrik BLEU Case-Insensitive dengan rujukan tunggal."]}, {"en": ["The Semeval 2012 competition initiated a task targeted at semantic textual similarity between sentence pairs.", "The Semeval 2012 competition includes a task targeted at semantic textual similarity between sentence pairs."], "ms": ["Pertandingan Semeval 2012 memulakan tugas yang disasarkan pada persamaan teks semantik antara pasangan ayat.", "Pertandingan Semeval 2012 termasuk tugas yang disasarkan pada persamaan teks semantik antara pasangan ayat."]}, {"en": ["Our set Cover-Based method guarantees that all Bursty N-Grams including Irregularly-Formed ones must be covered by extracted Bursty phrases.", "Given that Bursty incomplete N-Grams always accompany overlapping Bursty phrases, we can avoid extracting Bursty incomplete N-Grams using the set cover problem."], "ms": ["Kaedah Berasaskan Cover kami menjamin bahawa semua Bursty N-Gram termasuk yang tidak teratur yang telah disediakan mesti dilindungi oleh frasa Bursty yang diekstrak.", "Memandangkan bahawa N-Gram Bursty tidak lengkap sentiasa mengiringi frasa Bursty yang bertindih, kita boleh mengelakkan mengekstrak N-Gram Bursty yang tidak lengkap menggunakan masalah penutup set."]}, {"en": ["As opposed to the two dominant techniques of computing Statistics or writing specialized Grammars, our Document-Centered approach works by considering suggestive local contexts and repetitions of individual words within a document.", "Or writing specialized Grammars, our approach Disambiguates capitalized words and abbreviations by considering suggestive local contexts and repetitions of individual words within a document."], "ms": ["Berbanding dengan dua teknik dominan Statistik pengkomputeran atau menulis Grammar khusus, pendekatan Dokumen-Terpusat kami berfungsi dengan mempertimbangkan konteks tempatan yang mencadangkan dan pengulangan perkataan individu dalam dokumen.", "Atau menulis Grammar khusus, pendekatan kami Mengubah kata-kata dan singkatan yang dimodulatkan dengan mempertimbangkan konteks tempatan yang mencadangkan dan pengulangan kata-kata individu dalam dokumen."]}, {"en": ["I have also described an implemented system based on the theoretical treatment which determines whether a specified sequence of Trajectory-Of-Motionevents is or is not possible under varying Situationally specified constraints.", "In the second part of the paper, I describe an implemented system based on the theoretical treatment which determines whether a specified sequence of events is or is not possible."], "ms": ["Saya juga telah menerangkan sistem yang dilaksanakan berdasarkan rawatan teori yang menentukan sama ada urutan tertentu Trajectory-Of-Motionevents adalah atau tidak mungkin di bawah pelbagai kekangan yang ditentukan secara situasi.", "Di bahagian kedua kertas, saya menerangkan sistem yang dilaksanakan berdasarkan rawatan teori yang menentukan sama ada urutan peristiwa yang ditentukan adalah atau tidak mungkin."]}, {"en": ["Cheng et al and Wu et al used neighboring dependency attachment Taggers to improve the performance of the deterministic Parser.", "Wu et al adopted Crfs as the dependency Learner and accepted the results of the neighboring Parsing as features to increase the original feature set."], "ms": ["Cheng et al dan Wu et al menggunakan Taggers lampiran dependensi jiran untuk meningkatkan prestasi Penghurai deterministik.", "Wu et al mengadopsi Crfs sebagai Pendidik dependensi dan menerima hasil Parsing jiran sebagai ciri untuk meningkatkan set ciri asal."]}, {"en": ["In this paper, we extended the standard Hmms to learn distributed state representations and facilitate Cross-Domain sequence predictions.", "In this paper, we extend the standard hidden Markov models (Hmms) to learn distributed state representations to improve Cross-Domain prediction."], "ms": ["Dalam makalah ini, kami memperluas Hmm standard untuk mempelajari perwakilan negara yang diedarkan dan memudahkan ramalan urutan Cross-Domain.", "Dalam makalah ini, kami memperluas model Markov tersembunyi standard (Hmms) untuk mempelajari perwakilan negara yang diedarkan untuk meningkatkan ramalan Cross-Domain."]}, {"en": ["Empirical experiments on Chinese-To-English and Japaneseto-English tasks demonstrate that the proposed attention based Nmt delivers substantial gains in terms of both BLEU and Aer scores.", "Empirical experiments on Chinese-To-English and Japanese-To-English Datasets show that the proposed attention model delivers significant improvements in terms of both alignment."], "ms": ["Eksperimen empirikal mengenai tugas Cina-Ke-Inggeris dan Jepun-Ke-Inggeris menunjukkan bahawa Nmt berasaskan perhatian yang dicadangkan memberikan keuntungan yang besar dari segi skor BLEU dan Aer.", "Eksperimen empirikal pada Dataset Cina-Ke-Inggeris dan Jepun-Ke-Inggeris menunjukkan bahawa model perhatian yang dicadangkan memberikan peningkatan yang ketara dari segi kedua-dua penjajaran."]}, {"en": ["This paper has presented a pronoun Anaphora resolution system based on Fhmms.", "Generative model was recently presented to tackle only pronoun Anaphora resolution."], "ms": ["Kertas ini telah membentangkan sistem resolusi pronoun Anaphora berdasarkan Fhmms.", "Model generatif baru-baru ini dibentangkan untuk menangani hanya kata ganti Anaphora resolusi."]}, {"en": ["A different alternative, which however only delivers Quasi-Normalized scores, is to train the network using the noise Contrastive estimation or Nce for short.", "A more effective alternative, which however only delivers Quasinormalized scores, is to train the network using the noise Contrastive estimation or Nce."], "ms": ["Alternatif yang berbeza, yang bagaimanapun hanya memberikan skor Quasi-Normalized, adalah untuk melatih rangkaian menggunakan anggaran kontrastif bunyi atau Nce untuk jangka pendek.", "Alternatif yang lebih berkesan, yang bagaimanapun hanya memberikan skor Quasinormalized, adalah untuk melatih rangkaian menggunakan anggaran kontrastif bunyi atau Nce."]}, {"en": ["We use relative position representation in Selfattention mechanism of both the Encoder and Decoder side for all systems.", "We used relative position representation in Selfattention mechanism of both the Encoder side and Decoder side."], "ms": ["Kami menggunakan perwakilan kedudukan relatif dalam mekanisme Perhatian Sendiri kedua-dua Encoder dan sisi Decoder untuk semua sistem.", "Kami menggunakan perwakilan kedudukan relatif dalam mekanisme Perhatian diri kedua-dua sisi Pengekod dan sisi Dekoder."]}, {"en": ["In this work, we first investigate label Embeddings for text representations, and propose the Label-Embedding attentive models.", "In this work, we first investigate label Embeddings for text representations, and propose the Label-Embedding."], "ms": ["Dalam kerja ini, kami mula-mula menyiasat label Embeddings untuk perwakilan teks, dan mencadangkan model perhatian Label-Embedding.", "Dalam kerja ini, kami mula-mula menyiasat label Embeddings untuk perwakilan teks, dan mencadangkan Label-Embedding."]}, {"en": ["This paper presents the excitement open platform (Eop), a generic architecture and a comprehensive implementation for textual inference in multiple languages.", "In this paper, we present the excitement open platform (Eop), a generic architecture and a comprehensive implementation for Multilingual textual inference."], "ms": ["Kertas ini membentangkan platform terbuka keseronokan (Eop), seni bina generik dan pelaksanaan komprehensif untuk kesimpulan teks dalam pelbagai bahasa.", "Dalam makalah ini, kami membentangkan platform terbuka keseronokan (Eop), seni bina generik dan pelaksanaan komprehensif untuk kesimpulan teks Multilingual."]}, {"en": ["We use an automatic topic Segmentation method to segment the source articles in our test corpus.", "We divide each article into topic segments using the Unsupervised topic Segmentation method developed by Eisenstein and Barzilay."], "ms": ["Kami menggunakan kaedah Segmentasi topik automatik untuk menyegmentasikan artikel sumber dalam korpus ujian kami.", "Kami membahagikan setiap artikel kepada segmen topik menggunakan kaedah Segmentasi topik yang tidak diawasi yang dibangunkan oleh Eisenstein dan Barzilay."]}, {"en": ["We further split the words into Sub-Words using joint Bpe with 32 , 000 merge operations.", "We trained a Subword model using Bpe with 29,500 merge operations."], "ms": ["Kami seterusnya membahagikan perkataan ke Sub-Words menggunakan Bpe bersama dengan 32, 000 operasi penggabungan.", "Kami melatih model Subword menggunakan Bpe dengan 29,500 operasi penggabungan."]}, {"en": ["The model is used to evaluate the likelihood of various substitutes for a word in a given context.", "Model is used to evaluate the likelihood of possible substitutes for the target word in a given context."], "ms": ["Model ini digunakan untuk menilai kemungkinan pelbagai pengganti perkataan dalam konteks tertentu.", "Model digunakan untuk menilai kemungkinan pengganti yang mungkin untuk perkataan sasaran dalam konteks tertentu."]}, {"en": ["In general, inference and learning for Graph-Based dependency Parsing is Np-Hard when the score is factored over anything larger than arcs.", "Unfortunately, global inference and learning for Graph-Based dependency Parsing is typically Np-Hard."], "ms": ["Secara umum, kesimpulan dan pembelajaran untuk Penghuraian dependensi Berasaskan Grafik adalah Np-Hard apabila skor difaktorkan ke atas apa-apa yang lebih besar daripada arka.", "Malangnya, kesimpulan global dan pembelajaran untuk Penghuraian dependensi berasaskan Grafik biasanya Np-Hard."]}, {"en": ["Zens and Ney exhaustively compare the IBM and Itg constraints, concluding that although the Itg constraints permit more flexible Re-Orderings, the IBM constraints result in higher BLEU scores.", "Although the Itg constraint allows more flexible reordering during decoding, Zens and Ney showed that the IBM constraint results in higher BLEU scores."], "ms": ["Zens dan Ney secara menyeluruh membandingkan kekangan IBM dan Itg, menyimpulkan bahawa walaupun kekangan Itg membenarkan Pengaturan Semula yang lebih fleksibel, kekangan IBM menghasilkan skor BLEU yang lebih tinggi.", "Walaupun kekangan Itg membolehkan penyusunan semula yang lebih fleksibel semasa penyahkodan, Zens dan Ney menunjukkan bahawa kekangan IBM menghasilkan skor BLEU yang lebih tinggi."]}, {"en": ["In this work, we describe a system we developed and submitted to Semeval2015.", "In this paper, we describe our system for a Semeval2015."], "ms": ["Dalam kerja ini, kami menerangkan sistem yang kami majukan dan diserahkan kepada Semeval2015.", "Dalam kertas ini, kami menerangkan sistem kami untuk Semeval2015."]}, {"en": ["Collobert et al used Convolution for Embeddings with a Crf layer to attain alongside Benchmarking several Nlp tasks including NER.", "Collobert et al adjust the feature Embeddings according to the specific task in a deep neural network architecture."], "ms": ["Collobert et al menggunakan Convolution for Embeddings dengan lapisan Crf untuk mencapai bersama penanda aras beberapa tugas Nlp termasuk NER.", "Collobert et al menyesuaikan ciri Embeddings mengikut tugas tertentu dalam seni bina rangkaian saraf yang mendalam."]}, {"en": ["Lexical, syntactic and semantic information from the reference and the two hypotheses is compacted into relatively small distributed vector representations and Fed into the input layer, together with a set of individual Real-Valued features coming from simple Pre-Existing mt evaluation Metrics.", "In this framework, lexical, syntactic and semantic information from the reference and the two hypotheses is compacted into relatively small distributed vector representations, and Fed into a Multi-Layer."], "ms": ["Maklumat leksikal, sintaksis dan semantik dari rujukan dan dua hipotesis dipadatkan menjadi perwakilan vektor diedarkan yang agak kecil dan Fed ke dalam lapisan input, bersama dengan satu set ciri-ciri Real-Valued individu yang berasal dari Metrik Penilaian Pra-Terus.", "Dalam rangka kerja ini, maklumat leksikal, sintaktik dan semantik dari rujukan dan dua hipotesis dipadatkan menjadi perwakilan vektor yang diedarkan agak kecil, dan Fed menjadi Multi-Layer."]}, {"en": ["The alignment template approach for Pb-Smt allows Many-Tomany relations between words.", "The alignment template approach uses word classes rather than lexical items to model phrase translation."], "ms": ["Pendekatan templat penjajaran untuk Pb-Smt membolehkan hubungan Banyak-Esia antara perkataan.", "Pendekatan templat penjajaran menggunakan kelas perkataan dan bukannya item leksikal untuk memodelkan terjemahan frasa."]}, {"en": ["In this paper we present a novel method for learning the edges of Entailment graphs.", "In this paper we address the problem of learning Transitive graphs that describe Entailment."], "ms": ["Dalam kertas ini kita membentangkan kaedah novel untuk mempelajari tepi graf Entailment.", "Dalam kertas ini kita menangani masalah pembelajaran Grafik peralihan yang menerangkan Entailment."]}, {"en": ["The system of Krishnakumaran and Zhu uses Wordnet and word Bigram counts to predict verbal, nominal and adjectival metaphors at the sentence level.", "Krishnakumaran and Zhu , 2007) uses lexical resources like Wordnet and Bigram counts generated from a large scale corpus to classify sentences into metaphorical or normal usages."], "ms": ["Sistem Krishnakumaran dan Zhu menggunakan Wordnet dan perkataan Bigram dikira untuk meramalkan metafora lisan, nominal dan adjektif pada peringkat ayat.", "Krishnakumaran dan Zhu, 2007) menggunakan sumber leksikal seperti Wordnet dan jumlah Bigram yang dihasilkan dari korpus berskala besar untuk mengklasifikasikan ayat ke dalam penggunaan metafora atau biasa."]}, {"en": ["On the Multimodal emotion recognition task, our model achieves better results compared to the state-of-the-art models across all emotions on the F1 score.", "On the Multimodal emotion recognition task, our model achieves better results compared to the state-of-the-art models across all emotions."], "ms": ["Mengenai tugas pengiktirafan emosi Multimodal, model kami mencapai hasil yang lebih baik berbanding model canggih di semua emosi pada skor F1.", "Pada tugas pengiktirafan emosi Multimodal, model kami mencapai hasil yang lebih baik berbanding model canggih di semua emosi."]}, {"en": ["Xu et al described a Bayesian Semisupervised model by considering the Segmentation as the hidden variable in machine translation.", "Xu et al described a Bayesian Semi-Supervised CWS model by considering the Segmentation as the hidden variable in machine translation."], "ms": ["Xu et al menggambarkan model Bayesian Semisupervised dengan mempertimbangkan Segmentasi sebagai pemboleh ubah tersembunyi dalam terjemahan mesin.", "Xu et al menggambarkan model CWS Semi-Supervised Bayesian dengan mempertimbangkan Segmentasi sebagai pemboleh ubah tersembunyi dalam terjemahan mesin."]}, {"en": ["In recent years, we have seen an increasing use of Graph-Based methods in Nlp.", "Recently, Graph-Based methods for Knowledge-Based Wsd have gained much attention in the Nlp community."], "ms": ["Dalam tahun-tahun kebelakangan ini, kami telah melihat peningkatan penggunaan kaedah berasaskan Grafik di Nlp.", "Baru-baru ini, kaedah Berasaskan Grafik untuk Wsd Berasaskan Pengetahuan telah mendapat banyak perhatian dalam komuniti Nlp."]}, {"en": ["Issue framing is related to the broader challenges of Biased language analysis and subjectivity.", "Framing is further related to works which analyze Biased language and subjectivity."], "ms": ["Pembingkaian isu berkaitan dengan cabaran yang lebih luas analisis bahasa Biased dan subjektiviti.", "Pembingkaian lebih berkaitan dengan kerja-kerja yang menganalisis bahasa Biased dan subjektiviti."]}, {"en": ["A Tdnn Convolves a sequence of inputs Math-W-6-1-0-7 with a set of weights M.", "Pooling over a linear sequence of values returns the Subsequence of Math-W-2-5-1-108."], "ms": ["Tdnn Mengubah urutan input Math-W-6-1-0-7 dengan satu set berat M.", "Menggabungkan jujukan nilai linear mengembalikan Subsequence Math-W-2-5-1-108."]}, {"en": ["In this paper, we propose a novel neural network model called Rnn Encoder\u00a8C Decoder that consists of two recurrent neural networks (Rnn).", "In this paper, we proposed a new neural network architecture, called an Rnn Encoder \u00a8C Decoder that is able to learn."], "ms": ["Dalam makalah ini, kami mencadangkan model rangkaian saraf novel yang dipanggil Rnn Encoder C Decoder yang terdiri daripada dua rangkaian saraf berulang (Rnn).", "Dalam makalah ini, kami mencadangkan seni bina rangkaian saraf baru, yang dipanggil Rnn Encoder C Decoder yang dapat belajar."]}, {"en": ["Hence empirical measurements from large enough samples tend to be reliable for even larger sample sizes.", "Measurements based on a given sample will need to be extrapolated to obtain their estimates over larger unseen samples."], "ms": ["Oleh itu, pengukuran empirikal dari sampel yang cukup besar cenderung boleh dipercayai untuk ukuran sampel yang lebih besar.", "Pengukuran berdasarkan sampel yang diberikan perlu diekstrapolasi untuk mendapatkan anggaran mereka berbanding sampel yang lebih besar yang tidak kelihatan."]}, {"en": ["Parsing scores or discourse based scores.", "Parsing scores or discourse model scores."], "ms": ["Menghuraikan skor atau skor berasaskan wacana.", "Menghuraikan skor atau skor model wacana."]}, {"en": ["As in previous work, we represent Wordforms by their orthographic strings, and Word-Meanings by their semantic vector representations as produced by a Distributional semantic vector space model.", "As in previous work, we represent Wordforms by their orthographic strings, and Word-Meanings by their semantic vector representations."], "ms": ["Seperti dalam karya sebelumnya, kami mewakili bentuk Word dengan rentetan ortografik mereka, dan Word-Meanings dengan perwakilan vektor semantik mereka seperti yang dihasilkan oleh model ruang vektor semantik Distributional.", "Seperti dalam kerja sebelumnya, kami mewakili bentuk Word dengan rentetan ortografik mereka, dan Word-Meanings dengan perwakilan vektor semantik mereka."]}, {"en": ["Our system improves over state of the art in the full lexical substitution task in all three languages.", "We were able to improve the current state of the art for the full lexical substitution task."], "ms": ["Sistem kami meningkatkan keadaan seni dalam tugas penggantian leksikal penuh dalam ketiga-tiga bahasa.", "Kami dapat meningkatkan keadaan semasa seni untuk tugas penggantian leksikal penuh."]}, {"en": ["We use glove Embeddings for the English tasks and Fasttext Embeddings for all Newswire tasks.", "For all models, we use the 300-Dimensional glove word Embeddings."], "ms": ["Kami menggunakan sarung tangan Embeddings untuk tugas bahasa Inggeris dan Fasttext Embeddings untuk semua tugas Newswire.", "Untuk semua model, kami menggunakan perkataan sarung tangan 300 dimensi Embeddings."]}, {"en": ["Tomanek et al utilised Eye-Tracking data to evaluate a degree of difficulty in Annotating named entities.", "Tomanek et al utilised Eye-Tracking data to evaluate difficulties of named entities for selecting training instances for active learning techniques."], "ms": ["Tomanek et al menggunakan data Eye-Tracking untuk menilai tahap kesukaran dalam Annotating entiti yang dinamakan.", "Tomanek et al menggunakan data Eye-Tracking untuk menilai kesukaran entiti bernama untuk memilih contoh latihan untuk teknik pembelajaran aktif."]}, {"en": ["Like these approaches, we first learn word Embeddings for each language, then use a seed dictionary to train a mapping function between the two vector spaces.", "For each language, and second, using a given seed dictionary, we train a mapping function to connect the two Monolingual vector spaces."], "ms": ["Seperti pendekatan ini, kita mula-mula belajar Embedding perkataan untuk setiap bahasa, kemudian menggunakan kamus benih untuk melatih fungsi pemetaan antara dua ruang vektor.", "Untuk setiap bahasa, dan kedua, menggunakan kamus benih yang diberikan, kami melatih fungsi pemetaan untuk menghubungkan dua ruang vektor Monolingual."]}, {"en": ["In this paper, we describe an experiment on fully automatic derivation of the knowledge necessary for Part-Of-Speech tagging.", "In this paper, we have attempted to construct an algorithm for fully automatic Distributional tagging."], "ms": ["Dalam makalah ini, kami menerangkan eksperimen mengenai terbitan sepenuhnya automatik pengetahuan yang diperlukan untuk penandaan Bahagian-Daripada-Pertuturan.", "Dalam makalah ini, kami telah berusaha untuk membina algoritma untuk penandaan Pengedaran automatik sepenuhnya."]}, {"en": ["We include Pos tags and the top N-Gram features as described in prior work.", "We include Pos tags and the top 500 N-Gram features."], "ms": ["Kami termasuk tag Pos dan ciri-ciri N-Gram teratas seperti yang diterangkan dalam kerja sebelumnya.", "Kami termasuk tag Pos dan ciri-ciri 500 N-Gram teratas."]}, {"en": ["In the former stage, a specially designed deep network is given to learn the unified representation using both textual and Non-Textual information.", "First, the joint representation is learned by taking both textual and Non-Textual features into a deep learning network."], "ms": ["Di peringkat sebelumnya, rangkaian mendalam yang direka khas diberikan untuk mempelajari perwakilan bersatu menggunakan kedua-dua maklumat teks dan bukan tekstual.", "Pertama, perwakilan bersama dipelajari dengan mengambil kedua-dua ciri teks dan bukan tekstual ke dalam rangkaian pembelajaran yang mendalam."]}, {"en": ["In section 4, we apply RD to recognize Protein-Protein interaction (PPI) sentences, using proteins as seeds for the entity discovery phase.", "In section 4, we apply RD to recognize Protein-Protein interaction (PPI) sentences, using proteins as seeds."], "ms": ["Dalam seksyen 4, kami memohon RD untuk mengiktiraf ayat interaksi protein-protein (PPI), menggunakan protein sebagai benih untuk fasa penemuan entiti.", "Dalam seksyen 4, kami memohon RD untuk mengiktiraf ayat interaksi protein-protein (PPI), menggunakan protein sebagai biji."]}, {"en": ["In another, Cite-P-17-1-19 applies an SVM to rank elements, by devising the input vector by subtraction of feature values.", "In another, Cite-P-17-1-19 applies an SVM to rank elements, by devising the input vector."], "ms": ["Dalam yang lain, Cite-P-17-1-19 menggunakan SVM untuk meletakkan unsur-unsur, dengan merangka vektor input dengan menolak nilai ciri.", "Dalam yang lain, Cite-P-17-1-19 menggunakan SVM untuk mendarab unsur, dengan merangka vektor input."]}, {"en": ["Cnns have been effectively employed in Nlp tasks such as text classification, sentiment analysis, relation classification, and so on.", "Cnns with similar structures have also been applied to other classification tasks, such as semantic matching, relation extraction, and information Retrieval."], "ms": ["Cnns telah digunakan secara berkesan dalam tugas Nlp seperti pengelasan teks, analisis sentimen, pengelasan hubungan, dan sebagainya.", "Cnns dengan struktur yang serupa juga telah digunakan untuk tugas pengelasan lain, seperti pemadanan semantik, pengekstrakan hubungan, dan pengambilan maklumat."]}, {"en": ["There is a growing interest in learning Vectorspace representations of words and phrases using large training Corpora in the field of natural language processing.", "Recently, there has been a growing interest in neural language models, where the words are projected into a lower dimensional dense vector space via a hidden layer."], "ms": ["Terdapat minat yang semakin meningkat dalam pembelajaran perwakilan Vectorspace perkataan dan frasa menggunakan latihan besar Corpora dalam bidang pemprosesan bahasa semula jadi.", "Baru-baru ini, terdapat minat yang semakin meningkat dalam model bahasa saraf, di mana kata-kata diproyeksikan ke ruang vektor padat dimensi rendah melalui lapisan tersembunyi."]}, {"en": ["On the other hand, we also propose a new method for speeding up classification which is independent to the polynomial kernel degree.", "Time complexity, we also present a new method for speeding up SVM classifying which does independent to the polynomial degree."], "ms": ["Sebaliknya, kami juga mencadangkan kaedah baru untuk mempercepat klasifikasi yang bebas daripada ijazah kernel polinomial.", "Kerumitan masa, kami juga membentangkan kaedah baru untuk mempercepat pengelasan SVM yang bebas kepada ijazah polinomial."]}, {"en": ["In this paper, we propose a neural knowledge diffusion (Nkd) model to introduce knowledge into dialogue generation.", "In this paper, we propose a neural knowledge diffusion (Nkd) dialogue system to benefit the neural dialogue generation."], "ms": ["Dalam makalah ini, kami mengusulkan model difusi pengetahuan neural (Nkd) untuk memperkenalkan pengetahuan ke dalam generasi dialog.", "Dalam makalah ini, kami mengusulkan sistem dialog diffusion pengetahuan neural (Nkd) untuk memberi manfaat kepada generasi dialog neural."]}, {"en": ["Recently a Chatbot for E-Commerce sites known as Superagent has been developed.", "A Chatbot for E-Commerce sites known as Superagent has been developed."], "ms": ["Baru-baru ini Chatbot untuk laman E-Dagang yang dikenali sebagai Superagent telah dibangunkan.", "Chatbot untuk laman E-Commerce yang dikenali sebagai Superagent telah dibangunkan."]}, {"en": ["In this paper, we address this challenge with adversarial stability training for neural machine translation.", "In this work, we improve the robustness of Encoder representations against noisy perturbations with adversarial learning."], "ms": ["Dalam makalah ini, kami menangani cabaran ini dengan latihan kestabilan musuh untuk terjemahan mesin saraf.", "Dalam kerja ini, kami meningkatkan kekukuhan perwakilan Encoder terhadap gangguan bising dengan pembelajaran adversarial."]}, {"en": ["As a supervised Upper-Bound baseline, we use Stanford collapsed Dependencies for the English data and Dependencies coming from the mate tools for the German corpus.", "In this study, we assume commonly used Stanford typed dependency for English and the Chunk-Based dependency with Ipadic for Japanese."], "ms": ["Sebagai garis dasar Upper-Bound yang diawasi, kami menggunakan Stanford runtuh Dependencies untuk data bahasa Inggeris dan Dependencies yang berasal dari alat pasangan untuk korpus Jerman.", "Dalam kajian ini, kami menganggap pergantungan taip Stanford yang biasa digunakan untuk bahasa Inggeris dan pergantungan berasaskan Chunk dengan Ipadic untuk bahasa Jepun."]}, {"en": ["Dialogue act classification is a central challenge for dialogue systems.", "Dialogue act classification is an essential task for dialogue systems."], "ms": ["Pengelasan tindakan dialog adalah cabaran utama untuk sistem dialog.", "Pengelasan tindakan dialog adalah tugas penting untuk sistem dialog."]}, {"en": ["Comparatively, the best English SRL results reported drops from 91.2 (Cite-P-26-1-9) to 80.56 (Cite-P-26-1-12).", "Results reported drops from 91 . 2 (Cite-P-26-1-9) to 80 . 56 (Cite-P-26-1-12)."], "ms": ["Secara perbandingan, keputusan SRL Inggeris terbaik dilaporkan menurun dari 91.2 (Cite-P-26-1-9) kepada 80.56 (Cite-P-26-1-12).", "Keputusan yang dilaporkan menurun dari 91. 2 (Cite-P-26-1-9) kepada 80. 56 (Cite-P-26-1-12)."]}, {"en": ["Suggestion mining is defined as the extraction of suggestions from unstructured text.", "The task of suggestion mining can be defined as the extraction of sentences that contain suggestions from unstructured text."], "ms": ["Perlombongan cadangan ditakrifkan sebagai pengekstrakan cadangan dari teks yang tidak berstruktur.", "Tugas perlombongan cadangan boleh ditakrifkan sebagai pengekstrakan ayat yang mengandungi cadangan dari teks yang tidak berstruktur."]}, {"en": ["For instance, Reddy et al collected numerical scores for 90 English nominal compounds regarding their Compositionality.", "Most importantly, Reddy et al used a standard Distributional model to predict the Compositionality of Compound-Constituent pairs for 90 English compounds."], "ms": ["Sebagai contoh, Reddy et al mengumpul skor berangka untuk 90 sebatian nominal Inggeris mengenai Komposisi mereka.", "Yang paling penting, Reddy et al menggunakan model Taburan piawai untuk meramalkan Komponen pasangan Komponen-Constituen bagi 90 sebatian Inggeris."]}, {"en": ["The survey by Schmidt and Wiegand points out that Bag-Ofword models are good features for hate speech detection, although they ignore word order and sentence syntax.", "Schmidt and Wiegand NOTE in their survey that supervised learning approaches are predominantly used for hate speech detection."], "ms": ["Tinjauan oleh Schmidt dan Wiegand menunjukkan bahawa model Bag-Ofword adalah ciri yang baik untuk pengesanan ucapan kebencian, walaupun mereka mengabaikan perintah kata dan sintaks ayat.", "Schmidt dan Wiegand NOTE dalam tinjauan mereka bahawa pendekatan pembelajaran yang diawasi kebanyakannya digunakan untuk pengesanan ucapan kebencian."]}, {"en": ["Word alignment is a crucial early step in the training of most statistical machine translation (Smt) systems, in which the estimated alignments are used for constraining the set of candidates in Phrase/Grammar extraction (Cite-P-9-3-5, Cite-P-9-1-4, Cite-P-9-3-0).", "Word alignment is the task of identifying word Correspondences between parallel sentence pairs."], "ms": ["Penjajahan perkataan adalah langkah awal penting dalam latihan kebanyakan sistem terjemahan mesin statistik (Smt), di mana penjajaran anggaran digunakan untuk mengekang set calon dalam pengekstrakan Phrase / Gammar (Cite-P-9-3-5, Cite-P-9-1-4, Cite-P-9-3-0).", "Penjajahan perkataan adalah tugas mengenal pasti perkataan Correspondences antara pasangan ayat selari."]}, {"en": ["As a case study, we experimented on the language pair of Japanese and Korean.", "As a case study, we developed a Japaneseto-Korean translation."], "ms": ["Sebagai kajian kes, kami bereksperimen pada pasangan bahasa Jepun dan Korea.", "Sebagai kajian kes, kami membangunkan terjemahan Jepun-Korea."]}, {"en": ["This approach has previously been successfully used on English.", "That has been shown to work well for English."], "ms": ["Pendekatan ini sebelum ini telah berjaya digunakan dalam bahasa Inggeris.", "Ini terbukti berkesan untuk bahasa Inggeris."]}, {"en": ["In this paper, we construct the discourse dependency corpus Scidtb 1.", "In this paper, we present Scidtb, a Domain-Specific discourse."], "ms": ["Dalam makalah ini, kita membina wacana dependensi corpus Scidtb 1.", "Dalam makalah ini, kami membentangkan Scidtb, wacana Domain-Specific."]}, {"en": ["Recently, Tensor Factorization-Based methods have been proposed for Binary relation schema induction (Cite-P-13-3-13), with gains in both speed and accuracy over previously proposed Generative models.", "Tensor-Matrix Factorizations have been used for the problem of predicting links in the universal schema setting (Cite-P-14-2-2, Cite-P-14-2-5)."], "ms": ["Baru-baru ini, kaedah berasaskan Tensor Factorization telah dicadangkan untuk induksi skema hubungan binari (Cite-P-13-3-13), dengan keuntungan dalam kedua-dua kelajuan dan ketepatan berbanding model Generatif yang dicadangkan sebelum ini.", "Pemfaktoran Tensor-Matrix telah digunakan untuk masalah meramalkan pautan dalam tetapan skema sejagat (Cite-P-14-2-2, Cite-P-14-2-5)."]}, {"en": ["We propose Tree-Based position features to Encode the relative positions of words in a dependency tree.", "First, Tree-Based position features are proposed to Encode the relative positions of words in dependency trees."], "ms": ["Kami mencadangkan ciri kedudukan berasaskan pokok untuk Mengenal pasti kedudukan relatif perkataan dalam pokok dependensi.", "Pertama, ciri kedudukan berasaskan pokok dicadangkan untuk Mengenal pasti kedudukan relatif perkataan dalam pokok dependensi."]}, {"en": ["We are using word Embeddings trained on Google news corpus for our experiments.", "Our experiments directly utilize the Embeddings trained by the Cbow model on 100 billion words of Google news."], "ms": ["Kami menggunakan perkataan Embeddings yang dilatih pada korpus berita Google untuk eksperimen kami.", "Eksperimen kami secara langsung menggunakan Embeddings yang dilatih oleh model Cbow pada 100 bilion perkataan berita Google."]}, {"en": ["By varying the size of the training data and the Dimensionality of the Covariates, we have demonstrated that our proposed model is relatively robust across different parameter settings.", "By varying the number of dimensions of the Covariates and the size of the training data, we show that the improvements over the Baselines are robust across different parameter settings."], "ms": ["Dengan berbeza-beza saiz data latihan dan Dimensi Covariates, kami telah menunjukkan bahawa model yang dicadangkan kami agak mantap merentasi tetapan parameter yang berbeza.", "Dengan mengubah bilangan dimensi Covariates dan saiz data latihan, kami menunjukkan bahawa penambahbaikan ke atas Baselines adalah mantap merentasi tetapan parameter yang berbeza."]}, {"en": ["In this study, we focus on Extractive summarization.", "And Hence we need effective summarization."], "ms": ["Dalam kajian ini, kita memberi tumpuan kepada ringkasan ekstra.", "Oleh itu, kita memerlukan ringkasan yang berkesan."]}, {"en": ["We show that Acme yields a significant relative error reduction over the input alignment systems and Heuristic-Based combinations on three different language pairs.", "Acme yields significant relative error reduction over the input alignments and their Heuristic-Based combinations on three different language pairs."], "ms": ["Kami menunjukkan bahawa Acme menghasilkan pengurangan ralat relatif yang signifikan terhadap sistem penjajaran input dan kombinasi Heuristik-Berdasarkan pada tiga pasangan bahasa yang berbeza.", "Acme menghasilkan pengurangan ralat relatif yang ketara berbanding penjajaran input dan kombinasi Heuristik-Based mereka pada tiga pasangan bahasa yang berbeza."]}, {"en": ["We Initialized the Embedding layer weights with glove vectors.", "We Initialize the Embedding layer weights with glove vectors."], "ms": ["Kami Memulakan berat lapisan Embedding dengan vektor sarung tangan.", "Kami Memulakan berat lapisan Embedding dengan vektor sarung tangan."]}, {"en": ["Hand-Built Lexicons, such as Cyc and Wordnet, are the most useful to provide resources for Nlp applications.", "Semantic Dictionaries are useful for many Nlp tasks, as evidenced by the widespread use of Wordnet."], "ms": ["Hand-Built Lexicons, seperti Cyc dan Wordnet, adalah yang paling berguna untuk menyediakan sumber untuk aplikasi Nlp.", "Kamus Semantik berguna untuk banyak tugas Nlp, seperti yang dibuktikan oleh penggunaan Wordnet yang meluas."]}, {"en": ["The classic data set of Rubenstein and Goodenough consists of 65 noun pairs.", "We further consider the classic data set of Rubenstein and Goodenough, consisting of 65 noun pairs."], "ms": ["Set data klasik Rubenstein dan Goodenough terdiri daripada 65 pasangan kata nama.", "Kami mempertimbangkan set data klasik Rubenstein dan Goodenough, yang terdiri daripada 65 pasangan kata nama."]}, {"en": ["Long short-term memory networks have been applied to machine translation and semantic processing.", "Recurrent neural networks have successfully been used in sequence learning problems, for example machine translation, and language modeling."], "ms": ["Rangkaian ingatan jangka pendek yang panjang telah digunakan untuk terjemahan mesin dan pemprosesan semantik.", "Rangkaian saraf berulang telah berjaya digunakan dalam masalah pembelajaran urutan, contohnya terjemahan mesin, dan pemodelan bahasa."]}, {"en": ["Empirical results demonstrate that our approach significantly Outperforms existing neural and Non-Neural approaches on Framenet data.", "Framenet data show that our model significantly Outperforms existing neural and Non-Neural approaches, achieving a 5 . 7 F1 gain over the current state of the art, for full frame."], "ms": ["Hasil empirikal menunjukkan bahawa pendekatan kami dengan ketara Melaksanakan pendekatan neural dan Non-Neural yang ada pada data Framenet.", "Data Framenet menunjukkan bahawa model kami dengan ketara Melaksanakan pendekatan neural dan Non-Neural yang sedia ada, mencapai keuntungan 5.7 F1 berbanding keadaan semasa seni, untuk bingkai penuh."]}, {"en": ["Only few Nlg systems generate personalized information from medical data for the patient, as opposed to health care personnel.", "However, only a few of the existing BIOMEDICAL systems generate personalized content for the patients."], "ms": ["Hanya beberapa sistem Nlg yang menghasilkan maklumat peribadi dari data perubatan untuk pesakit, berbanding dengan kakitangan penjagaan kesihatan.", "Walau bagaimanapun, hanya beberapa sistem BIOMEDICAL yang sedia ada menghasilkan kandungan peribadi untuk pesakit."]}, {"en": ["Gazdar discussed a restricted form of indexed Grammars in which the stack associated with the Nonterminal on the left of each production can only be associated with one of the occurrences of Nonterminals on the right of the production.", "In a restricted form of indexed Grammars was discussed in which the stack associated with the Nonterminal on the left of each production can only be associated with one of the occurrences of Nonterminals on the right of the production."], "ms": ["Gazdar membincangkan bentuk terhad Grammar berindeks di mana timbunan yang dikaitkan dengan Nonterminal di sebelah kiri setiap pengeluaran hanya boleh dikaitkan dengan salah satu kejadian Nonterminal di sebelah kanan pengeluaran.", "Dalam bentuk terhad Grammar berindeks telah dibincangkan di mana timbunan yang berkaitan dengan Nonterminal di sebelah kiri setiap pengeluaran hanya boleh dikaitkan dengan salah satu kejadian Nonterminal di sebelah kanan pengeluaran."]}, {"en": ["Our algorithm is also applicable to other Graph-Structured representations, E.G . Hpsg Predicate-Argument analysis (Cite-P-26-1-25).", "Dependency analysis provides a useful approximation to the underlying meaning representations, and has been shown very helpful for Nlp applications E . G . question answering (Cite-P-26-1-29)."], "ms": ["Algoritma kami juga terpakai kepada perwakilan Graph-Structured yang lain, E.G. Analisis Predicate-Argument Hpsg (Cite-P-26-1-25).", "Analisis kebergantungan memberikan penghampiran berguna kepada perwakilan makna yang mendasari, dan telah ditunjukkan sangat membantu untuk aplikasi Nlp E. G. jawapan soalan (Cite-P-26-1-29)."]}, {"en": ["In their setting, Lda merely serves the purpose of Dimensionality reduction, whereas our particular motivation is to use topics as probabilistic indicators for the prediction of attributes as semantic target categories in Adjective-Noun composition.", "In their setting, Lda merely serves the purpose of Dimensionality reduction, whereas our particular motivation is to use topics as probabilistic indicators for the prediction of attributes."], "ms": ["Dalam tetapan mereka, Lda hanya berfungsi tujuan pengurangan Dimensionaliti, sedangkan motivasi khusus kami adalah menggunakan topik sebagai petunjuk probabilistik untuk ramalan atribut sebagai kategori sasaran semantik dalam komposisi Adjektif-Noun.", "Dalam tetapan mereka, Lda hanya berfungsi tujuan pengurangan Dimensionaliti, sedangkan motivasi khusus kami adalah menggunakan topik sebagai petunjuk kebarangkalian untuk ramalan atribut."]}, {"en": ["First, we add two sources of implicit linguistic information as features \u2013 eventuality type and modality of an event, which are also inferred automatically.", "In the first approach, we use two sources of implicit linguistic information, eventuality type and modality, automatically derived, as features."], "ms": ["Pertama, kami menambah dua sumber maklumat linguistik tersirat sebagai ciri-ciri - jenis kemungkinan dan modaliti sesuatu peristiwa, yang juga disimpulkan secara automatik.", "Dalam pendekatan pertama, kami menggunakan dua sumber maklumat linguistik tersirat, jenis akhirnya dan modaliti, yang diperoleh secara automatik, sebagai ciri."]}, {"en": ["Named entity linking is the task of mapping mentions of named entities to their Canonical reference in a knowledge base.", "Named-Entity Disambiguation is the task of linking names mentioned in text with an established catalog of entities."], "ms": ["Pemaut entiti bernama adalah tugas pemetaan sebutan entiti bernama kepada rujukan Canonical mereka dalam pangkalan pengetahuan.", "Disambiguasi nama-kemasukan adalah tugas menghubungkan nama yang disebut dalam teks dengan katalog entiti yang ditubuhkan."]}, {"en": ["The goal of the Conll-2014 shared task was to evaluate Algorithms and systems for automatically correcting grammatical errors in English essays written by second language learners of English.", "The task of Conll-2014 is grammatical error correction which consists of detecting and correcting the grammatical errors in English essays written by Non-Native speakers."], "ms": ["Matlamat tugas bersama Conll-2014 adalah untuk menilai Algoritma dan sistem untuk membetulkan kesilapan tatabahasa secara automatik dalam esei bahasa Inggeris yang ditulis oleh pelajar bahasa kedua Bahasa Inggeris.", "Tugas Conll-2014 adalah pembetulan ralat tatabahasa yang terdiri daripada mengesan dan membetulkan kesilapan tatabahasa dalam esei bahasa Inggeris yang ditulis oleh penutur Bukan Asli."]}, {"en": ["Such matrix decomposition is Computationally heavy and has not been proven to scale well when the number of words assigned to categories grows.", "Category acquisition approach is based on decomposition of a matrix defined by context feature vectors, and it has not been shown to scale well."], "ms": ["Penguraian matriks sedemikian adalah berat komputasi dan tidak terbukti untuk skala dengan baik apabila bilangan perkataan yang diberikan kepada kategori berkembang.", "Pendekatan pemerolehan kategori adalah berdasarkan penguraian matriks yang ditakrifkan oleh vektor ciri konteks, dan ia tidak ditunjukkan untuk skala dengan baik."]}, {"en": ["By contrast, our approach adopts a Twin-Candidate learning model.", "Our approach adopts a Twin-Candidate model to directly learn the competition criterion."], "ms": ["Sebaliknya, pendekatan kami menggunakan model pembelajaran Twin-Candidate.", "Pendekatan kami menggunakan model Twin-Candidate untuk mempelajari kriteria persaingan secara langsung."]}, {"en": ["Mcclosky et al used an additional Unlabeled corpus to reduce data Sparsity.", "Mcclosky et al use Self-Training in combination with a Pcfg Parser and Reranking."], "ms": ["Mcclosky et al menggunakan korpus Unlabeled tambahan untuk mengurangkan Sparsity data.", "Mcclosky et al menggunakan Latihan Sendiri dalam kombinasi dengan Parser Pcfg dan Reranking."]}, {"en": ["We present Multigrancnn, a general deep learning architecture for matching text chunks.", "In this paper, we present Multigrancnn, a general deep learning architecture for classifying."], "ms": ["Kami membentangkan Multigrancnn, seni bina pembelajaran mendalam umum untuk mencocokkan potongan teks.", "Dalam makalah ini, kami membentangkan Multigrancnn, seni bina pembelajaran mendalam umum untuk mengklasifikasikan."]}, {"en": ["We attempt to address these limitations by proposing a fluency boost learning and inference mechanism.", "To apply our fluency boost learning and inference mechanism to their models."], "ms": ["Kami cuba menangani batasan ini dengan mencadangkan mekanisme pembelajaran dan kesimpulan peningkatan kefasihan.", "Untuk menggunakan kefasihan kami meningkatkan pembelajaran dan mekanisme kesimpulan kepada model mereka."]}, {"en": ["The complexity of this task challenges systems to establish the meaning, reference and identity across documents.", "Complexity of this task challenges systems to establish the meaning, reference, and identity across documents."], "ms": ["Kerumitan tugas ini mencabar sistem untuk mewujudkan makna, rujukan dan identiti merentasi dokumen.", "Kerumitan tugas ini mencabar sistem untuk mewujudkan makna, rujukan, dan identiti merentasi dokumen."]}, {"en": ["Cross-Narrative temporal ordering of medical events is essential to the task of generating a comprehensive Timeline over a Patient\u00a1\u00afS history.", "Resolving Cross-Narrative temporal relationships between medical events is essential to the task of generating an event Timeline from across unstructured clinical narratives."], "ms": ["Pengaturan temporal Cross-Narrative peristiwa perubatan adalah penting untuk tugas menghasilkan Garis Masa yang komprehensif ke atas sejarah Pesakit.", "Menyelesaikan hubungan temporal Cross-Narrative antara peristiwa perubatan adalah penting untuk tugas menghasilkan peristiwa Garis masa dari merentasi naratif klinikal yang tidak tersusun."]}, {"en": ["Thus, based on the findings in Zaidan et al, we assume that on average Annotating an instance with feature feedback takes twice as much time as Annotating an instance without feature feedback.", "Zaidan et al found that on average it takes twice as much time to Annotate an instance with Rationales than to Annotate one without Rationales."], "ms": ["Oleh itu, berdasarkan penemuan di Zaidan et al, kami menganggap bahawa secara purata Annotating contoh dengan maklum balas ciri mengambil masa dua kali lebih banyak daripada Annotating contoh tanpa maklum balas ciri.", "Zaidan et al mendapati bahawa secara purata ia mengambil masa dua kali lebih banyak untuk Annotate contoh dengan Rationales daripada Annotate satu tanpa Rationales."]}, {"en": ["Rahman and Ng used Event-Related information by looking at which semantic role the entity mentions can have and the verb pairs of their Predicates.", "Rahman and Ng also used Event-Related information by looking at which semantic role the entity mentions can have and the verb pairs of their Predicates."], "ms": ["Rahman dan Ng menggunakan maklumat berkaitan peristiwa dengan melihat peranan semantik yang disebut entiti dan pasangan kata kerja Predicates mereka.", "Rahman dan Ng juga menggunakan maklumat berkaitan peristiwa dengan melihat peranan semantik yang disebut entiti dan pasangan kata kerja Predicates mereka."]}, {"en": ["We then adopt the machine learning method proposed in and the Bayesian network Classifier for feature rating estimation.", "We adopt the approach of Pang and Lee described in section 2 for feature rating estimation."], "ms": ["Kami kemudian menggunakan kaedah pembelajaran mesin yang dicadangkan dalam dan Bayesian Network Classifier untuk anggaran penarafan ciri.", "Kami menggunakan pendekatan Pang dan Lee yang dijelaskan dalam seksyen 2 untuk anggaran penarafan ciri."]}, {"en": ["Generally, word Embeddings are learned from a given text corpus without supervision by predicting the context of each word or predicting the current word given its context.", "Word Embeddings are usually learned from Unlabeled text corpus by predicting context words surrounded or predicting the current word given context words."], "ms": ["Secara umumnya, perkataan Embeddings dipelajari daripada korpus teks yang diberikan tanpa pengawasan dengan meramalkan konteks setiap perkataan atau meramalkan perkataan semasa yang diberikan konteksnya.", "Embedding Perkataan biasanya dipelajari daripada korpus teks Unlabeled dengan meramalkan perkataan konteks yang dikelilingi atau meramalkan perkataan semasa yang diberikan perkataan konteks."]}, {"en": ["We evaluate our proposed method on the Tac 2008 and 2011 data SETS using the standard Rouge metric and human evaluation of the linguistic quality.", "We evaluate our proposed summarization approach on the Tac 2008 and 2011 data SETS using the standard Rouge metric."], "ms": ["Kami menilai kaedah yang dicadangkan kami pada data Tac 2008 dan 2011 SETS menggunakan metrik Rouge standard dan penilaian manusia terhadap kualiti linguistik.", "Kami menilai pendekatan ringkasan yang dicadangkan kami pada data Tac 2008 dan 2011 SETS menggunakan metrik Rouge standard."]}, {"en": ["Finally, both Shieber, Schabes, and Pereira and Sikkel have shown how to specify Parsers in a simple, interpretable, Item-Based format.", "The use of deduction systems for specifying Parsers has been proposed by Shieber, Schabes, and Pereira and Sikkel."], "ms": ["Akhirnya, kedua-dua Shieber, Schabes, dan Pereira dan Sikkel telah menunjukkan cara menentukan Parsers dalam format yang mudah, boleh ditafsirkan, berasaskan Item.", "Penggunaan sistem pemotongan untuk menentukan Parsers telah dicadangkan oleh Shieber, Schabes, dan Pereira dan Sikkel."]}, {"en": ["Their methods have the potential to drop arbitrary words from the original sentence without considering the boundary determined by the tree structures.", "Approach is that they have the potential to drop arbitrary words from the original sentence without the need to consider the boundaries determined by the tree structures."], "ms": ["Kaedah mereka berpotensi untuk menjatuhkan kata-kata sewenang-wenang dari ayat asal tanpa mempertimbangkan sempadan yang ditentukan oleh struktur pokok.", "Pendekatan adalah bahawa mereka mempunyai potensi untuk menjatuhkan kata-kata sewenang-wenang dari ayat asal tanpa perlu mempertimbangkan sempadan yang ditentukan oleh struktur pokok."]}, {"en": ["Usually, such methods need intermediary machine translation system or a bilingual dictionary to bridge the language gap.", "Most often these methods depend on an intermediary machine translation system or a bilingual dictionary to bridge the language gap."], "ms": ["Biasanya, kaedah sedemikian memerlukan sistem penterjemahan mesin perantaraan atau kamus dwibahasa untuk merapatkan jurang bahasa.", "Selalunya kaedah ini bergantung kepada sistem terjemahan mesin perantaraan atau kamus dwibahasa untuk merapatkan jurang bahasa."]}, {"en": ["The pattern matching capabilities of neural networks can be used to locate syntactic constituents of natural language.", "Pattern matching capabilities of neural networks can be used to detect syntactic constituents of natural language."], "ms": ["Keupayaan yang sepadan dengan corak rangkaian saraf boleh digunakan untuk mencari juzuk sintaktik bahasa semulajadi.", "Keupayaan pemadanan corak rangkaian saraf boleh digunakan untuk mengesan juzuk sintaktik bahasa semulajadi."]}, {"en": ["We assume that this property would fit with a word alignment task, and we propose an Rnn-Based word alignment model.", "We have proposed a word alignment model based on an Rnn, which captures long alignment."], "ms": ["Kami menganggap bahawa harta ini sesuai dengan tugas penjajaran perkataan, dan kami mencadangkan model penjajaran perkataan berasaskan Rnn.", "Kami telah mencadangkan model penjajaran perkataan berdasarkan Rnn, yang menangkap penjajaran panjang."]}, {"en": ["To compare our model with the other systems, we evaluated the performance of our model when the entity boundaries were given.", "We compare the entity and relation extraction performance of our model with other systems."], "ms": ["Untuk membandingkan model kami dengan sistem lain, kami menilai prestasi model kami apabila sempadan entiti diberikan.", "Kami membandingkan prestasi pengekstrakan entiti dan hubungan model kami dengan sistem lain."]}, {"en": ["Johnson thinks that Re-Annotating each Node with the category of its parent category in Treebank is able to improve Parsing performance.", "Johnson showed that the performance of an Unlexicalized Pcfg over the Penn Treebank could be improved enormously simply by Annotating each Node by its parent category."], "ms": ["Johnson berpendapat bahawa Re-Annotating setiap Node dengan kategori kategori induknya di Treebank dapat meningkatkan prestasi Parsing.", "Johnson menunjukkan bahawa prestasi Pcfg Unlexicalized di Penn Treebank dapat ditingkatkan dengan sangat mudah dengan Menganotasi setiap Nod mengikut kategori induknya."]}, {"en": ["In this paper, we develop a Multilingual Transliteration system for named entities.", "In this paper we investigate named entity Transliteration."], "ms": ["Dalam makalah ini, kami membangunkan sistem Transliterasi Pelbagai Bahasa untuk entiti bernama.", "Dalam kertas ini kita menyiasat entiti Transliterasi."]}, {"en": ["We have described our Pmi-Cool system for Semeval-2016, task 3 on community question answering, Subtask a, which asks to Rerank the comments from the thread for a given forum question from good to bad.", "We describe the Pmi-Cool system, which we developed to participate in Semeval-2016 task 3, Subtask a, which asks to Rerank the answers in a Question-Answer thread, ordering them from good to bad."], "ms": ["Kami telah menerangkan sistem Pmi-Cool kami untuk Semeval-2016, tugas 3 mengenai jawapan soalan komuniti, Subtugas a, yang meminta untuk Mengulang semula komen dari utas untuk soalan forum tertentu dari baik ke buruk.", "Kami menerangkan sistem Pmi-Cool, yang kami maju untuk mengambil bahagian dalam tugas Semeval-2016 3, Subtugas a, yang meminta untuk Mengulangi jawapan dalam utas Jawapan Soalan, memerintahkan mereka dari yang baik ke yang buruk."]}, {"en": ["Our experimental results show the effectiveness of our method.", "In our experiments, we show that our method Outperforms the state-of-the-art methods."], "ms": ["Hasil eksperimen kami menunjukkan keberkesanan kaedah kami.", "Dalam eksperimen kami, kami menunjukkan bahawa kaedah kami Melaksanakan kaedah canggih."]}, {"en": ["We also apply the Easyccg Parser of Lewis and Steedman, using the Supertags.", "To derive the Ccg-Based representation, we use the output of the Easyccg Parser."], "ms": ["Kami juga menggunakan Easyccg Parser Lewis dan Steedman, menggunakan Supertags.", "Untuk memperoleh perwakilan berasaskan Ccg, kami menggunakan output Penghurai Easyccg."]}, {"en": ["The Smt systems were trained using the Moses Toolkit and the experiment management system.", "The statistical Phrase-Based systems were trained using the Moses Toolkit with Mert tuning."], "ms": ["Sistem Smt dilatih menggunakan Musa Toolkit dan sistem pengurusan eksperimen.", "Sistem Berasaskan Frasa statistik dilatih menggunakan Musa Toolkit dengan penalaan Mert."]}, {"en": ["We evaluate kale with the link prediction and triple classification tasks on Wordnet and Freebase data.", "We evaluate kale with link prediction and triple classification tasks on Wordnet."], "ms": ["Kami menilai kale dengan ramalan pautan dan tugas klasifikasi tiga kali pada data Wordnet dan Freebase.", "Kami menilai kale dengan ramalan pautan dan tugas klasifikasi tiga kali di Wordnet."]}, {"en": ["An additional translation set called the maximum BLEU set is employed by the Smt system to train the weights associated with the components of its Log-Linear model.", "We also have an additional Held-Out translation set, the development set, which is employed by the mt system to train the weights of its Log-Linear model to maximize BLEU."], "ms": ["Satu set terjemahan tambahan yang dipanggil set BLEU maksimum digunakan oleh sistem Smt untuk melatih berat yang berkaitan dengan komponen model Log-Linearnya.", "Kami juga mempunyai set terjemahan Held-Out tambahan, set pembangunan, yang digunakan oleh sistem mt untuk melatih berat model Log-Linearnya untuk memaksimumkan BLEU."]}, {"en": ["Is the word in the confusion set that occurred most often in the training corpus.", "In the confusion set that occurred most often in the training corpus."], "ms": ["Adakah perkataan dalam set kekeliruan yang paling kerap berlaku dalam korpus latihan.", "Dalam set kekeliruan yang paling kerap berlaku dalam korpus latihan."]}, {"en": ["The Phrasal implementation uses the line search algorithm of Cer et al, uniform Initialization, and 20 random starting points.", "The Mert implementation uses the line search of Cer et al to directly minimize Corpus-Level error."], "ms": ["Pelaksanaan Phrasal menggunakan algoritma carian baris Cer et al, Pengawalan seragam, dan 20 titik permulaan rawak.", "Pelaksanaan Mert menggunakan carian baris Cer et al untuk meminimumkan secara langsung kesilapan Corpus-Level."]}, {"en": ["Stoyanov et al required a known subjective vocabulary for their opinion Qa system.", "Stoyanov et al , 2005, required a known subjective vocabulary for their opinion Qa."], "ms": ["Stoyanov et al memerlukan perbendaharaan kata subjektif yang diketahui untuk sistem Qa pendapat mereka.", "Stoyanov et al, 2005, memerlukan perbendaharaan kata subjektif yang diketahui untuk pendapat mereka Qa."]}, {"en": ["While there is no overall best model, all models significantly outperform a Word2Vec Single-Sense skip baseline, thus demonstrating the need to distinguish between word senses in a Distributional semantic model.", "Multi-Sense Embeddings outperformed the Single-Sense Baselines, thus demonstrating the need to distinguish between word senses in a Distributional semantic model."], "ms": ["Walaupun tidak ada model terbaik secara keseluruhan, semua model dengan ketara mengatasi garis dasar skip Single-Sense Word2Vec, dengan itu menunjukkan keperluan untuk membezakan antara deria perkataan dalam model semantik Distributional.", "Embedding Multi-Sense mengatasi Garis Asas Single-Sense, dengan itu menunjukkan keperluan untuk membezakan antara deria perkataan dalam model semantik Distributional."]}, {"en": ["In this paper, we propose a Sense-Based translation model to integrate word senses into statistical machine translation.", "In order to incorporate word senses into Smt, we propose a Sense-Based translation model that is built on maximum entropy."], "ms": ["Dalam makalah ini, kami mencadangkan model terjemahan berasaskan Sense untuk mengintegrasikan deria perkataan ke dalam terjemahan mesin statistik.", "Untuk memasukkan deria perkataan ke dalam Smt, kami mencadangkan model terjemahan berasaskan Sense yang dibina berdasarkan entropi maksimum."]}, {"en": ["In the message polarity classification Subtask, we focus on the influence of domain information on sentiment classification.", "For the Contextual polarity Disambiguation Subtask, covered in section 2, we use a system that combines a lexicon based approach to sentiment detection."], "ms": ["Dalam klasifikasi polariti mesej Subtugas, kami memberi tumpuan kepada pengaruh maklumat domain pada klasifikasi sentimen.", "Untuk Subtugas Disambiguasi polariti Kontekstual, yang diliputi dalam seksyen 2, kami menggunakan sistem yang menggabungkan pendekatan berasaskan leksikon untuk pengesanan sentimen."]}, {"en": ["Tu et al incorporated a Reconstructor Module into Nmt, which reconstructs the input source sentence from the hidden layer of the output target sentence to enhance source representation.", "Tu et al designed a Re-Constructor Module for Nmt in order to make the target representation contain the complete source information which can reconstruct back to the source sentence."], "ms": ["Tu et al menggabungkan Modul Rekonstruktor ke dalam Nmt, yang membina semula ayat sumber input dari lapisan tersembunyi ayat sasaran output untuk meningkatkan perwakilan sumber.", "Tu et al merancang Modul Re-Constructor untuk Nmt untuk membuat perwakilan sasaran mengandungi maklumat sumber lengkap yang boleh membina semula kembali ke ayat sumber."]}, {"en": ["Brockett et al employed Phrasal statistical machine translation techniques to correct Countability errors.", "Brockett et al propose the use of the Phrasal statistical machine translation technique to identify and correct Esl errors."], "ms": ["Brockett et al menggunakan teknik terjemahan mesin statistik Phrasal untuk membetulkan kesilapan Countability.", "Brockett et al mencadangkan penggunaan teknik terjemahan mesin statistik Phrasal untuk mengenal pasti dan membetulkan kesilapan Esl."]}, {"en": ["In this article, we argue that Kendall\u00a1\u00afS Math-W-11-1-0-8 can be used as an automatic evaluation method for Information-Ordering tasks.", "Kendall \u00a1\u00af s Math-W-2-5-3-76 and explain how it can be employed for evaluating information ordering."], "ms": ["Dalam artikel ini, kami berpendapat bahawa Kendall S Math-W-11-1-0-8 boleh digunakan sebagai kaedah penilaian automatik untuk tugas-tugas Pengaturan Maklumat.", "Kendall Math-W-2-5-3-76 dan menerangkan bagaimana ia boleh digunakan untuk menilai pesanan maklumat."]}, {"en": ["The lexicon consists of a strongly connected core, around which there is a kernel, an asymmetric grounding set and satellites.", "The lexicon consists of one hundred thousand entries for both English and Japanese."], "ms": ["Leksikon terdiri daripada teras yang sangat berkaitan, di mana terdapat kernel, set asas asimetri dan satelit.", "Leksikon terdiri daripada seratus ribu penyertaan untuk kedua-dua bahasa Inggeris dan Jepun."]}, {"en": ["In this paper, we propose an attention based Rnn framework to generate multiple summaries of a single document tuned to different topics of interest.", "And generate Topic-Tuned summaries, we propose a neural Encoder-Decoder based framework which takes an article along with a topic of interest."], "ms": ["Dalam makalah ini, kami mencadangkan kerangka Rnn berasaskan perhatian untuk menghasilkan pelbagai ringkasan dokumen tunggal yang disesuaikan dengan topik yang berbeza.", "Dan menghasilkan ringkasan Topik-Tuned, kami mencadangkan rangka kerja berasaskan pengekod-pengekod neural yang mengambil artikel bersama dengan topik yang menarik."]}, {"en": ["As described above, our base system is a Phrasebased statistical mt system, similar to that of och and Ney.", "Our Phrase-Based Smt system is similar to the alignment template system described in och and Ney."], "ms": ["Seperti yang diterangkan di atas, sistem asas kami adalah sistem statistik berasaskan Phrase, serupa dengan sistem och dan Ney.", "Sistem Smt Berasaskan Frasa kami serupa dengan sistem templat penjajaran yang dijelaskan dalam och dan Ney."]}, {"en": ["Therefore, a different uncertainty classification scheme is needed in social media context.", "In this paper, we propose a variant of classification scheme for uncertainty identification in social media."], "ms": ["Oleh itu, skema klasifikasi ketidakpastian yang berbeza diperlukan dalam konteks media sosial.", "Dalam makalah ini, kami mencadangkan varian skema pengelasan untuk pengenalan ketidakpastian di media sosial."]}, {"en": ["Stolcke proposed a criterion for pruning N-Gram language models based on the relative entropy between the original and the pruned model.", "Stolcke presented a more sound criterion for computing the difference of models before and after pruning each N-Gram, which is called relative entropy or Kullback-Leibler distance."], "ms": ["Stolcke mencadangkan kriteria untuk pemangkasan model bahasa N-Gram berdasarkan entropi relatif antara model asal dan model pemangkasan.", "Stolcke membentangkan kriteria yang lebih baik untuk mengira perbezaan model sebelum dan selepas pemangkasan setiap N-Gram, yang dipanggil entropi relatif atau jarak Kullback-Leibler."]}, {"en": ["This paper addresses an automatic classification of preposition types in German, comparing various clustering approaches.", "This paper addresses an automatic classification of preposition types in German, comparing hard and soft clustering approaches."], "ms": ["Kertas ini menangani klasifikasi automatik jenis preposisi dalam bahasa Jerman, membandingkan pelbagai pendekatan clustering.", "Kertas ini menangani pengelasan automatik jenis preposisi dalam bahasa Jerman, membandingkan pendekatan pengelompokan keras dan lembut."]}, {"en": ["Previous work suggests that the Unigram baseline can be difficult to beat for certain types of debates.", "Results of previous work suggest that a Unigram baseline can be difficult to beat for certain types of debates."], "ms": ["Kerja sebelumnya menunjukkan bahawa garis dasar Unigram boleh menjadi sukar untuk dikalahkan untuk jenis perdebatan tertentu.", "Hasil kerja terdahulu mencadangkan bahawa garis dasar Unigram boleh menjadi sukar untuk dikalahkan untuk jenis perdebatan tertentu."]}, {"en": ["On top of a distributed file system, the Runtime Transparently handles all other aspects of execution, on clusters ranging from a few to a few thousand nodes.", "On top of a distributed file system, the Runtime Transparently handles all other aspects of execution, on clusters ranging from a few to a few thousand nodes."], "ms": ["Di atas sistem fail yang diedarkan, Runtime Transparently mengendalikan semua aspek pelaksanaan lain, pada kluster yang terdiri daripada beberapa hingga beberapa ribu nod.", "Di atas sistem fail yang diedarkan, Runtime Transparently mengendalikan semua aspek pelaksanaan lain, pada kluster yang terdiri daripada beberapa hingga beberapa ribu nod."]}, {"en": ["Both Corex and anchored Corex consistently produce topics that are of comparable quality to Lda-Based methods, despite only making use of Binarized word counts.", "Corex and anchored Corex produce topics of comparable quality to Unsupervised and Semi-Supervised Variants of Lda."], "ms": ["Kedua-dua Corex dan Corex yang berlabuh secara konsisten menghasilkan topik yang berkualiti setanding dengan kaedah berasaskan Lda, walaupun hanya menggunakan pengiraan perkataan Binarized.", "Corex dan berlabuh Corex menghasilkan topik berkualiti setanding dengan Varian Lda yang Tidak Diselia dan Semi-Diselia."]}, {"en": ["This logical form is evaluated against a learned probabilistic Database that defines a distribution over Denotations for each textual Predicate.", "That produces a logical form for the text, and a probabilistic Database that defines a distribution over Denotations for each Predicate."], "ms": ["Bentuk logik ini dinilai terhadap Pangkalan Data probabilistik yang dipelajari yang mentakrifkan pengedaran melalui Denotasi untuk setiap Predikat teks.", "Ini menghasilkan bentuk logik untuk teks, dan Pangkalan Data probabilistik yang menentukan pengedaran melalui Denotasi untuk setiap Predikat."]}, {"en": ["We trained the L1-Regularized logistic regression Classifier implemented in Liblinear.", "We applied Liblinear via its Scikitlearn python interface to train the logistic regression model with L2 Regularization."], "ms": ["Kami melatih Classifier regresi logistik L1-Regularized yang dilaksanakan dalam Liblinear.", "Kami menggunakan Liblinear melalui antara muka python Scikitlearn untuk melatih model regresi logistik dengan L2 Regularization."]}, {"en": ["Atc in our system is performed using a Hierarchical clustering method in which clusters are merged based on average mutual information measuring how strongly terms are related to one another.", "Atc in our system is performed using a Hierarchical clustering method in which clusters are merged based on average mutual information measuring how strongly terms are related to one another."], "ms": ["Atc dalam sistem kami dilakukan menggunakan kaedah kluster hierarki di mana kluster digabungkan berdasarkan maklumat bersama purata mengukur seberapa kuat istilah berkaitan antara satu sama lain.", "Atc dalam sistem kami dilakukan menggunakan kaedah kluster hierarki di mana kluster digabungkan berdasarkan maklumat bersama purata mengukur seberapa kuat istilah berkaitan antara satu sama lain."]}, {"en": ["This result holds both for seen Bigrams and for unseen Bigrams whose counts have been re-created using smoothing techniques.", "This results holds for both seen Bigrams and for unseen Bigrams whose counts were recreated using smoothing techniques ,."], "ms": ["Hasil ini berlaku untuk Bigrams yang dilihat dan untuk Bigrams yang tidak kelihatan yang jumlahnya telah dibuat semula menggunakan teknik melicinkan.", "Keputusan ini berlaku untuk kedua-dua Bigrams yang dilihat dan untuk Bigrams yang tidak kelihatan yang jumlahnya dibuat semula menggunakan teknik melicinkan,."]}, {"en": ["Another device is the specification of a temporal or spatial parameter that is outside the normal range of a situation.", "Another device is the use of an Anaphor, frequently a Deflnlte noun phrase, to refer to an antecedent Tha~ is not currently the topic of conversation Bu~ is in the background."], "ms": ["Peranti lain adalah spesifikasi parameter temporal atau spasial yang berada di luar julat normal sesuatu keadaan.", "Peranti lain adalah penggunaan Anaphor, sering frasa kata nama Deflnlte, untuk merujuk kepada Tha anteseden bukan topik perbualan Bu di latar belakang."]}, {"en": ["Empirical results show that our model Outperforms state-of-the-art machine translation models, for both English and Chinese, in terms of both automatic and human evaluation.", "For both English and Chinese generation tasks yield significant improvements over results obtained by two state-of-the-art machine translation models, in terms of both automatic Metrics and human evaluation."], "ms": ["Hasil empirikal menunjukkan bahawa model kami Outperforms model terjemahan mesin canggih, untuk bahasa Inggeris dan Cina, dari segi penilaian automatik dan manusia.", "Bagi kedua-dua tugas generasi Inggeris dan Cina menghasilkan peningkatan yang ketara berbanding keputusan yang diperolehi oleh dua model terjemahan mesin canggih, dari segi metrik automatik dan penilaian manusia."]}, {"en": ["Generally, the smaller windows allow to acquire more relevant contexts for a target, but increase the data Sparseness problem.", "In general, a small window size allows to have a highest number of relevant contexts for a given target word, but leads to more data Sparsity than with a larger window."], "ms": ["Secara amnya, tingkap yang lebih kecil membolehkan untuk memperoleh konteks yang lebih relevan untuk sasaran, tetapi meningkatkan masalah Sparseness data.", "Secara umum, saiz tetingkap kecil membolehkan mempunyai bilangan konteks yang paling tinggi untuk perkataan sasaran tertentu, tetapi membawa kepada lebih banyak Sparsity data daripada dengan tetingkap yang lebih besar."]}, {"en": ["To the best of our knowledge, our method is the first that addresses this task in an al framework.", "To the best of our knowledge, our method is the first one to use a Hierarchical clustering model for the metaphor processing task."], "ms": ["Untuk pengetahuan terbaik kami, kaedah kami adalah yang pertama yang menangani tugas ini dalam rangka kerja al.", "Untuk pengetahuan kami yang terbaik, kaedah kami adalah yang pertama menggunakan model clustering Hierarki untuk tugas pemprosesan metafora."]}, {"en": ["Recent research in abstractive summarization has focused on data driven neural models based on the Encode-Attend-Decode paradigm (Bahdanau et al . , 2014).", "Neural models based on the Encode-Attend-Decode (Bahdanau et al . , 2014) paradigm have shown great success in various natural language generation (Nlg)."], "ms": ["Penyelidikan terkini dalam ringkasan abstrak telah memberi tumpuan kepada model neural yang didorong oleh data berdasarkan paradigma Encode-Attend-Decode (Bahdanau et al., 2014).", "Model-model Neural berdasarkan paradigma Encode-Attend-Decode (Bahdanau et al., 2014) telah menunjukkan kejayaan besar dalam pelbagai generasi bahasa semula jadi (Nlg)."]}, {"en": ["As a result, our proposed model Trian achieves near state-of-the-art performance.", "As a result, our system achieves state-of-the-art performance with 83 . 95% accuracy."], "ms": ["Akibatnya, model Trian yang dicadangkan kami mencapai prestasi hampir canggih.", "Hasilnya, sistem kami mencapai prestasi canggih dengan ketepatan 83. 95%."]}, {"en": ["Dtm is a switching graphical model performing a switch between topics and Ad-Expressions similar to that in.", "Jte is a switching graphical model performing a switch between expressions and topics similar to that in."], "ms": ["Dtm adalah model grafik yang menukar yang melakukan suis antara topik dan Ad-Expressions yang serupa dengan yang ada di dalamnya.", "Jte adalah model grafik yang menukar yang melakukan suis antara ungkapan dan topik yang serupa dengan yang ada di dalamnya."]}, {"en": ["Learning the probability of N-Grams, together with their representation in a continuous space, is an appropriate approximation for large vocabulary tasks.", "Learning the probability of N-Grams, together with their representation in a Continous space, is an appropriate approximation for large vocabulary tasks."], "ms": ["Pembelajaran kebarangkalian N-Gram, bersama-sama dengan perwakilan mereka dalam ruang yang berterusan, adalah anggaran yang sesuai untuk tugas perbendaharaan kata yang besar.", "Mempelajari kebarangkalian N-Gram, bersama-sama dengan perwakilan mereka dalam ruang Kontinus, adalah anggaran yang sesuai untuk tugas perbendaharaan kata yang besar."]}, {"en": ["Johnson showed that the performance of an Unlexicalized Pcfg over the Penn Treebank could be improved enormously simply by Annotating each Node by its parent category.", "Johnson thinks that Re-Annotating each Node with the category of its parent category in Treebank is able to improve Parsing performance."], "ms": ["Johnson menunjukkan bahawa prestasi Pcfg Unlexicalized di Penn Treebank dapat ditingkatkan dengan sangat mudah dengan Menganotasi setiap Nod mengikut kategori induknya.", "Johnson berpendapat bahawa Re-Annotating setiap Node dengan kategori kategori induknya di Treebank dapat meningkatkan prestasi Parsing."]}, {"en": ["This type of data has been found to yield the best correlation with Eye-Tracking data when different styles of presentation were compared for English.", "This had the best correlation with Eyetracking data when different styles of presentation were compared for English."], "ms": ["Data jenis ini telah didapati menghasilkan korelasi terbaik dengan data Eye-Tracking apabila gaya persembahan yang berbeza dibandingkan untuk bahasa Inggeris.", "Ini mempunyai korelasi terbaik dengan data Eyetracking apabila gaya persembahan yang berbeza dibandingkan untuk bahasa Inggeris."]}, {"en": ["When a source sentence is to be translated, its domain is first predicted.", "Prior to translation, the domain of the source sentence is first predicted."], "ms": ["Apabila ayat sumber diterjemahkan, domainnya pertama kali diramalkan.", "Sebelum terjemahan, domain ayat sumber pertama kali diramalkan."]}, {"en": ["Mihalcea and Moldovan and Lytinen et al used Wordnet to obtain the sense of a word.", "Mihalcea and Moldovan use the semantic density between words to determine the word sense."], "ms": ["Mihalcea dan Moldovan dan Lytinen et al menggunakan Wordnet untuk mendapatkan rasa sepatah kata.", "Mihalcea dan Moldovan menggunakan ketumpatan semantik antara perkataan untuk menentukan pengertian perkataan."]}, {"en": ["Our results show that this Regularization technique is critical for obtaining a state-of-the-art result.", "Our results show that our proposed Regularization technique is imperative for the Rnn-Based model."], "ms": ["Hasil kami menunjukkan bahawa teknik Regularization ini penting untuk mendapatkan hasil canggih.", "Hasil kami menunjukkan bahawa teknik Regularization yang dicadangkan kami adalah penting untuk model berasaskan Rnn."]}, {"en": ["Coordination is a common syntactic phenomena, appearing in 38.8% of the sentences in the Penn Treebank (Ptb) (Cite-P-24-1-13), and in 60.71% of the sentences in the Genia Treebank (Cite-P-24-1-15).", "Coordination is a common syntactic phenomena and work has been done to improve coordination structures Predication in the general case (Cite-P-9-4-2, Cite-P-9-4-1, Cite-P-9-4-8, Cite-P-9-4-6)."], "ms": ["Penyelarasan adalah fenomena sintaksis yang biasa, muncul dalam 38.8% ayat dalam Penn Treebank (Ptb) (Cite-P-24-1-13), dan dalam 60.71% ayat dalam Genia Treebank (Cite-P-24-1-15).", "Penyelarasan adalah fenomena sintaksis biasa dan kerja telah dilakukan untuk meningkatkan struktur koordinasi Predication dalam kes umum (Cite-P-9-4-2, Cite-P-9-4-1, Cite-P-9-4-8, Cite-P-9-4-6)."]}, {"en": ["In this paper, we extend methods from Cite-P-12-1-11 for reducing the Worst-Case complexity of a Context-Free Parsing pipeline via hard constraints derived from Finite-State tagging Preprocessing.", "In contrast, in Cite-P-12-1-11, we derived and applied the Finite-State constraints so as to guarantee a reduction in the Worst-Case complexity of the Context-Free Parsing pipeline."], "ms": ["Dalam makalah ini, kami memperluas kaedah dari Cite-P-12-1-11 untuk mengurangkan kerumitan Worst-Case saluran paip Penghuraian Bebas Konteks melalui kekangan keras yang berasal dari penandaan Finite-State Preprocessing.", "Sebaliknya, dalam Cite-P-12-1-11, kami memperoleh dan menggunakan kekangan Finite-State untuk menjamin pengurangan kerumitan Worst-Case saluran paip Penghuraian Bebas Konteks."]}, {"en": ["Our best system BOOSTS precision by 44% and recall by 70 %.", "Our best system yields a total boost of 44% to precision and 70% to recall."], "ms": ["Ketepatan BOOSTS sistem terbaik kami sebanyak 44% dan penarikan balik sebanyak 70%.", "Sistem terbaik kami menghasilkan peningkatan sebanyak 44% kepada ketepatan dan 70% untuk diingat."]}, {"en": ["Thus, we should incorporate Non-Local information into the model.", "In this paper, our approach describes how to exploit Non-Local information."], "ms": ["Oleh itu, kita harus memasukkan maklumat Bukan Tempatan ke dalam model.", "Dalam kertas kerja ini, pendekatan kami menerangkan cara mengeksploitasi maklumat Bukan Tempatan."]}, {"en": ["The Chinese system currently uses the Berkeley Parser.", "The Berkeley Parser achieves an F1 score above 90 on Newswire text."], "ms": ["Sistem Cina kini menggunakan Berkeley Parser.", "Berkeley Parser mencapai skor F1 di atas 90 pada teks Newswire."]}, {"en": ["To this end we use Rouge, a Recall-Oriented evaluation package for automatic summarization.", "We also use Rouge-S, a text summarization metric, and use the evaluation score as a feature."], "ms": ["Untuk tujuan ini, kami menggunakan Rouge, pakej penilaian Berorientasi Recall untuk ringkasan automatik.", "Kami juga menggunakan Rouge-S, metrik ringkasan teks, dan menggunakan skor penilaian sebagai ciri."]}, {"en": ["A key contribution of this paper is using relation Temporality for determining relation equivalence.", "This paper demonstrates the importance of relation equivalence for entity translation."], "ms": ["Sumbangan utama kertas ini menggunakan hubungan Temporality untuk menentukan kesetaraan hubungan.", "Kertas kerja ini menunjukkan kepentingan kesetaraan hubungan untuk terjemahan entiti."]}, {"en": ["Gildea presents a general algorithm to Binarize an Lcfrs while minimizing a given scoring function.", "Gildea presents a related method for Binarizing rules while keeping the time complexity of Parsing as small as possible."], "ms": ["Gildea membentangkan algoritma umum untuk Binarize Lcfrs sambil meminimumkan fungsi pemarkahan tertentu.", "Gildea membentangkan kaedah yang berkaitan untuk peraturan Binarizing sambil mengekalkan kerumitan masa Parsing sekecil mungkin."]}, {"en": ["Compact translation models tried to further improve the translation probabilities based on Question-Answer pairs by selecting the most important terms to build compact translation models.", "Lee et al tried to further improve the translation probabilities based on Question-Answer pairs by selecting the most important terms to build compact translation models."], "ms": ["Model terjemahan kompak cuba meningkatkan lagi kebarangkalian terjemahan berdasarkan pasangan Soalan-Jawapan dengan memilih istilah yang paling penting untuk membina model terjemahan padat.", "Lee et al cuba meningkatkan lagi kebarangkalian terjemahan berdasarkan pasangan Soalan-Jawapan dengan memilih istilah yang paling penting untuk membina model terjemahan padat."]}, {"en": ["Second, beyond deterministic greedy search, principled dynamic programming strategies can be employed to explore more possible hypotheses.", "Second, beyond deterministic greedy search, beam search and principled dynamic programming strategies have been used to explore more possible hypotheses."], "ms": ["Kedua, di luar carian tamak deterministik, strategi pengaturcaraan dinamik berprinsip boleh digunakan untuk meneroka hipotesis yang lebih mungkin.", "Kedua, di luar carian tamak deterministik, carian rasuk dan strategi pengaturcaraan dinamik berprinsip telah digunakan untuk meneroka hipotesis yang lebih mungkin."]}, {"en": ["We have also provided new evaluation Metrics inspired by research in Ir, and guidelines for evaluating semantic representation models on the quantitative Wa task.", "We present an Endto-End evaluation framework for the Wa task, and provide new evaluation Metrics and detailed guidelines for evaluating semantic models on the Wa task."], "ms": ["Kami juga telah menyediakan Metrik penilaian baru yang diilhamkan oleh penyelidikan di Ir, dan garis panduan untuk menilai model perwakilan semantik mengenai tugas Wa kuantitatif.", "Kami membentangkan rangka kerja penilaian Endto-End untuk tugas Wa, dan menyediakan Metrik penilaian baru dan garis panduan terperinci untuk menilai model semantik pada tugas Wa."]}, {"en": ["There also has been extensive work on modeling conversational interactions on Twitter.", "Previous work has discussed the role of Urls in information diffusion on Twitter."], "ms": ["Terdapat juga kerja yang luas mengenai pemodelan interaksi perbualan di Twitter.", "Kerja sebelumnya telah membincangkan peranan Urls dalam penyebaran maklumat di Twitter."]}, {"en": ["To compensate this, we apply a strong recurrent neural network language model.", "For the Decoder, we use a recurrent neural network language model, which is widely used in language generation tasks."], "ms": ["Untuk mengimbangi ini, kami menggunakan model bahasa rangkaian neural berulang yang kuat.", "Untuk Decoder, kami menggunakan model bahasa rangkaian saraf berulang, yang digunakan secara meluas dalam tugas penjanaan bahasa."]}, {"en": ["In previous work, Hatzivassiloglou and Mckeown propose a method to identify the polarity of adjectives.", "Hatzivassiloglou and Mckeown proposed a method to identify the polarity of adjectives based on conjunctions linking them."], "ms": ["Dalam karya sebelumnya, Hatzivassiloglou dan Mckeown mencadangkan kaedah untuk mengenal pasti polariti kata sifat.", "Hatzivassiloglou dan Mckeown mencadangkan kaedah untuk mengenal pasti polariti kata sifat berdasarkan pada hubungkait yang menghubungkannya."]}, {"en": ["To overcome the deficiencies of these two kinds of methods, we propose a novel Semi-Supervised key phrase extraction approach in this paper, which explores title phrases as the source of knowledge.", "And consequently key phrases tend to have close Semantics to the title, we propose a novel Semi-Supervised key phrase extraction approach in this paper."], "ms": ["Untuk mengatasi kekurangan dua jenis kaedah ini, kami mencadangkan pendekatan pengekstrakan frasa utama Semi-Supervised novel dalam makalah ini, yang meneroka frasa tajuk sebagai sumber pengetahuan.", "Dan oleh itu frasa utama cenderung mempunyai Semantik yang dekat dengan tajuk, kami mencadangkan pendekatan pengekstrakan frasa utama Semi-Supervised novel dalam makalah ini."]}, {"en": ["We use conditional random fields and Memory-Based learning as ml methods for Word-Level Qe.", "We use an information extraction tool for named entity recognition based on conditional random fields."], "ms": ["Kami menggunakan medan rawak bersyarat dan pembelajaran Berasaskan Memori sebagai kaedah ml untuk Word-Level Qe.", "Kami menggunakan alat pengekstrakan maklumat untuk pengiktirafan entiti yang dinamakan berdasarkan medan rawak bersyarat."]}, {"en": ["In this paper, we attempt to integrate prosodic information for Asr using an N-Best Rescoring scheme.", "In this paper, we adopt an N-Best Rescoring scheme using Pitch-Accent patterns."], "ms": ["Dalam makalah ini, kami cuba mengintegrasikan maklumat prosodik untuk Asr menggunakan skema Skop Semula N-Best.", "Dalam kertas ini, kami menggunakan skim Skop Semula N-Best menggunakan corak Pitch-Accent."]}, {"en": ["In this paper, we undertake such a comparative study by looking at Selectional preferences of German verbs.", "In this paper, we focus on Class-Based models of Selectional preferences for German verbs."], "ms": ["Dalam makalah ini, kami menjalankan kajian perbandingan seperti itu dengan melihat pilihan pilihan kata kerja Jerman.", "Dalam makalah ini, kami memberi tumpuan kepada model Pilihan Pilihan Berasaskan Kelas untuk kata kerja Jerman."]}, {"en": ["These meetings have been transcribed, and Annotated with Extractive summaries.", "All the meetings have been transcribed and Annotated with dialog acts, topics, and Extractive summaries."], "ms": ["Mesyuarat-mesyuarat ini telah ditranskripsikan, dan Diberi penerangan ringkasan yang ekstratratif.", "Semua mesyuarat telah ditranskripsikan dan Dianotasi dengan tindakan dialog, topik, dan ringkasan Ekstratif."]}, {"en": ["In name translation, only 0.79% and 1.11% of candidates for English person names and location names, respectively, have to be proposed.", "In current implementation, only 0 . 79% and 1 . 11% of candidates for English person names and location names, respectively have to be proposed."], "ms": ["Dalam terjemahan nama, hanya 0.79% dan 1.11% calon untuk nama orang Inggeris dan nama lokasi, masing-masing, perlu dicadangkan.", "Dalam pelaksanaan semasa, hanya 0.79% dan 1. 11% calon untuk nama orang Inggeris dan nama lokasi, masing-masing perlu dicadangkan."]}, {"en": ["Although it does not beat the Hmm, the new convex model improves upon the standard IBM model 2 significantly.", "Quality of this new convex model is significantly above that of the standard IBM models."], "ms": ["Walaupun ia tidak mengalahkan Hmm, model cembung baru bertambah baik pada model IBM standard 2 dengan ketara.", "Kualiti model cembung baru ini jauh melebihi model IBM standard."]}, {"en": ["We investigate this problem by learning Domain-Specific representations of input sentences using neural network.", "We address this issue by investigating a model that learns Domain-Specific input representations."], "ms": ["Kami menyiasat masalah ini dengan mempelajari perwakilan Domain-Specific ayat input menggunakan rangkaian saraf.", "Kami menangani isu ini dengan menyiasat model yang mempelajari perwakilan input Domain-Specific."]}, {"en": ["For tuning we use Mert and the Newstest 2011 data provided by the annual workshop on statistical machine translation.", "For tuning we use Mert and the Newstest 2012 data provided by the annual workshop on statistical machine translation."], "ms": ["Untuk penalaan kami menggunakan data Mert dan Newstest 2011 yang disediakan oleh bengkel tahunan mengenai terjemahan mesin statistik.", "Untuk penalaan kami menggunakan data Mert dan Newstest 2012 yang disediakan oleh bengkel tahunan mengenai terjemahan mesin statistik."]}, {"en": ["In this paper, we present the first empirical study that quantitatively measures the deception cues in real-time writing process as manifested in Keystroke logs.", "In this paper, we study the effect of Keystroke patterns for deception detection in Digital Communications, which might be helpful in understanding the psychology of deception."], "ms": ["Dalam makalah ini, kami membentangkan kajian empirikal pertama yang mengukur isyarat penipuan secara kuantitatif dalam proses penulisan masa nyata seperti yang ditunjukkan dalam log Keystroke.", "Dalam makalah ini, kami mengkaji kesan corak Keystroke untuk pengesanan penipuan dalam Komunikasi Digital, yang mungkin berguna dalam memahami psikologi penipuan."]}, {"en": ["Turney and Littman determined the semantic orientation of a target word t by comparing its association with two seed sets of manually Crafted target words.", "Turney and Littman proposed to compute Pair-Wised mutual information between a target word and a set of seed positive and negative words to infer the so of the target word."], "ms": ["Turney dan Littman menentukan orientasi semantik perkataan sasaran t dengan membandingkan persatuannya dengan dua set benih perkataan sasaran yang dibuat secara manual.", "Turney dan Littman mencadangkan untuk mengira maklumat bersama Pair-Wised antara perkataan sasaran dan satu set kata positif dan negatif benih untuk menyimpulkan kata sasaran."]}, {"en": ["Finally, we generalize this result to Formalisms beyond Cfg.", "This result is extended to Formalisms beyond Cfg."], "ms": ["Akhirnya, kami generalisasikan hasil ini kepada Formalisme di luar Cfg.", "Hasil ini diperluaskan kepada Formalisme di luar Cfg."]}, {"en": ["In emerging areas, such as Domainoriented dialogues, the interaction with the system, typically modelled as a conversation with a virtual anthropomorphic character, can be the main motivation for the interaction.", "In Domain-Oriented dialogues the interaction with the system, typically modeled as a conversation with a virtual Humanlike character, can be the main motivation for the interaction."], "ms": ["Dalam bidang yang baru muncul, seperti dialog berorientasikan Domain, interaksi dengan sistem, biasanya dimodelkan sebagai perbualan dengan watak antropomorfik maya, boleh menjadi motivasi utama untuk interaksi.", "Dalam dialog Berorientasikan Domain interaksi dengan sistem, biasanya dimodelkan sebagai perbualan dengan watak Humanlike maya, boleh menjadi motivasi utama untuk interaksi."]}, {"en": ["Semantic role labeling consists of finding the arguments of a Predicate and labeling them with semantic roles.", "Semantic role labeling is the task of locating and labeling the semantic arguments to Predicates."], "ms": ["Pelabelan peranan semantik terdiri daripada mencari hujah-hujah Predicate dan melabel mereka dengan peranan semantik.", "Pelabelan peranan semantik adalah tugas mencari dan melabelkan hujah semantik kepada Predicates."]}, {"en": ["Learning is done using a Monte Carlo variant of the Expectation-Maximization algorithm.", "The weights are learned automatically using expectation maximization."], "ms": ["Pembelajaran dilakukan menggunakan varian Monte Carlo algoritma Jangkaan-Maximization.", "Berat dipelajari secara automatik menggunakan pemaksimuman jangkaan."]}, {"en": ["Word-Level Dsms can be categorized into unstructured, that employ a Bag-Of-Words model, and structured, that employ syntactic relationships between words.", "Dsms can be categorized into unstructured that employ a Bag-Of-Words model and structured that employ syntactic relationships between words."], "ms": ["Word-Level Dsms boleh dikategorikan kepada tidak berstruktur, yang menggunakan model Bag-Of-Words, dan berstruktur, yang menggunakan hubungan sintaksis antara perkataan.", "Dsms boleh dikategorikan kepada tidak berstruktur yang menggunakan model Bag-Of-Words dan berstruktur yang menggunakan hubungan sintaksis antara perkataan."]}, {"en": ["Consistency of corpus Annotation is an essential property for the many uses of Annotated Corpora in computational and theoretical linguistics.", "Thus is a key issue for the use of Annotated Corpora in computational and theoretical linguistics."], "ms": ["Konsistensi korpus Annotasi adalah harta penting untuk banyak kegunaan Corpora Annotasi dalam linguistik komputasi dan teori.", "Oleh itu, adalah isu utama untuk penggunaan Corpora Annotated dalam linguistik komputasi dan teori."]}, {"en": ["By being fictional, the answer typically can be found only in the story itself.", "To answer the question is contained only in the story itself."], "ms": ["Dengan fiksyen, jawapannya biasanya hanya terdapat dalam cerita itu sendiri.", "Untuk menjawab soalan itu hanya terkandung dalam cerita itu sendiri."]}, {"en": ["Yao et al , 2013) applied linear chain Crfs with features derived from Ted to automatically learn associations between questions and candidate answers.", "Yao et al applied linear chain conditional random fields with features derived from Ted to learn associations between questions and candidate answers."], "ms": ["Yao et al, 2013) menggunakan Crfs rantai linear dengan ciri-ciri yang diperolehi daripada Ted untuk secara automatik mempelajari persatuan antara soalan dan jawapan calon.", "Yao et al applied linear chain conditional random fields with features derived from Ted to learn associations between questions and candidate answers."]}, {"en": ["As a key property of our tool, we store all intermediate Annotation results and record the User\u2013System interaction data.", "Which enables us to efficiently guide the Annotators, to store all their intermediate results, and to record user \u2013 system interaction data."], "ms": ["Sebagai harta utama alat kami, kami menyimpan semua hasil Annotasi perantaraan dan merakam data interaksi UserSystem.", "Yang membolehkan kami membimbing Annotator dengan cekap, menyimpan semua hasil perantaraan mereka, dan merakam data interaksi sistem pengguna."]}, {"en": ["For example, Tan et al and Zhang et al have found that the language used in arguments and the patterns of interaction between Debaters are important predictors of persuasiveness.", "For example, Tan et al find that the linguistic interaction between an opinion holder and opposing Debater are highly predictive of persuasiveness."], "ms": ["Sebagai contoh, Tan et al dan Zhang et al telah mendapati bahawa bahasa yang digunakan dalam hujah dan corak interaksi antara Debat adalah peramal penting persuasif.", "Sebagai contoh, Tan et al mendapati bahawa interaksi linguistik antara pemegang pendapat dan penentang Debat adalah sangat ramalan persuasif."]}, {"en": ["Following, we classified words into High-Frequency words and content words.", "To specify patterns, following we classify words into Highfrequency words and content words."], "ms": ["Seterusnya, kami mengklasifikasikan perkataan ke dalam perkataan Frekuensi Tinggi dan perkataan kandungan.", "Untuk menentukan corak, berikut kami mengklasifikasikan perkataan ke dalam perkataan frekuensi tinggi dan perkataan kandungan."]}, {"en": ["Ikeda et al proposed a machine learning approach to handle sentiment polarity reversal.", "Ikeda et al proposed a method that Classifies polarities by learning them within a window around a word."], "ms": ["Ikeda et al mengusulkan pendekatan pembelajaran mesin untuk menangani pembalikan polariti sentimen.", "Ikeda et al mencadangkan kaedah yang Mengklasifikasikan polariti dengan mempelajarinya dalam tetingkap di sekitar perkataan."]}, {"en": ["Experiments show that our algorithm leads to a more effective and stable training of neural network based detection models.", "Experiment results show that our Adaptive Scaling algorithm not only achieves a better performance, but also is more stable and more Adaptive for training neural networks."], "ms": ["Eksperimen menunjukkan bahawa algoritma kami membawa kepada latihan yang lebih berkesan dan stabil model pengesanan berasaskan rangkaian saraf.", "Hasil eksperimen menunjukkan bahawa algoritma Penskalaan Adaptive kami bukan sahaja mencapai prestasi yang lebih baik, tetapi juga lebih stabil dan lebih Adaptive untuk melatih rangkaian saraf."]}, {"en": ["R we identify the Subtopics (which are closely related to the original topic) in the given body of texts by using Lda and calculate their similarity with the questions by applying Essk (with Disambiguated word senses).", "By identifying the Subtopics (which are closely related to the original topic) in the given body of texts and applying the extended string Subsequence kernel to calculate their similarity with the questions."], "ms": ["R kita mengenal pasti Subtopics (yang berkait rapat dengan topik asal) dalam badan teks yang diberikan dengan menggunakan Lda dan mengira persamaan mereka dengan soalan dengan menggunakan Essk (dengan deria perkataan yang disamarkan).", "Dengan mengenal pasti Subtopics (yang berkait rapat dengan topik asal) dalam badan teks yang diberikan dan menggunakan kernel Subsequence rentetan yang dilanjutkan untuk mengira persamaan mereka dengan soalan."]}, {"en": ["First, we present a new Dataset of Caption Annotations?, conceptual captions (fig . 1), which has an order of magnitude more images than the coco Dataset.", "We present a new Dataset of image Caption Annotations, conceptual captions, which contains an order of magnitude more images than the Mscoco Dataset (Cite-P-16-3-17)."], "ms": ["Pertama, kami membentangkan Dataset Annotasi Caption baru (Rajah 1), yang mempunyai susunan magnitud lebih banyak imej daripada Dataset coco.", "Kami membentangkan Dataset baru Annotasi Caption imej, kapsyen konseptual, yang mengandungi susunan magnitud lebih banyak imej daripada Dataset Mscoco (Cite-P-16-3-17)."]}, {"en": ["We use the universal Pos Tagset proposed by Petrov et al which has 12 Pos tags that are applicable to both en and Hi.", "Since we look at two different languages, we follow the universal Pos set proposed by Petrov et al which attempts to cover Pos tags across all languages."], "ms": ["Kami menggunakan Tagset Pos sejagat yang dicadangkan oleh Petrov et al yang mempunyai 12 tag Pos yang terpakai untuk kedua-dua en dan Hi.", "Oleh kerana kita melihat dua bahasa yang berbeza, kita mengikuti set Pos sejagat yang dicadangkan oleh Petrov et al yang cuba untuk menutup tag Pos di semua bahasa."]}, {"en": ["The Corpus is balanced with respect to Genericity and about 10,000 clauses in size.", "Corpus contains more than 10 , 000 clauses, approximately half of which are generic."], "ms": ["Corpus seimbang berkenaan dengan Genericity dan kira-kira 10,000 klausa dalam saiz.", "Corpus mengandungi lebih daripada 10, 000 klausa, kira-kira separuh daripadanya adalah generik."]}, {"en": ["We construct our representations using a Skip-Gram model of Mikolov et al trained on textual data to obtain linguistic Embeddings and a deep Convolutional neural network trained on image data to obtain visual Embeddings.", "Our first model uses the recurrent neural network language model of Mikolov et al to project both mental state labels and query Tuples into a latent conceptual space."], "ms": ["Kami membina perwakilan kami menggunakan model Skip-Gram Mikolov et al yang dilatih pada data teks untuk mendapatkan Embedding linguistik dan rangkaian neural Konvolusi mendalam yang dilatih pada data imej untuk mendapatkan Embedding visual.", "Model pertama kami menggunakan model bahasa rangkaian saraf berulang Mikolov et al untuk memproyeksikan label keadaan mental dan Tuples pertanyaan ke ruang konseptual yang terpendam."]}, {"en": ["The Cross-Entropy of the Brown corpus and our model is 1.75 bits per character.", "We present an estimate of an upper bound of 1 . 75 bits for the entropy of characters."], "ms": ["Cross-Entropy of the Brown corpus dan model kami adalah 1.75 bit setiap watak.", "Kami membentangkan anggaran batas atas 1.75 bit untuk entropi watak."]}, {"en": ["In this paper, we propose two statistical models to solve this seeded problem, which aim to discover exactly what the user wants.", "In this work, we propose two novel statistical models to extract and categorize aspect terms automatically given some seeds in the user."], "ms": ["Dalam makalah ini, kami mencadangkan dua model statistik untuk menyelesaikan masalah benih ini, yang bertujuan untuk mengetahui dengan tepat apa yang pengguna mahukan.", "Dalam karya ini, kami mencadangkan dua model statistik novel untuk mengekstrak dan mengkategorikan istilah aspek secara automatik diberikan beberapa biji dalam pengguna."]}, {"en": ["Experiments show that our model Outperforms previous state-of-the-art methods, including those relying on much richer forms of prior knowledge.", "Our results show that this simple but effective model is able to outperform previous work relying on substantially richer prior knowledge."], "ms": ["Eksperimen menunjukkan bahawa model kami Melaksanakan kaedah canggih sebelumnya, termasuk yang bergantung pada bentuk pengetahuan sebelumnya yang lebih kaya.", "Hasil kami menunjukkan bahawa model yang mudah tetapi berkesan ini dapat mengatasi kerja sebelumnya bergantung pada pengetahuan sebelumnya yang jauh lebih kaya."]}, {"en": ["For Pos tagging, Clark et al used the results of one Pos Tagger on Unannotated data to inform the training of another Tagger in a Semisupervised setting using a Co-Training routine with a Markov model Tagger and a maximum entropy Tagger.", "Clark et al use the results of one Pos Tagger on Unannotated data to inform the training of another Tagger in a Semi-Supervised setting using a Co-Training routine with a Markov model Tagger and a maximum entropy Tagger."], "ms": ["Untuk penandaan Pos, Clark et al menggunakan hasil satu Pos Tagger pada data Unannotated untuk memaklumkan latihan Tagger lain dalam tetapan Semisupervised menggunakan rutin Latihan Bersama dengan model Markov Tagger dan Tagger entropi maksimum.", "Clark et al menggunakan hasil satu Pos Tagger pada data Unannotated untuk memaklumkan latihan Tagger lain dalam tetapan Semi-Supervised menggunakan rutin Latihan Bersama dengan model Markov Tagger dan Tagger entropi maksimum."]}, {"en": ["Thus, this measure is a \u201c Within-Topic \u201d measure.", "Rather, what we would measure is the tendency to use Colours with visible things and not with abstract objects."], "ms": ["Maka, langkah ini adalah ukuran dalam-Topik.", "Sebaliknya, apa yang kita akan mengukur adalah kecenderungan untuk menggunakan Warna dengan perkara yang kelihatan dan bukan dengan objek abstrak."]}, {"en": ["They are a combination of features introduced by Gildea and Jurafsky, ones proposed in, Surdeanu et al and the Syntactic-Frame feature proposed in.", "The feature set used in assert is a combination of features described in Gildea and Jurafsky as well as those introduced in Pradhan et al, Surdeanu et al, and the Syntactic-Frame feature proposed in."], "ms": ["Mereka adalah gabungan ciri yang diperkenalkan oleh Gildea dan Jurafsky, yang dicadangkan dalam, Surdeanu et al dan ciri Syntactic-Frame yang dicadangkan dalam.", "Set ciri yang digunakan dalam assert adalah gabungan ciri yang diterangkan dalam Gildea dan Jurafsky serta yang diperkenalkan dalam Pradhan et al, Surdeanu et al, dan ciri Syntactic-Frame yang dicadangkan dalam."]}, {"en": ["Source channel model has been widely used for spelling correction.", "Noisy channel model is dominant in query spelling correction research."], "ms": ["Model saluran sumber telah digunakan secara meluas untuk pembetulan ejaan.", "Model saluran bising dominan dalam penyelidikan pembetulan ejaan pertanyaan."]}, {"en": ["We evaluate our methods using the benchmark test collection from the ACL Semeval-2007 web person search task.", "We evaluate our CDC approach with the benchmark Dataset from the Acl-2007 Semeval web person search evaluation campaign."], "ms": ["Kami menilai kaedah kami menggunakan koleksi ujian penanda aras dari tugas carian orang web ACL Semeval-2007.", "Kami menilai pendekatan CDC kami dengan Dataset penanda aras dari kempen penilaian carian orang web Acl-2007 Semeval."]}, {"en": ["From 2007 on, a global crisis struck the financial markets and led to a severe slowdown of the real economy.", "On, a global crisis struck the financial markets and led to a severe slowdown of the real economy."], "ms": ["Dari tahun 2007, krisis global melanda pasaran kewangan dan membawa kepada kelembapan ekonomi sebenar yang teruk.", "Pada masa yang sama, krisis global melanda pasaran kewangan dan menyebabkan kelembapan ekonomi sebenar yang teruk."]}, {"en": ["The application is unusual because it requires Text-To-Speech synthesis of Unedited, spontaneously generated conversational text.", "The application is unusual because it requires real-time synthesis of Unedited, spontaneously generated conversational texts."], "ms": ["Aplikasi ini tidak biasa kerana memerlukan sintesis Teks-Ke-Ucapan Teks Teks yang tidak diedit, teks perbualan yang dihasilkan secara spontan.", "Aplikasi ini tidak biasa kerana memerlukan sintesis masa nyata teks perbualan yang tidak diedit, dihasilkan secara spontan."]}, {"en": ["In this paper, we address one aspect of this problem \u2013 Inferring predictive models to structure Task-Oriented Dialogs.", "In this paper, we discuss methods for automatically creating models of dialog structure using dialog Act and task."], "ms": ["Dalam makalah ini, kami menangani satu aspek masalah ini - Merujuk model ramalan untuk menyusun Dialog Berorientasi Tugas.", "Dalam makalah ini, kami membincangkan kaedah untuk membuat model struktur dialog secara automatik menggunakan Akta dialog dan tugas."]}, {"en": ["Ji and Grishman even consider Topic-Related documents, proposing a Cross-Document method.", "Ji and Grishman employ an approach to propagate consistent event arguments across sentences and documents."], "ms": ["Ji dan Grishman bahkan mempertimbangkan dokumen Berkaitan Topik, mengusulkan metode Cross-Document.", "Ji dan Grishman menggunakan pendekatan untuk menyebarkan hujah peristiwa yang konsisten merentasi ayat dan dokumen."]}, {"en": ["They describe this setting as Unsupervised because they only use 14 seeds as paradigm words that define the semantic orientation rather than train the model.", "They describe this method as Unsupervised because they only use 14 seeds as paradigm words that define the semantic orientation rather than train the model."], "ms": ["Mereka menggambarkan tetapan ini sebagai Tidak diawasi kerana mereka hanya menggunakan 14 biji sebagai kata paradigma yang menentukan orientasi semantik daripada melatih model.", "Mereka menggambarkan kaedah ini sebagai Tidak diawasi kerana mereka hanya menggunakan 14 biji sebagai kata paradigma yang menentukan orientasi semantik daripada melatih model."]}, {"en": ["In this paper, we investigated the usefulness of directly summarizing citation texts (sentences that cite other papers) in the automatic creation of technical surveys.", "In this paper, we compare and contrast the usefulness of abstracts and of citation text in automatically generating a technical survey on a given topic."], "ms": ["Dalam kertas kerja ini, kami menyiasat kegunaan meringkaskan teks petikan secara langsung (hujah yang memetik kertas lain) dalam penciptaan automatik tinjauan teknikal.", "Dalam kertas kerja ini, kami membandingkan dan membezakan kegunaan abstrak dan teks petikan secara automatik menghasilkan tinjauan teknikal mengenai topik tertentu."]}, {"en": ["Related work Soricut and Marcu describe a discourse Parser -A system that uses Penn Treebank syntax to identify Intra-Sentential discourse relations in the Rst Treebank.", "Soricut and Marcu presented an approach to discourse Parsing that relied on syntactic information produced by the Charniak Parser, and used a standard Bottom-Up chart Parsing algorithm with dynamic programming to determine discourse structure."], "ms": ["Karya berkaitan Soricut dan Marcu menggambarkan sistem wacana Parser-A yang menggunakan sintaks Penn Treebank untuk mengenal pasti hubungan wacana Intra-Sentential dalam Rst Treebank.", "Soricut dan Marcu membentangkan pendekatan untuk wacana Parsing yang bergantung kepada maklumat sintaktik yang dihasilkan oleh Charniak Parser, dan menggunakan algoritma carta Bottom-Up standard dengan pengaturcaraan dinamik untuk menentukan struktur wacana."]}, {"en": ["Mimus follows the information state update approach to dialogue management, and has been developed under the Eu\u2013Funded talk project (Cite-P-14-3-9).", "Mimus follows the information state update approach to dialogue management, and supports English, German and Spanish, with the possibility of changing language."], "ms": ["Mimus mengikuti pendekatan kemas kini maklumat negeri untuk pengurusan dialog, dan telah dibangunkan di bawah projek perbincangan Eu\u2013Funded (Cite-P-14-3-9).", "Mimus mengikuti pendekatan kemas kini maklumat negeri untuk pengurusan dialog, dan menyokong bahasa Inggeris, Jerman dan Sepanyol, dengan kemungkinan perubahan bahasa."]}, {"en": ["7 for the \u00a1\u00b0Predicted\u00a1\u00b1 setting, first, we predicted the subject labels in a similar manner to five-fold cross validation, and we used the predicted labels as features for the episode Classifier.", "For the \u00a1\u00b0 predicted \u00a1\u00b1 setting, first, we predicted the subject labels in a similar manner to five-fold cross validation, and we used the predicted labels as features."], "ms": ["7 untuk tetapan \"Diprediksi,\" pertama, kami meramalkan label subjek dengan cara yang sama dengan pengesahan silang lima kali ganda, dan kami menggunakan label yang diramalkan sebagai ciri untuk Classifier episod.", "Untuk penetapan ramalan dan ramalan, pertama, kami meramalkan label subjek dengan cara yang sama dengan pengesahan silang lima kali ganda, dan kami menggunakan label yang diramalkan sebagai ciri."]}, {"en": ["Leacock, Towell and Voorhees demonstrated that Contextual representations consisting of both local and topical components are effective for resolving word senses and can be automatically extracted from sample texts.", "In earlier work, we demonstrated that Contextual representations consisting of both local and topical components are effective for resolving word senses and can be automatically extracted from sample texts."], "ms": ["Leacock, Towell dan Voorhees menunjukkan bahawa perwakilan kontekstual yang terdiri daripada komponen tempatan dan topikal berkesan untuk menyelesaikan deria perkataan dan boleh diekstrak secara automatik dari teks sampel.", "Dalam kerja terdahulu, kami menunjukkan bahawa perwakilan kontekstual yang terdiri daripada komponen tempatan dan topikal berkesan untuk menyelesaikan deria perkataan dan boleh diekstrak secara automatik dari teks sampel."]}, {"en": ["We used Elmo Embeddings, which are generated by training a Bi-Directional language model on a large corpus of Unlabeled data.", "We use Elmo word representations in this paper, which are learned from the internal States of a deep Bidirectional language model, Pre-Trained on a large text corpus."], "ms": ["Kami menggunakan Embedding Elmo, yang dihasilkan dengan melatih model bahasa Bi-Directional pada korpus besar data Unlabeled.", "Kami menggunakan perwakilan perkataan Elmo dalam kertas ini, yang dipelajari dari Negara dalaman model bahasa Bidirectional yang mendalam, Pra-Dilatih pada korpus teks yang besar."]}, {"en": ["We propose a Cluster-Ranking approach to Coreference resolution that combines the strengths of mention Rankers and Entity-Mention models.", "We have presented a Cluster-Ranking approach that Recasts the mention resolution process as the problem of finding the best preceding cluster."], "ms": ["Kami mencadangkan pendekatan Cluster-Ranking untuk resolusi Coreference yang menggabungkan kekuatan model Rankers dan Entity-Mention.", "Kami telah membentangkan pendekatan Cluster-Ranking yang Mengulangi proses resolusi sebutan sebagai masalah mencari kluster terdahulu yang terbaik."]}, {"en": ["We also explore a One-Semantic-Class-Per-Discourse Heuristic, and use the classifiers to dynamically create semantic features.", "And we use the labels produced by the classifiers to dynamically create semantic features."], "ms": ["Kami juga meneroka Heuristik Satu-Semantik-Kelas-Per-Ulasan, dan menggunakan pengelas untuk mencipta ciri semantik secara dinamik.", "Dan kami menggunakan label yang dihasilkan oleh pengelas untuk mencipta ciri semantik secara dinamik."]}, {"en": ["In this paper, we propose a method for NSW detection.", "In the following, we call this task the NSW detection task."], "ms": ["Dalam kertas ini, kami mencadangkan kaedah untuk pengesanan NSW.", "Dalam perkara berikut, kami memanggil tugas pengesanan NSW ini."]}, {"en": ["For automated extraction of patterns, we followed the pattern definitions given in.", "In order to extract such patterns automatically, we followed the algorithm given in."], "ms": ["Untuk pengekstrakan corak automatik, kami mengikuti definisi corak yang diberikan dalam.", "Untuk mengekstrak corak sedemikian secara automatik, kami mengikuti algoritma yang diberikan dalam."]}, {"en": ["In the figure, the titles are sorted left to right based on the maximum mean story grade among the titles in the Libitum approach.", "In the figure, the titles are sorted left to right based on the maximum mean story grade among the titles."], "ms": ["Dalam angka itu, tajuk disusun kiri ke kanan berdasarkan gred cerita min maksimum di antara tajuk dalam pendekatan Libitum.", "Dalam angka, tajuk disusun kiri ke kanan berdasarkan gred cerita min maksimum di antara tajuk."]}, {"en": ["We present a technique that improves the efficiency of Word-Lattice Parsing as used in speech recognition language modeling.", "We propose a variation of a probabilistic Word-Lattice Parsing technique that increases efficiency while incurring no loss of language modeling."], "ms": ["Kami membentangkan teknik yang meningkatkan kecekapan Penghuraian Word-Lattice seperti yang digunakan dalam pemodelan bahasa pengiktirafan pertuturan.", "Kami mencadangkan variasi teknik Penghuraian Perkataan-Lattice probabilistik yang meningkatkan kecekapan sambil tidak mengalami kehilangan pemodelan bahasa."]}, {"en": ["In the following example, \u201c will go \u201d is translated as \u042fay\\G (Jaaenge), with E\\G (Enge) as the future tense marker :", "In the following example, \u201c will go \u201d is translated as \u042fay \\ g (Jaaenge), with E \\ g (Enge)."], "ms": ["Dalam contoh berikut, akan pergi diterjemahkan sebagai ayG (Jaaenge), dengan EG (Enge) sebagai penanda tegang masa depan:", "Dalam contoh berikut, akan pergi diterjemahkan sebagai ay g (Jaaenge), dengan E g (Enge)."]}, {"en": ["Lu et al , 2009, used shallow Parsing to identify aspects for short comments.", "Lu et al , 2009, used a Learning-Based method for sentiment detection."], "ms": ["Lu et al, 2009, menggunakan Parsing cetek untuk mengenal pasti aspek untuk komen pendek.", "Lu et al, 2009, menggunakan kaedah Berasaskan Pembelajaran untuk pengesanan sentimen."]}, {"en": ["We propose a novel Unsupervised approach for distinguishing literal and Non-Literal use of idiomatic expressions.", "Work, we proposed an Unsupervised method which Detects the presence or absence of cohesive links between the component words of the idiom."], "ms": ["Kami mencadangkan pendekatan novel Unsupervised untuk membezakan penggunaan ungkapan idiomatik literal dan bukan literal.", "Kerja, kami mencadangkan kaedah Unsupervised yang Mengesan kehadiran atau ketiadaan hubungan yang padu antara perkataan komponen idiom."]}, {"en": ["Earlier work on event Coreference in the Muc program was limited to several scenarios such as terrorist attacks and management succession.", "Earlier work on event Coreference in Muc was limited to several scenarios, Eg, terrorist attacks, management succession, resignation."], "ms": ["Kerja-kerja terdahulu mengenai peristiwa Teras dalam program Muc adalah terhad kepada beberapa senario seperti serangan pengganas dan penggantian pengurusan.", "Kerja-kerja terdahulu mengenai peristiwa Teras di Muc terhad kepada beberapa senario, Eg, serangan pengganas, penggantian pengurusan, peletakan jawatan."]}, {"en": ["A channel is a communication medium associated with a particular Encoding method.", "Here, a channel is a description by an Embedding version."], "ms": ["Saluran adalah medium komunikasi yang berkaitan dengan kaedah pengekodan tertentu.", "Di sini, saluran adalah penerangan oleh versi Embedding."]}, {"en": ["We employed the Stanford Parser to produce Parse trees.", "We use the Stanford Parser to derive the trees."], "ms": ["Kami menggunakan Stanford Parser untuk menghasilkan pokok Parse.", "Kami menggunakan Stanford Parser untuk mendapatkan pokok."]}, {"en": ["Neg - finder significantly Outperforms Bootstrapping prior to the domain Expert\u00a1\u00afS negative categories.", "Neg-Finder successfully removes the necessity of including manually Crafted supervised knowledge."], "ms": ["Neg - pencari dengan ketara Outperforms Bootstrapping sebelum domain Expert S kategori negatif.", "Neg-Finder berjaya menghilangkan keperluan termasuk pengetahuan yang diawasi secara manual."]}, {"en": ["We have described our participation in the Semeval 2007 web people search task.", "We describe our participation in the Semeval 2007 web people search task."], "ms": ["Kami telah menerangkan penyertaan kami dalam tugas carian orang web Semeval 2007.", "Kami menerangkan penyertaan kami dalam tugas carian orang web Semeval 2007."]}, {"en": ["Parameters of the model are estimated from training data using Gibbs sampling.", "In our method, global model parameters are estimated from training data."], "ms": ["Parameter model dianggarkan dari data latihan menggunakan pensampelan Gibbs.", "Dalam kaedah kami, parameter model global dianggarkan dari data latihan."]}, {"en": ["In section 6 and 7, we present our experimental results and analyses, and finally conclude our work in section 8.", "In section 6 and 7, we present our experimental results and analyses, and finally conclude our work."], "ms": ["Dalam seksyen 6 dan 7, kami membentangkan hasil eksperimen dan analisis kami, dan akhirnya menyimpulkan kerja kami di bahagian 8.", "Dalam seksyen 6 dan 7, kami membentangkan hasil eksperimen dan analisis kami, dan akhirnya menyimpulkan kerja kami."]}, {"en": ["Recently, continuous Bag-Of-Words and Skip-Gram models, which can alleviate the above issue, have received much attention.", "The most popular approaches are the Skip-Gram and Continuous-Bag-Of-Words models."], "ms": ["Baru-baru ini, model Bag-Of-Words dan Skip-Gram yang berterusan, yang dapat mengurangkan masalah di atas, telah mendapat banyak perhatian.", "Pendekatan yang paling popular adalah model Skip-Gram dan Continuous-Bag-Of-Words."]}, {"en": ["Motivated by the directional scattering patterns of the Gmm mean Supervectors, we Peroform Discriminant analysis on the unit Hypersphere rather than in the Euclidean space, leading to a novel Dimensionality reduction technique \u00a1\u00b0Sda\u00a1\u00b1.", "Mean Supervectors motivate us to perform Discriminant analysis on the unit Hypersphere rather than in the Euclidean space, which leads to a novel Dimensionality reduction technique."], "ms": ["Didorong oleh corak penyebaran arah Gmm bermakna Supervectors, kami Peroform Analisis Diskriminan pada unit Hypersphere dan bukannya di ruang Euclidean, yang membawa kepada teknik pengurangan Dimensionaliti novel Sda.", "Mean Supervectors memotivasi kita untuk melakukan analisis Diskriminan pada unit Hypersphere dan bukannya di ruang Euclidean, yang membawa kepada teknik pengurangan Dimensionaliti novel."]}, {"en": ["Afterwards, Gated recurrent neural network is exploited to Adaptively Encode Semantics of sentences and their inherent relations in document representations.", "In this work, we develop neural models in a sequential way, and Encode sentence Semantics and their relations automatically."], "ms": ["Selepas itu, rangkaian saraf berulang yang digabungkan dieksploitasi untuk Mengenal pasti Semantik ayat dan hubungan mereka yang wujud dalam perwakilan dokumen.", "Dalam kerja ini, kami membangunkan model saraf dengan cara berurutan, dan Mengkodkan Semantik ayat dan hubungan mereka secara automatik."]}, {"en": ["Following Blitzer et al, we only use positive entries in the Pivot predictors weight vectors to compute the Svd.", "Here we follow Blitzer et al and set the negative values in W to zero, which yields a sparse representation."], "ms": ["Berikutan Blitzer et al, kami hanya menggunakan entri positif dalam vektor berat ramalan Pivot untuk mengira Svd.", "Di sini kita mengikuti Blitzer et al dan menetapkan nilai negatif dalam W kepada sifar, yang menghasilkan perwakilan jarang."]}, {"en": ["To integrate local features with long distance Dependencies, we propose a Dependency-Based Gated recursive neural network.", "We propose the Dependency-Based Gated recursive neural network (Dgrnn) to integrate local features with long distance Dependencies."], "ms": ["Untuk mengintegrasikan ciri tempatan dengan Dependencies jarak jauh, kami mencadangkan rangkaian saraf rekursif Berasaskan Dependensi.", "Kami mencadangkan rangkaian saraf rekursif Berasaskan Dependensi (Dgrnn) untuk mengintegrasikan ciri tempatan dengan Dependensi jarak jauh."]}, {"en": ["These Parsers make use of the Ccgbank that is created by inducing a Ccg grammar from the Penn Treebank.", "Many current interpretation models are based on Pcfgs, trained on syntactic Annotations from the Penn Treebank."], "ms": ["Parsers ini menggunakan Ccgbank yang dicipta dengan mendorong tatabahasa Ccg dari Penn Treebank.", "Banyak model tafsiran semasa adalah berdasarkan Pcfgs, dilatih pada Annotasi sintaktik dari Penn Treebank."]}, {"en": ["Neelakantan et al and make use of Context-Based word sense Disambiguation during corpus training to allow on-line learning of multiple senses of a word with modified versions of Skip-Gram.", "Neelakantan et al proposed an extension of the Skip-Gram model combined with context clustering to estimate the number of senses for each word as well as learn sense Embedding vectors."], "ms": ["Neelakantan et al dan menggunakan Context-Based word sense Disambiguation semasa latihan corpus untuk membolehkan pembelajaran dalam talian pelbagai deria perkataan dengan versi diubah suai Skip-Gram.", "Neelakantan et al mencadangkan lanjutan model Skip-Gram digabungkan dengan pengelompokan konteks untuk menganggarkan bilangan deria bagi setiap perkataan serta mempelajari vektor Embedding deria."]}, {"en": ["We describe the baseline Phrase-Based translation system and various refinements.", "In the next section, we will describe the baseline Phrase-Based translation model."], "ms": ["Kami menerangkan sistem terjemahan berasaskan frasa asas dan pelbagai penambahbaikan.", "Di bahagian seterusnya, kami akan menerangkan model terjemahan berasaskan frasa asas."]}, {"en": ["To this end, we adapt a formalism known as Unordered tree alignment to a probabilistic setting.", "We achieve this loose binding of trees by adapting Unordered tree alignment to a probabilistic setting."], "ms": ["Untuk tujuan ini, kita menyesuaikan formalisme yang dikenali sebagai penjajaran pokok Unordered dengan tetapan probabilistik.", "Kami mencapai pengikatan longgar pokok ini dengan menyesuaikan penjajaran pokok Unordered ke tetapan probabilistik."]}, {"en": ["Since the Ud Annotation scheme is applied on all of the Treebanks, this suggests that the training data of the same language from different domains could be combined.", "We found that, although the Ud Annotation scheme should be consistent across Treebanks, combining training SETS for one language."], "ms": ["Oleh kerana skema Anotasi Ud digunakan pada semua Treebanks, ini menunjukkan bahawa data latihan bahasa yang sama dari domain yang berbeza dapat digabungkan.", "Kami mendapati bahawa, walaupun skema Anotasi Ud harus konsisten di seluruh Treebanks, menggabungkan latihan SETS untuk satu bahasa."]}, {"en": ["It is worth noticing that there is a Nombank-Specific label in figure 1, sup, in helping introduce the arguments, which occur outside the nominal Predicate-Headed noun phrase.", "It is worth pointing out that there is a Nombank-Specific label in figure 1, sup, to help introduce the arguments which occur outside the nominal Predicate-Headed noun phrase."], "ms": ["Perlu diperhatikan bahawa terdapat label Nombank-Specific dalam angka 1, sup, dalam membantu memperkenalkan hujah-hujah, yang berlaku di luar frasa kata nama Predicate-Headed nominal.", "Perlu dinyatakan bahawa terdapat label Nombank-Specific dalam angka 1, sup, untuk membantu memperkenalkan hujah-hujah yang berlaku di luar frasa kata nama Predicate-Headed nominal."]}, {"en": ["Our named entity recognition Module uses the Hmm approach of, which learns from a tagged corpus of named entities.", "Our named entity recognition Module uses the Hmm approach of Bikel, Schwartz, and Weischedel, which learns from a tagged corpus of named entities."], "ms": ["Modul pengiktirafan entiti kami menggunakan pendekatan Hmm, yang belajar dari korpus yang ditandai entiti bernama.", "Modul pengiktirafan entiti kami menggunakan pendekatan Hmm Bikel, Schwartz, dan Weischedel, yang belajar dari korpus yang ditandai entiti bernama."]}, {"en": ["This distributed representation can inform an Inductive bias to generalize in a Bootstrapping system.", "Distributed representations can provide good directions for generalization in a Bootstrapping system."], "ms": ["Perwakilan yang diedarkan ini boleh memaklumkan bias induktif untuk umum dalam sistem Bootstrapping.", "Perwakilan yang diedarkan boleh memberikan arahan yang baik untuk generalisasi dalam sistem Bootstrapping."]}, {"en": ["We use the Scfg Decoder Cdec 4 and build Grammars using its implementation of the suffix array extraction method described in Lopez.", "For direct translation, we use the Scfg Decoder Cdec 4 and build Grammars using its implementation of the suffix array extraction method described in Lopez."], "ms": ["Kami menggunakan Scfg Decoder Cdec 4 dan membina Grammars menggunakan pelaksanaan kaedah pengekstrakan tatasusunan akhiran yang dijelaskan dalam Lopez.", "Untuk terjemahan langsung, kami menggunakan Scfg Decoder Cdec 4 dan membina Grammars menggunakan pelaksanaan kaedah pengekstrakan tatasusunan akhiran yang dijelaskan dalam Lopez."]}, {"en": ["Finally, the maximal marginal relevance algorithm is used to perform sentence Re-Ranking and selection.", "To maximize sentence importance while minimizing redundancy, the selection method uses maximal marginal relevance."], "ms": ["Akhirnya, algoritma perkaitan marginal maksimum digunakan untuk melaksanakan Re-Ranking dan pemilihan ayat.", "Untuk memaksimumkan kepentingan ayat sambil meminimumkan redundansi, kaedah pemilihan menggunakan perkaitan marginal maksimum."]}, {"en": ["The aforementioned studies have shown that incorporating Contextual information can improve sentiment analysis.", "Context, along with social network structure, have been shown to improve sentiment analysis."], "ms": ["Kajian-kajian yang disebutkan di atas telah menunjukkan bahawa menggabungkan maklumat Kontekstual dapat meningkatkan analisis sentimen.", "Konteks, bersama dengan struktur rangkaian sosial, telah ditunjukkan untuk meningkatkan analisis sentimen."]}, {"en": ["In section 5, we outline the experiments used to evaluate the models and present their results.", "In section 5, we outline the experiments used to evaluate the models."], "ms": ["Dalam seksyen 5, kami menggariskan eksperimen yang digunakan untuk menilai model dan membentangkan hasilnya.", "Dalam seksyen 5, kami menggariskan eksperimen yang digunakan untuk menilai model."]}, {"en": ["This is similar in spirit to hidden topic models such as latent Dirichlet allocation, but rather than assigning a hidden topic to each word, we constrain the topics to yield a linear Segmentation of the document.", "This is related to Topicmodeling methods such as latent Dirichlet allocation, but here the induced topics are tied to a linear discourse structure."], "ms": ["Ini serupa dengan model topik tersembunyi seperti peruntukan Dirichlet laten, tetapi bukannya memberikan topik tersembunyi kepada setiap perkataan, kami mengekang topik untuk menghasilkan Segmentasi linear dokumen.", "Ini berkaitan dengan kaedah Topicmodeling seperti peruntukan Dirichlet laten, tetapi di sini topik yang disebabkan terikat kepada struktur wacana linear."]}, {"en": ["In this paper, we explore features representing the accuracy of the content of a spoken response.", "In this paper, we focused on extracting content features to measure the speech proficiency."], "ms": ["Dalam makalah ini, kami meneroka ciri-ciri yang mewakili ketepatan kandungan tindak balas yang diucapkan.", "Dalam makalah ini, kami memfokuskan pada mengekstrak ciri kandungan untuk mengukur kecekapan pertuturan."]}, {"en": ["This paper describes the Evaluator, concentrating on cases in which the system and user disagree.", "In this paper we concentrate on cases in which the system and user disagree."], "ms": ["Kertas ini menerangkan Penilai, menumpukan pada kes-kes di mana sistem dan pengguna tidak bersetuju.", "Dalam kertas ini kita menumpukan perhatian kepada kes-kes di mana sistem dan pengguna tidak bersetuju."]}, {"en": ["Xiong et al integrate various Target-Side lexical cohesion devices into Document-Level machine translation.", "Xiong et al focus on ensuring lexical cohesion by reinforcing the choice of lexical items during decoding."], "ms": ["Xiong et al mengintegrasikan pelbagai peranti kohesi leksikal Target-Side ke dalam terjemahan mesin Dokumen-Level.", "Xiong et al fokus memastikan kohesi leksikal dengan memperkuat pilihan item leksikal semasa penyahkodan."]}, {"en": ["Given a word, the task of finding the semantic orientation of the word is to identify if the word is more likely to be used in positive or negative sense.", "Given a word, the task of finding its semantic orientation is to determine if the word is more probable to be used in positive or negative connotation."], "ms": ["Memandangkan perkataan, tugas mencari orientasi semantik perkataan adalah untuk mengenal pasti jika perkataan itu lebih cenderung digunakan dalam erti kata positif atau negatif.", "Memandangkan perkataan, tugas mencari orientasi semantiknya adalah untuk menentukan sama ada perkataan itu lebih mungkin digunakan dalam konotasi positif atau negatif."]}, {"en": ["Yu et al proposed the Factor-Based compositional Embedding model, which uses syntactic dependency trees together with Sentence-Level Embeddings.", "Yu et al proposed a Factor-Based compositional Embedding model by deriving Sentence-Level and substructure Embeddings from word Embeddings, utilizing dependency trees and named entities."], "ms": ["Yu et al mencadangkan model Pengeditan Komposisi Berasaskan Faktor, yang menggunakan pokok pergantungan sintaktik bersama dengan Pengeditan Tahap Sentence.", "Yu et al mencadangkan model Pengeditan Komposisi Berasaskan Faktor dengan memperolehi Tahap Sentence dan Pengeditan substruktur dari Embedding kata, menggunakan pokok dependensi dan entiti bernama."]}, {"en": ["In pursuit of better translation, Phrase-Based models have significantly improved the quality over classical Word-Based models.", "Phrase-Based statistical machine translation models have achieved significant improvements in translation accuracy over the original IBM Word-Based model."], "ms": ["Dalam mengejar terjemahan yang lebih baik, model Berasaskan Frasa telah meningkatkan kualiti berbanding model Berasaskan Perkataan klasik.", "Model terjemahan mesin statistik berasaskan frasa telah mencapai peningkatan yang ketara dalam ketepatan terjemahan berbanding model IBM Word-Based asal."]}, {"en": ["Carpuat and Wu , 2007) report an improvement in translation quality by incorporating a Wsd system directly in a Phrase-Based translation system.", "Chan and Ng , 2007) introduce a system very similar to that of, but as applied to Hierarchical Phrase-Based translation."], "ms": ["Carpuat dan Wu (2007) melaporkan peningkatan kualiti terjemahan dengan memasukkan sistem Wsd secara langsung dalam sistem terjemahan Berasaskan Frasa.", "Chan dan Ng (2007) memperkenalkan sistem yang sangat serupa dengan sistem ini, tetapi seperti yang digunakan untuk terjemahan Berasaskan Frasa Hierarki."]}, {"en": ["Brin proposed a Bootstrapping-Based method on the top of a Self-Developed pattern Matching-Based Classifier to exploit the Duality between patterns and relations.", "Dipre is a Bootstrapping-Based system that used a pattern matching system as Classifier to exploit the Duality between sets of patterns and relations."], "ms": ["Brin mencadangkan kaedah Bootstrapping-Based di bahagian atas Pengelas Berasaskan Perpadanan corak Dibangunkan Sendiri untuk mengeksploitasi Duality antara corak dan hubungan.", "Dipre adalah sistem berasaskan Bootstrapping yang menggunakan sistem pemadanan corak sebagai Pengelas untuk mengeksploitasi Duality antara set corak dan hubungan."]}, {"en": ["Applying reinforcement learning with user feedback after the imitation learning stage further improves the agent \u2019 s capability in successfully completing a task.", "After imitation learning with user teaching improves the model performance further, not only on the dialogue policy."], "ms": ["Memohon pembelajaran pengukuhan dengan maklum balas pengguna selepas peringkat pembelajaran tiruan meningkatkan lagi keupayaan ejen dalam berjaya menyelesaikan tugas.", "Selepas belajar tiruan dengan pengajaran pengguna meningkatkan prestasi model lebih jauh, bukan sahaja mengenai dasar dialog."]}, {"en": ["The scripts were further Post-Processed with the Stanford Corenlp pipeline to perform tagging, Parsing, named entity recognition and Coreference resolution.", "The Top-10K abstracts matching most search terms were selected for further processing with Corenlp, including Tokenisation, sentence splitting, Pos tagging, Lemmatisation and Parsing."], "ms": ["Skrip-skrip itu selanjutnya Post-Processed dengan saluran paip Stanford Corenlp untuk melakukan penandaan, Parsing, pengiktirafan entiti dinamakan dan resolusi Coreference.", "Abstrak Top-10K yang sepadan dengan kebanyakan istilah carian dipilih untuk pemprosesan lanjut dengan Corenlp, termasuk Tokenisation, pembahagian ayat, penandaan Pos, Lemmatisation dan Parsing."]}, {"en": ["Miwa et al also proposed a hybrid kernel 5, which is a composition of All-Dependency-Paths kernel, Bag-Of-Words kernel and Sst kernel.", "Miwa et al proposed a hybrid kernel, which combines the All-Paths graph kernel, the Bag-Of-Words kernel, and the Subset tree kernel."], "ms": ["Miwa et al juga mencadangkan kernel hibrid 5, yang merupakan komposisi kernel All-Dependency-Paths, kernel Bag-Of-Words dan kernel Sst.", "Miwa et al mencadangkan kernel hibrid, yang menggabungkan kernel grafik All-Paths, kernel Bag-Of-Words, dan kernel pokok Subset."]}, {"en": ["On the other hand, Math-W-6-1-0-93 and Math-W-6-1-0-96 both happen in the interval Math-W-6-1-0-103 but they form an overlap relation.", "On the other hand, Math-W-6-1-0-93 and Math-W-6-1-0-96 both happen in the interval Math-W-6-1-0-103."], "ms": ["Sebaliknya, Math-W-6-1-0-93 dan Math-W-6-1-0-96 kedua-duanya berlaku dalam selang Math-W-6-1-0-103 tetapi mereka membentuk hubungan bertindih.", "Sebaliknya, Math-W-6-1-0-93 dan Math-W-6-1-0-96 kedua-duanya berlaku dalam selang Math-W-6-1-0-103."]}, {"en": ["In section 3, we describe each processing step of our approach in detail.", "In section 3, we describe each processing step of our approach."], "ms": ["Dalam seksyen 3, kami menerangkan setiap langkah pemprosesan pendekatan kami secara terperinci.", "Dalam seksyen 3, kami menerangkan setiap langkah pemprosesan pendekatan kami."]}, {"en": ["We propose a Knowledge-Lean method that relies on word Association and requires no syntactic Annotation.", "In this paper, we propose an information Retrieval-Based method for sense."], "ms": ["Kami mencadangkan kaedah Knowledge-Lean yang bergantung kepada Persatuan perkataan dan tidak memerlukan Annotasi sintaktik.", "Dalam makalah ini, kami mencadangkan kaedah berasaskan pengambilan maklumat untuk masuk akal."]}, {"en": ["Named entity (NE) tagging is a fundamental task for natural language processing and information extraction.", "Named entity (NE) tagging is the task of recognizing and classifying phrases into one of many semantic classes such as persons, organizations and locations."], "ms": ["Penandaan entiti (NE) yang dinamakan adalah tugas asas untuk pemprosesan bahasa semula jadi dan pengekstrakan maklumat.", "Penandaan entiti (NE) yang dinamakan adalah tugas mengenali dan mengklasifikasikan frasa menjadi salah satu daripada banyak kelas semantik seperti orang, organisasi dan lokasi."]}, {"en": ["One of the main advantages of this approach is that it does not depend on bilingual or Multilingual resources.", "One of the main advantages of this approach is that it does not depend on Multilingual resources."], "ms": ["Salah satu kelebihan utama pendekatan ini adalah bahawa ia tidak bergantung kepada sumber dwibahasa atau Multilingual.", "Salah satu kelebihan utama pendekatan ini adalah bahawa ia tidak bergantung kepada sumber Multilingual."]}, {"en": ["Chan and Ng proposed a machine translation evaluation metric based on the optimal algorithm for Bipartite graph matching also known as the assignment problem.", "Chan and Ng proposed Maxsim that is based on a Bipartite graph matching algorithm and assigns different weights to matches."], "ms": ["Chan dan Ng mencadangkan metrik penilaian terjemahan mesin berdasarkan algoritma optimum untuk pemadanan graf Bipartite yang juga dikenali sebagai masalah tugasan.", "Chan dan Ng mencadangkan Maxsim yang berdasarkan algoritma pemadanan graf Bipartite dan memberikan berat yang berbeza untuk perlawanan."]}, {"en": ["We access the Wikipedia revision data using the freely available Wikipedia revision Toolkit together with the Jwpl Wikipedia API.", "We use the Wikipedia revision Toolkit, an Enhancement of the Java Wikipedia library, to gain access to the revision history of each article."], "ms": ["Kami mengakses data semakan Wikipedia menggunakan Toolkit semakan Wikipedia yang tersedia secara bebas bersama dengan API Wikipedia Jwpl.", "Kami menggunakan Toolkit semakan Wikipedia, Peningkatan pustaka Wikipedia Java, untuk mendapatkan akses kepada sejarah semakan setiap artikel."]}, {"en": ["To identify these terms, we use the Log-Likelihood Statistic suggested by Dunning and first used in summarization by LIN and Hovy.", "To test whether a better set of initial parameter estimates can improve model 1 alignment accuracy, we use a Heuristic model based on the Loglikelihood-Ratio Statistic recommended by Dunning."], "ms": ["Untuk mengenal pasti istilah ini, kami menggunakan statistik Log-Likelihood yang dicadangkan oleh Dunning dan pertama kali digunakan dalam ringkasan oleh LIN dan Hovy.", "Untuk menguji sama ada satu set anggaran parameter awal yang lebih baik boleh meningkatkan ketepatan penjajaran model 1, kami menggunakan model Heuristik berdasarkan statistik Loglikelihood-Ratio yang disyorkan oleh Dunning."]}, {"en": ["Davidov et al used 50 Hashtags and 15 Emoticons as sentiment labels for classification to allow diverse sentiment types for the Tweet.", "Davidov et al , 2010) used 50 Hashtags and 15 Emoticons as noisy labels to create a Dataset for Twitter sentiment classification."], "ms": ["Davidov et al menggunakan 50 Hashtags dan 15 Emoticons sebagai label sentimen untuk klasifikasi untuk membenarkan pelbagai jenis sentimen untuk Tweet.", "Davidov et al, 2010) menggunakan 50 Hashtags dan 15 Emoticons sebagai label bising untuk mencipta Dataset untuk klasifikasi sentimen Twitter."]}, {"en": ["The task is concerned with determining the degree of semantic equivalence between a pair of sentences.", "Evaluation show that both approaches are useful for determining the similarity in meaning between pairs of sentences."], "ms": ["Tugas ini berkaitan dengan menentukan tahap kesetaraan semantik antara sepasang ayat.", "Penilaian menunjukkan bahawa kedua-dua pendekatan berguna untuk menentukan persamaan makna antara pasangan ayat."]}, {"en": ["In this paper, however, we focus on the use of the context model to resolve Deictic and Anaphoric expressions keyed in by the user.", "We present a single model that accounts for referent resolution of Deictic and Anaphoric expressions."], "ms": ["Dalam makalah ini, bagaimanapun, kami memberi tumpuan kepada penggunaan model konteks untuk menyelesaikan ungkapan Deictic dan Anaphoric yang dikunci oleh pengguna.", "Kami membentangkan satu model yang menyumbang kepada resolusi rujukan ungkapan Deictic dan Anaphoric."]}, {"en": ["The Dependency-To-String model takes Head-Dependents relations as the elementary structures of dependency trees, and represents the translation rules with the source side as Hdrs and the target side as string.", "The Dependency-To-String model proposed by translates a source dependency tree by applying Head-Dependents translation rule at each head Node in a recursive way."], "ms": ["Model Dependensi-To-String mengambil hubungan Head-Dependents sebagai struktur asas pokok dependensi, dan mewakili peraturan terjemahan dengan sisi sumber sebagai Hdrs dan sisi sasaran sebagai rentetan.", "Model Dependensi-To-String yang dicadangkan dengan menterjemahkan pokok dependensi sumber dengan menggunakan peraturan terjemahan Head-Dependents di setiap Node kepala dengan cara rekursif."]}, {"en": ["More sophisticated Metrics, such as the RTE metric, use higher level syntactic or semantic analysis to determine the Grammaticality of the output.", "More sophisticated Metrics, such as the RTE metric, use higher level syntactic or even semantic analysis to determine the quality of the translation."], "ms": ["Metrik yang lebih canggih, seperti metrik RTE, menggunakan analisis sintaktik atau semantik tahap yang lebih tinggi untuk menentukan Grammatikaliti output.", "Metrik yang lebih canggih, seperti metrik RTE, menggunakan sintaktik tahap yang lebih tinggi atau analisis semantik untuk menentukan kualiti terjemahan."]}, {"en": ["Consequently, semantic integration of these different but related types of medical knowledge that is present in disparate domain Ontologies becomes necessary.", "Alignment of medical Ontologies facilitates the integration of medical knowledge that is relevant to medical."], "ms": ["Oleh itu, integrasi semantik jenis pengetahuan perubatan yang berbeza tetapi berkaitan yang terdapat dalam domain yang berbeza Ontologies menjadi perlu.", "Penjajaran perubatan Ontologi memudahkan integrasi pengetahuan perubatan yang berkaitan dengan perubatan."]}, {"en": ["Finally, we can write Math-W-15-1-1-133, where Math-W-15-1-1-162 is a R 1\u00d7R vector that can again be computed Offline.", "For each Math-W-4-7-1-3, we have a parameter Math-W-4-7-1-11, which is the probability of Math-W-4-7-1-19."], "ms": ["Akhirnya, kita boleh menulis Math-W-15-1-1-133, di mana Math-W-15-1-1-162 adalah vektor R 1R yang sekali lagi boleh dikira Offline.", "Untuk setiap Math-W-4-7-1-3, kita mempunyai parameter Math-W-4-7-1-11, iaitu kebarangkalian Math-W-4-7-1-19."]}, {"en": ["Recently, Yu and Siskind presented a system that induces Word-Object Mappings from features extracted from short videos paired with sentences.", "As representative studies, Yu and Siskind propose a method that learns representations of word meanings from short Video clips paired with sentences."], "ms": ["Baru-baru ini, Yu dan Siskind membentangkan sistem yang mendorong Pemetaan Word-Object dari ciri-ciri yang diekstrak dari video pendek yang dipasangkan dengan ayat.", "Sebagai kajian perwakilan, Yu dan Siskind mencadangkan kaedah yang mempelajari perwakilan makna perkataan dari klip Video pendek yang dipasangkan dengan ayat."]}, {"en": ["Word Embedding features were derived using Word2Vec, representing each word as a 300-D vector.", "To create a class vocabulary, the Morphs were embedded in a 300-Dimensional space using Word2Vec."], "ms": ["Ciri Embedding Word diperolehi menggunakan Word2Vec, mewakili setiap perkataan sebagai vektor 300-D.", "Untuk mencipta perbendaharaan kata kelas, Morphs telah tertanam dalam ruang 300 dimensi menggunakan Word2Vec."]}, {"en": ["According to Fox, dependency representations have the best Inter-Lingual Phrasal cohesion properties.", "According to, dependency representations have the best Phrasal cohesion properties across languages."], "ms": ["Menurut Fox, perwakilan dependensi mempunyai sifat kohesi Phrasal Inter-Lingual terbaik.", "Menurut, perwakilan dependensi mempunyai sifat kohesi Phrasal terbaik di seluruh bahasa."]}, {"en": ["In the final two articles, by Piotrovskij and Marc\u030cUk, the authors strongly advocate what they consider to be practical approaches to mt, while dismissing much of the work cited in the first three articles as misguided and counterproductive.", "In the final two articles, by Piotrovskij and Marcuk, the authors strongly advocate what they consider to be practical approaches to mt, while dismissing much of the work cited in the first three articles."], "ms": ["Dalam dua artikel terakhir, oleh Piotrovskij dan MarUk, penulis sangat menyokong apa yang mereka anggap sebagai pendekatan praktikal untuk mt, sambil menolak banyak karya yang disebut dalam tiga artikel pertama sebagai sesat dan tidak produktif.", "Dalam dua artikel terakhir, oleh Piotrovskij dan Marcuk, penulis sangat menyokong apa yang mereka anggap sebagai pendekatan praktikal untuk mt, sambil menolak banyak kerja yang disebut dalam tiga artikel pertama."]}, {"en": ["The use of Unsupervised word Embeddings in various natural language processing tasks has received much attention.", "Multi-Task learning has resulted in successful systems for various Nlp tasks, especially in Cross-Lingual settings."], "ms": ["Penggunaan perkataan Embeddings yang tidak diawasi dalam pelbagai tugas pemprosesan bahasa semula jadi telah mendapat banyak perhatian.", "Pembelajaran Multi-Task telah menghasilkan sistem yang berjaya untuk pelbagai tugas Nlp, terutamanya dalam tetapan Cross-Lingual."]}, {"en": ["Graves , 2012, and Convolutional Nns are the two most popular neural network architectures in this regard.", "Lstm, and CNN are the two most popular neural network architectures in this regard."], "ms": ["Graves, 2012, dan Nns Konvolusi adalah dua seni bina rangkaian saraf yang paling popular dalam hal ini.", "Lstm, dan CNN adalah dua seni bina rangkaian saraf yang paling popular dalam hal ini."]}, {"en": ["Here, we use negative sampling as a Speed-Up technique.", "In our model, we use negative sampling discussed in to speed up the computation."], "ms": ["Di sini, kita menggunakan persampelan negatif sebagai teknik Speed-Up.", "Dalam model kami, kami menggunakan persampelan negatif yang dibincangkan untuk mempercepat pengiraan."]}, {"en": ["This software is an implementation of the algorithm presented by, which extracts frequent ordered Subtrees from a set of ordered trees.", "The algorithm used in this research is an extension of the Treeminer algorithm, modified to extract only closed Subtrees."], "ms": ["Perisian ini adalah pelaksanaan algoritma yang dibentangkan oleh, yang mengekstrak Subtrees yang kerap dipesan dari satu set pokok yang dipesan.", "Algoritma yang digunakan dalam penyelidikan ini adalah lanjutan algoritma Treeminer, diubahsuai untuk mengekstrak Subtrees tertutup sahaja."]}, {"en": ["The Corpus is based on the Dataset introduced by Pang and Lee and consists of 11,855 single sentences extracted from movie reviews.", "The data contain around 11,800 sentences from movie reviews that were originally collected by Pang and Lee."], "ms": ["Corpus berdasarkan Dataset yang diperkenalkan oleh Pang dan Lee dan terdiri daripada 11,855 ayat tunggal yang diekstrak daripada ulasan filem.", "Data tersebut mengandungi sekitar 11,800 ayat daripada ulasan filem yang pada asalnya dikumpulkan oleh Pang dan Lee."]}, {"en": ["The complexity of the tasks makes it however difficult to infer what kind of information is present in the representations.", "Tasks require complex forms of inference, making it difficult to pinpoint the information."], "ms": ["Kerumitan tugas menjadikannya sukar untuk menyimpulkan jenis maklumat yang terdapat dalam perwakilan.", "Tugas memerlukan bentuk kesimpulan yang kompleks, menjadikannya sukar untuk menentukan maklumat."]}, {"en": ["Recently, progress in dependency Parsing has been made by introducing non-linear, Neuralnetwork based models.", "Dependency Parsers have been enhanced by the use of neural networks and Embedding vectors."], "ms": ["Baru-baru ini, kemajuan dalam dependensi Parsing telah dibuat dengan memperkenalkan model berasaskan Neuralnetwork yang tidak linear.", "Parsers dependensi telah dipertingkatkan dengan penggunaan rangkaian saraf dan vektor Embedding."]}, {"en": ["In this paper we have described our participation in Semeval-2015 task 12 (Absa).", "In this paper we describe our participation in Semeval-2015 task 12."], "ms": ["Dalam makalah ini kami telah menerangkan penyertaan kami dalam tugas Semeval-2015 12 (Absa).", "Dalam makalah ini kami menerangkan penyertaan kami dalam tugas Semeval-2015 12."]}, {"en": ["Due to the superior performance of Fasttext, the system highlights high risk sentences in those reports via using Fasttext.", "With a set of Risk-Labeled sentences, this proposed system applies Fasttext to automatically identify high-risk sentences in those reports."], "ms": ["Oleh kerana prestasi Fasttext yang unggul, sistem ini menonjolkan ayat risiko tinggi dalam laporan tersebut melalui penggunaan Fasttext.", "Dengan satu set ayat yang Dilabelkan Risiko, sistem yang dicadangkan ini menggunakan Fasttext untuk mengenal pasti ayat berisiko tinggi secara automatik dalam laporan tersebut."]}, {"en": ["In this paper, we examine Topological field Parsing, a shallow form of Parsing which identifies the major sections of a sentence in relation to the Clausal main verb and the Subordinating heads.", "In this paper, we examine Topological field Parsing, a shallow form of Parsing which identifies the major sections of a sentence in relation to the Clausal main verb and Subordinating heads."], "ms": ["Dalam makalah ini, kita mengkaji bidang Topologi Parsing, bentuk cetek Parsing yang mengenal pasti bahagian utama ayat berkaitan dengan kata kerja utama Clausal dan kepala Subordinating.", "Dalam makalah ini, kita mengkaji bidang Topologi Parsing, bentuk cetek Parsing yang mengenal pasti bahagian utama ayat berkaitan dengan kata kerja utama Clausal dan kepala Subordinating."]}, {"en": ["Gupta and Ji employ Cross-Event information to extract implicit time information.", "Gupta and Ji used a similar approach to recover implicit time information for events."], "ms": ["Gupta dan Ji menggunakan maklumat Cross-Event untuk mengekstrak maklumat masa tersirat.", "Gupta dan Ji menggunakan pendekatan yang sama untuk memulihkan maklumat masa tersirat untuk peristiwa."]}, {"en": ["One of the touted advantages of neural network language models is their ability to model sparse data.", "One of the most useful neural network techniques for Nlp is the word Embedding, which learns vector representations of words."], "ms": ["Salah satu kelebihan yang disebut-sebut model bahasa rangkaian saraf adalah keupayaan mereka untuk memodelkan data jarang.", "Salah satu teknik rangkaian saraf yang paling berguna untuk Nlp ialah perkataan Embedding, yang mempelajari perwakilan vektor perkataan."]}, {"en": ["Lexical cohesion analysis has been used in such Nlp applications as determining the structure of text and automatic text summarization.", "Lexical Chaining has been investigated in many research tasks such as text Segmentation, word sense Disambiguation, and text Summarisation."], "ms": ["Analisis kohesi leksikal telah digunakan dalam aplikasi Nlp seperti menentukan struktur teks dan ringkasan teks automatik.", "Lexical Chaining telah disiasat dalam banyak tugas penyelidikan seperti Segmentasi teks, Disambiguasi kata, dan Summarisasi teks."]}, {"en": ["For example, Smith et al mine parallel sentences from comparable documents in Wikipedia, demonstrating substantial gains on open domain translation.", "Smith et al demonstrate that language Inter-Linked article pairs in Wikipedia offer valuable comparable data."], "ms": ["Sebagai contoh, Smith et al melombong ayat selari dari dokumen setanding di Wikipedia, menunjukkan keuntungan besar pada terjemahan domain terbuka.", "Smith et al menunjukkan bahawa pasangan artikel Inter-Linked bahasa dalam Wikipedia menawarkan data setanding yang berharga."]}, {"en": ["We used Wordnet as a source of synonyms and Hypernyms for linking English words in the word relatedness graph.", "Specifically, we looked for a categorical structure within the communities by comparing words to the Hypernym tree in Wordnet."], "ms": ["Kami menggunakan Wordnet sebagai sumber sinonim dan Hypernyms untuk menghubungkan perkataan Inggeris dalam graf berkaitan perkataan.", "Khususnya, kami mencari struktur kategoris dalam komuniti dengan membandingkan perkataan dengan pokok Hypernym di Wordnet."]}, {"en": ["Luong and Manning , 2016) presented a neural machine translation system using character Rnns only for Oov words, dropping the Rnn output into a conventional Word-Based Nmt system.", "Luong and Manning , 2016) proposes a hybrid architecture for Nmt that translates mostly at the word level and Consults the character components for rare words when necessary."], "ms": ["Luong dan Manning, 2016) mempersembahkan sistem terjemahan mesin saraf menggunakan watak Rnns hanya untuk kata-kata Oov, menjatuhkan output Rnn ke dalam sistem Nmt Berasaskan Perkataan konvensional.", "Luong dan Manning (2016) mencadangkan seni bina hibrid untuk Nmt yang diterjemahkan kebanyakannya pada tahap perkataan dan Rujuk komponen watak untuk kata-kata yang jarang berlaku apabila perlu."]}, {"en": ["For example, A0 is commonly mapped onto subject (Sbj), whereas A1 is often realized as object (Obj).", "A0 is commonly mapped onto subject (Sbj), whereas A1 is often realized as object (Obj)."], "ms": ["Sebagai contoh, A0 biasanya dipetakan ke subjek (Sbj), sedangkan A1 sering direalisasikan sebagai objek (Obj).", "A0 biasanya dipetakan kepada subjek (Sbj), manakala A1 sering direalisasikan sebagai objek (Obj)."]}, {"en": ["Our model consists of a linear Classifier based on support vector machines, which have proved to provide competitive results in text Categorization since their conception.", "To address this problem, we have used support vector machines, which are known to perform favourably on text classification problems."], "ms": ["Model kami terdiri daripada Classifier linear berdasarkan mesin vektor sokongan, yang telah terbukti memberikan hasil yang kompetitif dalam Categorization teks sejak konsep mereka.", "Untuk mengatasi masalah ini, kami telah menggunakan mesin vektor sokongan, yang diketahui dapat berfungsi dengan baik pada masalah pengelasan teks."]}, {"en": ["Galley et al proposes a method for extracting tree transducer rules from a parallel corpus.", "Galley et al describe an algorithm for inducing a String-To-Tree grammar using a parallel corpus with syntax trees on target side."], "ms": ["Galley et al mencadangkan kaedah untuk mengekstrak peraturan transduser pokok dari korpus selari.", "Galley et al menggambarkan algoritma untuk mendorong tatabahasa String-To-Tree menggunakan korpus selari dengan pokok sintaks di sisi sasaran."]}, {"en": ["In this work, we focus on Gaokao history multiple choice questions which is denoted as Gkhmc.", "In this work, we detailed the Gaokao history multiple choice questions (Gkhmc)."], "ms": ["Dalam karya ini, kami memberi tumpuan kepada sejarah Gaokao pelbagai soalan pilihan yang dilambangkan sebagai Gkhmc.", "Dalam karya ini, kami memperincikan sejarah Gaokao pelbagai soalan pilihan (Gkhmc)."]}, {"en": ["This paper has proposed a companion learning framework to unify Rule-Based policy and Rlbased policy.", "Companion learning (cl) framework was proposed to integrate Rule-Based policy and Rl-Based policy."], "ms": ["Kertas ini telah mencadangkan rangka pembelajaran rakan untuk menyatukan dasar berasaskan peraturan dan dasar berasaskan Rl.", "Rangka kerja pembelajaran (cl) dicadangkan untuk mengintegrasikan dasar Berasaskan Peraturan dan dasar Berasaskan Rl."]}, {"en": ["It Adapts to the user \u2019 s preferences and situation.", "On the fly, it can adapt to the situation and special needs of the user."], "ms": ["Ia menyesuaikan kepada keutamaan pengguna dan keadaan.", "Dengan terbang, ia boleh menyesuaikan diri dengan keadaan dan keperluan khas pengguna."]}, {"en": ["Our framework is general and applicable to various types of neural architectures.", "We propose a general framework capable of enhancing various types of neural networks (E . G ., Cnns and Rnns)."], "ms": ["Rangka kerja kami adalah umum dan terpakai kepada pelbagai jenis seni bina saraf.", "Kami mencadangkan rangka kerja umum yang mampu meningkatkan pelbagai jenis rangkaian saraf (E. G., Cnns dan Rnns)."]}, {"en": ["Erk and Pad\u8d38 introduce the concept of a structured vector space in which each word is associated with a set of Selectional preference vectors corresponding to different syntactic Dependencies.", "Erk and Pad\u8d38 proposed a structured vector space model in which a word is represented by multiple vectors, capturing its meaning but also the Selectional restrictions it has for the different arguments."], "ms": ["Erk dan Pad memperkenalkan konsep ruang vektor berstruktur di mana setiap perkataan dikaitkan dengan satu set vektor keutamaan pilihan yang sepadan dengan Dependensi sintaksis yang berbeza.", "Erk dan Pad mencadangkan model ruang vektor berstruktur di mana perkataan diwakili oleh pelbagai vektor, menangkap maknanya tetapi juga sekatan Pemilihan yang dimilikinya untuk argumen yang berbeza."]}, {"en": ["In (Cite-P-23-3-10), the authors proposed a method that tackles Online Multi-Task learning in the lifelong learning setting.", "In (Cite-P-23-3-10), the authors proposed a method that tackles Online Multi-Task learning."], "ms": ["Dalam (Cite-P-23-3-10), penulis mencadangkan kaedah yang menangani pembelajaran Multi-Task Online dalam persekitaran pembelajaran sepanjang hayat.", "Dalam (Cite-P-23-3-10), penulis mencadangkan kaedah yang menangani pembelajaran Multi-Task Online."]}, {"en": ["In this paper, we propose two Algorithms for automatically Ontologizing (attaching) semantic relations into Wordnet.", "In this paper, we proposed two Algorithms for automatically Ontologizing Binary semantic relations into Wordnet."], "ms": ["Dalam makalah ini, kami mencadangkan dua Algoritma untuk hubungan semantik Ontologizing (menetapkan) secara automatik ke dalam Wordnet.", "Dalam makalah ini, kami mencadangkan dua Algoritma untuk hubungan semantik Binari Ontologizing secara automatik ke dalam Wordnet."]}, {"en": ["Duh and Kirchhoff adopted a minimally supervised approach that requires raw data from several Das, and an MSA morphological Analyzer.", "Duh and Kirchhoff adopt a minimally supervised approach that only requires raw text data from several Das, as well as a MSA morphological Analyzer."], "ms": ["Duh dan Kirchhoff menggunakan pendekatan yang diawasi minimum yang memerlukan data mentah dari beberapa Das, dan Analyzer morfologi MSA.", "Duh dan Kirchhoff menggunakan pendekatan yang diselia minimum yang hanya memerlukan data teks mentah dari beberapa Das, serta Analisa morfologi MSA."]}, {"en": ["Zesch and Gurevych created a third Dataset from Domain-Specific Corpora using a Semi-Automatic process.", "Thus, Zesch and Gurevych used a Semi-Automatic process to create word pairs from Domain-Specific Corpora."], "ms": ["Zesch dan Gurevych mencipta Dataset ketiga daripada Domain-Specific Corpora menggunakan proses Semi-Automatik.", "Oleh itu, Zesch dan Gurevych menggunakan proses Semi-Automatik untuk mencipta pasangan perkataan daripada Domain-Specific Corpora."]}, {"en": ["For the laptops domain, we used only one CNN Classifier that predicts the aspects based on a probability threshold.", "For the laptops domain, we used one CNN Classifier that outputs probability scores."], "ms": ["Untuk domain komputer riba, kami menggunakan hanya satu Pengelas CNN yang meramalkan aspek berdasarkan ambang kebarangkalian.", "Untuk domain komputer riba, kami menggunakan satu Pengelas CNN yang menghasilkan skor kebarangkalian."]}, {"en": ["Every time a sentence is analyzed, it Detects unknown Morphemes, Enumerates candidates and selects the best candidates by comparing multiple examples kept in the storage.", "Acquirer Detects unknown Morphemes, Enumerates candidates and selects the best candidates by comparing multiple examples kept in the storage."], "ms": ["Setiap kali satu ayat dianalisis, ia Mengesan Morphemes yang tidak diketahui, Mengumerates calon dan memilih calon terbaik dengan membandingkan pelbagai contoh yang disimpan dalam simpanan.", "Pengambil Mengesan Morphemes yang tidak diketahui, Mengumerates calon dan memilih calon terbaik dengan membandingkan pelbagai contoh yang disimpan dalam simpanan."]}, {"en": ["Rangrej et al compared the performance of three document clustering techniques on Twitter data, and found that Graph-Based approach using affinity propagation performs best in clustering Tweets.", "Rangrej et al compared K-Means, singular value decomposition, and affinity propagation for Tweets, finding affinity propagation the most effective, using Tf-Idf with Cosine similarity or Jaccard for a similarity measure."], "ms": ["Rangrej et al membandingkan prestasi tiga teknik pengelompokan dokumen pada data Twitter, dan mendapati bahawa pendekatan Berasaskan Grafik menggunakan penyebaran afiniti melakukan yang terbaik dalam mengelompokkan Tweet.", "Rangrej et al membandingkan K-Means, penguraian nilai tunggal, dan perkadaran afiniti untuk Tweets, mencari perkadaran afiniti yang paling berkesan, menggunakan Tf-Idf dengan persamaan Cosine atau Jaccard untuk ukuran persamaan."]}, {"en": ["We constrain the translation of an input sentence using the most similar \u00a1\u00aeTranslation Example\u00a1\u00af retrieved from the TM.", "To translate, we Firstly use a TM system to retrieve the most similar \u00a1\u00ae example \u00a1\u00af source sentences together with their translations."], "ms": ["Kami mengekang terjemahan ayat input menggunakan Translation Example yang paling serupa yang diambil dari TM.", "Untuk menterjemahkan, kami Pertama menggunakan sistem TM untuk mengambil contoh yang paling serupa dan ayat sumber bersama dengan terjemahan mereka."]}, {"en": ["Tomanek et al utilised Eye-Tracking data to evaluate a degree of difficulty in Annotating named entities.", "Tomanek et al utilised Eye-Tracking data to evaluate the degree of difficulty in Annotating named entities."], "ms": ["Tomanek et al menggunakan data Eye-Tracking untuk menilai tahap kesukaran dalam Annotating entiti yang dinamakan.", "Tomanek et al menggunakan data Eye-Tracking untuk menilai tahap kesukaran dalam Annotating entiti yang dinamakan."]}, {"en": ["Shoufan and Alameri and Al-Ayyoub et al present a survey on Nlp and deep learning methods for processing Arabic Dialectal data with an overview on Arabic did of text and speech.", "Shoufan and Al-Ameri and Al-Ayyoub et al present a survey on Nlp and deep learning methods for processing Arabic Dialectal data with an overview on Arabic did of text and speech."], "ms": ["Shoufan dan Alameri dan Al-Ayyoub et al membentangkan kaji selidik mengenai Nlp dan kaedah pembelajaran mendalam untuk memproses data Dialek Arab dengan gambaran keseluruhan mengenai teks dan ucapan Arab.", "Shoufan dan Al-Ameri dan Al-Ayyoub et al membentangkan kaji selidik mengenai Nlp dan kaedah pembelajaran mendalam untuk memproses data Dialek Arab dengan gambaran keseluruhan mengenai teks dan ucapan Arab."]}, {"en": ["Ambiguity is a common feature of Weps and Wsd.", "Ambiguity is the task of building up multiple alternative linguistic structures for a single input."], "ms": ["Ambiguity adalah ciri umum Weps dan Wsd.", "Ambiguity adalah tugas membina pelbagai struktur linguistik alternatif untuk input tunggal."]}, {"en": ["The system employs simple partial Parsing techniques as described by Abney.", "The Cass partial Parsing system makes use of a Cascade of Fsts."], "ms": ["Sistem ini menggunakan teknik Parsing separa mudah seperti yang dijelaskan oleh Abney.", "Sistem Penghuraian separa Cass menggunakan Cascade of Fsts."]}, {"en": ["It was first used for Unlabeled dependency Parsing by Kudo and Matsumoto and Yamada and Matsumoto.", "Kudo and Matsumoto applied the Cascaded Chunking algorithm to Japanese dependency Parsing."], "ms": ["Ia mula digunakan untuk Parsing dependensi Unlabeled oleh Kudo dan Matsumoto dan Yamada dan Matsumoto.", "Kudo dan Matsumoto menggunakan algoritma Cascaded Chunking untuk Penghuraian dependensi Jepun."]}, {"en": ["We set up a web experiment using the evaluation Toolkit by Belz and Kow to collect ratings of local coherence for implicit and explicit arguments.", "We set up a web experiment using the Nltk package to collect coherence ratings for implicit and explicit arguments."], "ms": ["Kami menubuhkan eksperimen web menggunakan Toolkit penilaian oleh Belz dan Kow untuk mengumpul penilaian koheren tempatan untuk hujah tersirat dan eksplisit.", "Kami menubuhkan eksperimen web menggunakan pakej Nltk untuk mengumpul penilaian koheren untuk hujah tersirat dan eksplisit."]}, {"en": ["Dbpedia SPOTLIGHT is a tool for automatically Annotating mentions of Dbpedia resources in text.", "Dbpedia SPOTLIGHT is a system that finds mentions of Dbpedia resources in a textual document."], "ms": ["Dbpedia SPOTLIGHT adalah alat untuk memberi penerangan secara automatik mengenai sumber Dbpedia dalam teks.", "Dbpedia SPOTLIGHT adalah sistem yang menemui sebutan sumber Dbpedia dalam dokumen teks."]}, {"en": ["In creating the summary, Instantiating the content model, we identify independent categories and dependent categories, and we argue that in order to preserve the cohesion of the text the independent categories should be determined first (see section 3.2).", "In creating the summary, Instantiating the content model, we identify independent categories and dependent categories, and we argue that in order to preserve the cohesion of the text."], "ms": ["Dalam mencipta ringkasan, Menentukan model kandungan, kami mengenal pasti kategori bebas dan kategori bergantung, dan kami berpendapat bahawa untuk mengekalkan perpaduan teks kategori bebas harus ditentukan terlebih dahulu (lihat seksyen 3.2).", "Dalam mencipta ringkasan, Menentukan model kandungan, kami mengenal pasti kategori bebas dan kategori bergantung, dan kami berpendapat bahawa untuk mengekalkan perpaduan teks."]}, {"en": ["Opinion Lexicons have been obtained for English and also for Spanish.", "Opinion Lexicons have been obtained for English language and also for Spanish language."], "ms": ["Pendapat Lexicons telah diperolehi untuk bahasa Inggeris dan juga untuk bahasa Sepanyol.", "Pendapat Lexicons telah diperolehi untuk bahasa Inggeris dan juga untuk bahasa Sepanyol."]}, {"en": ["The model is much simpler than other Phrase-Based statistical models.", "That uses a much simpler set of model parameters than similar Phrase-Based models."], "ms": ["Model ini jauh lebih mudah daripada model statistik Berasaskan Frasa yang lain.", "Itu menggunakan set parameter model yang lebih mudah daripada model berasaskan frasa yang serupa."]}, {"en": ["It may be useful for discourse relation projection and discourse Parsing.", "Classification is important for discourse mode identification."], "ms": ["Ia mungkin berguna untuk unjuran hubungan wacana dan Parsing wacana.", "Klasifikasi penting untuk pengenalpastian mod wacana."]}, {"en": ["This is due to the possibility to boost similarity to human reference translations by the additional use of a cost function in our approach.", "Which is due to the additional use of a cost function that BOOSTS similarity of translations to human reference translations."], "ms": ["Ini disebabkan oleh kemungkinan untuk meningkatkan persamaan dengan terjemahan rujukan manusia dengan penggunaan tambahan fungsi kos dalam pendekatan kami.", "Ini disebabkan oleh penggunaan tambahan fungsi kos yang BOOSTS persamaan terjemahan kepada terjemahan rujukan manusia."]}, {"en": ["Third and finally, the Baselines reported for Resnik \u2019 s test set were higher than those for the All-Words task.", "And finally, the Baselines reported for Resnik \u2019 s test set were higher than those for the All-Words task."], "ms": ["Ketiga dan akhirnya, Baselines yang dilaporkan untuk set ujian Resnik adalah lebih tinggi daripada yang untuk tugas All-Words.", "Dan akhirnya, Baselines yang dilaporkan untuk set ujian Resnik adalah lebih tinggi daripada yang untuk tugas All-Words."]}, {"en": ["In this paper, we have attempted to reproduce a study by Nilsson et al that has shown that making Auxiliaries heads in verb groups improves Parsing but failed to show that those results port to Parsing with universal Dependencies.", "In this paper, we will investigate the case of the verb group construction and attempt to reproduce the study by Nilsson et al on Ud Treebanks to find out whether or not the alternative representation is useful for Parsing with Ud."], "ms": ["Dalam makalah ini, kami telah berusaha untuk menghasilkan semula kajian oleh Nilsson et al yang telah menunjukkan bahawa membuat kepala Auxiliaries dalam kumpulan kata kerja memperbaiki Parsing tetapi gagal menunjukkan bahawa hasil tersebut membawa ke Parsing dengan Dependensi universal.", "Dalam makalah ini, kami akan menyiasat kes pembinaan kumpulan kata kerja dan cuba untuk menghasilkan semula kajian oleh Nilsson et al pada Ud Treebanks untuk mengetahui sama ada atau tidak perwakilan alternatif berguna untuk Parsing with Ud."]}, {"en": ["This paper presents such a method, exploiting machine learning in an innovative way.", "In this paper proposes a simple and effective use of machine learning."], "ms": ["Kertas ini membentangkan kaedah sedemikian, mengeksploitasi pembelajaran mesin dengan cara yang inovatif.", "Dalam kertas ini mencadangkan penggunaan pembelajaran mesin yang mudah dan berkesan."]}, {"en": ["For example, Lavie et al, Liu et al, and Chiang noted that translation quality tends to decrease in Tree-To-Tree systems because the rules become too restrictive.", "However, as noted by Lavie et al, Liu et al, and Chiang, the integration of syntactic information on both sides tends to decrease translation quality because the systems become too restrictive."], "ms": ["Sebagai contoh, Lavie et al, Liu et al, dan Chiang menyatakan bahawa kualiti terjemahan cenderung menurun dalam sistem Tree-To-Tree kerana peraturan menjadi terlalu ketat.", "Walau bagaimanapun, seperti yang dinyatakan oleh Lavie et al, Liu et al, dan Chiang, integrasi maklumat sintaksis di kedua-dua belah pihak cenderung untuk mengurangkan kualiti terjemahan kerana sistem menjadi terlalu ketat."]}, {"en": ["It also performs well on a number of natural language processing problems, including text Categorization, Sebastiani et al, and word sense Disambiguation ,.", "It performs well on a number of natural language processing problems, including text Categorization and word sense Disambiguation."], "ms": ["Ia juga berfungsi dengan baik pada beberapa masalah pemprosesan bahasa semula jadi, termasuk teks Categorization, Sebastiani et al, dan kata rasa Disambiguation,.", "Ia berfungsi dengan baik pada beberapa masalah pemprosesan bahasa semula jadi, termasuk Categorization teks dan Disambiguasi deria perkataan."]}, {"en": ["Experiments in two domains showed that the Contextual role knowledge improved Coreference performance, especially on pronouns.", "In both domains, and that the Contextual role knowledge improves performance, especially on pronouns."], "ms": ["Eksperimen dalam dua domain menunjukkan bahawa pengetahuan peranan Kontekstual meningkatkan prestasi Coreference, terutama pada kata ganti.", "Dalam kedua-dua domain, dan pengetahuan peranan kontekstual meningkatkan prestasi, terutamanya pada kata ganti."]}, {"en": ["Asahara et al extended the original Hmms by 1) Position-Wise grouping of Pos tags , 2) Word-Level statistics, and 3) smoothing of word and Pos level statistics.", "Asahara et al extended Hmms so as to incorporate 1) Position-Wise grouping , 2) Word-Level Statis-Tics, and 3) smoothing of word and Pos level statistics."], "ms": ["Asahara et al extended the original Hmms by 1) Position-Wise grouping of Pos tags, 2) Word-Level statistics, and 3) smoothing of word and Pos level statistics.", "Asahara et al extended Hmms so to incorporate 1) Position-Wise grouping, 2) Word-Level Statis-Tics, and 3) smoothing of word and Pos level statistics."]}, {"en": ["The Back-End is a modular, expandable, Scalable and flexible architecture with parallel and distributed processing capabilities.", "The Front-End is a web application that makes Nlp processes available in a User-Friendly way with responsive and interactive Visualizations."], "ms": ["Back-End adalah seni bina modular, boleh diperluas, Skala dan fleksibel dengan keupayaan pemprosesan selari dan diedarkan.", "Front-End adalah aplikasi web yang menjadikan proses Nlp tersedia dengan cara Pengguna-Perkhidmatan dengan Visualisasi responsif dan interaktif."]}, {"en": ["In order to do this, we adopt a Multi-Task learning approach.", "We train these two losses using a Multi-Task learning paradigm."], "ms": ["Untuk melakukan ini, kami menggunakan pendekatan pembelajaran Multi-Task.", "Kami melatih kedua-dua kerugian ini menggunakan paradigma pembelajaran Multi-Task."]}, {"en": ["Given a sentence pair and a corresponding word alignment, phrases are extracted following the criterion in och and Ney.", "Given a sentence pair and a corresponding Wordto-Word alignment, phrases are extracted following the criterion in."], "ms": ["Memandangkan pasangan ayat dan penjajaran perkataan yang sepadan, frasa diekstrak mengikut kriteria dalam och dan Ney.", "Memandangkan pasangan ayat dan penjajaran Wordto-Word yang sepadan, frasa diekstrak mengikut kriteria dalam."]}, {"en": ["We develop a novel smooth version of the Multi-Focus attention function, which Generalizes the single focus Softmax-Function.", "And, to implement it, we introduce a novel smooth version of the Multi-Focus attention function, which Generalizes Softmax."], "ms": ["Kami membangunkan versi halus novel fungsi perhatian Multi-Fokus, yang Menggeneralisasikan fokus tunggal Softmax-Function.", "Dan, untuk melaksanakannya, kami memperkenalkan versi halus novel fungsi perhatian Multi-Fokus, yang Menggeneralisasikan Softmax."]}, {"en": ["For more details see the overview paper by the organizers.", "For more details see the task description paper."], "ms": ["Untuk maklumat lanjut lihat kertas gambaran keseluruhan oleh penganjur.", "Untuk maklumat lanjut lihat kertas penerangan tugas."]}, {"en": ["Och developed a training procedure that incorporates various mt evaluation criteria in the training procedure of Log-Linear mt models.", "Och proposed to apply minimum error rate training to optimize the different feature weights in the Log-Linear model combination on a small development data set."], "ms": ["Och membangunkan prosedur latihan yang menggabungkan pelbagai kriteria penilaian mt dalam prosedur latihan model mt Log-Linear.", "Och dicadangkan untuk menggunakan latihan kadar ralat minimum untuk mengoptimumkan berat ciri yang berbeza dalam kombinasi model Log-Linear pada set data pembangunan kecil."]}, {"en": ["Boyd-Graber et al integrate a topic model with Wordnet and use it to carry out Disambiguation and learn topics simultaneously.", "Boyd-Graber et al integrate a model of random walks on the Wordnet graph into an Lda topic model to build an Unsupervised word sense Disambiguation system."], "ms": ["Boyd-Graber et al mengintegrasikan model topik dengan Wordnet dan menggunakannya untuk menjalankan Disambiguasi dan mempelajari topik secara serentak.", "Boyd-Graber et al mengintegrasikan model berjalan rawak pada grafik Wordnet ke dalam model topik Lda untuk membina sistem Disambiguasi deria perkataan yang tidak diawasi."]}, {"en": ["Non-Compositional Multiword expressions (Mwes) still pose serious issues for a variety of natural language processing (Nlp) tasks.", "Multiword expressions (Mwes) still pose serious issues for a variety of natural language processing tasks."], "ms": ["Ekspresi Multiword Non-Compositional (Mwes) masih menimbulkan isu serius untuk berbagai tugas pemprosesan bahasa alami (Nlp).", "Ungkapan berbilang perkataan (Mwes) masih menimbulkan isu serius untuk pelbagai tugas pemprosesan bahasa semula jadi."]}, {"en": ["The objective used in this paper follows the Pair-Wise Learning-To-Rank paradigm outlined in.", "The objective for web search used in this paper follows the Pair-Wise Learning-To-Rank paradigm outlined in."], "ms": ["Objektif yang digunakan dalam kertas ini mengikuti paradigma Pembelajaran Pair-Wise-To-Rank yang digariskan dalam.", "Objektif untuk carian web yang digunakan dalam kertas ini mengikuti paradigma Pembelajaran Pair-Wise-To-Rank yang digariskan dalam."]}, {"en": ["In addition, we improve the word alignment results by combining the results of the two Semi-Supervised boosting methods.", "In this paper, we propose a Semi-Supervised boosting method to improve statistical word alignment."], "ms": ["Di samping itu, kami meningkatkan hasil penjajaran perkataan dengan menggabungkan hasil dua kaedah penggalak Semi-Supervised.", "Dalam makalah ini, kami mencadangkan kaedah penggalak Semi-Supervised untuk meningkatkan penjajaran kata statistik."]}, {"en": ["For development and testing purposes, we use the Webclopedia question set by.", "As data for developing and testing our system for Why-Qa, we use the Webclopedia question set by."], "ms": ["Untuk tujuan pembangunan dan ujian, kami menggunakan soalan Webclopedia yang ditetapkan oleh.", "Sebagai data untuk membangunkan dan menguji sistem kami untuk Why-Qa, kami menggunakan soalan Webclopedia yang ditetapkan oleh."]}, {"en": ["It has been widely adopted in the generic summarization task.", "Such strategy has been adopted in some Multi-Document summarization methods."], "ms": ["Ia telah diterima pakai secara meluas dalam tugas ringkasan generik.", "Strategi sedemikian telah diterima pakai dalam beberapa kaedah ringkasan Multi-Dokumen."]}, {"en": ["The Insensitivity of BLEU and Nist to perfectly legitimate variation has been raised, among others, in, but the criticism is widespread.", "The Insensitivity of BLEU and Nist to perfectly legitimate syntactic and lexical variation has been raised, among others, in Callison-Burch et al, but the criticism is widespread."], "ms": ["Ketidaksensitifan BLEU dan Nist terhadap variasi yang sah telah dibangkitkan, antara lain, tetapi kritikan itu meluas.", "Ketidaksensitifan BLEU dan Nist kepada variasi sintaksis dan leksikal yang sah telah dibangkitkan, antara lain, dalam Callison-Burch et al, tetapi kritikan itu meluas."]}, {"en": ["Our main claim is that we utilize visual and Audio information to achieve robust topic identification.", "We utilize Multimodal features and Domain-Independent discourse features to achieve robust topic identification."], "ms": ["Tuntutan utama kami adalah bahawa kami menggunakan maklumat visual dan Audio untuk mencapai pengenalan topik yang mantap.", "Kami menggunakan ciri Multimodal dan ciri wacana Domain-Independent untuk mencapai pengenalan topik yang mantap."]}, {"en": ["In addition, we report the Bleu-4 scores that were computed on the word level.", "We report results in terms of Case-Insensitive 4-Gram BLEU scores."], "ms": ["Di samping itu, kami melaporkan skor Bleu-4 yang dikira pada tahap perkataan.", "Kami melaporkan hasil dari segi skor BLEU 4-Gram yang tidak sensitif."]}, {"en": ["Han and Baldwin use a Classifier to detect Illformed words, and then generate correction candidates based on morphophonemic similarity.", "Han and Baldwin begin with a set of string similarity Metrics, and then apply dependency Parsing to identify Contextuallysimilar words."], "ms": ["Han dan Baldwin menggunakan Classifier untuk mengesan perkataan Illformed, dan kemudian menghasilkan calon pembetulan berdasarkan persamaan morfofonik.", "Han dan Baldwin bermula dengan satu set metrik persamaan rentetan, dan kemudian menggunakan Parsing dependensi untuk mengenal pasti perkataan Contextuallysimilar."]}, {"en": ["To address the above-mentioned issues, we present Wikikreator \u2013 a system that can automatically generate content for Wikipedia stubs.", "In this work, we present Wikikreator, a system that is capable of generating content automatically."], "ms": ["Untuk menangani isu-isu yang disebutkan di atas, kami membentangkan Wikikreator sistem yang secara automatik boleh menjana kandungan untuk stub Wikipedia.", "Dalam kerja ini, kami membentangkan Wikikreator, sistem yang mampu menjana kandungan secara automatik."]}, {"en": ["We incorporate these learned word senses as translation evidences into maximum entropy classifiers which form the foundation of the proposed Sense-Based translation model.", "As the standard Wsd does, we incorporate word senses that are automatically learned from data into our Sense-Based translation model."], "ms": ["Kami menggabungkan deria perkataan yang dipelajari ini sebagai bukti terjemahan ke dalam pengelasan entropi maksimum yang membentuk asas model terjemahan berasaskan Sense yang dicadangkan.", "Seperti yang dilakukan oleh Wsd standard, kami menggabungkan deria perkataan yang dipelajari secara automatik dari data ke dalam model terjemahan berasaskan Sense kami."]}, {"en": ["We constructed a type signature for the Xtag English grammar, an existing Broad-Coverage grammar of English.", "We apply our system to the latest version of the Xtag English grammar, which is a large-scale Fb-Ltag grammar."], "ms": ["Kami membina tandatangan jenis untuk tatabahasa Bahasa Inggeris Xtag, tatabahasa Bahasa Inggeris Broad-Coverage yang ada.", "Kami menggunakan sistem kami untuk versi terkini tatabahasa Bahasa Inggeris Xtag, yang merupakan tatabahasa Fb-Ltag berskala besar."]}, {"en": ["We then present Svm-Based classifiers which use two sets of features: N-Gram and stylistic features.", "We then present Svm-Based classifiers that use N-Gram and stylistic features."], "ms": ["Kami kemudian membentangkan pengelas Svm-Based yang menggunakan dua set ciri: ciri N-Gram dan gaya.", "Kami kemudian membentangkan pengelas Svm-Based yang menggunakan ciri-ciri N-Gram dan gaya."]}, {"en": ["In this paper, we explore a flexible application of dependency paths that overcomes this difficulty.", "In this paper, we introduce a flexible notion of paths that describe chains of words."], "ms": ["Dalam makalah ini, kami meneroka aplikasi fleksibel laluan kebergantungan yang mengatasi kesukaran ini.", "Dalam kertas ini, kami memperkenalkan tanggapan fleksibel laluan yang menggambarkan rantai perkataan."]}, {"en": ["Unlike Grconv and Adasent, our model uses full Binary tree as the Topological structure.", "Grnn uses full Binary tree as the recursive Topological structure."], "ms": ["Tidak seperti Grconv dan Adasent, model kami menggunakan pokok Binari penuh sebagai struktur Topologi.", "Grnn menggunakan pokok Binari penuh sebagai struktur Topologi rekursif."]}, {"en": ["This new approach, without the need of using constrained Re-Decoding as a middle step, provides a direct means to learn the knowledge in the partial labels.", "That use the Errorful Re-Decoded labels, Partial-Label learning provides a direct means to learn the Encoded knowledge."], "ms": ["Pendekatan baru ini, tanpa perlu menggunakan Re-Decoding yang terhad sebagai langkah tengah, menyediakan cara langsung untuk mempelajari pengetahuan dalam label separa.", "Yang menggunakan label Re-Decoded yang Ralat, pembelajaran Separa-Label menyediakan cara langsung untuk mempelajari pengetahuan yang Dikodkan."]}, {"en": ["Developments of this approach have been proposed that improve on cluster quality and Retrieval performance.", "Developments of this approach have been proposed which improve on cluster quality and Retrieval performance."], "ms": ["Perkembangan pendekatan ini telah dicadangkan yang meningkatkan kualiti kluster dan prestasi pengambilan.", "Pembangunan pendekatan ini telah dicadangkan yang meningkatkan kualiti kluster dan prestasi pengambilan."]}, {"en": ["For this, an effective approach is to automatically select and expand Domain-Specific sentence pairs from large scale General-Domain parallel corpus.", "For data selection, we observe that our methods are able to select high-quality Domain-Relevant sentence pairs and improve the translation."], "ms": ["Untuk ini, pendekatan yang berkesan adalah untuk memilih dan mengembangkan pasangan ayat Domain-Specific secara automatik dari korpus selari General-Domain berskala besar.", "Untuk pemilihan data, kami memerhatikan bahawa kaedah kami dapat memilih pasangan ayat Domain-Relevan berkualiti tinggi dan meningkatkan terjemahan."]}, {"en": ["Xiong et al extend the Treelet approach to allow dependency fragments with gaps.", "Xiong et al extend this approach by allowing gaps in rules."], "ms": ["Xiong et al memanjangkan pendekatan Treelet untuk membenarkan serpihan dependensi dengan jurang.", "Xiong et al memanjangkan pendekatan ini dengan membenarkan jurang dalam peraturan."]}, {"en": ["The method does not require labeling sentences with logical forms.", "That does not require labeling statements with logical forms."], "ms": ["Kaedah ini tidak memerlukan pelabelan ayat dengan bentuk logik.", "Ini tidak memerlukan pelabelan pernyataan dengan bentuk logik."]}, {"en": ["Hank and church pointed out the usefulness of mutual information for identifying Monolingual Collocations in Lexicography.", "Hank and church pointed out the usefulness of Pointwise mutual information for identifying Collocations in Lexicography."], "ms": ["Hank dan gereja menunjukkan kegunaan maklumat bersama untuk mengenal pasti Monolingual Collocations dalam Lexicography.", "Hank dan gereja menunjukkan kegunaan maklumat bersama Pointwise untuk mengenal pasti Collocations dalam Lexicography."]}, {"en": ["In this paper, we carefully examine how well the Rouge scores correlate with human evaluation for Extractive meeting summarization.", "We investigate the correlation between Rouge and human evaluation of Extractive meeting summaries."], "ms": ["Dalam kertas kerja ini, kami mengkaji dengan teliti bagaimana skor Rouge dikaitkan dengan penilaian manusia untuk ringkasan mesyuarat Extractive.", "Kami menyiasat korelasi antara penilaian Rouge dan manusia ringkasan mesyuarat Ekstratra."]}, {"en": ["If arbitrary Word-Reorderings are permitted, the search problem is Np-Hard.", "If arbitrary Word-Reorderings are allowed, the search problem is Np-Hard."], "ms": ["Sekiranya pesanan semula perkataan sewenang-wenang dibenarkan, masalah carian adalah Np-Hard.", "Sekiranya pesanan Word-Reordering sewenang-wenang dibenarkan, masalah carian adalah Np-Hard."]}, {"en": ["To evaluate the performance of our model, we conducted our experiments on Stanford natural language inference corpus.", "We conduct experiments using Stanford natural language inference corpus, one of the most famous Dataset for the Nli task."], "ms": ["Untuk menilai prestasi model kami, kami menjalankan eksperimen kami pada korpus kesimpulan bahasa semula jadi Stanford.", "Kami menjalankan eksperimen menggunakan korpus kesimpulan bahasa semula jadi Stanford, salah satu Dataset yang paling terkenal untuk tugas Nli."]}, {"en": ["Mohammad and Hirst show that their approach performs better than other strictly Corpusbased approaches that they experimented with.", "Mohammad and Hirst showed that these Distributional Word-Distance measures perform poorly when compared with Wordnet-Based Concept-Distance measures."], "ms": ["Mohammad dan Hirst menunjukkan bahawa pendekatan mereka berfungsi lebih baik daripada pendekatan lain yang ketat Corpusbased yang mereka bereksperimen.", "Mohammad dan Hirst menunjukkan bahawa langkah-langkah Distributional Word-Distance ini menunjukkan prestasi yang buruk jika dibandingkan dengan langkah-langkah Konsep-Jarak Berasaskan Wordnet."]}, {"en": ["The models admit a rich set of linguistic features, and are trained to learn feature weights automatically by optimizing a regression objective.", "Models can easily incorporate a rich set of linguistic features, and automatically learn their weights, eliminating the need for ad-hoc parameter tuning."], "ms": ["Model-model ini mengakui satu set ciri-ciri linguistik yang kaya, dan dilatih untuk mempelajari berat ciri secara automatik dengan mengoptimumkan objektif regresi.", "Model dengan mudah boleh menggabungkan satu set ciri linguistik yang kaya, dan secara automatik mempelajari berat mereka, menghapuskan keperluan untuk penalaan parameter ad-hoc."]}, {"en": ["Two attempts to overcome this withdraw are presented in Nerbonne and Nerbonne.", "Two attempts to overcome this drawback are presented in Nerbonne and Nerbonne."], "ms": ["Dua percubaan untuk mengatasi penarikan ini dibentangkan di Nerbonne dan Nerbonne.", "Dua percubaan untuk mengatasi kelemahan ini dibentangkan di Nerbonne dan Nerbonne."]}, {"en": ["Our Unidirectional-Rm sets a new state of the art for the sentence completion challenge with 69.2% accuracy.", "On the sentence completion challenge (Cite-P-17-5-5), our model achieves an impressive 69 . 2% accuracy, surpassing the previous state of the art."], "ms": ["Unidirectional-Rm kami menetapkan keadaan baru seni untuk cabaran penyelesaian ayat dengan ketepatan 69.2%.", "Pada cabaran penyelesaian ayat (Cite-P-17-5-5), model kami mencapai ketepatan 69.2% yang mengagumkan, melebihi keadaan seni sebelumnya."]}, {"en": ["We apply a state-of-the-art Language-Independent entity Linker to link each Transliteration hypothesis to an English KB.", "We apply a state-of-the-art Language-Independent Cross-Lingual entity linking approach to link names from Chinese to an English KB."], "ms": ["Kami menggunakan Linker entiti Bahasa-Independent yang canggih untuk menghubungkan setiap hipotesis Transliterasi ke KB Bahasa Inggeris.", "Kami menggunakan entiti Cross-Lingual Bahasa Bebas yang canggih yang menghubungkan pendekatan untuk menghubungkan nama dari bahasa Cina ke bahasa Inggeris KB."]}, {"en": ["As a refinement (Relabeling) model, it achieves the best Las on 5 out of 7 Datasets.", "As a refinement (Relabeling) model, it achieves the best Las."], "ms": ["Sebagai model penapisan (Relabeling), ia mencapai Las terbaik pada 5 daripada 7 Dataset.", "Sebagai model penyempurnaan (Relabeling), ia mencapai Las terbaik."]}, {"en": ["The Corpus has been converted into an Xml format conforming to TEI standards.", "This corpus has been converted into an Xml format conforming to the standards of the text Encoding initiative."], "ms": ["Corpus telah ditukar kepada format Xml yang mematuhi piawaian TEI.", "Korpus ini telah ditukar kepada format Xml yang mematuhi piawaian inisiatif pengekodan teks."]}, {"en": ["We deployed these models using classifiers in the Nltk python package.", "We then used the python Nltk Toolkit to Tokenise the words."], "ms": ["Kami menggunakan model ini menggunakan pengelas dalam pakej python Nltk.", "Kemudian kami menggunakan python Nltk Toolkit untuk Tokenise perkataan."]}, {"en": ["In this paper, we have presented Litner, an NER system targeted specifically at fiction.", "In this paper, we show that it is possible to take advantage of the properties of fiction."], "ms": ["Dalam makalah ini, kami telah membentangkan Litner, sistem NER yang disasarkan khusus pada fiksyen.", "Dalam kertas ini, kami menunjukkan bahawa adalah mungkin untuk mengambil kesempatan daripada sifat fiksyen."]}, {"en": ["For Twitter, we obtain a median error of 479 km and mean error of 967 km.", "For the Twitter data set, we obtain a median error of 479 km, which improves on the 494 km error."], "ms": ["Untuk Twitter, kami mendapat ralat median 479 km dan ralat min 967 km.", "Untuk set data Twitter, kami mendapat ralat median 479 km, yang meningkatkan kesilapan 494 km."]}, {"en": ["Different filters of the same 3 \u00a1\u00c1 3 shape are operated over the input matrix to output feature map Tensors.", "Where multiple filters are operated on the matrix to generate different feature maps."], "ms": ["Penapis yang berbeza dari bentuk 3 3 yang sama dikendalikan melalui matriks input ke peta ciri output Tensors.", "Di mana pelbagai penapis dikendalikan pada matriks untuk menghasilkan peta ciri yang berbeza."]}, {"en": ["We use support vector machines, a Maximum-Margin Classifier that realizes a linear Discriminative model.", "We use SVM light to learn a Linear-Kernel Classifier on Pairwise examples in the training set."], "ms": ["Kami menggunakan mesin vektor sokongan, Klasifikasi Maksimum-Margin yang merealisasikan model Diskriminatif linear.", "Kami menggunakan cahaya SVM untuk mempelajari Classifier Linear-Kernel pada contoh Pairwise dalam set latihan."]}, {"en": ["Given no linguistic resources between the source language and the target language, transfer learning methods can be utilized instead.", "Transfer learning usually requires linguistic knowledge and resources about the relation between the source language and the target language."], "ms": ["Memandangkan tiada sumber linguistik antara bahasa sumber dan bahasa sasaran, kaedah pembelajaran pemindahan boleh digunakan sebagai gantinya.", "Pemindahan pembelajaran biasanya memerlukan pengetahuan linguistik dan sumber mengenai hubungan antara bahasa sumber dan bahasa sasaran."]}, {"en": ["For example, resources such as Word-Net may be used to aid in the classification of geo-political entities.", "For example, these networks could help automate the construction of a Hypernym Taxonomy with weighted branches, potentially augmenting resources like Wordnet."], "ms": ["Sebagai contoh, sumber seperti Word-Net boleh digunakan untuk membantu dalam pengelasan entiti geo-politik.", "Sebagai contoh, rangkaian ini dapat membantu mengautomasikan pembinaan Taksonomi Hypernym dengan cawangan berwajaran, berpotensi menambah sumber seperti Wordnet."]}, {"en": ["Sugiyama et al extract features from the sentences based on the verbs and nouns in the sentences such as the verbal forms, and the part of speech tags of the 20 words surrounding the verb.", "Sugiyama et al extract various features from the sentences based on the verbs and nouns in the sentences such as the verbal forms, and the Part-Of-Speech tags of the 20 words surrounding the verb."], "ms": ["Sugiyama et al mengekstrak ciri-ciri dari ayat berdasarkan kata kerja dan kata nama dalam ayat seperti bentuk lisan, dan bahagian tag ucapan 20 perkataan yang mengelilingi kata kerja.", "Sugiyama et al mengekstrak pelbagai ciri dari ayat berdasarkan kata kerja dan kata nama dalam ayat seperti bentuk lisan, dan tag Bahagian-Daripada-Pertuturan 20 perkataan yang mengelilingi kata kerja."]}, {"en": ["In this paper, we focus on translating into Mrls and issues associated with word formation on the target side.", "In this paper, we focus on translating into Mrls and issues associated with word formation."], "ms": ["Dalam makalah ini, kami memberi tumpuan kepada menerjemahkan ke Mrls dan isu-isu yang berkaitan dengan pembentukan perkataan di sisi sasaran.", "Dalam makalah ini, kami memberi tumpuan kepada menerjemahkan ke Mrls dan isu-isu yang berkaitan dengan pembentukan perkataan."]}, {"en": ["Document level sentiment classification remains a challenge: Encoding the intrinsic relations between sentences in the semantic meaning of a document.", "Sentiment classification remains a significant challenge: how to Encode the intrinsic (semantic or syntactic) relations between sentences in the semantic meaning of document."], "ms": ["Klasifikasi sentimen tahap dokumen kekal sebagai cabaran: Mengenal pasti hubungan intrinsik antara ayat dalam makna semantik dokumen.", "Klasifikasi sentimen kekal sebagai cabaran penting: bagaimana untuk Mengenal pasti hubungan intrinsik (semantik atau sintaktik) antara ayat dalam makna semantik dokumen."]}, {"en": ["In this study, we analyzed the relationship between an individual \u2019 s traits and His/Her aspect framing decisions.", "In this study, we analyzed the relationship between an individual \u2019 s traits and his / her aspect."], "ms": ["Dalam kajian ini, kami menganalisis hubungan antara sifat individu dan keputusan pembingkaian aspeknya.", "Dalam kajian ini, kami menganalisis hubungan antara sifat individu dan aspeknya."]}, {"en": ["This paper presents an approach to Incrementally generating Locative expressions.", "In this paper, we present a computational approach to the generation of spatial Locative expressions."], "ms": ["Kertas ini membentangkan pendekatan untuk menghasilkan ungkapan Locative secara Incrementally.", "Dalam makalah ini, kami membentangkan pendekatan pengiraan untuk penjanaan ungkapan spatial."]}, {"en": ["In the decoding stage, the best first strategy is used to predict bridging links.", "In the decoding stage, the best first strategy is used to predict the bridging links."], "ms": ["Dalam peringkat penyahkodan, strategi pertama terbaik digunakan untuk meramalkan pautan penghubung.", "Dalam peringkat penyahkodan, strategi pertama terbaik digunakan untuk meramalkan pautan penghubung."]}, {"en": ["Images are ranked using a Graph-Based method that makes use of both textual and visual information.", "Image is selected using a Graph-Based method that makes use of both textual and visual information."], "ms": ["Imej disenaraikan menggunakan kaedah Berasaskan Grafik yang menggunakan kedua-dua maklumat teks dan visual.", "Imej dipilih menggunakan kaedah Berasaskan Grafik yang menggunakan kedua-dua maklumat teks dan visual."]}, {"en": ["We create Mwes with Word2Vec Skipgram 1 and estimate W with Scikit-Learn.", "We train Distributional similarity models with Word2Vec for the source and target side separately."], "ms": ["Kami mencipta Mwes dengan Skipgram 1 Word2Vec dan menganggarkan W dengan Scikit-Learn.", "Kami melatih model persamaan Distributional dengan Word2Vec untuk sisi sumber dan sasaran secara berasingan."]}, {"en": ["It is nowadays common practice to optimize the coefficients of the Log-Linear combination of feature functions by maximizing the BLEU score on the development data.", "A common criterion to optimize the coefficients of the Log-Linear combination of feature functions is to maximize the BLEU score on a development set."], "ms": ["Pada masa kini amalan biasa untuk mengoptimumkan pekali gabungan Log-Linear fungsi ciri dengan memaksimumkan skor BLEU pada data pembangunan.", "Kriteria umum untuk mengoptimumkan pekali gabungan fungsi ciri Log-Linear adalah untuk memaksimumkan skor BLEU pada set pembangunan."]}, {"en": ["The Syntax-Augmented translation model of Zollmann and Venugopal Annotates Nonterminals in Hierarchical rules with thousands of extended syntactic categories in order to capture the syntactic variations of phrase pairs.", "The syntactically augmented translation model proposed by Zollmann and Venugopal uses syntactic categories extracted from Target-Side Parse trees to augment Nonterminals in Hierarchical rules."], "ms": ["Model terjemahan Syntax-Augmented Zollmann dan Venugopal Annotates Nonterminals dalam peraturan Hierarki dengan beribu-ribu kategori sintaktik yang dilanjutkan untuk menangkap variasi sintaktik pasangan frasa.", "Model terjemahan yang ditambah secara sintaks yang dicadangkan oleh Zollmann dan Venugopal menggunakan kategori sintaktik yang diekstrak daripada pokok Target-Side Parse untuk menambah Nonterminal dalam peraturan Hierarki."]}, {"en": ["We Tokenize the English sentences and perform Truecasing with the Moses scripts.", "We Tokenize the sentences and perform Truecasing with the Moses scripts."], "ms": ["Kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita s", "Kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita suruh kita s"]}, {"en": ["In this paper, we focus on the application of machine translation via neural Sequenceto-Sequence learning.", "In this paper, we showed how to lift structured prediction under bandit feedback from linear models to non-linear Sequenceto-Sequence learning."], "ms": ["Dalam makalah ini, kami memberi tumpuan kepada penggunaan terjemahan mesin melalui pembelajaran neural Sequenceto-Sequence.", "Dalam makalah ini, kami menunjukkan cara mengangkat ramalan berstruktur di bawah maklum balas penyamun dari model linear ke pembelajaran Sequenceto-Sequence bukan linear."]}, {"en": ["This produces multiple paths between terms, allowing sash to shape itself to the data set.", "This produces multiple paths between nodes, allowing the sash to shape itself to the data set."], "ms": ["Ini menghasilkan pelbagai laluan antara istilah, yang membolehkan sash membentuk dirinya ke set data.", "Ini menghasilkan pelbagai laluan antara nod, yang membolehkan sash membentuk dirinya ke set data."]}, {"en": ["Our approach is based on the classic Bag-Of-Words model in conjunction with word Embeddings.", "Our method is based on the Bag-Of-Words model in conjunction with word Embeddings."], "ms": ["Pendekatan kami adalah berdasarkan model Bag-Of-Words klasik bersempena dengan Embeddings perkataan.", "Kaedah kami adalah berdasarkan model Bag-Of-Words bersempena dengan Embeddings perkataan."]}, {"en": ["Wang et al used a single translation model and generalized a Single-Domain Decoder to deal with different domains.", "Wang et al show how to detect a known domain at test time in order to Configure a generic translation system with Domain-Specific feature weights."], "ms": ["Wang et al menggunakan model terjemahan tunggal dan menggeneralisasikan Dekoder Satu Domain untuk menangani domain yang berbeza.", "Wang et al menunjukkan cara mengesan domain yang diketahui pada masa ujian untuk mengkonfigurasi sistem terjemahan generik dengan berat ciri Domain-Specific."]}, {"en": ["Krulwich and Burkey use Heuristics based on syntactic clues to extract Keyphrases from a document.", "Krulwich and Burkey use Heuristics to extract Keyphrases from a document."], "ms": ["Krulwich dan Burkey menggunakan Heuristik berdasarkan petunjuk sintaktik untuk mengekstrak Keyphrases dari dokumen.", "Krulwich dan Burkey menggunakan Heuristik untuk mengekstrak Keyphrases dari dokumen."]}, {"en": ["The current paper describes a new method for query selection and its applications in LM Augmentation and adaptation using web data.", "In this paper, we present an efficient query selection algorithm for the Retrieval of web text data."], "ms": ["Kertas semasa menerangkan kaedah baru untuk pemilihan pertanyaan dan aplikasinya dalam LM Augmentation dan penyesuaian menggunakan data web.", "Dalam makalah ini, kami membentangkan algoritma pemilihan pertanyaan yang cekap untuk pengambilan data teks web."]}, {"en": ["Zeng et al exploit a Convolutional neural network to extract lexical and sentence level features for relation classification.", "Zeng et al proposed a deep Convolutional neural network with Softmax classification, extracting lexical and sentence level features."], "ms": ["Zeng et al mengeksploitasi rangkaian saraf Konvolutional untuk mengekstrak ciri-ciri tahap leksikal dan ayat untuk pengelasan hubungan.", "Zeng et al mencadangkan rangkaian neural Konvolutional yang mendalam dengan pengelasan Softmax, mengekstrak ciri-ciri tahap leksikal dan ayat."]}, {"en": ["Resnik measures the similarity between two concepts by finding the IC of the Lcs of the two concepts.", "Resnik measures the similarity of two concepts by calculating the information content of their least common Subsumer."], "ms": ["Resnik mengukur persamaan antara dua konsep dengan mencari IC Lcs kedua konsep tersebut.", "Resnik mengukur persamaan dua konsep dengan mengira kandungan maklumat Subsumer mereka yang paling tidak biasa."]}, {"en": ["We will explore the effectiveness of Sememe information for Wrl in other languages.", "We conduct extensive experiments and verify the effectiveness of incorporating word Sememes for improved Wrl."], "ms": ["Kami akan meneroka keberkesanan maklumat Sememe untuk Wrl dalam bahasa lain.", "Kami menjalankan eksperimen yang luas dan mengesahkan keberkesanan menggabungkan perkataan Sememes untuk Wrl yang lebih baik."]}, {"en": ["Socher et al assign a vector and a matrix to each word for the purpose of semantic composition, and build recursive neural network along constituency tree.", "Socher et al propose Matrix-Vector recursive neural network, where instead of using only vectors for words, an additional matrix for each word is used to capture operator Semantics in language."], "ms": ["Socher et al menetapkan vektor dan matriks pada setiap perkataan untuk tujuan komposisi semantik, dan membina rangkaian saraf rekursif di sepanjang pokok konstituen.", "Socher et al mencadangkan rangkaian neural rekursif Matrix-Vector, di mana bukannya hanya menggunakan vektor untuk perkataan, matriks tambahan untuk setiap perkataan digunakan untuk menangkap pengendali Semantik dalam bahasa."]}, {"en": ["These Embeddings were used together with Pretrained glove and Fasttext Embeddings.", "They employ a Lstm model based on the Pretrained glove word Embeddings from Stanford-Nlp group."], "ms": ["Embeddings ini digunakan bersama sarung tangan Pretrained dan Embeddings Fasttext.", "Mereka menggunakan model Lstm berdasarkan perkataan sarung tangan Pretrained Embeddings dari kumpulan Stanford-Nlp."]}, {"en": ["Hindle and Rooth mention the interaction between the structural and the semantic factors in the Disambiguation of a Pp, indicating that verb complements are the most difficult.", "Hindle and Rooth mention the interaction between the structural and the semantic factors in the Disambiguation of a Pp, indicating that verb adjuncts are the most difficult."], "ms": ["Hindle dan Rooth menyebut interaksi antara faktor struktur dan semantik dalam Penyahsulitan Pp, menunjukkan bahawa pelengkap kata kerja adalah yang paling sukar.", "Hindle dan Rooth menyebut interaksi antara faktor struktur dan semantik dalam Penyahsulitan Pp, menunjukkan bahawa kata kerja adjungsi adalah yang paling sukar."]}, {"en": ["Phelan et al , 2011) used Tweets to recommend news articles based on user preferences.", "Phelan et al used Tweets to recommend news articles based on user preferences."], "ms": ["Phelan et al, 2011) menggunakan Tweets untuk mengesyorkan artikel berita berdasarkan keutamaan pengguna.", "Phelan et al menggunakan Tweets untuk mengesyorkan artikel berita berdasarkan keutamaan pengguna."]}, {"en": ["The opinion words (Oword) and their semantic orientations (Otype) are identified.", "The semantic orientation of the opinion expression is identified."], "ms": ["Kata-kata pendapat (Oword) dan orientasi semantik mereka (Otype) dikenal pasti.", "Orientasi semantik ungkapan pendapat dikenal pasti."]}, {"en": ["Similar to earlier work, we set this problem as a variant of the textual Entailment recognition task.", "In this paper we set such problem as an Application-Oriented, Crosslingual variant of the textual Entailment recognition task."], "ms": ["Sama seperti kerja terdahulu, kami menetapkan masalah ini sebagai varian tugas pengecaman Entailment teks.", "Dalam makalah ini kami menetapkan masalah seperti varian Crosslingual yang berorientasikan aplikasi tugas pengecaman Entailment tekstual."]}, {"en": ["In future work, we plan to explore more fully the Semantics of modification, and to pursue the addition of a type system to the logic to treat Quantifiers analogously to Cite-P-9-4-3, Cite-P-9-4-4.", "In future work, we plan to explore more fully the Semantics of modification, and to pursue the addition of a type system to the logic."], "ms": ["Dalam kerja masa depan, kami merancang untuk meneroka sepenuhnya Semantik pengubahsuaian, dan meneruskan penambahan sistem jenis kepada logik untuk merawat Kuantitifiers secara analog kepada Cite-P-9-4-3, Cite-P-9-4-4.", "Dalam kerja masa depan, kami merancang untuk meneroka dengan lebih lengkap Semantik pengubahsuaian, dan untuk meneruskan penambahan sistem jenis kepada logik."]}, {"en": ["Following previous work, we use generalized average precision to compare the ranking predicted by our model with the gold standard.", "Following prior work, we use gap score for evaluation in the Subtask, which is a variant of map."], "ms": ["Berikutan kerja sebelumnya, kami menggunakan ketepatan purata umum untuk membandingkan kedudukan yang diramalkan oleh model kami dengan standard emas.", "Berikutan kerja sebelumnya, kami menggunakan skor jurang untuk penilaian dalam Subtugas, yang merupakan varian peta."]}, {"en": ["Conditional random fields are conditional models in the exponential family.", "Conditional random fields are a probabilistic framework for labeling structured data and model P \u4f4d."], "ms": ["Medan rawak bersyarat adalah model bersyarat dalam keluarga eksponen.", "Medan rawak bersyarat adalah rangka kerja probabilistik untuk melabel data berstruktur dan model P."]}, {"en": ["Cite-P-19-3-19, Cite-P-19-3-20 showed through similar analyses of emotion words that the three primary independent dimensions of emotions are Valence or pleasure (Positiveness\u00a8C Negativeness/Pleasure\u00a8Cdispleasure), arousal (Active\u00a8Cpassive), and dominance (Dominant\u00a8C submissive).", "Studies have shown that the three most important, largely independent, dimensions of word meaning are Valence (Positiveness \u00a8C Negativeness / pleasure \u00a8C displeasure), arousal (active \u00a8C passive), and dominance (dominant \u00a8C submissive) (Cite-P-19-3-15, Cite-P-19-3-19, Cite-P-19-3-20)."], "ms": ["Cite-P-19-3-19, Cite-P-19-3-20 menunjukkan melalui analisis yang sama kata-kata emosi bahawa tiga dimensi emosi bebas utama adalah Keberkesanan atau keseronokan (Positiveness C Negativeness / Pleasure Cdispleasure), gairah (Active Cpassive), dan dominasi (Dominant C submissive).", "Kajian telah menunjukkan bahawa tiga dimensi makna perkataan yang paling penting, sebahagian besarnya bebas, adalah Keberkesanan (Positiveness C Negativeness / pleasure C tidak menyenangkan), gairah (aktif C pasif), dan dominasi (dominan C submissive) (Cite-P-19-3-15, Cite-P-19-3-19, Cite-P-19-3-20)."]}, {"en": ["We introduce a symmetric pattern based approach to word representation which is particularly suitable for capturing word similarity.", "In modeling word similarity, we propose an alternative, Pattern-Based, approach to word representation."], "ms": ["Kami memperkenalkan pendekatan berasaskan corak simetri untuk perwakilan perkataan yang sangat sesuai untuk menangkap persamaan perkataan.", "Dalam pemodelan persamaan perkataan, kami mencadangkan pendekatan alternatif, Berasaskan Pola, untuk perwakilan perkataan."]}, {"en": ["On the other hand, our proposed method learns a single representation for a particular word for each domain in which it occurs.", "We propose a method that learns separate distributed representations for each domain in which a word occurs."], "ms": ["Sebaliknya, kaedah yang dicadangkan kami mempelajari perwakilan tunggal untuk perkataan tertentu untuk setiap domain di mana ia berlaku.", "Kami mencadangkan kaedah yang mempelajari perwakilan diedarkan yang berasingan untuk setiap domain di mana perkataan berlaku."]}, {"en": ["Araki et al , 2014) evaluated their model using Blanc evaluation metric whereas evaluated their model using the standard f 1 evaluation metric.", "Araki et al evaluated their model using Blanc evaluation metric whereas Glava\u62e7 And\u8269Najder evaluated their model using the standard f 1 evaluation metric."], "ms": ["Araki et al, 2014) menilai model mereka menggunakan metrik penilaian Blanc sedangkan menilai model mereka menggunakan metrik penilaian f 1 standard.", "Araki et al menilai model mereka menggunakan metrik penilaian Blanc manakala Glava AndNajder menilai model mereka menggunakan metrik penilaian f 1 standard."]}, {"en": ["In this article, we propose an approach to temporal information extraction that identifies a single connected Timeline for a text.", "In this article, we have presented an approach to temporal information extraction that represents the Timeline of a story."], "ms": ["Dalam artikel ini, kami mencadangkan pendekatan untuk pengekstrakan maklumat temporal yang mengenal pasti Garis Masa yang disambungkan tunggal untuk teks.", "Dalam artikel ini, kami telah membentangkan pendekatan untuk pengekstrakan maklumat temporal yang mewakili Garis Masa cerita."]}, {"en": ["Chen et al show that N-Gram model Outperforms a popular Feed-Forward language model on a one billion word benchmark.", "Bengio et al propose a Feedforward neural network to train a Word-Level language model with a limited N-Gram history."], "ms": ["Chen et al menunjukkan bahawa model N-Gram Melaksanakan model bahasa Feed-Forward yang popular pada penanda aras satu bilion perkataan.", "Bengio et al mencadangkan rangkaian neural Feedforward untuk melatih model bahasa Word-Level dengan sejarah N-Gram yang terhad."]}, {"en": ["We show that this Unsupervised system has better core performance than other learning approaches that do not use manually labeled data.", "Performance of the Unsupervised Self-Trained approach is better than the performance of other Unsupervised learning systems."], "ms": ["Kami menunjukkan bahawa sistem Unsupervised ini mempunyai prestasi teras yang lebih baik daripada pendekatan pembelajaran lain yang tidak menggunakan data berlabel secara manual.", "Prestasi pendekatan Latihan Sendiri Tidak Diselia adalah lebih baik daripada prestasi sistem pembelajaran Tidak Diselia yang lain."]}, {"en": ["Here we call a sequence of words which have lexical cohesion relation with each other a Lezical chain like.", "We call a sequence of words which are in Lexieal cohesion relation with each other a Icxical chain like."], "ms": ["Di sini kita memanggil urutan perkataan yang mempunyai hubungan kohesi leksikal antara satu sama lain seperti rantai Lezical.", "Kami memanggil urutan perkataan yang dalam hubungan kohesi Lexieal antara satu sama lain sebagai rantai Icxical seperti."]}, {"en": ["To evaluate coherence, we did not use the Rouge metric because from a manual analysis found that the ordering of content within the summaries is an aspect which is not evaluated by Rouge.", "To test the linguistic qualities, we did not use an automatic evaluation because found that the ordering of content within the summaries is an aspect which is not evaluated by Rouge."], "ms": ["Untuk menilai koheren, kami tidak menggunakan metrik Rouge kerana dari analisis manual mendapati bahawa pesanan kandungan dalam ringkasan adalah aspek yang tidak dinilai oleh Rouge.", "Untuk menguji kualiti linguistik, kami tidak menggunakan penilaian automatik kerana mendapati bahawa pesanan kandungan dalam ringkasan adalah aspek yang tidak dinilai oleh Rouge."]}, {"en": ["Our method handles noisy representation of questions in a source language to retrieve answers across target languages.", "We present a Cross-Language FAQ Retrieval system that handles the inherent noise in source language to retrieve Faqs in a target language."], "ms": ["Kaedah kami mengendalikan perwakilan soalan yang bising dalam bahasa sumber untuk mendapatkan jawapan merentasi bahasa sasaran.", "Kami membentangkan sistem Retrieval FAQ Cross-Language yang menangani bunyi yang wujud dalam bahasa sumber untuk mengambil Faq dalam bahasa sasaran."]}, {"en": ["In all the experiments described in this paper we use snow as the learning environment, with winnow as the update rule.", "In all the experiments described in this article we use snow as the learning environment, with winnow as the update rule."], "ms": ["Dalam semua eksperimen yang dijelaskan dalam kertas ini, kami menggunakan salji sebagai persekitaran pembelajaran, dengan winnow sebagai peraturan kemas kini.", "Dalam semua eksperimen yang dijelaskan dalam artikel ini, kami menggunakan salji sebagai persekitaran pembelajaran, dengan winnow sebagai peraturan kemas kini."]}, {"en": ["Compound splitting is a well defined computational linguistics task.", "While compound splitting is a Well-Studied task, compound merging has not received as much attention in the past."], "ms": ["Pemisahan kompaun adalah tugas linguistik komputasi yang ditakrifkan dengan baik.", "Walaupun pembahagian kompaun adalah tugas yang dikaji dengan baik, penggabungan kompaun tidak mendapat perhatian yang banyak pada masa lalu."]}, {"en": ["As we will show later, recall is well below 50% for all named entity types on the new test sets.", "As we will show later, recall is well below 50% for all named entity types."], "ms": ["Seperti yang akan kami tunjukkan kemudian, penarikan balik jauh di bawah 50% untuk semua jenis entiti yang dinamakan pada set ujian baru.", "Seperti yang akan kami tunjukkan kemudian, penarikan balik jauh di bawah 50% untuk semua jenis entiti yang dinamakan."]}, {"en": ["To test our Crf implementation, following sha and Pereira, we performed an NP Chunking task using the Conll-2000 text Chunking task data.", "To this end, we Replicated the Np-Chunker described in sha and Pereira and trained it as either an Np-Chunker or with the Tagset extended to classify all 11 phrase types included in the Conll-2000 task."], "ms": ["Untuk menguji pelaksanaan Crf kami, berikutan sha dan Pereira, kami melakukan tugas Chunking NP menggunakan data tugas Chunking teks Conll-2000.", "Untuk tujuan ini, kami Mengulangi Np-Chunker yang dijelaskan dalam sha dan Pereira dan melatihnya sebagai Np-Chunker atau dengan Tagset dilanjutkan untuk mengklasifikasikan semua 11 jenis frasa yang termasuk dalam tugas Conll-2000."]}, {"en": ["Greedy-Loglin closely resembles the learning model of Lapata, except that it is a Discriminative Log-Linear model, rather of a Generative Markovian model.", "Greedy-Loglin closely resembles the learning model of Lapata, as both are Firstorder Markovian and use the same inference procedure."], "ms": ["Greedy-Loglin hampir menyerupai model pembelajaran Lapata, kecuali bahawa ia adalah model Log-Linear Diskriminatif, dan bukannya model Markovian Generatif.", "Greedy-Loglin hampir menyerupai model pembelajaran Lapata, kerana kedua-duanya adalah Markovian Firstorder dan menggunakan prosedur kesimpulan yang sama."]}, {"en": ["The SVM is based on Discriminative approach and makes use of both positive and negative examples to learn the distinction between the two classes.", "The support vector machine based machine learning approach works on Discriminative approach and makes use of both positive and negative examples to learn the distinction between the two classes."], "ms": ["SVM adalah berdasarkan pendekatan Diskriminatif dan menggunakan kedua-dua contoh positif dan negatif untuk mempelajari perbezaan antara kedua-dua kelas.", "Pendekatan pembelajaran mesin berasaskan mesin vektor sokongan berfungsi pada pendekatan Diskriminatif dan menggunakan kedua-dua contoh positif dan negatif untuk mempelajari perbezaan antara kedua-dua kelas."]}, {"en": ["Similarly, Choi et al successfully used a Propbank-Based semantic role Labeler for opinion holder extraction.", "Similarly, Choi and Cardie successfully used a Propbankbased semantic role Labeler for opinion holder extraction."], "ms": ["Begitu juga, Choi et al berjaya menggunakan Labeler peranan semantik berasaskan Propbank untuk pengekstrakan pemegang pendapat.", "Begitu juga, Choi dan Cardie berjaya menggunakan Labeler peranan semantik berasaskan Propbank untuk pengekstrakan pemegang pendapat."]}, {"en": ["The first-order measures obtained a higher Wu & Palmer score than the second-order measure on the test data.", "Results show that the Vcu systems obtained a higher score than the random baseline."], "ms": ["Langkah-langkah pesanan pertama memperoleh skor Wu & Palmer yang lebih tinggi daripada ukuran pesanan kedua pada data ujian.", "Hasil menunjukkan bahawa sistem Vcu memperoleh skor yang lebih tinggi daripada garis dasar rawak."]}, {"en": ["Our improved Cube-Pruned Parser represents a significant improvement over the Feature-Rich Transition-Based Parser of Zhang and Nivre with a large beam size.", "Our Parser shows higher accuracy than Zhang and Nivre, which is the current state-of-the-art Transition-Based Parser that uses beam search."], "ms": ["Penghurai Cube-Pruned kami yang lebih baik mewakili peningkatan yang ketara berbanding Penghurai Berasaskan Peralihan Ciri-Kiri Zhang dan Nivre dengan saiz rasuk yang besar.", "Parser kami menunjukkan ketepatan yang lebih tinggi daripada Zhang dan Nivre, yang merupakan Parser Berasaskan Peralihan terkini yang menggunakan carian rasuk."]}, {"en": ["We present experiments using our Syntacticsemantic Parser on the Conll-2009 shared task English benchmark.", "We present experiments using the Conll-2009 shared task Datasets, for the verbal Predicates of English."], "ms": ["Kami membentangkan eksperimen menggunakan Parser Syntacticsemantic kami pada penanda aras Bahasa Inggeris tugas bersama Conll-2009.", "Kami membentangkan eksperimen menggunakan Dataset tugas bersama Conll-2009, untuk Predikates lisan Bahasa Inggeris."]}, {"en": ["Our baseline translation system is based on a Stringto-Dependency translation model similar to the implementation in.", "Our machine translation system is a String-Todependency Hierarchical Decoder based on and."], "ms": ["Sistem terjemahan asas kami adalah berdasarkan model terjemahan Stringto-Dependency yang serupa dengan pelaksanaan dalam.", "Sistem terjemahan mesin kami adalah Pengkod Hierarki String-Todependency berdasarkan dan."]}, {"en": ["Another example is the Mpqa subjectivity lexicon, which was built manually by Annotating the subjective expressions in the Mpqa corpus.", "Another popular sentiment lexicon is the Mpqa subjectivity lexicon which was constructed by manually Annotating the subjective expressions in the Mpqa corpus."], "ms": ["Contoh lain ialah leksikon subjektif Mpqa, yang dibina secara manual dengan Menganotasi ungkapan subjektif dalam korpus Mpqa.", "Satu lagi leksikon sentimen popular ialah leksikon subjektif Mpqa yang dibina dengan menganotasi ekspresi subjektif secara manual dalam korpus Mpqa."]}, {"en": ["Kim et al proposed Walk-Weighted Subsequence kernel using E-Walks, partial matches, Non-Contiguous paths, and different weights for different Sub-Structures.", "Kim et al adopt Walk-Weighted Subsequence kernel based on dependency paths to explore various Substructures such as E-Walks, partial match, and Non-Contiguous paths."], "ms": ["Kim et al mencadangkan kernel Subsequence Walk-Weighted menggunakan E-Walks, perlawanan separa, laluan Non-Contiguous, dan berat yang berbeza untuk Sub-Structure yang berbeza.", "Kim et al mengadopsi kernel Subsekuensi Walk-Weighted berdasarkan laluan dependensi untuk meneroka pelbagai Substruktur seperti E-Walks, perlawanan separa, dan laluan Non-Contiguous."]}, {"en": ["We evaluated translation output using Case-Insensitive IBM BLEU.", "For all languages we evaluated translation output using Case-Insensitive IBM BLEU."], "ms": ["Kami menilai output terjemahan menggunakan Case-Insensitive IBM BLEU.", "Untuk semua bahasa kami menilai output terjemahan menggunakan Case-Insensitive IBM BLEU."]}, {"en": ["In this work, we focus on transfer Learning\u00a1\u00aawe train a recurrent neural Tagger for a Low-Resource language jointly with a Tagger for a related High-Resource language.", "In the work presented here, we explore a transfer learning scheme, whereby we train Character-Level recurrent neural Taggers to predict morphological Taggings for High-Resource languages and Low-Resource languages."], "ms": ["Dalam kerja ini, kami memberi tumpuan kepada pemindahan Learningawe melatih Tagger saraf berulang untuk bahasa Sumber Rendah bersama dengan Tagger untuk bahasa Sumber Tinggi yang berkaitan.", "Dalam kerja yang dibentangkan di sini, kami meneroka skim pembelajaran pemindahan, di mana kami melatih Taggers neural berulang Tahap-Katak untuk meramalkan Tagging morfologi untuk bahasa Sumber Tinggi dan bahasa Sumber Rendah."]}, {"en": ["We are interested in addressing two types of data shift common in Slu applications.", "In this paper, we have addressed two types of data shift common in Slu applications."], "ms": ["Kami berminat untuk menangani dua jenis peralihan data yang biasa dalam aplikasi Slu.", "Dalam makalah ini, kami telah menangani dua jenis peralihan data yang biasa berlaku dalam aplikasi Slu."]}, {"en": ["Neither Source-Language nor target-language analysis was able to circumvent problems in mt, although each approach had advantages relative to the other.", "Although neither Source-Language nor target-language analysis was able to circumvent problems in mt, each approach had advantages relative to the other."], "ms": ["Baik Sumber-Bahasa atau analisis bahasa sasaran tidak dapat mengelakkan masalah dalam mt, walaupun setiap pendekatan mempunyai kelebihan berbanding yang lain.", "Walaupun tidak ada analisis Sumber-Bahasa atau bahasa sasaran yang dapat mengelakkan masalah dalam mt, setiap pendekatan mempunyai kelebihan berbanding yang lain."]}, {"en": ["In section 2, we describe the details of the syntactic decision tree LM.", "In section 2, we describe the details of the syntactic decision tree."], "ms": ["Dalam seksyen 2, kami menerangkan butiran pokok keputusan sintaktik LM.", "Dalam seksyen 2, kami menerangkan butiran pokok keputusan sintaktik."]}, {"en": ["We currently achieve coverage of 95.26%, a BLEU score of 0.7227 and string accuracy of 0.7476 on the Penn-Ii WSJ section 23 sentences of length \u226420.", "And their best model achieves coverage of 90 . 56% and a BLEU score of 0 . 7723 on Penn-Ii WSJ section 23 sentences of length \u226420."], "ms": ["Kami kini mencapai liputan 95.26%, skor BLEU 0.7227 dan ketepatan rentetan 0.7476 pada Penn-Ii WSJ seksyen 23 ayat panjang 20.", "Dan model terbaik mereka mencapai liputan 90. 56% dan skor BLEU 0. 7723 pada Penn-Ii WSJ seksyen 23 ayat panjang 20."]}, {"en": ["Entrainment in many of these dimensions has also been associated with measures of dialogue success.", "Entrainment is correlated with positive social characteristics and Turn-Taking features."], "ms": ["Ketergantungan dalam banyak dimensi ini juga dikaitkan dengan langkah-langkah kejayaan dialog.", "Pengelakan dikaitkan dengan ciri sosial positif dan ciri Turn-Taking."]}, {"en": ["Metonymy is typically defined as a figure of speech in which a Speaker uses one entity to refer to another that is related to it.", "Metonymy is a figure of speech, in which one expression is used to refer to the standard referent of a related one."], "ms": ["Metonymy biasanya ditakrifkan sebagai angka ucapan di mana seorang Speaker menggunakan satu entiti untuk merujuk kepada entiti lain yang berkaitan dengannya.", "Metonymy adalah tokoh pertuturan, di mana satu ungkapan digunakan untuk merujuk kepada rujukan standard yang berkaitan."]}, {"en": ["We also used the version of String-Edit distance of BANGALORE et al which Normalises for length.", "We also used the version of String-Edit distance described by BANGALORE et al which Normalises for length."], "ms": ["Kami juga menggunakan versi jarak String-Edit BANGALORE et al yang Normalizes untuk panjang.", "Kami juga menggunakan versi jarak String-Edit yang dijelaskan oleh BANGALORE et al yang Normalizes untuk panjang."]}, {"en": ["In this method, Punctuations are not associated with lexical heads, but are treated as properties of their neighbouring words.", "Rather than assigning lexical heads to Punctuations, we treat Punctuations as properties of their neighbouring words, used as features."], "ms": ["Dalam kaedah ini, tanda baca tidak dikaitkan dengan kepala leksikal, tetapi dianggap sebagai sifat kata-kata jiran mereka.", "Daripada memberikan kepala leksikal kepada Punctuations, kami menganggap Punctuations sebagai sifat kata-kata jiran mereka, yang digunakan sebagai ciri-ciri."]}, {"en": ["This justifies our attempt to model the continuity or shift of the discourse focus in pronoun resolution via Centering-Motivated features from the semantic perspective.", "In a sentence, such as agent and patient, we can derive various centering Theory-Motivated features in tracking the continuity or shift of the local discourse focus, thus allowing us to include Document-Level event."], "ms": ["Ini membenarkan percubaan kami untuk memodelkan kesinambungan atau peralihan fokus wacana dalam resolusi kata ganti melalui ciri-ciri Centering-Motivated dari perspektif semantik.", "Dalam ayat, seperti ejen dan pesakit, kita boleh memperoleh pelbagai ciri-ciri yang berpusatkan Teori-Motivasi dalam mengesan kesinambungan atau peralihan fokus wacana tempatan, dengan itu membolehkan kita memasukkan acara Dokumen-Tahap."]}, {"en": ["By enforcing consistency constraints between their predictions, we show improvements in the performance of both tasks without retraining the individual models.", "And show that, using linguistic constraints between the tasks and minimal joint learning, we can improve the performance of both tasks."], "ms": ["Dengan menguatkuasakan kekangan konsistensi antara ramalan mereka, kami menunjukkan peningkatan dalam prestasi kedua-dua tugas tanpa melatih semula model individu.", "Dan menunjukkan bahawa, menggunakan kekangan linguistik antara tugas dan pembelajaran bersama yang minimum, kita dapat meningkatkan prestasi kedua-dua tugas."]}, {"en": ["In this article, we adopt their Tagger for experiments.", "In this article, we are also concerned with improving tagging efficiency."], "ms": ["Dalam artikel ini, kami menggunakan Tagger mereka untuk percubaan.", "Dalam artikel ini, kami juga prihatin dengan peningkatan kecekapan penandaan."]}, {"en": ["The linguistic structure of a discourse is composed of utterances that exhibit meaningful Hierarchical relationships.", "The Attentional structure of a discourse can be modeled as a stack of focus spaces that contains the individuals salient at each point in a discourse."], "ms": ["Struktur linguistik wacana terdiri daripada ucapan yang menunjukkan hubungan Hierarki yang bermakna.", "Struktur Perhatian wacana boleh dimodelkan sebagai tumpukan ruang fokus yang mengandungi individu yang penting pada setiap titik dalam wacana."]}, {"en": ["Quantum States are expressed as density operators rather than Kets.", "Density operators are used in quantum theory."], "ms": ["Negeri kuantum dinyatakan sebagai operator ketumpatan dan bukannya Kets.", "Pengendali ketumpatan digunakan dalam teori kuantum."]}, {"en": ["In a different vein, Cite-P-19-1-12 introduced three Unsupervised methods drawn from visual properties of images to determine a concept \u2019 s generality in Hypernymy tasks.", "In a different vein, Cite-P-19-1-12 introduced three Unsupervised methods drawn from visual properties of images."], "ms": ["Dalam urat yang berbeza, Cite-P-19-1-12 memperkenalkan tiga kaedah Unsupervised yang diambil dari sifat visual imej untuk menentukan konsep umum dalam tugas Hypernymy.", "Dalam urat yang berbeza, Cite-P-19-1-12 memperkenalkan tiga kaedah Unsupervised yang diambil dari sifat visual imej."]}, {"en": ["Central to our approach is the Encoding of generation as a Parsing problem.", "In our approach is to reduce content selection and surface realization into a common Parsing problem."], "ms": ["Penting untuk pendekatan kami ialah pengekodan generasi sebagai masalah Parsing.", "Dalam pendekatan kami adalah untuk mengurangkan pemilihan kandungan dan kesedaran permukaan menjadi masalah Parsing yang biasa."]}, {"en": ["However, most work focuses on congressional debates or debates in Online forums.", "Previous work has focused on congressional debates, Company-Internal discussions, and debates in Online forums."], "ms": ["Walau bagaimanapun, kebanyakan kerja memberi tumpuan kepada perdebatan kongres atau perdebatan dalam forum Online.", "Kerja sebelumnya telah memberi tumpuan kepada perdebatan kongres, perbincangan Syarikat-Internal, dan perdebatan dalam forum Online."]}, {"en": ["The underlying model is a Rnn Encoder-Decoder that explores possible Binary tree structures and a reward mechanism that encourages structures that improve performances on downstream tasks.", "The underlying model is a recurrent network that learns how far to jump after reading a few words of the input text."], "ms": ["Model yang mendasari adalah Rnn Encoder-Decoder yang meneroka struktur pokok binari yang mungkin dan mekanisme ganjaran yang menggalakkan struktur yang meningkatkan persembahan pada tugas hiliran.", "Model asas adalah rangkaian berulang yang belajar sejauh mana untuk melompat selepas membaca beberapa perkataan teks input."]}, {"en": ["The thesaurus was acquired using the method described by LIN.", "The thesaurus 4 used in this work was automatically constructed by LIN."], "ms": ["Thesaurus diperolehi menggunakan kaedah yang dijelaskan oleh LIN.", "Thesaurus 4 yang digunakan dalam kerja ini dibina secara automatik oleh LIN."]}, {"en": ["In the future, we would like to explore additional types of rules such as seed rules, which would assign Tuples complying with the \u00a1\u00b0Seed\u00a1\u00b1 information to distinct relations.", "In the future, we would like to explore additional types of rules such as seed rules, which would assign Tuples complying with the \u00a1\u00b0 seed \u00a1\u00b1."], "ms": ["Pada masa akan datang, kami ingin meneroka jenis peraturan tambahan seperti peraturan benih, yang akan memberikan Tuples mematuhi maklumat Seed kepada hubungan yang berbeza.", "Pada masa akan datang, kami ingin meneroka jenis peraturan tambahan seperti peraturan benih, yang akan menetapkan Tuples mematuhi benih benih."]}, {"en": ["We describe a method for enriching the output of a Parser with information available in a Corpus.", "We describe a method to automatically enrich the output of Parsers with information that is present in existing Treebanks."], "ms": ["Kami menerangkan kaedah untuk memperkayakan output Parser dengan maklumat yang terdapat dalam Corpus.", "Kami menerangkan kaedah untuk memperkaya output Parsers secara automatik dengan maklumat yang terdapat di Treebanks yang ada."]}, {"en": ["In these settings, we must compute the gradient of entropy or risk.", "Optimization requires computing the gradient of entropy or risk."], "ms": ["Dalam tetapan ini, kita mesti mengira kecerunan entropi atau risiko.", "Pengoptimuman memerlukan pengkomputeran kecerunan entropi atau risiko."]}, {"en": ["Creating lists of named entities is a critical problem at commercial engines such as Yahoo! and Google.", "For commercial engines such as Yahoo! and Google, creating lists of named entities found on the web is critical."], "ms": ["Mencipta senarai entiti yang dinamakan adalah masalah kritikal di enjin komersial seperti Yahoo! dan Google.", "Untuk enjin komersial seperti Yahoo! dan Google, membuat senarai entiti bernama yang terdapat di web adalah kritikal."]}, {"en": ["Eisner algorithm can be modified Trivially for Secondorder decoding.", "Efficient decoding can be performed with Eisner algorithm in Otime and Ospace."], "ms": ["Algoritma Eisner boleh diubah suai Trivially untuk penyahkodan Secondorder.", "Penyahkodan cekap boleh dilakukan dengan algoritma Eisner dalam Otime dan Ospace."]}, {"en": ["Thus, we extract the frequent noun terms from pros and Cons reviews as features, then train a One-Class SVM to identify aspects from the candidates.", "In particular, we explore the frequent noun terms in pros and Cons reviews as features, and train a One-Class SVM to identify aspects in the candidates."], "ms": ["Oleh itu, kami mengekstrak istilah kata nama yang kerap dari ulasan pro dan Cons sebagai ciri, kemudian melatih SVM Satu Kelas untuk mengenal pasti aspek dari calon.", "Khususnya, kami meneroka istilah kata nama yang kerap dalam ulasan pro dan Cons sebagai ciri, dan melatih SVM Satu Kelas untuk mengenal pasti aspek dalam calon."]}, {"en": ["For example, Collobert et al used a Feed-Forward neural network to effectively identify entities in a Newswire corpus by classifying each word using contexts within a fixed number of surrounding words.", "For example, Collobert et al effectively used a Multilayer neural network for Chunking, Part-Ofspeech tagging, NER and semantic role labelling."], "ms": ["Sebagai contoh, Collobert et al menggunakan rangkaian saraf Feed-Forward untuk mengenal pasti entiti secara berkesan dalam korpus Newswire dengan mengklasifikasikan setiap perkataan menggunakan konteks dalam bilangan perkataan yang tetap di sekitarnya.", "Sebagai contoh, Collobert et al berkesan menggunakan rangkaian neural Multilayer untuk Chunking, Part-Ofspeech tagling, NER dan pelabelan peranan semantik."]}, {"en": ["Our proposed method can be easily extended by using other types of Submodular functions.", "In this paper, we use a simple monotone Submodular function."], "ms": ["Kaedah yang dicadangkan kami boleh diperluaskan dengan mudah dengan menggunakan jenis fungsi Submodular yang lain.", "Dalam kertas ini, kita menggunakan fungsi submodular monoton yang mudah."]}, {"en": ["Mikolov et al applied an Rnn for language modeling, and demonstrated that the word Embeddings learned by the Rnnlm capture both syntactic and semantic Regularities.", "To leverage as much history as possible, Mikolov et al apply recurrent neural network to Word-Level language modeling."], "ms": ["Mikolov et al menggunakan Rnn untuk pemodelan bahasa, dan menunjukkan bahawa perkataan Embeddings yang dipelajari oleh Rnnlm menangkap kedua-dua sintaksis dan semantik Regularities.", "Untuk memanfaatkan sebanyak mungkin sejarah, Mikolov et al menerapkan rangkaian neural berulang ke pemodelan bahasa Word-Level."]}, {"en": ["As a sequence Labeler we use conditional random fields.", "We use conditional random fields for sequence labelling."], "ms": ["Sebagai Label jujukan kita menggunakan medan rawak bersyarat.", "Kami menggunakan medan rawak bersyarat untuk pelabelan jujukan."]}, {"en": ["In this paper, we have presented the first Extrinsic evaluations of simulated Annealing and D-Bees in a lexical substitution setting.", "In this paper, we have presented the first Extrinsic evaluations of simulated Annealing and D-Bees."], "ms": ["Dalam makalah ini, kami telah membentangkan penilaian Extrinsik pertama Annealing dan D-Bees simulasi dalam tetapan penggantian leksikal.", "Dalam makalah ini, kami telah membentangkan penilaian Extrinsik pertama Annealing dan D-Bees simulasi."]}, {"en": ["Zaidan and Callison-Burch developed an informal Monolingual Arabic Online commentary Annotated Dataset with high Dialectal content.", "Zaidan and Callison-Burch created a Monolingual Arabic data set rich in Dialectal content from user commentaries on newspaper Websites."], "ms": ["Zaidan dan Callison-Burch membangunkan satu ulasan Monolingual Arabic Online Annotated Dataset yang tidak rasmi dengan kandungan Dialek yang tinggi.", "Zaidan dan Callison-Burch mencipta data Monolingual Arab yang kaya dengan kandungan Dialek dari pengulas pengguna di laman web akhbar."]}, {"en": ["From the Bilanguage corpus B, we train an N-Gram language model using standard tools.", "We compute the joint N-Gram model using a language modeling Toolkit."], "ms": ["Dari Bilanguage corpus B, kami melatih model bahasa N-Gram menggunakan alat standard.", "Kami mengira model N-Gram bersama menggunakan Toolkit pemodelan bahasa."]}, {"en": ["In our experiment, using Glpk\u00a1\u00afS Branch-And-Cut Solver took 0.2 seconds to produce optimal Ilp solutions for 1000 sentences on a machine with Intel core 2 Duo Cpu and 4Gb ram.", "In our experiment, using Glpk \u00a1\u00af s Branch-And-Cut Solver took 0 . 2 seconds to produce optimal Ilp solutions for 1000 sentences."], "ms": ["Dalam eksperimen kami, menggunakan Glpk S Branch-And-Cut Solver mengambil masa 0.2 saat untuk menghasilkan penyelesaian Ilp optimum untuk 1000 ayat pada mesin dengan Intel teras 2 Duo Cpu dan 4Gb ram.", "Dalam eksperimen kami, menggunakan Penyelesaian Cawangan-Dan-Cut Glpk mengambil masa 0.2 saat untuk menghasilkan penyelesaian Ilp optimum untuk 1000 ayat."]}, {"en": ["In all these cases, topic information was helpful in boosting Retrieval performance above baseline vector space or N-Gram models.", "In doing so we can achieve better word Retrieval performance than language models with only N-Gram context."], "ms": ["Dalam semua kes ini, maklumat topik berguna dalam meningkatkan prestasi Retrieval di atas ruang vektor asas atau model N-Gram.", "Dengan berbuat demikian, kita dapat mencapai prestasi pengambilan perkataan yang lebih baik daripada model bahasa dengan hanya konteks N-Gram."]}, {"en": ["We work with four scales of adjectives (CF . Table 1).", "For all adjectives, we group adjectives into different scales."], "ms": ["Kami bekerja dengan empat skala kata sifat (CF. Jadual 1).", "Untuk semua kata sifat, kami mengumpulkan kata sifat ke dalam skala yang berbeza."]}, {"en": ["Experimental results show improvements of our compressive solution over state-of-the-art systems.", "Experimental results show that our methods outperform the state-of-the-art Extractive systems."], "ms": ["Hasil eksperimen menunjukkan peningkatan penyelesaian mampatan kami berbanding sistem canggih.", "Hasil eksperimen menunjukkan bahawa kaedah kami mengatasi sistem Extractive canggih."]}, {"en": ["The German sentence is labeled using Annotation projection.", "Which shows an English sl sentence and its German."], "ms": ["Kalimat Jerman dilabelkan menggunakan unjuran Annotasi.", "Yang menunjukkan ayat sl Inggeris dan bahasa Jermannya."]}, {"en": ["In this paper, we proposed an End2End neural model based on Seq2Seq learning framework with copy mechanism for relational facts extraction.", "In this paper, we propose an Endto-End model based on Sequenceto-Sequence learning with copy mechanism, which can jointly extract relational facts."], "ms": ["Dalam makalah ini, kami mencadangkan model saraf End2End berdasarkan kerangka pembelajaran Seq2Seq dengan mekanisme salinan untuk pengekstrakan fakta hubungan.", "Dalam makalah ini, kami mencadangkan model Endto-End berdasarkan pembelajaran Sequenceto-Sequence dengan mekanisme salinan, yang boleh bersama-sama mengekstrak fakta hubungan."]}, {"en": ["Bordes et al further improved their work by proposing the concept of Subgraph Embeddings.", "Bordes et al further improve their work by proposing the concept of Subgraph Embeddings."], "ms": ["Bordes et al meningkatkan lagi kerja mereka dengan mencadangkan konsep Subgraph Embeddings.", "Bordes et al lebih meningkatkan kerja mereka dengan mencadangkan konsep Subgraph Embeddings."]}, {"en": ["Named entity recognition is the task of finding entities, such as people and organizations, in text.", "Named entity recognition is a well established information extraction task with many state of the art systems existing for a variety of languages."], "ms": ["Pengecaman entiti yang dinamakan adalah tugas mencari entiti, seperti orang dan organisasi, dalam teks.", "Pengecaman entiti yang dinamakan adalah tugas pengekstrakan maklumat yang mantap dengan banyak sistem seni yang ada untuk pelbagai bahasa."]}, {"en": ["In addition, we improve the word alignment results by combining the results of the two Semi-Supervised boosting methods.", "We can further improve the performances of the word Aligners with available data and available alignment."], "ms": ["Di samping itu, kami meningkatkan hasil penjajaran perkataan dengan menggabungkan hasil dua kaedah penggalak Semi-Supervised.", "Kita boleh meningkatkan lagi persembahan perkataan Pejajar dengan data yang tersedia dan penjajaran yang tersedia."]}, {"en": ["In summary, Phrase-Based systems have relatively limited potential to model Word-Order differences between different languages.", "Limitation of Phrase-Based systems is that they make little or no direct use of syntactic information."], "ms": ["Ringkasnya, sistem Berasaskan Frasa mempunyai potensi yang agak terhad untuk memodelkan perbezaan Word-Order antara bahasa yang berbeza.", "Batasan sistem berasaskan frasa adalah bahawa mereka membuat sedikit atau tidak menggunakan maklumat sintaksis secara langsung."]}, {"en": ["The experimental evaluation demonstrates the superior performance of the model on the benchmark Datasets.", "Experimental evaluation on two benchmark Datasets has demonstrated the effectiveness of the model."], "ms": ["Penilaian eksperimen menunjukkan prestasi unggul model pada Dataset penanda aras.", "Penilaian eksperimen pada dua Dataset penanda aras telah menunjukkan keberkesanan model."]}, {"en": ["Conditional Auto-Encoders have been employed in that generate diverse replies by capturing Discourselevel information in the Encoder.", "Conditional Auto-Encoders have been employed in, that generates diverse replies by capturing Discourse-Level information in the Encoder."], "ms": ["Pengekod Auto bersyarat telah digunakan dalam menghasilkan balasan yang pelbagai dengan menangkap maklumat Tahap Wacana dalam Pengekod.", "Pengekod Auto bersyarat telah digunakan, yang menghasilkan balasan yang pelbagai dengan menangkap maklumat Tahap Wacana dalam Pengekod."]}, {"en": ["We also report an evaluation on all thirteen languages of the Conll-X shared task, for comparison with the results by Nivre and McDonald.", "In order to provide results on additional languages, we present in Table 3 a comparison to the work of Gillenwater et al, using the Conll-X shared task data."], "ms": ["Kami juga melaporkan penilaian terhadap semua tiga belas bahasa tugas bersama Conll-X, berbanding dengan keputusan oleh Nivre dan McDonald.", "Untuk memberikan hasil pada bahasa tambahan, kami membentangkan dalam Jadual 3 perbandingan dengan kerja Gillenwater et al, menggunakan data tugas dikongsi Conll-X."]}, {"en": ["Comparisons with English Typos suggest that some Language-Specific properties result in a part of Chinese input errors.", "Typos suggests that some Language-Specific properties of Chinese lead to a part of input errors."], "ms": ["Perbandingan dengan English Typos mencadangkan bahawa beberapa sifat khusus bahasa menghasilkan sebahagian daripada kesilapan input Cina.", "Typos mencadangkan bahawa beberapa sifat khusus bahasa Cina membawa kepada sebahagian daripada kesilapan input."]}, {"en": ["We Parse the text into typed dependency graphs with the Stanford Parser, recording all verbs with subject, object, or prepositional typed Dependencies.", "We Parse the text into typed dependency graphs with the Stanford Parser 3, recording all verbs with subject, object, or prepositional typed Dependencies."], "ms": ["Kami menghuraikan teks ke dalam graf dependensi taip dengan Stanford Parser, merakam semua kata kerja dengan subjek, objek, atau preposisi taip Dependensi.", "Kami menghuraikan teks ke dalam graf dependensi taip dengan Stanford Parser 3, merakam semua kata kerja dengan subjek, objek, atau preposisi taip Dependensi."]}, {"en": ["Baldwin took a statistical approach to automated lexical acquisition for deep Grammars.", "Baldwin looked at in vitro and in vivo methods for lexical type prediction of unknown words."], "ms": ["Baldwin mengambil pendekatan statistik untuk pemerolehan leksikal automatik untuk Grammars yang mendalam.", "Baldwin melihat kaedah in vitro dan in vivo untuk ramalan jenis leksikal perkataan yang tidak diketahui."]}, {"en": ["In this paper, we described our participating system in the Semeval-2007 web people search task.", "We evaluate our methods using the benchmark test collection from the ACL Semeval-2007 web person search task."], "ms": ["Dalam makalah ini, kami menerangkan sistem penyertaan kami dalam tugas carian orang web Semeval-2007.", "Kami menilai kaedah kami menggunakan koleksi ujian penanda aras dari tugas carian orang web ACL Semeval-2007."]}, {"en": ["Support, and for providing me with lots of instruction computation in Subset (often dreadful) Automata generated by his construction.", "For providing me with lots of instruction computation in Subset (often dreadful) Automata generated by his construction."], "ms": ["Sokongan, dan untuk menyediakan saya dengan banyak pengiraan arahan dalam Subset (sering menakutkan) Automata yang dihasilkan oleh pembinaannya.", "Kerana menyediakan saya dengan banyak pengiraan arahan dalam Subset (sering menakutkan) Automata yang dihasilkan oleh pembinaannya."]}, {"en": ["Faruqui et al use synonym relations extracted from Wordnet and other resources to construct an Undirected graph.", "Faruqui et al employ semantic relations of Ppdb, Wordnet, Framenet to retrofit word Embeddings for various prediction tasks."], "ms": ["Faruqui et al menggunakan hubungan sinonim yang diekstrak daripada Wordnet dan sumber lain untuk membina graf Tidak Diarah.", "Faruqui et al menggunakan hubungan semantik Ppdb, Wordnet, Framenet untuk mengadaptasi Embedding kata untuk pelbagai tugas ramalan."]}, {"en": ["Our approach is most closely related to the approach described in Kakkonen and Sutinen where the experiments were conducted in the Finnish language.", "Our grading model is most closely related to the approach described in Kakkonen and Sutinen where the experiments were conducted in the Finnish language."], "ms": ["Pendekatan kami paling berkait rapat dengan pendekatan yang diterangkan di Kakkonen dan Sutinen di mana eksperimen dijalankan dalam bahasa Finland.", "Model penggredan kami paling berkait rapat dengan pendekatan yang diterangkan di Kakkonen dan Sutinen di mana eksperimen dijalankan dalam bahasa Finland."]}, {"en": ["The most recent Semi-Automatic lexicon is Sentiwordnet which assigns polarity to word senses in Wordnet 3 known as Synsets.", "The most common sentiment Lexicons for English language are Wordnet-Affect and Sentiwordnet, which are extensions of Wordnet."], "ms": ["Leksikon Semi-Automatik yang paling terkini ialah Sentiwordnet yang memberikan polariti kepada deria perkataan dalam Wordnet 3 yang dikenali sebagai Synsets.", "Sentimen yang paling biasa Lexicons untuk bahasa Inggeris adalah Wordnet-Affect dan Sentiwordnet, yang merupakan sambungan Wordnet."]}, {"en": ["In section 3, we present the methodology of parallel data selection and terminology identification to improve Ontology label translation.", "In section 3, we present the methodology of parallel data selection and terminology identification."], "ms": ["Dalam seksyen 3, kami membentangkan metodologi pemilihan data selari dan pengenalan terminologi untuk meningkatkan terjemahan label Ontologi.", "Dalam seksyen 3, kami membentangkan metodologi pemilihan data selari dan pengenalan terminologi."]}, {"en": ["In this paper, we are interested in extracting the unknown words with high precision and recall results.", "In this paper, we propose a collaborative framework for collecting unknown words from web pages."], "ms": ["Dalam kertas ini, kami berminat untuk mengekstrak perkataan yang tidak diketahui dengan ketepatan dan keputusan penarikan balik yang tinggi.", "Dalam makalah ini, kami mencadangkan rangka kerja kerjasama untuk mengumpulkan kata-kata yang tidak diketahui dari laman web."]}, {"en": ["Structural correspondence learning uses only Unlabeled data to find a common feature representation for a source and a target domain.", "Structural correspondence learning exploits Unlabeled data from both source and target domain to find Correspondences among features from different domains."], "ms": ["Pembelajaran korespondensi struktur hanya menggunakan data Unlabeled untuk mencari perwakilan ciri umum untuk sumber dan domain sasaran.", "Pembelajaran menyurat struktur mengeksploitasi data tidak berlabel dari kedua-dua domain sumber dan sasaran untuk mencari Correspondences di antara ciri-ciri dari domain yang berbeza."]}, {"en": ["Nlir is likely to be related to linguistic characteristics of the respective native languages.", "Linguistic similarities between native languages are reflected in similarities in Esl reading."], "ms": ["Nlir mungkin berkaitan dengan ciri-ciri linguistik bahasa-bahasa asli masing-masing.", "Persamaan linguistik antara bahasa asli dicerminkan dalam persamaan dalam bacaan Esl."]}, {"en": ["In this work, we propose adding information to the Wsme model which is provided by the grammatical structure of the sentence.", "In this work, we have sucessfully added grammatical features to a Wsme language model."], "ms": ["Dalam kerja ini, kami mencadangkan menambah maklumat kepada model Wsme yang disediakan oleh struktur tatabahasa ayat.", "Dalam karya ini, kami telah berjaya menambahkan ciri tatabahasa ke model bahasa Wsme."]}, {"en": ["We cast the word alignment problem as maximizing a Submodular function under Matroid constraints.", "In this paper, we treat the word alignment problem as maximizing a Submodular function subject to Matroid constraints."], "ms": ["Kami meletakkan masalah penjajaran perkataan sebagai memaksimumkan fungsi Submodular di bawah kekangan Matroid.", "Dalam makalah ini, kita memperlakukan masalah penjajaran perkataan sebagai memaksimumkan fungsi Submodular yang tertakluk kepada kekangan Matroid."]}, {"en": ["In this paper, we describe our approach using a modified SVM based Classifier on short text as in Twitter messages.", "In this paper, we describe our approach using a modified SVM based Classifier on short text."], "ms": ["Dalam makalah ini, kami menerangkan pendekatan kami menggunakan Klasifier berasaskan SVM yang diubah suai pada teks pendek seperti dalam mesej Twitter.", "Dalam kertas ini, kami menerangkan pendekatan kami menggunakan Klasifier berasaskan SVM yang diubahsuai pada teks pendek."]}, {"en": ["Future work will include a further investigation of Parser\u2013 derived features.", "Future work may consider features of the acoustic sequence."], "ms": ["Kerja masa depan akan mencakup penyelidikan lebih lanjut mengenai ciri-ciri Parser\u2013 yang berasal.", "Kerja masa depan mungkin mempertimbangkan ciri-ciri urutan akustik."]}, {"en": ["The goal of this NOTE is to point out inversion as an option for turning distributed language representations into classification rules.", "The goal of this NOTE is to point out that any distributed representation can be turned into a Classifier through inversion."], "ms": ["Matlamat NOTA ini adalah untuk menunjukkan penyongsangan sebagai pilihan untuk mengubah perwakilan bahasa yang diedarkan menjadi peraturan klasifikasi.", "Matlamat NOTA ini adalah untuk menunjukkan bahawa sebarang perwakilan yang diedarkan boleh diubah menjadi Pengkelas melalui penyongsangan."]}, {"en": ["Other approaches are based on external features allowing to deal with various mt systems, Eg.", "Other approaches are based on external features allowing to cope with various mt systems, Eg."], "ms": ["Pendekatan lain adalah berdasarkan ciri luaran yang membolehkan untuk menangani pelbagai sistem mt, contohnya.", "Pendekatan lain adalah berdasarkan ciri luaran yang membolehkan untuk mengatasi pelbagai sistem mt, contohnya."]}, {"en": ["Crfs are particularly suitable for sequence labelling tasks.", "Crf is well known for sequence labeling tasks."], "ms": ["Crfs sangat sesuai untuk tugas pelabelan urutan.", "Crf terkenal dengan tugas pelabelan urutan."]}, {"en": ["In, the problem of personalized, interactive tag recommendation was also studied based on the Statistics of the tags Co-Occurrence.", "In, the problem of personalized, interactive tag recommendation was also studied based on the Statics of the tags Co-Occurrence."], "ms": ["Pada tahun ini, masalah cadangan tag interaktif yang diperibadikan juga dikaji berdasarkan Statistik tag Co-Occurrence.", "Pada tahun 2009, masalah cadangan tag interaktif yang diperibadikan juga dikaji berdasarkan Statik tag Co-Occurrence."]}, {"en": ["Since the work of Pang, Lee, and Vaithyanathan, various classification models and linguistic features have been proposed to improve classification performance.", "Since the work of Pang et al, various classification models and linguistic features have been proposed to improve the classification performance."], "ms": ["Sejak kerja Pang, Lee, dan Vaithyanathan, pelbagai model klasifikasi dan ciri linguistik telah dicadangkan untuk meningkatkan prestasi klasifikasi.", "Sejak kerja Pang et al, pelbagai model klasifikasi dan ciri linguistik telah dicadangkan untuk meningkatkan prestasi klasifikasi."]}, {"en": ["However in the current implementation, no acoustic information is used in Disambiguating words; only the Pronunciations of words are used to verify the values of the semantic variables in cases when there is semantic ambiguity in finding the best matching string.", "In the current implementation, no acoustic information is used in Disambiguating words; only the Pronunciations of words are used to verify the values of the semantic variables."], "ms": ["Walau bagaimanapun dalam pelaksanaan semasa, tiada maklumat akustik digunakan dalam perkataan samar-samar; hanya sebutan perkataan digunakan untuk mengesahkan nilai pembolehubah semantik dalam kes apabila terdapat kekaburan semantik dalam mencari rentetan sepadan yang terbaik.", "Dalam pelaksanaan semasa, tiada maklumat akustik digunakan dalam perkataan samar-samar; hanya sebutan perkataan digunakan untuk mengesahkan nilai pembolehubah semantik."]}, {"en": ["In the Parliament domain, this means (and is translated as) \u00a1\u00b0Report.\u00a1\u00b1", "In the Parliament domain, this means (and is translated as) \u00a1\u00b0 report."], "ms": ["Dalam domain Parlimen, ini bermaksud (dan diterjemahkan sebagai) Report.", "Dalam domain Parlimen, ini bermakna (dan diterjemahkan sebagai) laporan."]}, {"en": ["The task of suggestion mining can be defined as the extraction of sentences that contain suggestions from unstructured text.", "Suggestion mining can be defined as the process of identifying and extracting sentences from unstructured text that contain suggestion."], "ms": ["Tugas perlombongan cadangan boleh ditakrifkan sebagai pengekstrakan ayat yang mengandungi cadangan dari teks yang tidak berstruktur.", "Perlombongan cadangan boleh ditakrifkan sebagai proses mengenal pasti dan mengekstrak ayat dari teks tidak berstruktur yang mengandungi cadangan."]}, {"en": ["Importantly, we do not assume that a single standard linking is valid for all Predicates.", "In our approach is that many Predicates are associated with a standard linking."], "ms": ["Yang penting, kami tidak menganggap bahawa satu pautan standard adalah sah untuk semua Predicates.", "Dalam pendekatan kami adalah bahawa banyak Predicates dikaitkan dengan pautan standard."]}, {"en": ["A paragraph associated with each topic is used as the source of relevant information about the topic.", "Where each topic is associated with a body of texts containing useful information."], "ms": ["Perenggan yang berkaitan dengan setiap topik digunakan sebagai sumber maklumat yang berkaitan mengenai topik tersebut.", "Di mana setiap topik dikaitkan dengan badan teks yang mengandungi maklumat berguna."]}, {"en": ["This paper focuses on translation of Fully-And Partially-Assimilated foreign words, called \u201c borrowed words \u201d.", "Work focuses on the Fully-And Partially-Assimilated foreign words, I . E ., words that historically were borrowed from another language."], "ms": ["Kertas kerja ini memberi tumpuan kepada terjemahan perkataan asing Penuh-Dan Separa-Assimilated, yang dipanggil perkataan yang dipinjam.", "Kerja memberi tumpuan kepada perkataan asing Penuh-Dan Sebahagian-Assimilated, I. E., perkataan yang secara sejarah dipinjam dari bahasa lain."]}, {"en": ["Recently, Dsms based on neural networks have rapidly grown in popularity.", "Neural models, with various neural architectures, have recently achieved great success."], "ms": ["Baru-baru ini, Dsms berdasarkan rangkaian saraf telah berkembang dengan pesat dalam populariti.", "Model saraf, dengan pelbagai seni bina saraf, baru-baru ini mencapai kejayaan besar."]}, {"en": ["We also show that constraints derived from the discourse context can be highly useful for Disambiguating Sentence-Level sentiment.", "While we focus on the Sentence-Level task, our approach can be easily extended to handle sentiment analysis."], "ms": ["Kami juga menunjukkan bahawa kekangan yang berasal dari konteks wacana boleh sangat berguna untuk Mengubah sentimen Tahap Sentimen.", "Walaupun kita memberi tumpuan kepada tugas Tahap Sentence, pendekatan kita boleh diperluaskan dengan mudah untuk menangani analisis sentimen."]}, {"en": ["To implement this, the Sklearn library is used.", "All techniques are used from the Scikitlearn Toolkit."], "ms": ["Untuk melaksanakannya, perpustakaan Sklearn digunakan.", "Semua teknik digunakan daripada Scikitlearn Toolkit."]}, {"en": ["The measure relies on the latent semantic analysis trained on the Tasa corpus.", "The third measure rely on the latent semantic analysis, trained on the Tasa corpus."], "ms": ["Langkah ini bergantung kepada analisis semantik laten yang dilatih pada korpus Tasa.", "Langkah ketiga bergantung kepada analisis semantik laten, yang dilatih pada korpus Tasa."]}, {"en": ["In this paper, we propose a novel Time-Aware KB Embedding approach taking advantage of the happening time of facts.", "In this paper, we propose a general Time-Aware KB Embedding, which incorporates creation time of entities and imposes temporal order."], "ms": ["Dalam makalah ini, kami mengusulkan pendekatan Penebusan KB Time-Aware novel yang memanfaatkan waktu fakta yang terjadi.", "Dalam makalah ini, kami mencadangkan Penebusan KB Time-Aware umum, yang menggabungkan masa penciptaan entiti dan mengenakan susunan temporal."]}, {"en": ["Word sense induction is typically performed using Unsupervised clustering.", "Word sense induction is performed by Inferring a set of semantic types."], "ms": ["Induksi erti kata biasanya dilakukan menggunakan pengelompokan Unsupervised.", "Induksi erti kata dilakukan dengan Melebihi satu set jenis semantik."]}, {"en": ["We incorporate these Subword units into a lattice framework within the Kws system.", "Subword units can be used effectively to improve the performance of Kws systems."], "ms": ["Kami memasukkan unit Subword ini ke dalam kerangka kekisi dalam sistem Kws.", "Unit subword boleh digunakan dengan berkesan untuk meningkatkan prestasi sistem Kws."]}, {"en": ["In this work, we attempt to model all three of these dimensions in developing a computational model for applause.", "In this work that some of these relationships can be characterized and subsequently Operationalized within models."], "ms": ["Dalam kerja ini, kami cuba untuk memodelkan ketiga-tiga dimensi ini dalam membangunkan model pengiraan untuk tepukan.", "Dalam kerja ini, beberapa hubungan ini boleh dicirikan dan kemudiannya dikendalikan dalam model."]}, {"en": ["Anderson et al show that semantic models built from visual data correlate highly with Fmribased brain activation patterns.", "However, the experiments in Anderson et al failed to detect differential interactions of semantic models with brain areas."], "ms": ["Anderson et al menunjukkan bahawa model semantik yang dibina dari data visual berkorelasi tinggi dengan corak pengaktifan otak berasaskan Fmri.", "Walau bagaimanapun, eksperimen di Anderson et al gagal mengesan interaksi pembezaan model semantik dengan kawasan otak."]}, {"en": ["Prior approaches to text simplification have addressed the task as a Monolingual translation problem.", "Most recently, text simplification has been addressed as a Monolingual machine translation task from complex to simple language."], "ms": ["Pendekatan terdahulu untuk penyederhanaan teks telah menangani tugas sebagai masalah terjemahan Monolingual.", "Terkini, penyederhanaan teks telah ditangani sebagai tugas terjemahan mesin Monolingual dari bahasa kompleks hingga sederhana."]}, {"en": ["The training data released by the task organizers comes from the Nucle corpus, which contains essays written by learners of English as a foreign language and is corrected by English teachers.", "The training and test data for this shared task are from the Nucle corpus, which consists of about one million words of short essays written by relatively competent English language learners."], "ms": ["Data latihan yang dikeluarkan oleh penganjur tugas berasal dari Nucle corpus, yang mengandungi esei yang ditulis oleh pelajar bahasa Inggeris sebagai bahasa asing dan diperbetulkan oleh guru bahasa Inggeris.", "Data latihan dan ujian untuk tugas bersama ini adalah dari Nucle corpus, yang terdiri daripada kira-kira satu juta perkataan esei pendek yang ditulis oleh pelajar bahasa Inggeris yang agak kompeten."]}, {"en": ["In this paper we introduce Picturebook Embeddings produced by image search using words as queries.", "In this paper we introduce Picturebook Embeddings produced by image search."], "ms": ["Dalam kertas ini kita memperkenalkan Embeddings Picturebook yang dihasilkan oleh carian imej menggunakan perkataan sebagai pertanyaan.", "Dalam kertas ini kita memperkenalkan Embeddings Picturebook yang dihasilkan oleh carian imej."]}, {"en": ["Sentiwordnet is a large lexicon for sentiment analysis and opinion mining applications.", "Sentiwordnet is a lexical resource built on top of Wordnet."], "ms": ["Sentiwordnet adalah leksikon besar untuk analisis sentimen dan aplikasi perlombongan pendapat.", "Sentiwordnet adalah sumber leksikal yang dibina di atas Wordnet."]}, {"en": ["In this paper we use a Non-Projective dependency tree Crf (Cite-P-16-3-4).", "In this paper, we propose a novel method for Semi-Supervised learning of Non-Projective Log-Linear dependency."], "ms": ["Dalam kertas ini kita menggunakan pokok dependensi bukan projektif Crf (Cite-P-16-3-4).", "Dalam makalah ini, kami mencadangkan kaedah baru untuk pembelajaran Semi-Supervised mengenai pergantungan Log-Linear Bukan Projektif."]}, {"en": ["Subsequently, levy et al conducted a comprehensive set of experiments and comparisons that suggest that much of the improved results are due to the system design and parameter Optimizations, rather than the selected method.", "Subsequently, levy et al conducted a comprehensive set of experiments that suggest that much of the improved results are due to the system design and parameter Optimizations, rather than the selected method."], "ms": ["Selepas itu, levy et al menjalankan satu set eksperimen dan perbandingan yang komprehensif yang menunjukkan bahawa banyak hasil yang lebih baik adalah disebabkan oleh reka bentuk sistem dan parameter Optimizations, dan bukannya kaedah yang dipilih.", "Selepas itu, levi et al menjalankan satu set eksperimen yang komprehensif yang menunjukkan bahawa banyak hasil yang lebih baik adalah disebabkan oleh reka bentuk sistem dan parameter Optimizations, dan bukannya kaedah yang dipilih."]}, {"en": ["In this paper, we present a novel sliding window based text alignment algorithm for real-time crowd Captioning.", "In this paper, we introduce a novel sliding window technique which avoids the errors produced by previous systems."], "ms": ["Dalam makalah ini, kami membentangkan algoritma penjajaran teks berasaskan tetingkap gelongsor novel untuk Captioning orang ramai masa nyata.", "Dalam kertas ini, kami memperkenalkan teknik tetingkap gelongsor novel yang mengelakkan kesilapan yang dihasilkan oleh sistem terdahulu."]}, {"en": ["Experiments show that by incorporating Mers model, the baseline system achieves statistically significant improvement.", "By incorporating the Mers models, the baseline system achieves statistically significant improvements."], "ms": ["Eksperimen menunjukkan bahawa dengan menggabungkan model Mers, sistem asas mencapai peningkatan yang signifikan secara statistik.", "Dengan menggabungkan model Mers, sistem asas mencapai peningkatan yang signifikan secara statistik."]}, {"en": ["In addition an experiment was conducted to evaluate auto the advantage in terms of speed, the Autosem", "In addition an experiment was conducted to evaluate auto the advantage."], "ms": ["Di samping itu, satu eksperimen telah dijalankan untuk menilai kelebihan auto dari segi kelajuan, Autosem", "Di samping itu, satu eksperimen telah dijalankan untuk menilai kelebihan auto."]}, {"en": ["Co-Training uses both labeled and Unlabeled data to train models that have two different views of the data.", "Co-Training uses several classifiers trained on independent views of the same instances."], "ms": ["Latihan bersama menggunakan kedua-dua data berlabel dan tidak berlabel untuk melatih model yang mempunyai dua pandangan data yang berbeza.", "Latihan bersama menggunakan beberapa pengelas yang dilatih pada pandangan bebas dari contoh yang sama."]}, {"en": ["Local analysis and Co-Occurrence based user profile representation have also been adopted to expand the query (Cite-P-18-1-12, Cite-P-18-1-3).", "User profile representation have also been adopted to expand the query (Cite-P-18-1-12, Cite-P-18-1-4)."], "ms": ["Analisis tempatan dan perwakilan profil pengguna berasaskan Co-Occurrence juga telah diterima pakai untuk memperluaskan pertanyaan (Cite-P-18-1-12, Cite-P-18-1-3).", "Perwakilan profil pengguna juga telah diterima pakai untuk memperluaskan pertanyaan (Cite-P-18-1-12, Cite-P-18-1-4)."]}, {"en": ["The pyramid method is a summarization evaluation scheme designed to achieve consistent score while taking into account human variation in content selection and formulation.", "The pyramid method provides a Annotation method and metric that addresses the issues of Reliability and stability of scoring."], "ms": ["Kaedah piramid adalah skema penilaian ringkasan yang direka untuk mencapai skor yang konsisten sambil mengambil kira variasi manusia dalam pemilihan kandungan dan formulasi.", "Kaedah piramid menyediakan kaedah dan metrik Annotasi yang menangani isu-isu Kebolehpercayaan dan kestabilan pemarkahan."]}, {"en": ["An important advantage of our model is that it can be used to learn region representations for words, by using a quadratic kernel.", "By using a quadratic kernel, we can effectively learn word regions, which outperform existing Unsupervised models."], "ms": ["Kelebihan penting model kami adalah bahawa ia boleh digunakan untuk mempelajari perwakilan rantau untuk kata-kata, dengan menggunakan kernel kuadratik.", "Dengan menggunakan kernel kuadratik, kita dapat mempelajari wilayah perkataan dengan berkesan, yang mengatasi model Unsupervised yang ada."]}, {"en": ["Specifically, we propose target specific transformation component to better integrate target information into the word representation.", "More accurately, we adopt a proximity strategy to scale the input of Convolutional layer with Positional relevance between a word and the target."], "ms": ["Khususnya, kami mencadangkan komponen transformasi khusus sasaran untuk mengintegrasikan maklumat sasaran dengan lebih baik ke dalam perwakilan perkataan.", "Lebih tepat lagi, kami menggunakan strategi jarak untuk meningkatkan input lapisan Konvolusi dengan kaitan kedudukan antara perkataan dan sasaran."]}, {"en": ["We formulate this task as a Text-To-Text natural language generation (Nlg) problem.", "In cases, and we formulate it as a Text-To-Text natural language generation (Nlg) problem."], "ms": ["Kami merumuskan tugas ini sebagai masalah penjanaan bahasa semula jadi Teks-Ke-Teks (Nlg).", "Dalam kes, dan kami merumuskannya sebagai masalah penjanaan bahasa semula jadi Teks-Ke-Teks (Nlg)."]}, {"en": ["Cite-P-22-1-5 investigate the idea of fusing disparate sentences with a supervised algorithm, as discussed above.", "Cite-P-22-1-5 proposed a supervised method to fuse disparate sentences, which takes as input."], "ms": ["Cite-P-22-1-5 menyiasat idea menggabungkan ayat yang berbeza dengan algoritma yang diawasi, seperti yang dibincangkan di atas.", "Cite-P-22-1-5 mencadangkan kaedah yang diawasi untuk menggabungkan ayat yang berbeza, yang mengambil sebagai input."]}, {"en": ["Usually emotions achieve a low agreement among Raters (see Cite-P-8-3-0) and surprisingly emotion recognition is higher in a condition of modality deprivation (only acoustic or only visual vs. Bimodal).", "And, surprisingly, emotion recognition is higher in a condition of modality deprivation (I . E . only acoustic or only visual modality vs . Bimodal display of emotion)."], "ms": ["Biasanya emosi mencapai persetujuan yang rendah di kalangan Raters (lihat Cite-P-8-3-0) dan pengiktirafan emosi yang mengejutkan lebih tinggi dalam keadaan kekurangan modaliti (hanya akustik atau hanya visual vs Bimodal).", "Dan, menghairankan, pengiktirafan emosi lebih tinggi dalam keadaan kekurangan modaliti (I. E. hanya modaliti akustik atau visual sahaja berbanding paparan emosi bimodal)."]}, {"en": ["The Brown algorithm is a Hierarchical Agglomerative Hard-Clustering algorithm.", "Brown clustering is an Agglomerative algorithm that induces a Hierarchical clustering of words."], "ms": ["Algoritma Brown adalah algoritma Pengubahsuaian Keras Hierarki.", "Brown clustering adalah algoritma Agglomerative yang mendorong gugusan perkataan Hierarki."]}, {"en": ["The particular proposal is both precisely Characterizable, through a compilation to linear indexed Grammars, and Computationally operational, by virtue of an efficient algorithm for recognition and Parsing.", "Particular proposal is both precisely Characterizable, through a compilation to linear indexed Grammars, and Computationally operational, by virtue of an efficient algorithm for recognition and Parsing."], "ms": ["Cadangan ini adalah tepat Characterizable, melalui kompilasi untuk Grammar berindeks linear, dan operasi komputasi, berdasarkan algoritma yang cekap untuk pengiktirafan dan penguraian.", "Cadangan khusus adalah tepat Berciri, melalui kompilasi untuk Grammar berindeks linear, dan operasi komputasi, berdasarkan algoritma yang cekap untuk pengiktirafan dan penghuraian."]}, {"en": ["To cope with this problem, we applied an efficient algorithm of maximum entropy estimation for feature forests.", "To cope with this, we adopted an algorithm of maximum entropy estimation for feature forests, which allows parameters to be efficiently estimated."], "ms": ["Untuk mengatasi masalah ini, kami menggunakan algoritma yang cekap anggaran entropi maksimum untuk hutan ciri.", "Untuk mengatasi ini, kami menggunakan algoritma anggaran entropi maksimum untuk hutan ciri, yang membolehkan parameter dianggarkan dengan cekap."]}, {"en": ["In section 5, we discuss the problem of Segmenting and labeling dialog structure and building models for predicting these labels.", "In this paper, we discuss methods for automatically creating models of dialog structure."], "ms": ["Dalam seksyen 5, kita membincangkan masalah Segmen dan pelabelan struktur dialog dan model bangunan untuk meramalkan label ini.", "Dalam makalah ini, kami membincangkan kaedah untuk membuat model struktur dialog secara automatik."]}, {"en": ["To Parse the target text, one simply uses the mixture of Parsing models with the highest predicted accuracy.", "Given a specific target text, the resulting system proposes linear combinations of Parsing models."], "ms": ["Untuk menghuraikan teks sasaran, seseorang hanya menggunakan campuran model Penghuraian dengan ketepatan yang diramalkan tertinggi.", "Memandangkan teks sasaran tertentu, sistem yang terhasil mencadangkan kombinasi linear model Parsing."]}, {"en": ["Summary structure is planned with sentences generated based on the semantic link network.", "Summary can be generated based on the semantic link network through summary structure."], "ms": ["Struktur ringkasan dirancang dengan ayat yang dihasilkan berdasarkan rangkaian pautan semantik.", "Ringkasan boleh dihasilkan berdasarkan rangkaian pautan semantik melalui struktur ringkasan."]}, {"en": ["We proposed a method using Svr to combine various features to evaluate the similarity between two sentences.", "In this paper, we proposed a Svm-Based solution to compute the semantic similarity between two sentences."], "ms": ["Kami mencadangkan kaedah menggunakan Svr untuk menggabungkan pelbagai ciri untuk menilai persamaan antara dua ayat.", "Dalam makalah ini, kami mencadangkan penyelesaian berasaskan Svm untuk mengira persamaan semantik antara dua ayat."]}, {"en": ["In this paper, we propose to improve the robustness of Nmt models with adversarial stability training.", "In this paper, we address this challenge with adversarial stability training."], "ms": ["Dalam kertas kerja ini, kami mencadangkan untuk meningkatkan kekukuhan model Nmt dengan latihan kestabilan musuh.", "Dalam makalah ini, kami menangani cabaran ini dengan latihan kestabilan musuh."]}, {"en": ["In this paper we specifically address questions of Polysemy with respect to verbs, and how regular extensions of meaning can be achieved through the Adjunction of particular syntactic phrases.", "We specifically address questions of Polysemy with respect to verbs, and how regular extensions of meaning can be achieved through the Adjunction of particular syntactic phrases."], "ms": ["Dalam makalah ini kita secara khusus menangani soalan Polisemy berkenaan dengan kata kerja, dan bagaimana sambungan makna yang kerap dapat dicapai melalui Penggabungan frasa sintaktik tertentu.", "Kami secara khusus menangani soalan Polisemy berkenaan dengan kata kerja, dan bagaimana sambungan makna yang kerap dapat dicapai melalui Penggabungan frasa sintaktik tertentu."]}, {"en": ["The data generated in the task provides ample Opportunitites for further investigations of preposition behavior.", "That will provide further insights into the characterization of preposition behavior."], "ms": ["Data yang dihasilkan dalam tugas menyediakan Opportunitites yang mencukupi untuk siasatan lanjut mengenai tingkah laku preposisi.", "Ini akan memberikan gambaran lebih lanjut mengenai ciri tingkah laku preposisi."]}, {"en": ["In this paper, we alleviate the above issue by utilizing the alignments (human Annotated data or machine alignments) of the training set.", "In this paper, we improve the attention or alignment accuracy of neural machine translation by utilizing the alignments of training."], "ms": ["Dalam makalah ini, kami mengurangkan masalah di atas dengan menggunakan penjajaran (data Annotated manusia atau penjajaran mesin) set latihan.", "Dalam kertas kerja ini, kami meningkatkan perhatian atau ketepatan penjajaran terjemahan mesin saraf dengan menggunakan penjajaran latihan."]}, {"en": ["In this paper, Arabic was the target language but the approach is applicable to any language that needs affix removal.", "For Arabic, but the approach is applicable to any language that needs affix removal."], "ms": ["Dalam makalah ini, bahasa Arab adalah bahasa sasaran tetapi pendekatannya berlaku untuk bahasa apa pun yang memerlukan penyingkiran affix.", "Untuk bahasa Arab, tetapi pendekatan ini berlaku untuk mana-mana bahasa yang memerlukan penyingkiran affix."]}, {"en": ["Quickset is a distributed system consisting of a collection of agents that communicate through the open agent Architecture4 (Cite-P-2-60-7).", "Quickset is a Multimodal (Pen/Voice) interface for Map-Based tasks."], "ms": ["Quickset adalah sistem diedarkan yang terdiri daripada koleksi ejen yang berkomunikasi melalui ejen terbuka Architecture4 (Cite-P-2-60-7).", "Quickset adalah antara muka Multimodal (Pen / Voice) untuk tugas berasaskan Peta."]}, {"en": ["Ratnaparkhi et al , 1994) used 20,801 Tuples for training and 3097 Tuples for evaluation.", "Ratnaparkhi et al used 20,801 Tuples for training and 3097 Tuples for evaluation."], "ms": ["Ratnaparkhi et al, 1994) menggunakan 20,801 Tuple untuk latihan dan 3097 Tuple untuk penilaian.", "Ratnaparkhi et al menggunakan 20,801 Tuples untuk latihan dan 3097 Tuples untuk penilaian."]}, {"en": ["We found that our method gave overall better Rouge scores than four baseline methods, and the new sentence clustering and compression algorithm are robust.", "Our evaluation shows that our method obtains better Rouge recall score compared with four baseline methods, and it also achieve reasonably high-quality aspect clusters."], "ms": ["Kami mendapati bahawa kaedah kami memberikan skor Rouge keseluruhan yang lebih baik daripada empat kaedah asas, dan algoritma pengelompokan dan pemampatan ayat baru adalah mantap.", "Penilaian kami menunjukkan bahawa kaedah kami memperoleh skor penarikan balik Rouge yang lebih baik berbanding dengan empat kaedah asas, dan ia juga mencapai kluster aspek berkualiti tinggi."]}, {"en": ["This paper presented universal conceptual cognitive Annotation (Ucca), a novel framework for semantic representation.", "This paper presents a novel approach to grammatical representation that Annotates semantic distinctions."], "ms": ["Kertas ini membentangkan Annotasi kognitif konseptual sejagat (Ucca), rangka kerja novel untuk perwakilan semantik.", "Kertas ini membentangkan pendekatan baru untuk perwakilan tatabahasa yang Annotates perbezaan semantik."]}, {"en": ["In this paper, we investigate the role of large amounts of noisily sense Annotated data obtained using an Unsupervised approach in relieving the data acquisition bottleneck for the Wsd task.", "In this paper, we present an Unsupervised Bootstrapping approach for Wsd which exploits huge amounts of automatically generated noisy data."], "ms": ["Dalam makalah ini, kami menyiasat peranan sejumlah besar data bernoisily yang diperoleh menggunakan pendekatan yang tidak diawasi dalam melegakan masalah pemerolehan data untuk tugas Wsd.", "Dalam makalah ini, kami membentangkan pendekatan Bootstrapping yang tidak diawasi untuk Wsd yang mengeksploitasi sejumlah besar data bising yang dihasilkan secara automatik."]}, {"en": ["We used Mxpost, and in order to discover more general patterns, we map the tag set down after tagging, Eg.", "We used Mxpost, and in order to discover more general patterns, we map the tag set down after tagging, E."], "ms": ["Kami menggunakan Mxpost, dan untuk mencari corak yang lebih umum, kami memetakan tag yang ditetapkan selepas penandaan, Eg.", "Kami menggunakan Mxpost, dan untuk mencari corak yang lebih umum, kami memetakan tag yang ditetapkan selepas penandaan, E."]}, {"en": ["In this paper, we propose a Knowledge-Based answer selection system for Arabic.", "In this paper, we proposed our system to automate the process of Arabic answer selection."], "ms": ["Dalam makalah ini, kami mencadangkan sistem pemilihan jawapan berasaskan pengetahuan untuk bahasa Arab.", "Dalam makalah ini, kami mencadangkan sistem kami untuk mengautomasikan proses pemilihan jawapan Arab."]}, {"en": ["Tang et al explored the impact of three different types of word representations on Clustering-Based representation, Distributional representation and word Embedding.", "Tang et al, Khabsa and Giles and tang et al investigated the effect of three different types of word representation features, including Clustering-Based, Distributional and word Embeddings, on BIOMEDICAL name entity recognition tasks."], "ms": ["Tang et al meneroka kesan tiga jenis perwakilan perkataan yang berbeza pada perwakilan Berasaskan Clustering, perwakilan Distributional dan Embedding perkataan.", "Tang et al, Khabsa dan Giles dan tang et al menyiasat kesan tiga jenis ciri perwakilan perkataan yang berbeza, termasuk Clustering-Based, Distributional dan perkataan Embeddings, pada tugas pengiktirafan entiti nama BIOMEDICAL."]}, {"en": ["We introduce a novel method for grammatical error correction with a number of small Corpora.", "We have presented a novel approach to grammatical error correction."], "ms": ["Kami memperkenalkan kaedah baru untuk pembetulan ralat tatabahasa dengan sebilangan kecil Corpora.", "Kami telah membentangkan pendekatan baru untuk pembetulan ralat tatabahasa."]}, {"en": ["They employed a Domain-Independent feature set along with features generated from the output of Chemspot, an existing chemical named entity recognition tool, as well as a collection of Domain-Specific resources.", "The system employed a Domain-Independent feature set along with features generated from the output of Chemspot, an existing chemical named entity recognition tool, as well as a collection of Domain-Specific resources."], "ms": ["Mereka menggunakan set ciri Domain-Independent bersama-sama dengan ciri yang dihasilkan dari output Chemspot, alat pengiktirafan entiti yang dinamakan kimia yang ada, serta koleksi sumber Domain-Specific.", "Sistem ini menggunakan set ciri Domain-Independent bersama-sama dengan ciri yang dihasilkan dari output Chemspot, alat pengiktirafan entiti yang dinamakan kimia yang ada, serta koleksi sumber Domain-Specific."]}, {"en": ["The additional model is Log-Linearly interpolated with the Indomain model using the Multidecoding method described in.", "For TM, the additional model is Log-Linearly interpolated with the In-Domain model using the Multi-Decoding method described in."], "ms": ["Model tambahan ialah Log-Linearly interpolated dengan model Indomain menggunakan kaedah Multidecoding yang diterangkan dalam.", "Bagi TM, model tambahan adalah Log-Linearly interpolated dengan model In-Domain menggunakan kaedah Multi-Decoding yang diterangkan dalam."]}, {"en": ["Yi et al, Hu and Liu, Kobayashi et al, Popescu and Etzioni ,.", "Kobayashi et al, Yi et al, Popescu and Etzioni, Hu and Liu ,."], "ms": ["Yi et al, Hu dan Liu, Kobayashi et al, Popescu dan Etzioni,.", "Kobayashi et al, Yi et al, Popescu dan Etzioni, Hu dan Liu,."]}, {"en": ["We use a similarity sensitive Re-Rank method to get the final abbreviation.", "We propose a Two-Stage method to find the corresponding abbreviation."], "ms": ["Kami menggunakan kaedah Re-Rank sensitif yang serupa untuk mendapatkan singkatan akhir.", "Kami mencadangkan kaedah Dua Peringkat untuk mencari singkatan yang sepadan."]}, {"en": ["We compare our model with the Baselines and state-of-the-art models for sentiment analysis, Speaker traits recognition and emotion recognition.", "Efficiency and performance of our approach are evaluated on different downstream tasks, namely sentiment analysis, Speaker-Trait recognition and emotion recognition."], "ms": ["Kami membandingkan model kami dengan garis dasar dan model canggih untuk analisis sentimen, ciri Speaker pengiktirafan dan pengiktirafan emosi.", "Kecekapan dan prestasi pendekatan kami dinilai pada tugas hiliran yang berbeza, iaitu analisis sentimen, pengiktirafan Speaker-Trait dan pengiktirafan emosi."]}, {"en": ["In Transformation-Based Parsing, a finite sequence of tree rewriting rules are checked for application to an input structure.", "In Transformation-Based Parsing, an ordered sequence of Tree-Rewriting rules (tree transformations) are applied to an initial Parse structure."], "ms": ["Dalam Penghuraian Berasaskan Transformasi, urutan terhingga peraturan penulisan semula pokok diperiksa untuk aplikasi ke struktur input.", "Dalam Penghuraian Berasaskan Transformasi, urutan peraturan Tree-Rewriting (transformasi pokok) yang dipesan digunakan pada struktur Parse awal."]}, {"en": ["The Corpus was converted from Xml to raw text, various string Normalization operations were then applied, and the corpus was Lemmatized using Treetagger.", "The text corpus was Lemmatized using the Treetagger and Parsed for syntactic dependency structures with Parzu."], "ms": ["Corpus ditukar dari Xml ke teks mentah, pelbagai operasi Normalisasi rentetan kemudian digunakan, dan korpus itu Lemmatized menggunakan Treetagger.", "Korpus teks telah Lemmatized menggunakan Treetagger dan Parsed untuk struktur kebergantungan sintaktik dengan Parzu."]}, {"en": ["To test how cs, normalisation, and Dimensionality reduction affect simple compositional vector operations we use the test portion of the Phrasal similarity Dataset from Mitchell and Lapata.", "In section 4 we examine our parameters in the context of Distributional compositional Semantics, using the evaluation Dataset from Mitchell and Lapata."], "ms": ["Untuk menguji bagaimana cs, normalisasi, dan pengurangan Dimensionaliti mempengaruhi operasi vektor komposisi mudah, kami menggunakan bahagian ujian Dataset persamaan Phrasal dari Mitchell dan Lapata.", "Dalam seksyen 4 kami mengkaji parameter kami dalam konteks Semantik Komposisi Pengagihan, menggunakan Dataset penilaian dari Mitchell dan Lapata."]}, {"en": ["Our methods extract one million contradiction pairs with over 70% precision, and 500,000 Causality pairs with about 70% precision from a 600 million page web corpus.", "We can extract one million contradiction pairs and 500 , 000 Causality pairs with about 70% precision from a 600 million page web corpus."], "ms": ["Kaedah kami mengekstrak satu juta pasangan kontradiksi dengan ketepatan lebih 70%, dan 500,000 pasangan Causality dengan ketepatan kira-kira 70% dari 600 juta korpus web halaman.", "Kita boleh mengekstrak satu juta pasangan yang bertentangan dan 500, 000 pasangan Causality dengan kira-kira 70% ketepatan dari 600 juta korpus web halaman."]}, {"en": ["In order to have a more extensive Database of Affect-Related terms, in the following experiments we used Wordnet affect, Sentiwordnet, Micrownop.", "In order to have a more extensive Database of Affect-Related terms, in the following experiments we used Wordnet affect."], "ms": ["Untuk mempunyai pangkalan data yang lebih luas istilah berkaitan dengan kesan, dalam eksperimen berikut kami menggunakan Wordnet mempengaruhi, Sentiwordnet, Micrownop.", "Untuk mempunyai pangkalan data yang lebih luas istilah berkaitan dengan kesan, dalam eksperimen berikut kami menggunakan kesan Wordnet."]}, {"en": ["Statistical topic models such as latent Dirichlet allocation provide powerful tools for Uncovering hidden thematic patterns in text and are useful for representing and summarizing the contents of large document collections.", "Statistical topic models such as latent Dirichlet allocation provide a powerful framework for representing and summarizing the contents of large document collections."], "ms": ["Model topik statistik seperti peruntukan Dirichlet laten menyediakan alat yang kuat untuk Mengembalikan corak tematik tersembunyi dalam teks dan berguna untuk mewakili dan meringkaskan kandungan koleksi dokumen besar.", "Model topik statistik seperti peruntukan Dirichlet laten menyediakan rangka kerja yang kuat untuk mewakili dan meringkaskan kandungan koleksi dokumen yang besar."]}, {"en": ["Vlachos has used the Classifier confidence score as a stopping criterion for the uncertainty sampling.", "Vlachos suggests to use Classifier confidence to define a stopping criterion for Uncertaintybased sampling."], "ms": ["Vlachos telah menggunakan skor keyakinan Classifier sebagai kriteria berhenti untuk persampelan ketidakpastian.", "Vlachos mencadangkan untuk menggunakan keyakinan pengelas untuk menentukan kriteria berhenti untuk persampelan berasaskan ketidakpastian."]}, {"en": ["Here we identify the natural fragment of normal dominance constraints and show that its Satisfiability problem is in deterministic polynomial time.", "In this paper, we define normal dominance constraints, a natural fragment of dominance constraints whose restrictions should be unproblematic."], "ms": ["Di sini kita mengenal pasti serpihan semula jadi kekangan dominasi biasa dan menunjukkan bahawa masalah Kepuasannya adalah dalam masa polinomial deterministik.", "Dalam makalah ini, kita menentukan kekangan dominasi biasa, pecahan semula jadi kekangan dominasi yang sekatannya tidak boleh bermasalah."]}, {"en": ["In our development work, we found that the method of Clark and weir overall gave better performance, and so we limit our discussion here to the results on their model.", "In both our pilot experiment and current development work, we found that the method of Clark and weir overall gave better performance, and so we limit our discussion here to the results on their model."], "ms": ["Dalam kerja pembangunan kami, kami mendapati bahawa kaedah Clark dan weir secara keseluruhan memberikan prestasi yang lebih baik, dan oleh itu kami mengehadkan perbincangan kami di sini untuk keputusan mengenai model mereka.", "Dalam kedua-dua eksperimen perintis kami dan kerja pembangunan semasa, kami mendapati bahawa kaedah Clark dan weir secara keseluruhan memberikan prestasi yang lebih baik, dan oleh itu kami mengehadkan perbincangan kami di sini untuk keputusan pada model mereka."]}, {"en": ["Therefore, we adopt the greedy feature selection algorithm as described in Jiang et al to pick up positive features Incrementally according to their contributions.", "Therefore, we adopt the greedy feature selection algorithm as described in Jiang and Ng to pick up positive features Incrementally according to their contributions on the development data."], "ms": ["Oleh itu, kami menggunakan algoritma pemilihan ciri yang tamak seperti yang dijelaskan di Jiang et al untuk mengambil ciri positif Secara bertahap mengikut sumbangan mereka.", "Oleh itu, kami menggunakan algoritma pemilihan ciri yang tamak seperti yang dijelaskan di Jiang dan Ng untuk mengambil ciri positif Secara bertahap mengikut sumbangan mereka terhadap data pembangunan."]}, {"en": ["Clark and Curran demonstrates that this relatively small set has high coverage on unseen data and can be used to create a robust and accurate Parser.", "Clark and Curran demonstrates that this relatively small set has high coverage on unseen data and can be used to create low."], "ms": ["Clark dan Curran menunjukkan bahawa set yang agak kecil ini mempunyai liputan yang tinggi pada data yang tidak kelihatan dan boleh digunakan untuk membuat Parser yang mantap dan tepat.", "Clark dan Curran menunjukkan bahawa set yang agak kecil ini mempunyai liputan yang tinggi pada data yang tidak kelihatan dan boleh digunakan untuk membuat rendah."]}, {"en": ["We also look to lay the foundation for analysis based on implicit data collected from our application.", "Around data, we believe that the data collected from our application is valuable."], "ms": ["Kami juga ingin meletakkan asas untuk analisis berdasarkan data tersirat yang dikumpulkan dari aplikasi kami.", "Di sekitar data, kami percaya bahawa data yang dikumpulkan dari aplikasi kami adalah berharga."]}, {"en": ["In this paper, we propose a deep neural network diachronic Distributional model.", "In this paper, we have built the first diachronic Distributional model that represents time as a continuous variable."], "ms": ["Dalam makalah ini, kami mencadangkan model pengedaran diachronic rangkaian saraf yang mendalam.", "Dalam makalah ini, kami telah membina model Distributional diachronic pertama yang mewakili masa sebagai pemboleh ubah berterusan."]}, {"en": ["We use Lstm to materialize both Encoder and Decoder.", "Then, we use Bidirectional Single-Layer Lstms to Encode C into vectors."], "ms": ["Kami menggunakan Lstm untuk mewujudkan Pengekod dan Pengekod.", "Kemudian, kita menggunakan Lstm Lapisan Tunggal Bidirectional untuk Mengkod C ke dalam vektor."]}, {"en": ["Experiments are conducted on the Semeval-2010 task 8 Dataset.", "Experiments are conducted on Semeval-2010 task 8 Dataset."], "ms": ["Eksperimen dijalankan pada set data tugas Semeval-2010 8.", "Eksperimen dijalankan pada Semeval-2010 tugas 8 Dataset."]}, {"en": ["Second, we integrate a simple lexical Module which is jointly trained with the rest of the model.", "Second, we add a new term representing a more direct connection from the source sentence, which allows the model."], "ms": ["Kedua, kami mengintegrasikan Modul leksikal mudah yang dilatih bersama dengan model yang lain.", "Kedua, kami menambah istilah baru yang mewakili sambungan yang lebih langsung dari ayat sumber, yang membolehkan model."]}, {"en": ["To predict labels, we train conditional random fields, which are directly Optimized for splitting.", "To exploit these kind of labeling constraints, we resort to conditional random fields."], "ms": ["Untuk meramalkan label, kami melatih medan rawak bersyarat, yang secara langsung Dioptimumkan untuk pemisahan.", "Untuk mengeksploitasi kekangan pelabelan seperti ini, kami menggunakan medan rawak bersyarat."]}, {"en": ["In this introduction we described the Particularities of biochemical terminology.", "In the introductory section, we described the characteristic phenomena of biochemical terminology."], "ms": ["Dalam pengenalan ini, kami menerangkan Keutamaan terminologi biokimia.", "Dalam bahagian pengenalan, kami menerangkan fenomena ciri terminologi biokimia."]}, {"en": ["These relations form part of the Qualia structure assumed in Generative lexicon theory.", "Qualia structure is a distinctive feature of the Generative lexicon theory."], "ms": ["Hubungan ini merupakan sebahagian daripada struktur Qualia yang diandaikan dalam teori leksikon Generatif.", "Struktur Qualia adalah ciri khas teori leksikon Generatif."]}, {"en": ["Then we adopt a combination method to build a universal model to estimate semantic similarity, which consists of traditional natural language processing (Nlp) methods and deep learning methods.", "Semantic similarity evaluation, we build a universal model in combination of traditional Nlp methods and deep learning methods together."], "ms": ["Kemudian kita menggunakan kaedah gabungan untuk membina model sejagat untuk menganggarkan persamaan semantik, yang terdiri daripada kaedah pemprosesan bahasa semula jadi tradisional (Nlp) dan kaedah pembelajaran mendalam.", "Penilaian persamaan semantik, kami membina model sejagat dalam kombinasi kaedah Nlp tradisional dan kaedah pembelajaran mendalam bersama-sama."]}, {"en": ["Xing et al Pre-Defined a set of topics from an external corpus to guide the generation of the Seq2Seq model.", "Xing et al presented topic aware response generation by incorporating topic words obtained from a Pre-Trained Lda model."], "ms": ["Xing et al Mentakrifkan satu set topik dari korpus luaran untuk membimbing generasi model Seq2Seq.", "Xing et al menyampaikan penjanaan respons sedar topik dengan memasukkan kata-kata topik yang diperolehi daripada model Lda Pra-Trained."]}, {"en": ["This paper describes a novel approach to the semantic relation detection problem.", "This paper proposes a novel approach to create detectors for new relations."], "ms": ["Kertas ini menerangkan pendekatan novel kepada masalah pengesanan hubungan semantik.", "Kertas ini mencadangkan pendekatan novel untuk mencipta pengesan untuk hubungan baru."]}, {"en": ["The aspect term extraction method is based on supervised learning algorithm, where we use different classifiers, and finally combine their outputs using a majority voting technique.", "Aspect term extraction is based on supervised machine learning, where we build many models based on different classifiers, and finally combine their outputs using majority voting."], "ms": ["Kaedah pengekstrakan istilah aspek adalah berdasarkan algoritma pembelajaran yang diawasi, di mana kita menggunakan pengelas yang berbeza, dan akhirnya menggabungkan output mereka menggunakan teknik pengundian majoriti.", "Pengekstrakan istilah aspek adalah berdasarkan pembelajaran mesin yang diawasi, di mana kita membina banyak model berdasarkan pengelas yang berbeza, dan akhirnya menggabungkan output mereka menggunakan pengundian majoriti."]}, {"en": ["Next on the continuum, we find work that focuses on defining morphological models with limited Lexica that are then extended using raw text.", "Closer to the other end, we find work that focuses on defining morphological models with limited Lexicons that are then extended using raw text."], "ms": ["Seterusnya pada kontinum, kami dapati kerja yang memberi tumpuan kepada menentukan model morfologi dengan Lexica terhad yang kemudian dilanjutkan menggunakan teks mentah.", "Lebih dekat ke hujung yang lain, kami dapati kerja yang memberi tumpuan kepada menentukan model morfologi dengan Leksikon terhad yang kemudian dilanjutkan menggunakan teks mentah."]}, {"en": ["The Heuristic strategy of Grow-Diag-Final-And is used to combine the Bidirectional alignments to extract phrase translations and to reorder tables.", "For phrase extraction the Grow-Diag-Final Heuristics described in is used to derive the refined alignment from Bidirectional alignments."], "ms": ["Strategi Heuristik Grow-Diag-Final-And digunakan untuk menggabungkan penjajaran Bidirectional untuk mengekstrak terjemahan frasa dan menyusun semula jadual.", "Untuk pengekstrakan frasa, Heuristik Tumbuh-Diag-Final yang diterangkan dalam digunakan untuk memperoleh penjajaran halus dari penjajaran Bidirectional."]}, {"en": ["Msa is the language used in education, Scripted speech and official settings while Da is the primarily spoken native vernacular.", "Msa is the formal Arabic that is mostly used in news Broadcasting channels and magazines to address the entire Arab region."], "ms": ["Msa adalah bahasa yang digunakan dalam pendidikan, ucapan bertulis dan tetapan rasmi sementara Da adalah bahasa vernakular asli yang dituturkan.", "Msa adalah bahasa Arab rasmi yang kebanyakannya digunakan dalam saluran berita dan majalah untuk menangani seluruh rantau Arab."]}, {"en": ["Data Sparsity is the bane of natural language processing (Nlp) (Cite-P-15-5-2, Cite-P-15-3-7).", "Data Sparsity is a major problem in building traditional N-Gram language models, which assume that the probability of a word only depends on the previous Math-W-2-1-0-68 words."], "ms": ["Data Sparsity adalah bane pemprosesan bahasa semula jadi (Nlp) (Cite-P-15-5-2, Cite-P-15-3-7).", "Sparsity data adalah masalah utama dalam membina model bahasa tradisional N-Gram, yang menganggap bahawa kebarangkalian perkataan hanya bergantung pada perkataan Math-W-2-1-0-68 sebelumnya."]}, {"en": ["Meanwhile, the fluency of the produced summaries has been mostly ignored.", "And the Readability of the produced summaries have been mostly ignored."], "ms": ["Sementara itu, kefasihan ringkasan yang dihasilkan kebanyakannya diabaikan.", "Dan kebolehbacaan ringkasan yang dihasilkan kebanyakannya diabaikan."]}, {"en": ["These are not only problems in exploring Multi-Party dialogues.", "But this is a rather special case for Multi-Party dialogues."], "ms": ["Ini bukan sahaja masalah dalam meneroka dialog Multi-Party.", "Tetapi ini adalah kes yang agak istimewa untuk dialog Multi-Party."]}, {"en": ["The main challenge we tackle is to generate quality data for training the reordering model in spite of the machine alignments being noisy.", "And we focus on being able to incorporate relatively noisy machine alignments to improve the reordering model."], "ms": ["Cabaran utama yang kami hadapi adalah untuk menghasilkan data berkualiti untuk melatih model penyusunan semula walaupun penjajaran mesin bising.", "Dan kami memberi tumpuan kepada dapat menggabungkan penjajaran mesin yang agak bising untuk meningkatkan model penyusunan semula."]}, {"en": ["In this paper, we will show the efficacy of collaborative ranking on the entity linking task defined in the knowledge base population (Kbp) track (Cite-P-25-3-2) at text analysis conference (Tac).", "In this paper, we will show the efficacy of collaborative ranking on the entity linking task defined in the knowledge base population (Kbp) track (Cite-P-25-3-2)."], "ms": ["Dalam makalah ini, kami akan menunjukkan keberkesanan kedudukan kolaboratif mengenai tugas yang menghubungkan entiti yang ditakrifkan dalam trek populasi pangkalan pengetahuan (Kbp) (Cite-P-25-3-2) pada persidangan analisis teks (Tac).", "Dalam makalah ini, kami akan menunjukkan keberkesanan kedudukan kolaboratif mengenai tugas penghubung entiti yang ditakrifkan dalam trek populasi pangkalan pengetahuan (Kbp) (Cite-P-25-3-2)."]}, {"en": ["We empirically evaluate Cpra on benchmark data created from Freebase.", "We empirically verify the effectiveness of Cpra."], "ms": ["Kami secara empirikal menilai Cpra pada data penanda aras yang dibuat dari Freebase.", "Kami secara empirikal mengesahkan keberkesanan Cpra."]}, {"en": ["Our proposed models use deep neural networks, which can easily share information with hidden shared layers.", "Deep neural models provide a convenient way to share information among multiple tasks."], "ms": ["Model yang dicadangkan kami menggunakan rangkaian saraf yang mendalam, yang boleh berkongsi maklumat dengan mudah dengan lapisan yang dikongsi tersembunyi.", "Model saraf yang mendalam menyediakan cara yang mudah untuk berkongsi maklumat di antara pelbagai tugas."]}, {"en": ["Our method is more accurate than the baseline methods in different settings such as large rule sets and large vocabulary sizes.", "Data show that the proposed approach improves upon existing methods in terms of accuracy in different settings."], "ms": ["Kaedah kami lebih tepat daripada kaedah asas dalam tetapan yang berbeza seperti set peraturan besar dan saiz perbendaharaan kata yang besar.", "Data menunjukkan bahawa pendekatan yang dicadangkan meningkatkan kaedah yang ada dari segi ketepatan dalam tetapan yang berbeza."]}, {"en": ["Zhang et al utilize adversarial training to obtain Cross-Lingual word Embeddings without any parallel data.", "Zhang et al apply adversarial training to align Monolingual word vector spaces with no supervision."], "ms": ["Zhang et al menggunakan latihan adversarial untuk mendapatkan Embedding perkataan Cross-Lingual tanpa sebarang data selari.", "Zhang et al menerapkan latihan adversarial untuk menyelaraskan ruang vektor perkataan Monolingual tanpa pengawasan."]}, {"en": ["Following the set-up of Duan et al and Zhang and Clark, we split Ctb5 into training.", "We follow the setup of Duan et al and split Ctb5 into training, development, and test sets."], "ms": ["Berikutan penubuhan Duan et al dan Zhang dan Clark, kami membahagikan Ctb5 menjadi latihan.", "Kami mengikuti persediaan Duan et al dan membahagikan Ctb5 ke dalam latihan, pembangunan, dan set ujian."]}, {"en": ["In Unsupervised methods, most approaches regarded opinion words as the important indicators for opinion targets (Cite-P-16-1-3, Cite-P-16-3-2, Cite-P-16-1-18, Cite-P-16-3-5).", "To extract opinion targets, many studies regarded opinion words as strong indicators (Cite-P-16-1-3, Cite-P-16-1-16, Cite-P-16-1-10, Cite-P-16-1-18, Cite-P-16-3-5)."], "ms": ["Dalam kaedah yang tidak diawasi, kebanyakan pendekatan menganggap kata-kata pendapat sebagai penunjuk penting untuk sasaran pendapat (Cite-P-16-1-3, Cite-P-16-3-2, Cite-P-16-1-18, Cite-P-16-3-5).", "Untuk mengekstrak sasaran pendapat, banyak kajian menganggap kata-kata pendapat sebagai penunjuk yang kuat (Cite-P-16-1-3, Cite-P-16-1-16, Cite-P-16-1-10, Cite-P-16-1-18, Cite-P-16-3-5)."]}, {"en": ["Question-Answer pairs are represented by Concatenated distributed representation vectors and a Multilayer Perceptron is used to compute the score for an answer (the probability of an answer being the best answer to the question).", "Whereby Question-Answer pairs are represented by Concatenated distributed representation vectors and a Multilayer Perceptron is used to compute the score for an answer."], "ms": ["Pasangan jawapan soalan diwakili oleh vektor perwakilan diedarkan Concatenated dan Perceptron Multilayer digunakan untuk mengira skor untuk jawapan (kebarangkalian jawapan adalah jawapan terbaik untuk soalan).", "Di mana pasangan Question-Answer diwakili oleh vektor perwakilan diedarkan Concatenated dan Perceptron Multilayer digunakan untuk mengira skor untuk jawapan."]}, {"en": ["The Corpus used in our experiments is the French Treebank, version from June 2010, hereafter Ftb).", "The Morphosyntactically Annotated corpus we used is a variant of the French Treebank or Ftb ,."], "ms": ["Corpus yang digunakan dalam eksperimen kami adalah Treebank Perancis, versi dari Jun 2010, selepas ini Ftb).", "Morphosyntactically Annotated corpus yang kami gunakan adalah varian Treebank Perancis atau Ftb,."]}, {"en": ["We show how a Bf containing N-Grams can enable us to use much larger Corpora and Higher-Order models Complementing a conventional N-Gram LM within an Smt system.", "By Subsequence filtering, our models enable Higher-Order N-Grams and larger Monolingual Corpora to be used more easily."], "ms": ["Kami menunjukkan bagaimana Bf yang mengandungi N-Grams boleh membolehkan kami menggunakan model Corpora dan Higher-Order yang lebih besar Melengkapkan LM N-Gram konvensional dalam sistem Smt.", "Dengan penapisan Subsequence, model kami membolehkan N-Gram Pesanan Tinggi dan Corpora Monolingual yang lebih besar digunakan dengan lebih mudah."]}, {"en": ["In this paper, we propose a Uima framework to manage the computation distribution of the complicated processing pipelines involved in Cqa systems.", "In this paper, we present a Uima framework to distribute the computation of Cqa tasks over computer clusters."], "ms": ["Dalam makalah ini, kami mencadangkan kerangka Uima untuk menguruskan pengedaran pengiraan saluran paip pemprosesan rumit yang terlibat dalam sistem Cqa.", "Dalam makalah ini, kami membentangkan kerangka Uima untuk mengedarkan pengiraan tugas Cqa melalui kluster komputer."]}, {"en": ["Each of our systems uses the Semeval 2012\u00a8C2015 Sts Datasets to train a ridge regression model that combines different measures of similarity.", "At Semeval 2012 \u00a8C 2015, most of the Top-Performing Sts systems used a regression algorithm to combine different measures of similarity."], "ms": ["Setiap sistem kami menggunakan Set Data Semeval 2012 C2015 Sts untuk melatih model regresi rabung yang menggabungkan langkah-langkah yang berbeza persamaan.", "Pada Semeval 2012 dan C 2015, kebanyakan sistem Top-Performing Sts menggunakan algoritma regresi untuk menggabungkan langkah-langkah yang berbeza persamaan."]}, {"en": ["We use both L 2 Regularization and dropout techniques for Regularization.", "In addition, we use L2 Regularization and dropout technique to build a robust system."], "ms": ["Kami menggunakan kedua-dua teknik L 2 Regularization dan dropout untuk Regularization.", "Di samping itu, kami menggunakan teknik L2 Regularization dan dropout untuk membina sistem yang mantap."]}, {"en": ["The structure of the paper is the following.", "The structure of this paper is the following one."], "ms": ["Struktur kertas adalah seperti berikut.", "Struktur kertas ini adalah yang berikut."]}, {"en": ["Given the Statistics we have Aggregated, we have designed a new Crowdsourcing scheme that creates a new Sct Dataset, which overcomes some of the biases.", "For testing new data collection schemes, we created a new Sct Dataset, Sct-V1 . 5, which overcomes some of the biases."], "ms": ["Memandangkan Statistik yang kami kumpulkan, kami telah merancang skema Crowdsourcing baru yang mewujudkan Dataset Sct baru, yang mengatasi beberapa bias.", "Untuk menguji skim pengumpulan data baru, kami mencipta Sct Dataset baru, Sct-V1.5, yang mengatasi beberapa bias."]}, {"en": ["Our system assumes Pos tags as input and uses the Tagger of Ratnaparkhi to provide tags for the development and evaluation sets.", "The models rely on Part-Of-Speech tags as input and we used the Ratnaparkhi Tagger to provide these for the development and evaluation set."], "ms": ["Sistem kami menganggap tag Pos sebagai input dan menggunakan Tagger Ratnaparkhi untuk menyediakan tag untuk set pembangunan dan penilaian.", "Model bergantung pada tag Part-Of-Speech sebagai input dan kami menggunakan Ratnaparkhi Tagger untuk menyediakannya untuk set pembangunan dan penilaian."]}, {"en": ["The millions of parameters were tuned only on a small development set consisting of less than 1K sentences.", "In Cite-P-22-3-10, Binary features were trained only on a small development set."], "ms": ["Parameter berjuta-juta hanya ditala pada set pembangunan kecil yang terdiri daripada kurang daripada 1K ayat.", "Dalam Cite-P-22-3-10, ciri binari hanya dilatih pada set pembangunan kecil."]}, {"en": ["Quirk et al used a Source-Side dependency Parser and projected automatic Parses across word alignments in order to model dependency syntax on phrase pairs.", "Quirk et al and Xiong et al used Treelets to model the source dependency tree using synchronous Grammars."], "ms": ["Quirk et al menggunakan Parser dependensi Sumber-Side dan mengunjurkan Parses automatik merentasi penjajaran perkataan untuk memodelkan sintaks dependensi pada pasangan frasa.", "Quirk et al dan Xiong et al menggunakan Treelets untuk memodelkan pokok dependensi sumber menggunakan Grammar synchronous."]}, {"en": ["After sentence splitting and Tokenization, we applied the highly efficient Treetagger for Part-Of-Speech tagging and we extracted time and money entities with fast regular expressions.", "We employed the Uima Tokenizer 2 to generate tokens and sentences, and the Treetagger for Part-Of-Speech tagging and Chunking."], "ms": ["Selepas pemisahan ayat dan Tokenisasi, kami menggunakan Treetagger yang sangat cekap untuk penandaan Part-Of-Speech dan kami mengekstrak entiti masa dan wang dengan ungkapan biasa yang cepat.", "Kami menggunakan Uima Tokenizer 2 untuk menghasilkan token dan ayat, dan Treetagger untuk penandaan dan Chunking Bahagian-Of-Speech."]}, {"en": ["When the selected sentence pairs are evaluated on an Endto-End mt task, our methods can increase the translation performance by 3 BLEU points.", "For data selection, we observe that our methods are able to select high-quality Domain-Relevant sentence pairs and improve the translation performance by nearly 3 BLEU points."], "ms": ["Apabila pasangan ayat yang dipilih dinilai pada tugas mt Endto-End, kaedah kami dapat meningkatkan prestasi terjemahan sebanyak 3 mata BLEU.", "Untuk pemilihan data, kami memerhatikan bahawa kaedah kami dapat memilih pasangan ayat Domain-Relevan berkualiti tinggi dan meningkatkan prestasi terjemahan dengan hampir 3 mata BLEU."]}, {"en": ["Our analysis of naturally occurring dialog indicates that humans understand many utterances that would appear imperfect or incomplete to current natural language systems.", "Our analysis of naturally occurring dialog indicates that human listeners understand many utterances that would appear Pragmatically Ill-Formed to current natural language systems."], "ms": ["Analisis kami mengenai dialog yang berlaku secara semula jadi menunjukkan bahawa manusia memahami banyak ucapan yang kelihatan tidak sempurna atau tidak lengkap kepada sistem bahasa semula jadi semasa.", "Analisis kami mengenai dialog yang berlaku secara semula jadi menunjukkan bahawa pendengar manusia memahami banyak ucapan yang akan muncul Pragmatically Ill-Formed kepada sistem bahasa semula jadi semasa."]}, {"en": ["In this paper, we propose a model that jointly identifies the domain and tracks the belief States corresponding to that domain.", "In this paper, we proposed a new approach that tackles the issue of Multi-Domain belief tracking, such as model parameter."], "ms": ["Dalam makalah ini, kami mencadangkan model yang bersama-sama mengenal pasti domain dan menjejaki kepercayaan Negara yang sepadan dengan domain tersebut.", "Dalam makalah ini, kami mencadangkan pendekatan baru yang menangani isu penjejakan kepercayaan Multi-Domain, seperti parameter model."]}, {"en": ["The second one is an approximation of the first algorithm.", "Second algorithm is a fast approximation of the first one."], "ms": ["Yang kedua ialah penghampiran algoritma pertama.", "Algoritma kedua adalah penghampiran pantas yang pertama."]}, {"en": ["In this paper, we propose to combine the advantages of source side constituency and dependency trees.", "In this paper, we present a novel model that simultaneously utilizes constituency and dependency trees on the source side."], "ms": ["Dalam makalah ini, kami mencadangkan untuk menggabungkan kelebihan kawasan pilihan raya sumber dan pokok pergantungan.", "Dalam makalah ini, kami membentangkan model novel yang secara serentak menggunakan pokok konstituen dan dependensi di sisi sumber."]}, {"en": ["In this paper we investigate noun phrases based on Cross-Linguistic evidence and present a domain independent model for their semantic interpretation.", "In this paper we investigate the role of Cross-Linguistic information in the task of English NP semantic interpretation."], "ms": ["Dalam makalah ini kita menyiasat frasa kata nama berdasarkan bukti Cross-Linguistik dan membentangkan model bebas domain untuk tafsiran semantik mereka.", "Dalam makalah ini kita menyiasat peranan maklumat Cross-Linguistic dalam tugas tafsiran semantik NP Inggeris."]}, {"en": ["This paper solves the Inconsistence by Normalizing the word vectors.", "This paper proposes a solution which Normalizes the word vectors."], "ms": ["Kertas ini menyelesaikan Inconsistence dengan menormalkan perkataan vektor.", "Kertas ini mencadangkan penyelesaian yang menormalkan perkataan vektor."]}, {"en": ["In this paper, we focus on learning the plan elements and the ordering constraints between them.", "In this paper we presented a technique for extracting order constraints among plan elements."], "ms": ["Dalam makalah ini, kami memberi tumpuan kepada mempelajari elemen rancangan dan kekangan pesanan di antara mereka.", "Dalam kertas ini kami membentangkan teknik untuk mengekstrak kekangan pesanan di antara elemen pelan."]}, {"en": ["Both Parsers obtain state-of-the-art performance, are fast, and are easy to use through a simple API.", "Both Parsers obtain state-of-the-art performance, and use a very simple API."], "ms": ["Kedua-dua Parsers memperoleh prestasi canggih, pantas, dan mudah digunakan melalui API mudah.", "Kedua-dua Parsers memperoleh prestasi canggih, dan menggunakan API yang sangat mudah."]}, {"en": ["Besides, we are interested to apply the method of combing topic model and deep learning into some traditional Nlp tasks.", "Faced with these problems, we propose to integrate deep learning and topic modeling."], "ms": ["Selain itu, kami berminat untuk menggunakan kaedah menyeludup model topik dan pembelajaran mendalam ke dalam beberapa tugas Nlp tradisional.", "Menghadapi masalah ini, kami mencadangkan untuk mengintegrasikan pembelajaran mendalam dan pemodelan topik."]}, {"en": ["We propose a pure Unsupervised D-Topwords model to extract new Domain-Specific words.", "We propose a flexible domain score function to take the external information into consideration, such as word frequencies."], "ms": ["Kami mencadangkan model D-Topwords yang tidak diawasi tulen untuk mengekstrak perkataan Domain-Specific baru.", "Kami mencadangkan fungsi skor domain fleksibel untuk mengambil kira maklumat luaran, seperti frekuensi perkataan."]}, {"en": ["Klebanov et al evaluated the effect of Concreteness as a feature for metaphor detection using Mrcpd.", "Klebanov et al used Concreteness as a feature with baseline features and optimal weighting technique."], "ms": ["Klebanov et al menilai kesan Konkrit sebagai ciri untuk pengesanan metafora menggunakan Mrcpd.", "Klebanov et al menggunakan Konkrit sebagai ciri dengan ciri asas dan teknik pengimbangan yang optimum."]}, {"en": ["For example, for the Oov mention \u00a1\u00b0Lukebryanonline\u00a1\u00b1, our model can find similar mentions like \u00a1\u00b0Thelukebryan\u00a1\u00b1 and \u00a1\u00b0Lukebryan\u00a1\u00b1.", "Mention \u00a1\u00b0 Lukebryanonline \u00a1\u00b1, our model can find similar mentions like \u00a1\u00b0 Thelukebryan \u00a1\u00b1 and \u00a1\u00b0 Lukebryan \u00a1\u00b1."], "ms": ["Sebagai contoh, untuk sebutan Oov Lukebryanonline, model kami boleh menemui sebutan serupa seperti Thelukebryan dan Lukebryan.", "Sebutan Lukebryanonline, model kami boleh menemui sebutan yang sama seperti Thelukebryan dan Lukebryan."]}, {"en": ["Based on the attributes, several statistical classifiers were used to select operands and determine the operator.", "Based on the attributes, several statistical classifiers were used to select operands and determine operators."], "ms": ["Berdasarkan atribut, beberapa pengelas statistik digunakan untuk memilih operan dan menentukan operator.", "Berdasarkan atribut, beberapa pengelas statistik digunakan untuk memilih operan dan menentukan operator."]}, {"en": ["We also incorporated additional features such as Pos tags and sentiment features extracted from sentiment Lexicons.", "In addition, we incorporated additional features such as Pos tags and sentiment features."], "ms": ["Kami juga menggabungkan ciri tambahan seperti tag Pos dan ciri sentimen yang diekstrak daripada sentimen Lexicons.", "Di samping itu, kami menggabungkan ciri tambahan seperti tag Pos dan ciri sentimen."]}, {"en": ["In this paper, we propose learning Sentiment-Specific word Embedding (Sswe) for sentiment analysis.", "In this paper, we propose learning continuous word representations as features for Twitter sentiment."], "ms": ["Dalam makalah ini, kami mencadangkan pembelajaran Perkataan Sentiment-Specific Embedding (Sswe) untuk analisis sentimen.", "Dalam makalah ini, kami mencadangkan pembelajaran perwakilan perkataan berterusan sebagai ciri untuk sentimen Twitter."]}, {"en": ["Reichart and Rappoport showed that one can Self-Train with only a Generative Parser if the seed size is small.", "Reichart and Rappoport showed that Self-Training can improve the performance of a constituency Parser without a Reranker when a small training set is used."], "ms": ["Reichart dan Rappoport menunjukkan bahawa seseorang boleh Latihan Sendiri dengan hanya Parser Generatif jika saiz benih kecil.", "Reichart dan Rappoport menunjukkan bahawa Latihan Sendiri dapat meningkatkan prestasi Parser konstituen tanpa Reranker apabila set latihan kecil digunakan."]}, {"en": ["Experimental results show that Oversampling is a relatively good choice in active learning for Wsd in highly imbalanced data.", "Experimental results show that Undersampling causes negative effects on active learning."], "ms": ["Hasil eksperimen menunjukkan bahawa Oversampling adalah pilihan yang agak baik dalam pembelajaran aktif untuk Wsd dalam data yang sangat tidak seimbang.", "Hasil eksperimen menunjukkan bahawa Undersampling menyebabkan kesan negatif terhadap pembelajaran aktif."]}, {"en": ["We explore a stacked framework for learning to predict dependency structures for natural language sentences.", "We address a Representation-Efficiency Tradeoff in statistical natural language processing through the use of stacked learning."], "ms": ["Kami meneroka rangka kerja yang disusun untuk belajar untuk meramalkan struktur kebergantungan untuk ayat bahasa semula jadi.", "Kami menangani Tradeoff Perwakilan-Kecekapan dalam pemprosesan bahasa semula jadi statistik melalui penggunaan pembelajaran tersusun."]}, {"en": ["Vietools is also extended to serve many purposes in Vietnamese language processing.", "Vietools has also been extended for converting and rearranging Vietnamese words."], "ms": ["Vietool juga diperluaskan untuk melayani banyak tujuan dalam pemprosesan bahasa Vietnam.", "Vietools juga telah diperluaskan untuk menukar dan menyusun semula perkataan Vietnam."]}, {"en": ["This representation allows easy data share between Kbs.", "Triple representation offers a simple interface for applications."], "ms": ["Perwakilan ini membolehkan perkongsian data mudah antara Kbs.", "Perwakilan triple menawarkan antara muka yang mudah untuk aplikasi."]}, {"en": ["Recently, there is rising interest in Modelling the interactions of two sentences with deep neural networks.", "Recently, deep learning based models is rising a substantial interest in text semantic matching."], "ms": ["Baru-baru ini, terdapat minat yang meningkat dalam Pemodelan interaksi dua ayat dengan rangkaian saraf yang mendalam.", "Baru-baru ini, model berasaskan pembelajaran mendalam meningkatkan minat yang besar dalam pemadanan semantik teks."]}, {"en": ["By drawing on the Aggregated results of the task \u2019 s participants, we have extracted highly representative pairs for each relation to build an analogy set.", "By drawing on the Aggregated results of the task \u2019 s participants, we have extracted highly representative pairs for each relation."], "ms": ["Dengan melukis hasil yang dikumpulkan peserta tugas, kami telah mengekstrak pasangan yang sangat mewakili untuk setiap hubungan untuk membina set analogi.", "Dengan melukis hasil yang dikumpulkan peserta tugas, kami telah mengekstrak pasangan yang sangat mewakili untuk setiap hubungan."]}, {"en": ["Question answering (Qa) is the task of retrieving answers to a question given one or more contexts.", "Question answering (Qa) is a specific form of the information Retrieval (Ir) task, where the goal is to find relevant Well-Formed answers to a posed question."], "ms": ["Jawapan soalan (Qa) adalah tugas untuk mendapatkan jawapan kepada soalan yang diberikan satu atau lebih konteks.", "Jawapan soalan (Qa) adalah bentuk tertentu tugas Retrieval maklumat (Ir), di mana tujuannya adalah untuk mencari jawapan yang berkaitan dengan Well-Formed untuk soalan yang diajukan."]}, {"en": ["In this paper we present a method of using the hierarchy of labels to improve the classification accuracy.", "In this paper, we have evaluated structural learning approaches to genre classification."], "ms": ["Dalam kertas kerja ini kita membentangkan kaedah menggunakan hierarki label untuk meningkatkan ketepatan klasifikasi.", "Dalam makalah ini, kami telah menilai pendekatan pembelajaran struktur untuk klasifikasi genre."]}, {"en": ["In (Cite-P-17-3-4), Popescu and Etzioni not only analyzed polarity of opinions regarding product features but also ranked opinions based on their strength.", "In (Cite-P-17-3-4), Popescu and Etzioni not only analyzed polarity of opinions regarding product features."], "ms": ["Dalam (Cite-P-17-3-4), Popescu dan Etzioni bukan sahaja menganalisis polariti pendapat mengenai ciri-ciri produk tetapi juga meletakkan pendapat berdasarkan kekuatan mereka.", "Dalam (Cite-P-17-3-4), Popescu dan Etzioni bukan sahaja menganalisis polariti pendapat mengenai ciri-ciri produk."]}, {"en": ["This grammar is based on the framework of Head-Driven phrase structure grammar, one of the most prominent linguistic theories being used in natural language processing.", "The lingo grammar matrix is situated theoretically within Head-Driven phrase structure grammar, a Lexicalist, Constraint-Based framework."], "ms": ["Tatabahasa ini berdasarkan kerangka tatabahasa struktur frasa Kepala-Driven, salah satu teori linguistik yang paling menonjol digunakan dalam pemprosesan bahasa semula jadi.", "Matriks tatabahasa lingo terletak secara teori dalam tatabahasa struktur frasa Head-Driven, kerangka Lexicalist, Constraint-Based."]}, {"en": ["Cite-P-21-3-10 proposed to learn a two-dimensional sentiment representation based on a simple neural network.", "Cite-P-21-3-7 proposed a new neural network approach called Sswe to train Sentiment-Aware word representation."], "ms": ["Cite-P-21-3-10 mencadangkan untuk mempelajari perwakilan sentimen dua dimensi berdasarkan rangkaian saraf yang mudah.", "Cite-P-21-3-7 mencadangkan pendekatan rangkaian saraf baru yang dipanggil Sswe untuk melatih perwakilan perkataan Sentiment-Aware."]}, {"en": ["To combat the noisy training data produced by Heuristic labeling in distant supervision, researchers exploited Multi-Instance learning models.", "To alleviate the noise issue caused by distant supervision, Riedel et al and Hoffmann et al propose Multi-Instance learning mechanisms."], "ms": ["Untuk memerangi data latihan bising yang dihasilkan oleh pelabelan Heuristik dalam pengawasan jauh, penyelidik mengeksploitasi model pembelajaran Pelbagai Dalaman.", "Untuk mengurangkan isu bunyi yang disebabkan oleh pengawasan jauh, Riedel et al dan Hoffmann et al mencadangkan mekanisme pembelajaran Pelbagai Alam."]}, {"en": ["Ideally, apart from strategies to prevent errors, error handling would consist of steps to immediately detect an error when it occurs and to interact with the user to correct the error in subsequent exchanges.", "To prevent errors, error handling would consist of steps to immediately detect an error when it occurs and to interact with the user to correct the error."], "ms": ["Sebaik-baiknya, selain daripada strategi untuk mencegah kesilapan, pengendalian ralat akan terdiri daripada langkah-langkah untuk mengesan ralat dengan segera apabila ia berlaku dan berinteraksi dengan pengguna untuk membetulkan ralat dalam pertukaran berikutnya.", "Untuk mengelakkan kesilapan, pengendalian ralat akan terdiri daripada langkah-langkah untuk mengesan ralat dengan segera apabila ia berlaku dan berinteraksi dengan pengguna untuk membetulkan ralat."]}, {"en": ["In this paper, we propose a Multimodal Translation-Based approach that defines the energy of a kg triple as the sum of Sub-Energy functions that leverage both Multimodal (visual and linguistic) and structural kg representations.", "In this paper, we propose a Translation-Based approach for kg representation learning that Leverages two different types of external, Multimodal representations: linguistic representations created by analyzing the usage patterns of kg entities."], "ms": ["Dalam makalah ini, kami mencadangkan pendekatan Berasaskan Terjemahan Multimodal yang mentakrifkan tenaga triple kg sebagai jumlah fungsi Sub-Energi yang memanfaatkan perwakilan Multimodal (visual dan linguistik) dan struktur kg.", "Dalam makalah ini, kami mencadangkan pendekatan Terjemahan Berasaskan untuk pembelajaran perwakilan kg yang Leverages dua jenis perwakilan luaran, Multimodal: perwakilan linguistik yang dicipta dengan menganalisis corak penggunaan entiti kg."]}, {"en": ["Character-Level nodes have special tags where Position-Of-Character and Pos tags are combined.", "Characterlevel nodes have special tags called Position-Ofcharacter that indicate the Word-Internal position."], "ms": ["Nod Character-Level mempunyai tag khas di mana tag Position-Of-Character dan Pos digabungkan.", "Nod aksara aras mempunyai tag khas yang dipanggil Position-Ofcharacter yang menunjukkan kedudukan Word-Internal."]}, {"en": ["We propose a hybrid learning approach for such systems using Endto-End Trainable neural network model.", "In this work, we present a hybrid learning method for training Task-Oriented dialogue systems."], "ms": ["Kami mencadangkan pendekatan pembelajaran hibrid untuk sistem sedemikian menggunakan model rangkaian neural Endto-End Trainable.", "Dalam kerja ini, kami membentangkan kaedah pembelajaran hibrid untuk melatih sistem dialog Berorientasikan Tugas."]}, {"en": ["Scarton and Specia propose a number of Discourse-Informed features in order to predict BLEU and Ter at document level.", "Scarton and Specia explore lexical cohesion and LSA cohesion for Document-Level Qe."], "ms": ["Scarton dan Specia mencadangkan beberapa ciri Wacana-Informasi untuk meramalkan BLEU dan Ter pada tahap dokumen.", "Scarton dan Specia meneroka kohesi leksikal dan kohesi LSA untuk Qe Tahap Dokumen."]}, {"en": ["We present a Context-Sensitive chart pruning method for Cky -Style mt decoding.", "In this paper, we study a chart pruning method for Cky-Style mt decoding."], "ms": ["Kami membentangkan kaedah pemangkasan carta Konteks-Sensitif untuk penyahkodan Cky -Style mt.", "Dalam makalah ini, kami mengkaji kaedah pemangkasan carta untuk penyahkodan Cky-Style mt."]}, {"en": ["Let Math-W-8-4-0-1 be two points classified into Math-W-8-4-0-12.", "Given a pair of words Math-W-3-1-0-47, find a Math-W-3-1-0-55 for a given Math-W-3-1-0-60."], "ms": ["Biarkan Math-W-8-4-0-1 menjadi dua mata yang dikelaskan kepada Math-W-8-4-0-12.", "Memandangkan sepasang perkataan Math-W-3-1-0-47, cari Math-W-3-1-0-55 untuk Math-W-3-1-0-60 yang diberikan."]}, {"en": ["Furthermore, since the latent meanings are included in the vocabulary, there is no extra Embedding being generated.", "For latent meanings, we directly override the Embeddings of the corresponding words in the vocabulary."], "ms": ["Tambahan pula, kerana makna laten dimasukkan dalam perbendaharaan kata, tidak ada Embedding tambahan yang dihasilkan.", "Untuk makna laten, kita secara langsung mengatasi Embeddings perkataan yang sepadan dalam perbendaharaan kata."]}, {"en": ["This hierarchy includes the loss functions useful in both situations where we intend to apply Mbr decoding.", "We can use this metric as a loss function within the Mbr framework to design Decoders."], "ms": ["Hierarki ini termasuk fungsi kehilangan yang berguna dalam kedua-dua situasi di mana kami berhasrat untuk menggunakan penyahkodan Mbr.", "Kita boleh menggunakan metrik ini sebagai fungsi kehilangan dalam rangka kerja Mbr untuk mereka bentuk Decoders."]}, {"en": ["Cherry and LIN show that introducing soft syntactic constraints through Discriminative training can improve alignment quality.", "Cherry and LIN introduce soft syntactic Itg constraints into a Discriminative model, and use an Itg Parser to constrain the search for a Viterbi alignment."], "ms": ["Cherry dan LIN menunjukkan bahawa memperkenalkan kekangan sintaktik lembut melalui latihan Diskriminatif dapat meningkatkan kualiti penjajaran.", "Cherry dan LIN memperkenalkan kekangan Itg sintaktik lembut ke dalam model Discriminative, dan menggunakan Parser Itg untuk mengekang pencarian penjajaran Viterbi."]}, {"en": ["For example, \u201c appetite on 10 \u201d, \u201c my appetite way up \u201d should be mapped to \u2018 increased appetite \u2019, while \u201c suppressed appetite \u201d should be mapped to \u2018 loss of appetite \u2019.", "Up \u201d should be mapped to \u2018 increased appetite \u2019, while \u201c suppressed appetite \u201d should be mapped to \u2018 loss of appetite \u2019."], "ms": ["Sebagai contoh, selera makan pada 10 hari, selera makan saya cara up harus dipetakan kepada selera makan meningkat, sementara selera makan yang ditekan harus dipetakan kepada kehilangan selera makan.", "Up harus dipetakan kepada peningkatan selera makan, sementara menekan selera makan harus dipetakan kepada kehilangan selera makan."]}, {"en": ["Here we used the lazy Decoder program 5 which is based on the Kenlm language model estimation and querying system.", "For Smt decoding, we use the Moses Toolkit with Kenlm for language model queries."], "ms": ["Di sini kami menggunakan program Decoder malas 5 yang berdasarkan model bahasa Kenlm anggaran dan sistem pertanyaan.", "Untuk penyahkodan Smt, kami menggunakan Musa Toolkit dengan Kenlm untuk pertanyaan model bahasa."]}, {"en": ["We present Hyp, an Open-Source Toolkit for the representation, manipulation, and optimization of weighted directed Hypergraphs.", "We have presented Hyp, an Open-Source Toolkit for representing and manipulating weighted directed Hypergraphs, including Functionality."], "ms": ["Kami membentangkan Hyp, Alat Sumber Terbuka untuk perwakilan, manipulasi, dan pengoptimuman Hypergraphs diarahkan berwajaran.", "Kami telah membentangkan Hyp, sebuah Open-Source Toolkit untuk mewakili dan memanipulasi Hypergraphs diarahkan berwajaran, termasuk Fungsi."]}, {"en": ["In Smt, maximum Entropy-Based reordering model is often introduced as a better alternative to the commonly used Lexicalized one.", "Using Contextual features modeled by maximum Entropy-Based Classifier is superior to the commonly used Lexicalized reordering model."], "ms": ["Dalam Smt, model penyusunan semula berasaskan Entropi maksimum sering diperkenalkan sebagai alternatif yang lebih baik daripada model Lexicalized yang biasa digunakan.", "Menggunakan ciri Kontekstual yang dimodelkan oleh Pengelas Berasaskan Entropi maksimum adalah lebih unggul daripada model penyusunan semula Lexicalized yang biasa digunakan."]}, {"en": ["We use a Minibatch stochastic gradient descent algorithm and Adadelta to train each model.", "We apply the stochastic gradient descent algorithm with Mini-Batches and the Adadelta update rule."], "ms": ["Kami menggunakan algoritma keturunan kecerunan stokastik Minibatch dan Adadelta untuk melatih setiap model.", "Kami menggunakan algoritma keturunan kecerunan stokastik dengan Mini-Batches dan peraturan kemas kini Adadelta."]}, {"en": ["We ran the alignment algorithm from on a Chinese-English parallel corpus of 218 million English words, available from the linguistic data consortium.", "We ran the alignment algorithm from on a Chinese-English parallel corpus of 218 million English words."], "ms": ["Kami menjalankan algoritma penjajaran dari korpus selari Cina-Inggeris sebanyak 218 juta perkataan Inggeris, yang tersedia dari konsortium data linguistik.", "Kami menjalankan algoritma penjajaran dari korpus selari Cina-Inggeris sebanyak 218 juta perkataan Inggeris."]}, {"en": ["We chose the three models that achieved at least one best score in the closed tests from Emerson, as well as the Sub-Word-Based model of Zhang et al for comparison.", "We chose the three models that achieved at least one best score in the closed tests from Emerson, as well as the Sub-Word-Based model of Zhang, Kikui, and Sumita for comparison."], "ms": ["Kami memilih tiga model yang mencapai sekurang-kurangnya satu skor terbaik dalam ujian tertutup dari Emerson, serta model berasaskan Sub-Word Zhang et al untuk perbandingan.", "Kami memilih tiga model yang mencapai sekurang-kurangnya satu skor terbaik dalam ujian tertutup dari Emerson, serta model berasaskan Sub-Word Zhang, Kikui, dan Sumita untuk perbandingan."]}, {"en": ["Logic formulas are combined in a probabilistic framework to model soft constraints.", "Constraints are incorporated by various logic formulas and global formulas."], "ms": ["Formula logik digabungkan dalam rangka probabilistik untuk model kekangan lembut.", "Kekangan digabungkan oleh pelbagai formula logik dan formula global."]}, {"en": ["In English event detection task, our approach achieved 73.4% F-Score with average 3.0% absolute improvement compared to state-of-the-art.", "In English event detection task, our approach achieved 73 . 4% F-Score with average 3 . 0% absolute improvement."], "ms": ["Dalam tugas pengesanan acara Bahasa Inggeris, pendekatan kami mencapai 73.4% F-Score dengan purata 3.0% peningkatan mutlak berbanding dengan state-of-the-art.", "Dalam tugas pengesanan acara Bahasa Inggeris, pendekatan kami mencapai 73.4% F-Score dengan purata 3.0% peningkatan mutlak."]}, {"en": ["Word Embedding techniques aim to use continuous Low-Dimension vectors representing the features of the words, captured in context.", "The word Embeddings can provide word vector representation that captures semantic and syntactic information of words."], "ms": ["Teknik Embedding Perkataan bertujuan untuk menggunakan vektor Low-Dimension berterusan yang mewakili ciri-ciri perkataan, yang ditangkap dalam konteks.", "Perkataan Embeddings boleh memberikan perwakilan vektor perkataan yang menangkap maklumat semantik dan sintaktik perkataan."]}, {"en": ["Entity linking (El) has received considerable attention in recent years.", "Entity linking (El) has received considerable research attention in recent years."], "ms": ["Entiti linking (El) telah mendapat perhatian yang besar dalam beberapa tahun kebelakangan ini.", "Entity linking (El) telah mendapat perhatian penyelidikan yang besar dalam beberapa tahun kebelakangan ini."]}, {"en": ["Goldwater and Mcclosky proposed a Morpheme aware word alignment model for language pairs in which the source language words correspond to only one Morpheme.", "For the Word-Alignment problem, Goldwater and Mcclosky and Eyig\u679aZ et al suggested word alignment models that address morphology directly."], "ms": ["Goldwater dan Mcclosky mencadangkan model penjajaran perkataan sedar Morpheme untuk pasangan bahasa di mana perkataan bahasa sumber sepadan dengan hanya satu Morpheme.", "Untuk masalah Word-Alignment, Goldwater dan Mcclosky dan EyigZ et al mencadangkan model penjajaran perkataan yang menangani morfologi secara langsung."]}, {"en": ["Msc is a Text-To-Text generation process in which a novel sentence is produced as a result of summarizing a set of similar sentences originally called sentence fusion.", "Sentence fusion is a Text-To-Text generation application, which given two related sentences, outputs a single sentence expressing the information shared by the two input sentences."], "ms": ["Msc adalah proses penjanaan Teks-Ke-Teks di mana ayat novel dihasilkan hasil daripada meringkaskan satu set ayat serupa yang pada asalnya dipanggil gabungan ayat.", "Fusion Sentence adalah aplikasi generasi Teks-Ke-Teks, yang memberikan dua ayat yang berkaitan, mengeluarkan satu ayat yang menyatakan maklumat yang dikongsi oleh dua ayat input."]}, {"en": ["Recently, several successful attempts have been made at using supervised machine learning for word alignment.", "Consequently, considerable effort has gone into devising and improving automatic word alignment Algorithms, and into evaluating their performance."], "ms": ["Baru-baru ini, beberapa percubaan yang berjaya telah dibuat menggunakan pembelajaran mesin yang diawasi untuk penjajaran perkataan.", "Oleh itu, usaha yang besar telah dilakukan untuk merangka dan meningkatkan algoritma penjajaran perkataan automatik, dan untuk menilai prestasi mereka."]}, {"en": ["All mt systems are trained using a variant of the alignment template model of och and Ney.", "The Smt system deployed in our approach is an implementation of the alignment template approach of och and Ney."], "ms": ["Semua sistem mt dilatih menggunakan varian model templat penjajaran och dan Ney.", "Sistem Smt yang digunakan dalam pendekatan kami adalah pelaksanaan pendekatan templat penjajaran och dan Ney."]}, {"en": ["In addition, we have demonstrated a way to intuitively interpret the model.", "We present a novel technique for interpreting the effect of different text inputs."], "ms": ["Di samping itu, kami telah menunjukkan cara untuk menafsirkan model secara intuitif.", "Kami membentangkan teknik novel untuk mentafsirkan kesan input teks yang berbeza."]}, {"en": ["Building on, we utilize label propagation to determine the relation and observation type expressed by each pattern.", "Building on we utilize label propagation to determine the relation and observation type expressed by each pattern."], "ms": ["Membina, kami menggunakan penyebaran label untuk menentukan jenis hubungan dan pemerhatian yang dinyatakan oleh setiap corak.", "Membina pada kita menggunakan penyebaran label untuk menentukan jenis hubungan dan pemerhatian yang dinyatakan oleh setiap corak."]}, {"en": ["The text corpus was Lemmatized using the Treetagger and Parsed for syntactic dependency structures with Parzu.", "The Dictionary-Type features were generated using the English and Swahili models using the Treetagger tool."], "ms": ["Korpus teks telah Lemmatized menggunakan Treetagger dan Parsed untuk struktur kebergantungan sintaktik dengan Parzu.", "Ciri-ciri Kamus-Jenis dihasilkan menggunakan model bahasa Inggeris dan Swahili menggunakan alat Treetagger."]}, {"en": ["Chapman et al created a simple regular expression algorithm called Negex that can detect phrases indicating negation and identify medical terms falling within the negative scope.", "Chapman et al created the Negex algorithm, a simple Rule-Based system that uses regular expressions with trigger terms to determine whether a medical term is absent in a patient."], "ms": ["Chapman et al mencipta algoritma ungkapan biasa yang mudah dipanggil Negex yang boleh mengesan frasa yang menunjukkan negatif dan mengenal pasti istilah perubatan yang jatuh dalam skop negatif.", "Chapman et al mencipta algoritma Negex, sistem Berasaskan Peraturan mudah yang menggunakan ungkapan biasa dengan istilah pencetus untuk menentukan sama ada istilah perubatan tidak hadir dalam pesakit."]}, {"en": ["Similar work on solving domain adaptation for Smt by mining unseen words has been presented by Snover et al and Daum\u8305 and Jagarlamudi.", "Daum\u8305 and Jagarlamudi use Contextual and string similarity to mine translations for Oov words in a high resource language domain adaptation for a machine translation setting."], "ms": ["Kerja serupa dalam menyelesaikan penyesuaian domain untuk Smt dengan perlombongan perkataan yang tidak kelihatan telah dibentangkan oleh Snover et al dan Daum dan Jagarlamudi.", "Daum dan Jagarlamudi menggunakan persamaan kontekstual dan rentetan dengan terjemahan lombong untuk kata-kata Oov dalam penyesuaian domain bahasa sumber yang tinggi untuk tetapan terjemahan mesin."]}, {"en": ["The literature consists of a series of well-established Frameworks to explore a deeper understanding of the semantic relationship between entities, ranging from ontological reasoning to compositional as well as Distributional Semantics (Cite-P-13-1-2).", "In the literature there is a consensus that global Statistics features lead to higher Accuracies compared to the dynamic classification of Multivariate Time-Series (Cite-P-18-1-6)."], "ms": ["Sastera terdiri daripada satu siri Rangka Kerja yang mantap untuk meneroka pemahaman yang lebih mendalam mengenai hubungan semantik antara entiti, dari penaakulan ontologis hingga komposisi dan juga Semantik Pengagihan (Cite-P-13-1-2).", "Dalam kesusasteraan terdapat konsensus bahawa ciri Statistik global membawa kepada Ketepatan yang lebih tinggi berbanding dengan pengelasan dinamik Siri Masa Multivariate (Cite-P-18-1-6)."]}, {"en": ["Yamada and Matsumoto , 2003, makes use of polynomial kernels of degree 2 which is equivalent to using even more Conjunctive features.", "Yamada and Matsumoto , 2003) made use of the polynomial kernel of degree 2 so they in fact use more Conjunctive features."], "ms": ["Yamada dan Matsumoto, 2003, menggunakan kernel polinomial darjah 2 yang bersamaan dengan menggunakan lebih banyak ciri Konjungtif.", "Yamada dan Matsumoto, 2003) menggunakan kernel polinomial darjah 2 supaya mereka sebenarnya menggunakan lebih banyak ciri Konjungtif."]}, {"en": ["We proposed to use constraints as a way to guide Semi-Supervised learning.", "We are the first to suggest a general Semi-Supervised protocol that is driven by soft constraints."], "ms": ["Kami mencadangkan untuk menggunakan kekangan sebagai cara untuk membimbing pembelajaran Semi-Supervised.", "Kami adalah yang pertama mencadangkan protokol Semi-Supervised umum yang didorong oleh kekangan lembut."]}, {"en": ["Kappa coefficient is commonly used as a standard to reflect Inter-Annotator agreement.", "Kappa is an evaluation measure which is increasingly used in Nlp Annotation work."], "ms": ["Pekali Kappa biasanya digunakan sebagai piawai untuk mencerminkan perjanjian Antara Annotator.", "Kappa adalah ukuran penilaian yang semakin digunakan dalam kerja Nlp Annotation."]}, {"en": ["We present a neural network based Shift-Reduce Ccg Parser, the first neural network based Parser for Ccg.", "We presented the first neural network based Shift-Reduce Parsers for Ccg."], "ms": ["Kami membentangkan rangkaian neural berasaskan Shift-Reduce Ccg Parser, rangkaian neural pertama berasaskan Parser untuk Ccg.", "Kami membentangkan rangkaian neural pertama berdasarkan Shift-Reduce Parsers untuk Ccg."]}, {"en": ["In addition to the primary model, we propose an ensemble method to achieve a stable and credible accuracy.", "In this paper, we propose a Hierarchical attention model to select the supporting warrant."], "ms": ["Sebagai tambahan kepada model utama, kami mencadangkan kaedah ensemble untuk mencapai ketepatan yang stabil dan boleh dipercayai.", "Dalam makalah ini, kami mencadangkan model perhatian Hierarki untuk memilih waran sokongan."]}, {"en": ["Cite-P-21-1-3 proposed to build a sentiment lexicon by a propagation method.", "Cite-P-21-3-10 proposed to learn a two-dimensional sentiment representation."], "ms": ["Cite-P-21-1-3 mencadangkan untuk membina leksikon sentimen dengan kaedah penyebaran.", "Cite-P-21-3-10 mencadangkan untuk mempelajari perwakilan sentimen dua dimensi."]}, {"en": ["We Parse the English side of our parallel corpus with the Berkeley Parser, and tune parameters of the mt system with Mira.", "For feature extraction, we Parse the French part of our training data using the Berkeley Parser and Lemmatize and Pos tag it using Morfette."], "ms": ["Kami Menghuraikan sisi bahasa Inggeris korpus selari kami dengan Berkeley Parser, dan parameter lagu sistem mt dengan Mira.", "Untuk pengekstrakan ciri, kami Menghuraikan bahagian Perancis data latihan kami menggunakan Berkeley Parser dan Lemmatize dan Pos tagnya menggunakan Morfette."]}, {"en": ["The Annotated Hindi Treebank is based on a dependency framework and has a very rich set of dependency labels.", "Dependency Annotation for Hindi is based on Paninian framework for building the Treebank."], "ms": ["Treebank Hindi Annotated didasarkan pada kerangka dependensi dan mempunyai set label dependensi yang sangat kaya.", "Anotasi Dependensi untuk Hindi didasarkan pada kerangka Paninian untuk membangun Treebank."]}, {"en": ["We presented a method using the existing Rbmt system as a black box to produce synthetic bilingual corpus, which was used as training data for the Smt system.", "We propose a method using the existing Rbmt system as a black box to produce a synthetic bilingual corpus."], "ms": ["Kami membentangkan kaedah menggunakan sistem Rbmt sedia ada sebagai kotak hitam untuk menghasilkan korpus dwibahasa sintetik, yang digunakan sebagai data latihan untuk sistem Smt.", "Kami mencadangkan kaedah menggunakan sistem Rbmt sedia ada sebagai kotak hitam untuk menghasilkan korpus dwibahasa sintetik."]}, {"en": ["These methods are shown to greatly reduce the training time and to significantly improve performance, both in terms of perplexity and on a large-scale translation task.", "Training strategies drastically reduce the total training time, while delivering significant improvements both in terms of perplexity and in a large-scale translation task."], "ms": ["Kaedah-kaedah ini ditunjukkan untuk mengurangkan masa latihan dan meningkatkan prestasi dengan ketara, baik dari segi kebingungan dan pada tugas terjemahan berskala besar.", "Strategi latihan secara drastik mengurangkan jumlah masa latihan, sambil memberikan peningkatan yang ketara dari segi kebingungan dan dalam tugas terjemahan berskala besar."]}, {"en": ["As in the previous methods, we avoid the danger of Aligning a token in one segment to excessive numbers of tokens in the other segment, by adopting a variant of competitive linking by Melamed.", "To avoid the danger of Aligning a token in one segment to excessive numbers of tokens in the other segment, we adopt a variant of competitive linking by Melamed."], "ms": ["Seperti dalam kaedah sebelumnya, kami mengelakkan bahaya Mendaftar token dalam satu segmen ke jumlah token yang berlebihan dalam segmen lain, dengan menggunakan varian pautan kompetitif oleh Melamed.", "Untuk mengelakkan bahaya Mendaftar token dalam satu segmen kepada jumlah token yang berlebihan dalam segmen lain, kami menggunakan varian pautan kompetitif oleh Melamed."]}, {"en": ["It does not rely on the availability of an adjective classification scheme and uses Wordnet Antonym and synonym lists instead.", "At the realisation level, relies on Wordnet synonym and Antonym sets, and gives equivalent results on the examples cited in the literature."], "ms": ["Ia tidak bergantung kepada ketersediaan skim pengelasan kata sifat dan menggunakan senarai Wordnet Antonym dan sinonim sebaliknya.", "Pada tahap kesedaran, bergantung pada set sinonim Wordnet dan Antonym, dan memberikan hasil yang setara pada contoh yang disebut dalam kesusasteraan."]}, {"en": ["In the above simulation, only a fraction of nodes were updated at each Iteration in order to model a rapid change.", "In the above simulation, only a fraction of nodes were updated at each Iteration."], "ms": ["Dalam simulasi di atas, hanya sebahagian kecil nod yang dikemas kini pada setiap Iterasi untuk memodelkan perubahan pesat.", "Dalam simulasi di atas, hanya sebahagian kecil nod yang dikemas kini pada setiap Iterasi."]}, {"en": ["In our approach, parameters are calibrated for each relation by maximizing the likelihood of our Generative model.", "For our Generative model lets us automatically Calibrate parameters for each relation, which are sensitive to the performance."], "ms": ["Dalam pendekatan kami, parameter dikalibrasi untuk setiap hubungan dengan memaksimumkan kemungkinan model Generatif kami.", "Untuk model Generatif kami membolehkan kami secara automatik Calibrate parameter untuk setiap hubungan, yang sensitif terhadap prestasi."]}, {"en": ["The word Co-Occurrence frequencies are based on fixed windows spanning in both directions from the focus word.", "Word Co-Occurrences, we attempt to use the Fofe to Encode the full contexts of each focus word, including the order."], "ms": ["Perkataan Frekuensi Co-Occurrence adalah berdasarkan kepada tingkap tetap yang merangkumi kedua-dua arah dari perkataan fokus.", "Word Co-Occurrences, kami cuba menggunakan Fofe untuk Mengenal pasti konteks penuh setiap perkataan fokus, termasuk perintah."]}, {"en": ["Word Embedding features were derived using Word2Vec, representing each word as a 300-D vector.", "The character Embeddings are computed using a method similar to Word2Vec."], "ms": ["Ciri Embedding Word diperolehi menggunakan Word2Vec, mewakili setiap perkataan sebagai vektor 300-D.", "Embedding watak dikira menggunakan kaedah yang serupa dengan Word2Vec."]}, {"en": ["Alikaniotis et al train Score-Specific word Embeddings with several Lstm architectures.", "Alikaniotis et al present a model for essay scoring based on recurrent neural networks at the word level."], "ms": ["Alikaniotis et al train Score-Specific word Embeddings with several Lstm architectures.", "Alikaniotis et al mempersembahkan model untuk pemarkahan esei berdasarkan rangkaian saraf berulang pada tahap perkataan."]}, {"en": ["Louds succinctly represents a Trie with Math-W-1-1-0-40 nodes as a 2M + 1 bit string.", "And Louds succinctly represents it by a 2M + 1 bit string."], "ms": ["Kulit lembut mewakili Trie dengan nod Math-W-1-1-0-40 sebagai rentetan 2M + 1 bit.", "Dan Louds secara ringkas mewakilinya dengan rentetan 2M + 1 bit."]}, {"en": ["We evaluate our Parser on Rst discourse Treebank and thoroughly analyze different components of our method.", "We conducted experiments on standard Rst discourse Treebank to evaluate our proposed models."], "ms": ["Kami menilai Parser kami mengenai wacana Rst Treebank dan menganalisis secara menyeluruh komponen kaedah kami yang berbeza.", "Kami menjalankan eksperimen pada wacana Rst standard Treebank untuk menilai model yang dicadangkan kami."]}, {"en": ["Silberer and Frank use an Entity-Based Coreference resolution model to automatically extended the training set.", "Silberer and Frank adapted an Entity-Based Coreference resolution model to extend automatically the training corpus."], "ms": ["Silberer dan Frank menggunakan model resolusi Coreference berasaskan Entity untuk memperluaskan set latihan secara automatik.", "Silberer dan Frank menyesuaikan model resolusi Coreference berasaskan Entity untuk memperluaskan korpus latihan secara automatik."]}, {"en": ["The problem of correct identification of NES is specifically addressed and Benchmarked by the developers of information extraction system, such as the gate system.", "The issues of correct identification of NES were specifically addressed and Benchmarked by the developers of information extraction system, such as the gate system."], "ms": ["Masalah pengenalan NES yang betul ditangani secara khusus dan ditandai oleh pemaju sistem pengekstrakan maklumat, seperti sistem gerbang.", "Isu-isu pengenalan NES yang betul telah ditangani secara khusus dan ditandai oleh pemaju sistem pengekstrakan maklumat, seperti sistem gerbang."]}, {"en": ["As our Decoder accounts for multiple derivations, we extend the Mert algorithm to tune feature weights with respect to BLEU score for Max-Translation decoding.", "For finding optimal translations, we extend the minimum error rate training (Mert) algorithm (Cite-P-18-1-21) to tune feature weights with respect to BLEU score for Max-Translation decoding."], "ms": ["Oleh kerana Decoder kami menyumbang banyak terbitan, kami memperluas algoritma Mert untuk menyesuaikan berat ciri berkenaan dengan skor BLEU untuk penyahkodan Max-Translation.", "Untuk mencari terjemahan yang optimum, kami memperluaskan algoritma latihan kadar ralat minimum (Mert) (Cite-P-18-1-21) untuk menyesuaikan berat ciri berkenaan dengan skor BLEU untuk penyahkodan Max-Translation."]}, {"en": ["In this work, we present an exploration of automatic NER of Code-Mixed data.", "Our work is the use of Deep-Learning approaches for detecting Token-Level language tags for Code-Mixed content."], "ms": ["Dalam kerja ini, kami membentangkan penerokaan data NER automatik Code-Mixed.", "Kerja kami adalah penggunaan pendekatan Deep-Learning untuk mengesan tag bahasa Token-Level untuk kandungan Code-Mixed."]}, {"en": ["Upadhyay et al compared empirically some of the most recent development on Cross-Lingual models of word Embeddings.", "Upadhyay et al provide an empirical comparison of four Cross-Lingual word Embedding models varying in terms of the amount of supervision."], "ms": ["Upadhyay et al membandingkan secara empirikal beberapa perkembangan terkini pada model Cross-Lingual Embeddings perkataan.", "Upadhyay et al memberikan perbandingan empirikal empat model Embedding perkataan Cross-Lingual yang berbeza dari segi jumlah pengawasan."]}, {"en": ["Table 1 shows the comparison of Srilm and Randlm with respect to performance on BLEU and Ter on the test set.", "Table 3 shows the performance of these systems under three widely used evaluation Metrics Ter, BLEU and meteor."], "ms": ["Jadual 1 menunjukkan perbandingan Srilm dan Randlm berkenaan dengan prestasi di BLEU dan Ter pada set ujian.", "Jadual 3 menunjukkan prestasi sistem-sistem ini di bawah tiga Metrik Penilaian Ter, BLEU dan meteor yang digunakan secara meluas."]}, {"en": ["We apply the revised D-Level sentence complexity scale as the basis of our syntactic complexity measure.", "The revised D-Level sentence complexity scale forms the core of our syntactic complexity measure."], "ms": ["Kami menggunakan skala kerumitan ayat D-Level yang disemak semula sebagai asas ukuran kerumitan sintaktik kami.", "Skala kerumitan ayat D-Level yang disemak semula membentuk teras ukuran kerumitan sintaktik kita."]}, {"en": ["The Corpus has been automatically Annotated with full syntactic dependency trees by the Alpino Parser for Dutch.", "The sentences have been Parsed automatically by the Alpino Parser for Dutch."], "ms": ["Corpus telah secara automatik Dianotasi dengan pokok pergantungan sintaktik penuh oleh Alpino Parser untuk Belanda.", "Ayat-ayat tersebut telah di Parsed secara automatik oleh Alpino Parser untuk bahasa Belanda."]}, {"en": ["The Enju Parser 6 is a deep Parser based on the Hpsg formalism.", "The Enju Parser is a statistical deep Parser based on the Hpsg formalism."], "ms": ["Parser Enju 6 adalah Parser mendalam berdasarkan formalisme Hpsg.", "Parser Enju adalah Parser mendalam statistik berdasarkan formalisme Hpsg."]}, {"en": ["Jiang and Zhou generate Chinese Couplets using a Phrasebased Smt approach which translates the first line to the second line.", "Jiang and Zhou used Smt to generate the second line of Chinese Couplets given the first line."], "ms": ["Jiang dan Zhou menghasilkan Pasangan Cina menggunakan pendekatan Smt berasaskan Phrase yang menterjemahkan baris pertama ke baris kedua.", "Jiang dan Zhou menggunakan Smt untuk menghasilkan baris kedua Pasangan Cina yang diberi baris pertama."]}, {"en": ["This algorithm can be used to extract topic hierarchies from large document collections.", "Hierarchical topic modeling is able to detect automatically new topics."], "ms": ["Algoritma ini boleh digunakan untuk mengekstrak hierarki topik dari koleksi dokumen yang besar.", "Pemodelan topik hierarki dapat mengesan topik baru secara automatik."]}, {"en": ["Further experiment shows that the obtained Subtree alignment benefits both phrase and syntax based mt systems by delivering more weight on syntactic phrases.", "Also suggest that the obtained Subtree alignment can improve the performance of both phrase and syntax based Smt systems."], "ms": ["Eksperimen lanjut menunjukkan bahawa penjajaran Subtree yang diperolehi memberi manfaat kepada kedua-dua frasa dan sistem mt berasaskan sintaks dengan memberikan lebih banyak berat pada frasa sintaksis.", "Juga mencadangkan bahawa penjajaran Subtree yang diperolehi dapat meningkatkan prestasi kedua-dua sistem Smt berasaskan frasa dan sintaks."]}, {"en": ["To Pre-Order the Chinese sentences using the Syntax-Based reordering method proposed by, we utilize the Berkeley Parser.", "To extract the features of the rule selection model, we Parse the English part of our training data using the Berkeley Parser."], "ms": ["Untuk Pra-Order ayat Cina menggunakan kaedah penyusunan semula berasaskan Syntax yang dicadangkan oleh, kami menggunakan Berkeley Parser.", "Untuk mengekstrak ciri-ciri model pemilihan peraturan, kami menghuraikan bahagian bahasa Inggeris data latihan kami menggunakan Berkeley Parser."]}, {"en": ["We present a component for incremental speech synthesis (ISS) and a set of applications that demonstrate its capabilities.", "We have presented a component for incremental speech synthesis (ISS) and demonstrated its capabilities."], "ms": ["Kami membentangkan komponen untuk sintesis pertuturan tambahan (ISS) dan satu set aplikasi yang menunjukkan keupayaannya.", "Kami telah membentangkan komponen untuk sintesis pertuturan tambahan (ISS) dan menunjukkan keupayaannya."]}, {"en": ["It is based on 5-Grams with extended Kneser-Ney smoothing.", "The language model is a 5-Gram with interpolation and Kneserney smoothing."], "ms": ["Ia berdasarkan 5-Gram dengan smoothing Kneser-Ney yang dilanjutkan.", "Model bahasa adalah 5-Gram dengan interpolasi dan smoothing Kneserney."]}, {"en": ["In this paper, we present a novel Endto-End neural network framework for Extractive document summarization by jointly learning to score and select sentences.", "In this paper, we present a novel neural network framework for Extractive document summarization by jointly learning to score and select sentences."], "ms": ["Dalam makalah ini, kami membentangkan rangka kerja rangkaian neural Endto-End novel untuk ringkasan dokumen Extractive dengan bersama belajar untuk menjaringkan dan memilih ayat.", "Dalam makalah ini, kami membentangkan kerangka rangkaian saraf novel untuk ringkasan dokumen Ekstratif dengan bersama belajar untuk menjaringkan dan memilih ayat."]}, {"en": ["1 a construct is a set of knowledge, skills, and abilities measured by a test.", "A construct is a set of knowledge, skills, and abilities measured by a test."], "ms": ["1 membina adalah satu set pengetahuan, kemahiran, dan kebolehan yang diukur oleh ujian.", "Pembinaan adalah satu set pengetahuan, kemahiran, dan kebolehan yang diukur oleh ujian."]}, {"en": ["We build three different Smt systems based on the Moses Toolkit with different input for training the Phrase-Based translation models.", "For our baseline we use the Moses software to train a phrase based machine translation model."], "ms": ["Kami membina tiga sistem Smt yang berbeza berdasarkan Musa Toolkit dengan input yang berbeza untuk melatih model terjemahan Berasaskan Frasa.", "Untuk asas kami, kami menggunakan perisian Moses untuk melatih model terjemahan mesin berasaskan frasa."]}, {"en": ["In this paper we propose a Cross-Lingual mixture model (Clmm) for Cross-Lingual sentiment classification.", "In this paper, we propose a Generative Cross-Lingual mixture model (Clmm)."], "ms": ["Dalam makalah ini kami mengusulkan model campuran Cross-Lingual (Clmm) untuk klasifikasi sentimen Cross-Lingual.", "Dalam makalah ini, kami mencadangkan model campuran Generatif Cross-Lingual (Clmm)."]}, {"en": ["Machine learning techniques, and particularly reinforcement learning, have recently received great interest in research on dialogue management.", "In recent years, machine learning techniques, in particular reinforcement learning, have been applied to the task of dialogue management."], "ms": ["Teknik pembelajaran mesin, dan terutamanya pembelajaran pengukuhan, baru-baru ini mendapat minat yang besar dalam penyelidikan pengurusan dialog.", "Dalam tahun-tahun kebelakangan ini, teknik pembelajaran mesin, khususnya pembelajaran pengukuhan, telah digunakan untuk tugas pengurusan dialog."]}, {"en": ["We hold a view of Structuralist linguistics and study the impact of paradigmatic and Syntagmatic lexical relations on Chinese Pos tagging.", "From the perspective of structural linguistics, we explore paradigmatic and Syntagmatic lexical relations for Chinese Pos tagging."], "ms": ["Kami memegang pandangan linguistik Structuralist dan mengkaji kesan hubungan leksikal paradigmatik dan Syntagmatic pada penandaan Pos Cina.", "Dari perspektif linguistik struktur, kami meneroka hubungan leksikal paradigmatik dan Syntagmatic untuk penandaan Pos Cina."]}, {"en": ["By using a Japanese grammar based on a Monostratal theory of grammar we could simultaneously Annotate syntactic and semantic structure without Overburdening the Annota-Tor.", "By using a Japanese grammar, based on a Monostratal theory of grammar, we could simultaneously Annotate syntactic and semantic structure without Overburdening the Annotator."], "ms": ["Dengan menggunakan tatabahasa Jepun berdasarkan teori Monostrat tatabahasa, kita dapat secara serentak Annotate struktur sintaksis dan semantik tanpa Mengurangkan Annota-Tor.", "Dengan menggunakan tatabahasa Jepun, berdasarkan teori tatabahasa Monostratal, kita boleh secara serentak Annotate struktur sintaksis dan semantik tanpa Overburdening Annotator."]}, {"en": ["Our test SETS are the Conll 2014 evaluation set and the Jfleg test set.", "We also report results on the Jfleg test set using Gleu."], "ms": ["Ujian kami SETS adalah set penilaian Conll 2014 dan set ujian Jfleg.", "Kami juga melaporkan hasil pada set ujian Jfleg menggunakan Gleu."]}, {"en": ["Ando and Zhang presented a Semi-Supervised learning algorithm named alternating structure optimization for text Chunking.", "Ando and Zhang present a Semisupervised learning algorithm called alternating structure optimization."], "ms": ["Ando dan Zhang membentangkan algoritma pembelajaran Semi-Supervised bernama pengoptimuman struktur alternating untuk Chunking teks.", "Ando dan Zhang mempersembahkan algoritma pembelajaran Semisupervised yang dipanggil pengoptimuman struktur bergantian."]}, {"en": ["Experimental results on two public data SETS indicate that matching models get significant improvements when they are learned with the proposed method.", "Experimental results on both data SETS indicate that models learned with our method can significantly outperform their counterparts learned with the random sampling strategy."], "ms": ["Hasil eksperimen pada dua data awam SETS menunjukkan bahawa model yang sepadan mendapat peningkatan yang ketara apabila mereka dipelajari dengan kaedah yang dicadangkan.", "Hasil eksperimen pada kedua-dua data SETS menunjukkan bahawa model yang dipelajari dengan kaedah kami dapat mengatasi rakan sejawat mereka yang dipelajari dengan strategi persampelan rawak."]}, {"en": ["Recently, deep Learning-Based sequential models of sentence, such as recurrent neural network, have proved to be effective in dealing with the Non-Sequential properties of human language.", "With the application of popular deep learning methods, researchers have found that recurrent neural network can successfully model the Non-Sequential linguistic properties with sequential data input."], "ms": ["Baru-baru ini, model ayat berurutan berasaskan pembelajaran yang mendalam, seperti rangkaian saraf berulang, telah terbukti berkesan dalam menangani sifat-sifat bukan berurutan bahasa manusia.", "Dengan penggunaan kaedah pembelajaran mendalam yang popular, para penyelidik mendapati bahawa rangkaian saraf berulang dapat berjaya memodelkan sifat linguistik Bukan Berturut-turut dengan input data berurutan."]}, {"en": ["At a final stage, the Pre-Trained parameters of the network are used to Initialize the model which is then trained on the supervised training data from Semeval-2015.", "The word Embeddings and other parameters of the network obtained at the previous stage are used to Initialize the network that is then trained on a supervised corpus from Semeval-2015."], "ms": ["Pada peringkat akhir, parameter pra-latihan rangkaian digunakan untuk Memulakan model yang kemudiannya dilatih pada data latihan yang diawasi dari Semeval-2015.", "Perkataan Embeddings dan parameter lain rangkaian yang diperolehi pada peringkat sebelumnya digunakan untuk Memulakan rangkaian yang kemudian dilatih pada korpus yang diawasi dari Semeval-2015."]}, {"en": ["We then incorporate this model into a global, efficient Branch-And-Bound search through the space of Permutations.", "We conduct an efficient Depth-First Branch-And-Bound search through the space of possible children."], "ms": ["Kami kemudian menggabungkan model ini ke dalam carian Branch-And-Bound yang cekap dan global melalui ruang Permutations.", "Kami menjalankan carian Cawangan-Dan-Bound Depth-First yang cekap melalui ruang kanak-kanak yang mungkin."]}, {"en": ["We think this is a significant contribution since students or professors can use features as a feedback for better understanding essays writing.", "We think it is a promising clue to improving translation quality."], "ms": ["Kami fikir ini adalah sumbangan yang signifikan kerana pelajar atau profesor boleh menggunakan ciri-ciri sebagai maklum balas untuk pemahaman yang lebih baik menulis esei.", "Kami fikir ia adalah petunjuk yang menjanjikan untuk meningkatkan kualiti terjemahan."]}, {"en": ["For creating our folds, we used stratified Cross-Validation, which aims to ensure that the proportion of classes within each partition is equal.", "For creating our folds, we employ stratified Cross-Validation which aims to ensure that the proportion of classes within each partition is equal."], "ms": ["Untuk mencipta lipatan kami, kami menggunakan Cross-Validation yang distratifikasi, yang bertujuan untuk memastikan bahawa bahagian kelas dalam setiap partition adalah sama.", "Untuk mewujudkan lipatan kami, kami menggunakan Cross-Validation yang berstruktur yang bertujuan untuk memastikan bahawa bahagian kelas dalam setiap partition adalah sama."]}, {"en": ["We learn a distance metric for each category Node, and measure Entity-Context similarity under the Aggregated Metrics of all relevant categories.", "Such that we measures Entity-Context similarity under Aggregated distance Metrics of Hierarchical category nodes."], "ms": ["Kami mempelajari metrik jarak untuk setiap Nod kategori, dan mengukur persamaan Entiti-Konteks di bawah Metrik Agregasi semua kategori yang berkaitan.", "Oleh itu, kami mengukur persamaan Entiti-Konteks di bawah Metrik jarak agregat nod kategori Hierarki."]}, {"en": ["Jerl Outperforms the State-Of-Art systems on both NER and linking tasks on the Conll\u00a1\u00af03/Aida data set.", "On the Conll \u00a1\u00af 03 / Aida data set, Jerl Outperforms State-Of-Art NER and linking systems, and we find improvements of 0 . 4% absolute f."], "ms": ["Jerl Melaksanakan sistem State-Of-Art pada kedua-dua NER dan menghubungkan tugas pada set data Conll 03 / Aida.", "Pada set data Conll 03 / Aida, Jerl Outperforms State-Of-Art NER dan sistem penghubung, dan kami mendapati peningkatan 0.4% mutlak f."]}, {"en": ["The Preprocessing phase comprises treatment of Emoticon, slang terms, Lemmatization and Pos-Tagging.", "The Preprocessing phase comprises treatment of Emoticons, Spell-Errors, slang terms, Lemmatization and Pos-Tagging."], "ms": ["Fasa Pemprosesan terdiri daripada rawatan Emoticon, istilah slanga, Lemmatization dan Pos-Tagging.", "Fasa Pemprosesan terdiri daripada rawatan Emoticons, Eja-Rermin, istilah slanga, Lemmatization dan Pos-Tagging."]}, {"en": ["Another important aspect of our approach is a Two-Pronged strategy that handles event narratives differently from other documents.", "We adopt a Two-Pronged strategy for event extraction that handles event narrative documents differently from other documents."], "ms": ["Satu lagi aspek penting pendekatan kami adalah strategi Dua Kukuh yang menangani naratif peristiwa berbeza dari dokumen lain.", "Kami menggunakan strategi Dua Kukuh untuk pengekstrakan acara yang mengendalikan dokumen naratif peristiwa secara berbeza daripada dokumen lain."]}, {"en": ["A. of course, it was situated behind a big Neu but unobtrusive painting Neu.", "A . of course, it was situated behind a big Neu but unobtrusive painting."], "ms": ["Sudah tentu, ia terletak di belakang Neu besar tetapi lukisan Neu yang tidak mengganggu.", "Sudah tentu, ia terletak di belakang lukisan Neu yang besar tetapi tidak mengganggu."]}, {"en": ["We also show that our approach Outperforms the best performing fully Corpus-Based ble methods on these test sets.", "Without any external translation resources, our Bootstrapping approach yields Lexicons that outperform the best performing Corpus-Based ble methods on standard test."], "ms": ["Kami juga menunjukkan bahawa pendekatan kami Melaksanakan kaedah ble sepenuhnya berasaskan Corpus yang terbaik pada set ujian ini.", "Tanpa sebarang sumber terjemahan luaran, pendekatan Bootstrapping kami menghasilkan Lexicons yang mengatasi kaedah ble Berasaskan Corpus yang terbaik pada ujian standard."]}, {"en": ["Our framework combines the strengths of 6 approaches that had previously been applied to 3 different tasks (Keyword extraction, Multi-Sentence compression, and summarization) into a unified, fully Unsupervised Endto-End summarization framework, and introduces some novel components.", "In this paper, we combine the strengths of 6 approaches that had previously been applied to 3 different tasks (Keyword extraction, Multi-Sentence compression, and summarization) into a unified, fully Unsupervised Endto-End meeting speech summarization framework that can generate readable summaries."], "ms": ["Kerangka kami menggabungkan kekuatan 6 pendekatan yang sebelum ini telah digunakan untuk 3 tugas yang berbeza (Pengekstrak Kata kunci, pemampatan Multi-Sentence, dan ringkasan) ke dalam rangka ringkasan Endto-End yang tidak diawasi sepenuhnya, dan memperkenalkan beberapa komponen novel.", "Dalam makalah ini, kami menggabungkan kekuatan 6 pendekatan yang sebelumnya telah diterapkan pada 3 tugas yang berbeza (Pengekstrak Kata kunci, pemampatan Multi-Sentence, dan ringkasan) menjadi kerangka ringkasan ucapan mesyuarat Endto-End yang tidak diawasi sepenuhnya yang dapat menghasilkan ringkasan yang dapat dibaca."]}, {"en": ["In this paper, we explore the syntactic features using Convolution tree kernels for relation extraction.", "In this paper, we demonstrate the effectiveness of the syntactic tree features for relation extraction."], "ms": ["Dalam kertas ini, kami meneroka ciri-ciri sintaksis menggunakan kernel pokok Convolution untuk pengekstrakan hubungan.", "Dalam kertas kerja ini, kami menunjukkan keberkesanan ciri-ciri pokok sintaktik untuk pengekstrakan hubungan."]}, {"en": ["Applications of our method include topic detection, event tracking, Story/Topic monitoring, New-Event detection, summarization, information filtering, etc.", "Applications of our technique include the dynamic tracking of topic and semantic evolution in a dialog, topic detection, automatic generation of document tags, and new story or event detection."], "ms": ["Aplikasi kaedah kami termasuk pengesanan topik, pengesanan peristiwa, pemantauan Story / Topik, pengesanan Acara Baru, ringkasan, penapisan maklumat, dll.", "Aplikasi teknik kami termasuk penjejakan dinamik topik dan evolusi semantik dalam dialog, pengesanan topik, penjanaan automatik tag dokumen, dan pengesanan cerita atau peristiwa baru."]}, {"en": ["We consider a Semi-Supervised setting for domain adaptation where only Unlabeled data is available for the target domain.", "We focus on a more challenging and Arguably more realistic version of the Domain-Adaptation problem where only Unlabeled data is available for the target domain."], "ms": ["Kami menganggap tetapan Semi-Supervised untuk penyesuaian domain di mana hanya data Unlabeled tersedia untuk domain sasaran.", "Kami memberi tumpuan kepada versi yang lebih mencabar dan boleh dikatakan lebih realistik masalah Domain-Adaptation di mana hanya data Unlabeled tersedia untuk domain sasaran."]}, {"en": ["The method could be used both in a Semi-Supervised setting where a training set of labeled words is used, and in an Unsupervised setting where a handful of seeds is used to define the two polarity classes.", "Where a training set of labeled words is used, and in an Unsupervised setting where only a handful of seeds is used to define the two polarity classes."], "ms": ["Kaedah ini boleh digunakan dalam tetapan Semi-Supervised di mana satu set latihan perkataan berlabel digunakan, dan dalam tetapan Unsupervised di mana segelintir benih digunakan untuk menentukan dua kelas polarity.", "Di mana satu set latihan perkataan berlabel digunakan, dan dalam tetapan Unsupervised di mana hanya segelintir benih digunakan untuk menentukan dua kelas polariti."]}, {"en": ["Recently, in the Nlp research field, an increasing amount of effort has been made on structural event detection in spontaneous speech.", "In the last decade, a large amount of research has been conducted on detection of structural events, Eg, sentence structure and Disfluency structure, in spontaneous speech."], "ms": ["Baru-baru ini, dalam bidang penyelidikan Nlp, peningkatan usaha telah dilakukan mengenai pengesanan peristiwa struktur dalam pertuturan spontan.", "Dalam dekad yang lalu, sejumlah besar penyelidikan telah dijalankan mengenai pengesanan peristiwa struktur, Eg, struktur ayat dan struktur kelumpuhan, dalam ucapan spontan."]}, {"en": ["Left-Corner (Lc) Parsing is a Parsing strategy which has been used in different guises in various areas of computer science.", "Left-Corner Parsing is a Bottom-Up technique where the Right-Hand-Side symbols of the rules are matched from Leftto right, S once the Left-Cornersymbol has been found, the grammar Rulecan be used to predict what may come next."], "ms": ["Left-Corner (Lc) Parsing adalah strategi Parsing yang telah digunakan dalam pelbagai bidang sains komputer.", "Parsing Kiri-Corner adalah teknik Bottom-Up di mana simbol-simbol kanan-Hand-Side peraturan dipadankan dari Leftto kanan, S setelah simbol Kiri-Cornersymbol telah dijumpai, Peraturan tatabahasa boleh digunakan untuk meramalkan apa yang mungkin akan datang seterusnya."]}, {"en": ["In, the Sfst-Based model is compared with support vector machines and conditional random fields.", "For comparison, a conditional random field -Based method was implemented using the same training and development sets."], "ms": ["Model berasaskan Sfst dibandingkan dengan mesin vektor sokongan dan medan rawak bersyarat.", "Sebagai perbandingan, kaedah berasaskan medan rawak bersyarat dilaksanakan menggunakan set latihan dan pembangunan yang sama."]}, {"en": ["But there is still a gap to the Discriminative Re-Scoring methods.", "The Discriminative Re-Scoring method is also very successful."], "ms": ["Tetapi masih terdapat jurang kepada kaedah Re-Scoring Discriminative.", "Kaedah Re-Scoring Diskriminatif juga sangat berjaya."]}, {"en": ["Sahami et al, measure semantic similarity between two queries using the Snippets returned for those queries by a search engine.", "Sahami and Heilman measured semantic similarity between two queries using Snippets returned for those queries by a search engine."], "ms": ["Sahami et al, mengukur persamaan semantik antara dua pertanyaan menggunakan Snippets yang dikembalikan untuk pertanyaan tersebut oleh mesin pencari.", "Sahami dan Heilman mengukur persamaan semantik antara dua pertanyaan menggunakan Snippets yang dikembalikan untuk pertanyaan tersebut oleh mesin pencari."]}, {"en": ["Communication accommodation theory States that people use nonverbal feedback to establish social distance during conversation.", "Communication accommodation theory (2001) states that humans use Prosody and Backchannels in order to adjust social distance."], "ms": ["Teori penginapan komunikasi menyatakan bahawa orang menggunakan maklum balas nonverbal untuk mewujudkan jarak sosial semasa perbualan.", "Teori penginapan komunikasi (2001) menyatakan bahawa manusia menggunakan Prosody dan Backchannels untuk menyesuaikan jarak sosial."]}, {"en": ["In this paper we proposed a model for relation extraction from Qna data, which is capable of predicting relations between entities mentioned in question and answer sentences.", "We propose a novel model for relation extraction from Cqa data, that uses discourse of a Qna pair to extract facts between entities mentioned in question and entities mentioned in answer sentences."], "ms": ["Dalam makalah ini kami mencadangkan model untuk pengekstrakan hubungan dari data Qna, yang mampu meramalkan hubungan antara entiti yang disebutkan dalam ayat soalan dan jawapan.", "Kami mencadangkan model novel untuk pengekstrakan hubungan dari data Cqa, yang menggunakan wacana pasangan Qna untuk mengekstrak fakta antara entiti yang disebutkan dalam soalan dan entiti yang disebutkan dalam ayat jawapan."]}, {"en": ["Over the last few years, several large scale knowledge bases such as Freebase, Nell, and Yago have been developed.", "Several massive knowledge bases such as Dbpedia and Freebase have been released."], "ms": ["Sejak beberapa tahun kebelakangan ini, beberapa pangkalan pengetahuan berskala besar seperti Freebase, Nell, dan Yago telah dibangunkan.", "Beberapa pangkalan pengetahuan besar seperti Dbpedia dan Freebase telah dikeluarkan."]}, {"en": ["Yet, Wordnet is limited for Entailment rule generation.", "While Wordnet includes many rare word senses."], "ms": ["Walau bagaimanapun, Wordnet terhad untuk generasi peraturan Entailment.", "Walaupun Wordnet merangkumi banyak deria kata yang jarang berlaku."]}, {"en": ["In this paper, we adopt the same paradigm pursued in Cite-P-12-1-11, but apply it to an exact inference Cyk Parser (Cite-P-12-1-2, Cite-P-12-3-1, Cite-P-12-1-8).", "In this paper, we extend methods from Cite-P-12-1-11 for reducing the Worst-Case complexity of a Context-Free Parsing pipeline."], "ms": ["Dalam makalah ini, kita menggunakan paradigma yang sama yang dikejar dalam Cite-P-12-1-11, tetapi menerapkannya pada kesimpulan yang tepat Cyk Parser (Cite-P-12-1-2, Cite-P-12-3-1, Cite-P-12-1-8).", "Dalam makalah ini, kami memperluas kaedah dari Cite-P-12-1-11 untuk mengurangkan kerumitan Worst-Case saluran paip Penghuraian Bebas Konteks."]}, {"en": ["Topic modeling Algorithms such as latent Dirichlet allocation and non negative matrix Factorization are able to find the topics within a document collection.", "Statistical topic models such as latent Dirichlet allocation provide a powerful framework for representing and summarizing the contents of large document collections."], "ms": ["Algoritma pemodelan topik seperti peruntukan Dirichlet terpendam dan pemfaktoran matriks bukan negatif mampu mencari topik dalam koleksi dokumen.", "Model topik statistik seperti peruntukan Dirichlet laten menyediakan rangka kerja yang kuat untuk mewakili dan meringkaskan kandungan koleksi dokumen yang besar."]}, {"en": ["We subsequently Replicate a recent large-scale evaluation that relied on, what we now know to be, Suboptimal Rouge Variants revealing distinct conclusions about the relative performance of state-of-the-art summarization systems.", "Recommended best Variants, we subsequently Replicate a recent evaluation of state-of-the-art summarization systems revealing distinct conclusions about the relative performance of systems."], "ms": ["Kami kemudiannya Mengulangi penilaian berskala besar baru-baru ini yang bergantung kepada, apa yang kita sekarang tahu, Variants Rouge Suboptimal mendedahkan kesimpulan yang berbeza mengenai prestasi relatif sistem summarisasi state-of-the-art.", "Variants terbaik yang disyorkan, kami kemudiannya Mengulangi penilaian terkini sistem summarisasi canggih yang mendedahkan kesimpulan yang berbeza mengenai prestasi relatif sistem."]}, {"en": ["The Phonological processing of such as primary stress and higher pitch have been well noted in the literature, Culicover and Rochemont among others).", "The Phonological operations of such as primary stress and higher pitch have been well noted in the literature, Culicover and Rochemont among others)."], "ms": ["Pemprosesan Phonologi seperti tekanan utama dan nada yang lebih tinggi telah diperhatikan dengan baik dalam kesusasteraan, Culicover dan Rochemont antara lain).", "Operasi Phonologi seperti tekanan utama dan nada yang lebih tinggi telah diperhatikan dengan baik dalam kesusasteraan, Culicover dan Rochemont antara lain)."]}, {"en": ["There has been a growing awareness of Japanese Mwe problems (Cite-P-17-1-0).", "Though there has been a growing interest in Mwes (Cite-P-17-1-11)."], "ms": ["Terdapat kesedaran yang semakin meningkat mengenai masalah Mwe Jepun (Cite-P-17-1-0).", "Walaupun terdapat minat yang semakin meningkat dalam Mwes (Cite-P-17-1-11)."]}, {"en": ["A more flexible direction is grounded language acquisition: learning the meaning of sentences in the context of an observed world state.", "A central problem in grounded language acquisition is learning the Correspondences between a rich world state."], "ms": ["Arah yang lebih fleksibel adalah pemerolehan bahasa asas: mempelajari makna ayat dalam konteks keadaan dunia yang diperhatikan.", "Masalah utama dalam pemerolehan bahasa asas adalah mempelajari Correspondences antara negara dunia yang kaya."]}, {"en": ["We demonstrate the effectiveness of our approach in the context of one form of unbalanced task: Annotation of transcribed Human-Human dialogues for Presence/Absence of uncertainty.", "In the context of one form of Binary unbalanced task 2: Annotation of transcribed Human-Human dialogue for presence / absence of uncertainty."], "ms": ["Kami menunjukkan keberkesanan pendekatan kami dalam konteks satu bentuk tugas yang tidak seimbang: Annotasi dialog manusia-manusia yang ditranskripsikan untuk Kehadiran / Kehadiran ketidakpastian.", "Dalam konteks satu bentuk tugas tidak seimbang binari 2: Annotasi dialog manusia-manusia yang ditranskripsikan untuk kehadiran / ketiadaan ketidakpastian."]}, {"en": ["We present both theoretical and empirical results concerning the correctness and efficiency of these Algorithms.", "We present theoretical results concerning the correctness and efficiency of the proposed Algorithms."], "ms": ["Kami membentangkan kedua-dua keputusan teori dan empirikal mengenai ketepatan dan kecekapan Algoritma ini.", "Kami membentangkan hasil teori mengenai ketepatan dan kecekapan algoritma yang dicadangkan."]}, {"en": ["In this paper, we follow a different strategy, arguing that a much simpler inference strategy Suffices.", "In this paper, we demonstrate that a substantially simpler approach that starts from a tree drawn from the uniform distribution."], "ms": ["Dalam makalah ini, kami mengikuti strategi yang berbeza, dengan alasan bahawa strategi kesimpulan yang lebih mudah Cukup.", "Dalam kertas ini, kami menunjukkan bahawa pendekatan yang lebih mudah yang bermula dari pokok yang diambil dari pengedaran seragam."]}, {"en": ["We use the Moses package for this purpose, which uses a Phrase-Based approach by combining a translation model and a language model to generate paraphrases.", "We use the Moses Toolkit to create a statistical Phrase-Based machine translation model built on the best Pre-Processed data, as described above."], "ms": ["Kami menggunakan pakej Musa untuk tujuan ini, yang menggunakan pendekatan Berasaskan Frasa dengan menggabungkan model terjemahan dan model bahasa untuk menghasilkan parafrasa.", "Kami menggunakan Musa Toolkit untuk mencipta model terjemahan mesin berasaskan frasa statistik yang dibina berdasarkan data Pra-proses terbaik, seperti yang dijelaskan di atas."]}, {"en": ["This paper proposes a Knowledge-Based method, called structural semantic relatedness (Ssr), which can enhance the named entity Disambiguation by capturing and Leveraging the structural semantic knowledge in multiple knowledge sources.", "This paper proposes a Knowledge-Based method, called structural semantic relatedness (Ssr), which can enhance the named entity Disambiguation by capturing and Leveraging the structural semantic knowledge from multiple knowledge sources."], "ms": ["Kertas kerja ini mencadangkan kaedah berasaskan pengetahuan, yang dipanggil berkaitan semantik struktur (Ssr), yang boleh meningkatkan entiti yang dinamakan Disambiguation dengan menangkap dan memanfaatkan pengetahuan semantik struktur dalam pelbagai sumber pengetahuan.", "Kertas kerja ini mencadangkan kaedah berasaskan pengetahuan, yang dipanggil berkaitan semantik struktur (Ssr), yang boleh meningkatkan entiti yang dinamakan Disambiguation dengan menangkap dan memanfaatkan pengetahuan semantik struktur dari pelbagai sumber pengetahuan."]}, {"en": ["In terms of active learning, Lewis and gale mentioned the use of virtual examples in text classification.", "Lewis and gale pioneered the use of active learning for text Categorization."], "ms": ["Dari segi pembelajaran aktif, Lewis dan Gale menyebut penggunaan contoh maya dalam klasifikasi teks.", "Lewis dan Gale mempelopori penggunaan pembelajaran aktif untuk teks Categorization."]}, {"en": ["Although the Markov chains are efficient at Encoding local word interactions, the N-Gram model clearly ignores the rich syntactic and semantic structures that constrain natural languages.", "Since the composite language model effectively Encodes long range Dependencies of natural language that N-Gram is not viable to consider."], "ms": ["Walaupun rantaian Markov cekap dalam Mengenal pasti interaksi perkataan tempatan, model N-Gram jelas mengabaikan struktur sintaktik dan semantik yang kaya yang mengekang bahasa semula jadi.", "Oleh kerana model bahasa komposit berkesan Mengkodkan pelbagai bahasa semulajadi yang N-Gram tidak dapat dipertimbangkan."]}, {"en": ["In section 7, I argue that the Context-Dependent feature of the analysis does not add extra complexity to my treatment of Time-Dependent expressions, but is needed for purposes of discourse understanding in general.", "Sis does not add extra complexity to my treatment of Time-Dependent expressions, but is needed for purposes of discourse understanding in general."], "ms": ["Dalam seksyen 7, saya berpendapat bahawa ciri Context-Dependent analisis tidak menambah kerumitan tambahan kepada rawatan saya ungkapan Time-Dependent, tetapi diperlukan untuk tujuan pemahaman wacana secara umum.", "Sis tidak menambah kerumitan tambahan kepada rawatan saya ungkapan Time-Dependent, tetapi diperlukan untuk tujuan pemahaman wacana secara umum."]}, {"en": ["The newer method of latent semantic indexing 1 is a variant of the Vsm in which documents are represented in a lower dimensional space created from the input training Dataset.", "The newer method of latent semantic indexing 3 is a variant of the Vsm in which documents are represented in a lower dimensional space created from the input training Dataset."], "ms": ["Kaedah pengindeksan semantik laten yang lebih baru 1 adalah varian Vsm di mana dokumen diwakili dalam ruang dimensi yang lebih rendah yang dibuat dari Dataset latihan input.", "Kaedah pengindeksan semantik laten yang lebih baru 3 adalah varian Vsm di mana dokumen diwakili dalam ruang dimensi yang lebih rendah yang dibuat dari Dataset latihan input."]}, {"en": ["They extended a Semi-Supervised structured conditional model to the dependency Parsing problem and combined their method with the approach of Koo et al.", "They apply the Semi-Supervised learning approach of Suzuki and Isozaki to dependency Parsing and include Additionally the Cluster-Based features of Koo et al."], "ms": ["Mereka memperluaskan model bersyarat berstruktur Semi-Supervised kepada masalah Parsing dependensi dan menggabungkan kaedah mereka dengan pendekatan Koo et al.", "Mereka menggunakan pendekatan pembelajaran Semi-Supervised Suzuki dan Isozaki untuk Parsing dependensi dan termasuk ciri-ciri Berasaskan Kluster Koo et al."]}, {"en": ["Furthermore, we describe a long-term Crowdsourced effort to have the sentences labeled by Arabic speakers for the level of dialect in each sentence and the dialect itself.", "And we describe our long-term Annotation effort to identify the dialect level (and dialect itself) in each sentence."], "ms": ["Tambahan pula, kami menerangkan usaha Crowdsourced jangka panjang untuk mempunyai ayat yang dilabelkan oleh penutur bahasa Arab untuk tahap dialek dalam setiap ayat dan dialek itu sendiri.", "Dan kita menerangkan usaha Annotasi jangka panjang kita untuk mengenal pasti tahap dialek (dan dialek itu sendiri) dalam setiap ayat."]}, {"en": ["In this paper, we propose novel Convolutional architectures to dynamically Encode the relevant information in the source language.", "We proposed Convolutional architectures for obtaining a guided representation of the entire source sentence, which can be used to augment the N-Gram target language."], "ms": ["Dalam makalah ini, kami mencadangkan seni bina Convolutional novel untuk mengkodkan maklumat yang relevan secara dinamik dalam bahasa sumber.", "Kami mencadangkan seni bina Konvolutional untuk mendapatkan perwakilan berpandu keseluruhan ayat sumber, yang boleh digunakan untuk menambah bahasa sasaran N-Gram."]}, {"en": ["All linear SVM models were implemented with Scikit-Learn and trained and tested using Liblinear Backend.", "The two baseline methods were implemented using Scikit-Learn in python."], "ms": ["Semua model SVM linear dilaksanakan dengan Scikit-Learn dan dilatih dan diuji menggunakan Liblinear Backend.", "Kedua-dua kaedah asas telah dilaksanakan menggunakan Scikit-Learn dalam python."]}, {"en": ["Neural language models based on recurrent neural networks and Sequence-Tosequence architectures have revolutionized the Nlp world.", "Neural models, with various neural architectures, have recently achieved great success."], "ms": ["Model bahasa neural berdasarkan rangkaian neural berulang dan seni bina Sequence-Tosequence telah merevolusikan dunia Nlp.", "Model saraf, dengan pelbagai seni bina saraf, baru-baru ini mencapai kejayaan besar."]}, {"en": ["Therefore, Backtranslation was adapted to train a translation system in a true translation setting based on Monolingual Corpora.", "Therefore, Backtranslation was adapted to train translation systems in a true translation setting based on Monolingual Corpora."], "ms": ["Oleh itu, Backtranslation telah disesuaikan untuk melatih sistem terjemahan dalam tetapan terjemahan yang benar berdasarkan Monolingual Corpora.", "Oleh itu, Backtranslation telah disesuaikan untuk melatih sistem terjemahan dalam tetapan terjemahan yang benar berdasarkan Monolingual Corpora."]}, {"en": ["In this paper, we proposed a framework for working with predictive opinion.", "In this paper, we concentrate on identifying predictive opinion."], "ms": ["Dalam makalah ini, kami mencadangkan rangka kerja untuk bekerja dengan pendapat ramalan.", "Dalam kertas kerja ini, kami menumpukan perhatian untuk mengenal pasti pendapat ramalan."]}, {"en": ["Our empirical results show that our decoding framework is effective, and can leads to substantial improvements in translations, especially in situations where greedy search and beam search are not feasible.", "Our results show that our decoding framework is effective and leads to substantial improvements in translations generated from the intersected models, where the typical greedy or beam search."], "ms": ["Hasil empirikal kami menunjukkan bahawa rangka kerja penyahkodan kami berkesan, dan boleh membawa kepada peningkatan yang besar dalam terjemahan, terutamanya dalam situasi di mana carian tamak dan carian rasuk tidak dapat dilaksanakan.", "Hasil kami menunjukkan bahawa rangka kerja penyahkodan kami berkesan dan membawa kepada peningkatan besar dalam terjemahan yang dihasilkan dari model bersilang, di mana carian tamak atau rasuk biasa."]}, {"en": ["The Hal model provides an informative infrastructure for the CIP to induce semantic patterns from the Unannotated psychiatry web Corpora.", "By combining the Hal model and relevance feedback, the CIP can induce semantic patterns from the Unannotated web Corpora."], "ms": ["Model Hal menyediakan infrastruktur bermaklumat untuk CIP untuk mendorong corak semantik dari Corpora web psikiatri Unannotated.", "Dengan menggabungkan model Hal dan maklum balas yang relevan, CIP boleh mendorong corak semantik dari Corpora web Unannotated."]}, {"en": ["Woodsend and Lapata , 2012, utilized Ilp to jointly optimize different aspects including content selection, surface realization, and rewrite rules in summarization.", "Woodsend and Lapata utilized Ilp to jointly optimize different aspects including content selection, surface realization, and rewrite rules in summarization."], "ms": ["Woodsend dan Lapata, 2012, menggunakan Ilp untuk mengoptimumkan aspek yang berbeza termasuk pemilihan kandungan, kesedaran permukaan, dan peraturan penulisan semula dalam ringkasan.", "Woodsend dan Lapata menggunakan Ilp untuk bersama-sama mengoptimumkan aspek yang berbeza termasuk pemilihan kandungan, kesedaran permukaan, dan peraturan penulisan semula dalam ringkasan."]}, {"en": ["This is a practice common in the analysis of Coreference resolution approaches.", "This strategy has been successful and commonly used in Coreference resolution."], "ms": ["Ini adalah amalan biasa dalam analisis pendekatan penyelesaian Coreference.", "Strategi ini telah berjaya dan biasa digunakan dalam resolusi Coreference."]}, {"en": ["We propose a transfer Learning-Based Cross-Lingual knowledge extraction framework called Wikicike.", "We proposed a general Cross-Lingual knowledge extraction framework called Wikicike, in which extraction."], "ms": ["Kami mencadangkan rangka kerja pengekstrakan pengetahuan Cross-Lingual berasaskan pembelajaran yang dipanggil Wikicike.", "Kami mencadangkan rangka kerja pengekstrakan pengetahuan Cross-Lingual umum yang dipanggil Wikicike, di mana pengekstrakan."]}, {"en": ["Rnn can model the whole sequence and capture long-term Dependencies (Cite-P-18-1-3).", "Rnn can model the entire sequence and capture long-term Dependencies."], "ms": ["Rnn boleh memodelkan keseluruhan urutan dan menangkap Dependensi jangka panjang (Cite-P-18-1-3).", "Rnn boleh memodelkan keseluruhan urutan dan menangkap Dependensi jangka panjang."]}, {"en": ["To solve this problem, we propose an approach to exploit Non-Local information in the next section.", "In this paper, we exploit Non-Local features as an estimate of long-distance Dependencies."], "ms": ["Untuk menyelesaikan masalah ini, kami mencadangkan pendekatan untuk mengeksploitasi maklumat Bukan Tempatan di bahagian seterusnya.", "Dalam makalah ini, kami mengeksploitasi ciri Bukan Tempatan sebagai anggaran Dependensi jarak jauh."]}, {"en": ["Recently, proposed two particular models, Skipgram and Cbow, to learn word representations in large amounts of text data.", "Recently, has introduced an alternative way to generate word Embeddings using the Skipgram model trained with stochastic gradient descent and negative sampling, named as Sgns."], "ms": ["Baru-baru ini, dicadangkan dua model tertentu, Skipgram dan Cbow, untuk mempelajari perwakilan perkataan dalam jumlah besar data teks.", "Baru-baru ini, telah memperkenalkan cara alternatif untuk menghasilkan Embedding perkataan menggunakan model Skipgram yang dilatih dengan keturunan kecerunan stokastik dan persampelan negatif, dinamakan sebagai Sgns."]}, {"en": ["Inference rules for Predicates have been identified as an important component in semantic applications, such as question answering and information extraction.", "Inference rules are an important building block of many semantic applications, such as question answering and information extraction."], "ms": ["Peraturan kesimpulan untuk Predicates telah dikenal pasti sebagai komponen penting dalam aplikasi semantik, seperti jawapan soalan dan pengekstrakan maklumat.", "Peraturan kesimpulan adalah blok bangunan penting dari banyak aplikasi semantik, seperti jawapan soalan dan pengekstrakan maklumat."]}, {"en": ["Lmf scales linearly in the number of Modalities.", "That can scale linearly in the number of Modalities."], "ms": ["Lmf skala linear dalam bilangan Modaliti.", "Ini boleh skala secara linear dalam bilangan Modaliti."]}, {"en": ["Therefore, we apply the Stanford Parser to the definition of a page in order to extract all the dependency relations of the sentence.", "To identify portions of the sentence relevant to the single feature f, we use the Stanford typed dependency Parser."], "ms": ["Oleh itu, kami menggunakan Stanford Parser untuk definisi halaman untuk mengekstrak semua hubungan kebergantungan ayat.", "Untuk mengenal pasti bahagian ayat yang berkaitan dengan ciri tunggal f, kami menggunakan Stanford taip dependensi Parser."]}, {"en": ["Yamada and Knight further extended the model to a Syntax-To-String translation modeling.", "Yamada and Knight proposed a Syntax-Based translation model that transfers a source Parse tree into a target string."], "ms": ["Yamada dan Knight melanjutkan model tersebut ke pemodelan terjemahan Syntax-To-String.", "Yamada dan Knight mencadangkan model terjemahan berasaskan Syntax yang memindahkan pokok Parse sumber ke dalam rentetan sasaran."]}, {"en": ["We present a greedy document partitioning technique for the task.", "We present a simple technique for mitigating the memory bottleneck in parallel."], "ms": ["Kami membentangkan teknik partitioning dokumen yang tamak untuk tugas itu.", "Kami membentangkan teknik mudah untuk mengurangkan kesesakan memori secara selari."]}, {"en": ["This sparse prototype information is then propagated to other words based on Distributional similarity.", "We further extend the sparse prototype information to other words based on Distributional similarity."], "ms": ["Maklumat prototaip jarang ini kemudian disebarkan dengan kata lain berdasarkan persamaan Distributional.", "Kami memperluaskan lagi maklumat prototaip jarang dengan kata lain berdasarkan persamaan Distributional."]}, {"en": ["For Subtask B, we proposed two novel methods to improve semantic similarity estimation between Question-Question pair by integrating the rank information of Question-Comment pair.", "For Subtask B, besides Ir method and traditional machine learning method, we also proposed two novel methods to improve semantic similarity estimation between Question-Question (Q-Q) pairs."], "ms": ["Untuk Subtugas B, kami mencadangkan dua kaedah novel untuk meningkatkan anggaran persamaan semantik antara pasangan Soalan-Pertanyaan dengan mengintegrasikan maklumat pangkat pasangan Soalan-Pertanyaan.", "Bagi Subtugas B, selain kaedah Ir dan kaedah pembelajaran mesin tradisional, kami juga mencadangkan dua kaedah novel untuk meningkatkan anggaran persamaan semantik antara pasangan Soalan-Pertanyaan (Q-Q)."]}, {"en": ["Pugs extend unification Grammars with an explicit control of the saturation of structures by attributing a polarity to each object.", "Pugs extend unification Grammars based on feature structures by allowing a greatest diversity of Geometric structures and a best control of resources."], "ms": ["Pug memanjangkan penyatuan Grammar dengan kawalan eksplisit ketepuan struktur dengan mengaitkan polariti kepada setiap objek.", "Pugs memperluaskan penyatuan Grammar berdasarkan struktur ciri dengan membenarkan kepelbagaian terbesar struktur geometri dan kawalan sumber yang terbaik."]}, {"en": ["Unlike previous studies, we are able to show that query expansion using only manually created lexical resources can significantly improve the Retrieval performance.", "Using recently proposed axiomatic approaches and find that, with appropriate term weighting strategy, we are able to exploit the information from lexical resources to significantly improve the Retrieval performance."], "ms": ["Tidak seperti kajian terdahulu, kami dapat menunjukkan bahawa pengembangan pertanyaan menggunakan hanya sumber leksikal yang dibuat secara manual dapat meningkatkan prestasi Retrieval dengan ketara.", "Menggunakan pendekatan axiomatic yang dicadangkan baru-baru ini dan mendapati bahawa, dengan strategi pemberat istilah yang sesuai, kita dapat memanfaatkan maklumat dari sumber leksikal untuk meningkatkan prestasi Retrieval dengan ketara."]}, {"en": ["We utilize maximum entropy model to design the basic Classifier used in active learning for Wsd and TC tasks.", "We used the maximum entropy approach 5 as a machine Learner for this task."], "ms": ["Kami menggunakan model entropi maksimum untuk mereka bentuk Klasifier asas yang digunakan dalam pembelajaran aktif untuk tugas Wsd dan TC.", "Kami menggunakan pendekatan entropi maksimum 5 sebagai mesin Learner untuk tugas ini."]}, {"en": ["This problem can be solved in polynomial time, using Eg, the Hungarian algorithm.", "This Combinatorial Optimisation problem can be solved in polynomial time through the Hungarian algorithm."], "ms": ["Masalah ini boleh diselesaikan dalam masa polinomial, menggunakan Eg, algoritma Hungary.", "Masalah Pengoptimuman Kompbinatorial ini boleh diselesaikan dalam masa polinomial melalui algoritma Hungary."]}, {"en": ["We propose to use a Generative adversarial network that consists of a generator G and a Discriminator D.", "We formulate the global model as a generator and the language classification model as a Discriminator using Generative adversarial network."], "ms": ["Kami mencadangkan untuk menggunakan rangkaian musuh Generatif yang terdiri daripada penjana G dan Diskriminator D.", "Kami merumuskan model global sebagai penjana dan model klasifikasi bahasa sebagai Discriminator menggunakan rangkaian musuh Generatif."]}, {"en": ["Our results clearly indicate that training on the created Webis-Debate-16 corpus yield the most robust Cross-Domain Classifier.", "Our results suggest that the new corpus is the most robust resource for classifying Argumentative text."], "ms": ["Hasil kami jelas menunjukkan bahawa latihan pada korpus Webis-Debate-16 yang dibuat menghasilkan Pengelasan Cross-Domain yang paling mantap.", "Hasil kami menunjukkan bahawa korpus baru adalah sumber yang paling mantap untuk mengklasifikasikan teks Hujah."]}, {"en": ["Pang et al, Turney, we are interested in fine-grained subjectivity analysis, which is concerned with subjectivity at the phrase or clause level.", "Pang et al, Turney, we are interested in fine-grained subjectivity analysis -The identification, extraction and characterization of subjective language at the phrase or clause level."], "ms": ["Pang et al, Turney, kami berminat dalam analisis subjektiviti halus, yang berkaitan dengan subjektiviti pada tahap frasa atau klausa.", "Pang et al, Turney, kami berminat dalam analisis subjektiviti halus - Pengenalan, pengekstrakan dan pencirian bahasa subjektif pada tahap frasa atau klausa."]}, {"en": ["This representation was used successfully for addressing the Sts task with purely String-Based approaches.", "Soft Cardinality was used successfully for the Sts task in previous Semeval editions."], "ms": ["Perwakilan ini telah digunakan dengan jayanya untuk menangani tugas Sts dengan pendekatan berasaskan String semata-mata.", "Soft Cardinality telah digunakan dengan jayanya untuk tugas Sts dalam edisi Semeval sebelumnya."]}, {"en": ["Semantic role labeling was first defined in Gildea and Jurafsky.", "Semantic role labeling was pioneered by Gildea and Jurafsky."], "ms": ["Pelabelan peranan semantik mula-mula ditakrifkan dalam Gildea dan Jurafsky.", "Pelabelan peranan semantik dipelopori oleh Gildea dan Jurafsky."]}, {"en": ["Although there are several well-known spectral clustering Algorithms in the literature, Meil\u844d and shi, Kannan et al, we adopt the one proposed by Ng et al, as it is Arguably the most widely used.", "Although there are several well-known spectral clustering Algorithms in the literature, shi and Malik, Kannan et al, we adopt the one proposed by Ng et al, as it is Arguably the most Widely-Used."], "ms": ["Walaupun terdapat beberapa algoritma clustering spektrum yang terkenal dalam kesusasteraan, Meil dan shi, Kannan et al, kami mengadopsi yang dicadangkan oleh Ng et al, kerana ia boleh dikatakan yang paling banyak digunakan.", "Walaupun terdapat beberapa algoritma clustering spektrum yang terkenal dalam kesusasteraan, shi dan Malik, Kannan et al, kami mengadopsi yang dicadangkan oleh Ng et al, kerana ia boleh dikatakan yang paling luas digunakan."]}, {"en": ["For the automatic evaluation we used the BLEU, meteor and Chrf Metrics.", "For the automatic evaluation, we used the BLEU metric from IBM."], "ms": ["Untuk penilaian automatik kami menggunakan BLEU, meteor dan Chrf Metrics.", "Untuk penilaian automatik, kami menggunakan metrik BLEU dari IBM."]}, {"en": ["In this paper, we take a step further and explore a joint Multilingual semantic relatedness metric, which aggregates semantic relatedness scores measured on several different languages.", "In this paper, we showed how a semantic relatedness measure computed in a Multilingual space is able to acquire and leverage additional information from the Multilingual representation, and thus be strengthened."], "ms": ["Dalam makalah ini, kami mengambil langkah lebih jauh dan meneroka metrik persamaan semantik Multilingual bersama, yang agregat skor hubungan semantik yang diukur pada beberapa bahasa yang berbeza.", "Dalam makalah ini, kami menunjukkan bagaimana ukuran keterkaitan semantik yang dikira dalam ruang Multilingual dapat memperoleh dan memanfaatkan maklumat tambahan dari perwakilan Multilingual, dan dengan demikian diperkuat."]}, {"en": ["As content words, we considered nouns, adjectives, adverbs, and verbs, based on the Part-Of-Speech output of the lets Preprocess Toolkit.", "Based on Part-Of-Speech information obtained using lets Preprocess, we discarded all words but nouns, adjectives, adverbs, and verbs."], "ms": ["Sebagai kata-kata kandungan, kami menganggap kata nama, kata sifat, kata kerja, dan kata kerja, berdasarkan output Bahagian-Daripada-Pertuturan yang membolehkan Preprocess Toolkit.", "Berdasarkan maklumat Part-Of-Speech yang diperoleh menggunakan lets Preprocess, kami membuang semua perkataan tetapi kata nama, kata sifat, kata kerja, dan kata kerja."]}, {"en": ["For both languages, English and Spanish, we achieved the best results of all participants (value F1).", "For both languages, we achieved the best results among all participants."], "ms": ["Untuk kedua-dua bahasa, Bahasa Inggeris dan Sepanyol, kami mencapai hasil terbaik semua peserta (nilai F1).", "Untuk kedua-dua bahasa, kami mencapai keputusan terbaik di kalangan semua peserta."]}, {"en": ["The memory consumption mainly comes from the word Embedding layer.", "Memory consumption mainly comes from the Embedding layers."], "ms": ["Penggunaan memori terutamanya berasal dari perkataan lapisan Embedding.", "Penggunaan memori terutamanya berasal dari lapisan Embedding."]}, {"en": ["Conditional random fields is a Discriminative model that estimates joint distribution Pover the target sequence Y, conditioned on the observed sequence X.", "A conditional random field can be seen as an Undirected graph model in which the nodes corresponding to the label sequence Y are conditional on the observed sequence X."], "ms": ["Medan rawak bersyarat adalah model Diskriminatif yang menganggarkan taburan bersama Pemindahan jujukan sasaran Y, dikondisikan pada jujukan yang diperhatikan X.", "Medan rawak bersyarat boleh dilihat sebagai model grafik tidak diarahkan di mana nod yang sepadan dengan urutan label Y adalah bersyarat pada urutan X yang diperhatikan."]}, {"en": ["In this paper, we presented an efficient method for detecting and Disambiguating coordinate structures.", "In this paper, we present a statistical analysis model for coordination Disambiguation."], "ms": ["Dalam kertas kerja ini, kami membentangkan kaedah yang cekap untuk mengesan dan Mengubah struktur koordinat.", "Dalam makalah ini, kami membentangkan model analisis statistik untuk koordinasi Disambiguasi."]}, {"en": ["In the Contextual polarity Disambiguation Subtask, we use a sentiment lexicon approach combined with polarity shift detection and tree kernel based classifiers.", "For the Contextual polarity Disambiguation Subtask, covered in section 2, we use a system that combines a lexicon based approach to sentiment detection."], "ms": ["Dalam Subtugas Disambiguasi polariti Kontekstual, kami menggunakan pendekatan leksikon sentimen yang digabungkan dengan pengesanan pergeseran polariti dan pengelas berasaskan kernel pokok.", "Untuk Subtugas Disambiguasi polariti Kontekstual, yang diliputi dalam seksyen 2, kami menggunakan sistem yang menggabungkan pendekatan berasaskan leksikon untuk pengesanan sentimen."]}, {"en": ["Veale and Hao, however, did not evaluate to what extent their knowledge base of talking points and the associated reasoning framework are useful to interpret metaphorical expressions occurring in text.", "Veale and Hao, however, did not evaluate to which extent their knowledge base of talking points and the associated reasoning framework are useful to interpret metaphorical expressions occurring in text."], "ms": ["Veale dan Hao, bagaimanapun, tidak menilai sejauh mana asas pengetahuan mereka mengenai titik perbincangan dan kerangka penalaran yang berkaitan berguna untuk menafsirkan ungkapan metafora yang berlaku dalam teks.", "Veale dan Hao, bagaimanapun, tidak menilai sejauh mana asas pengetahuan mereka mengenai titik perbincangan dan kerangka penalaran yang berkaitan berguna untuk menafsirkan ungkapan metafora yang berlaku dalam teks."]}, {"en": ["In practice, we set all weights \u4f4d J to 1, and employ Adam for optimization.", "We apply the Adam algorithm for optimization, where the parameters of Adam are set as in."], "ms": ["Dalam amalan, kami menetapkan semua berat J hingga 1, dan menggunakan Adam untuk pengoptimuman.", "Kami menggunakan algoritma Adam untuk pengoptimuman, di mana parameter Adam ditetapkan sebagai dalam."]}, {"en": ["Motivated by the work, we adopt the Max-Margin objective.", "We use the Max-Margin criterion to train our model."], "ms": ["Didorong oleh kerja, kami menggunakan objektif Max-Margin.", "Kami menggunakan kriteria Max-Margin untuk melatih model kami."]}, {"en": ["Abandah et al trained a recurrent neural network to transcribe Undiacritized Arabic text with fully Diacritized sentences.", "More recently, Abandah et al trained a recurrent neural network to transcribe Undiacritized Arabic text into fully Diacritized sentences."], "ms": ["Abandah et al melatih jaringan neural berulang untuk mentranskripsikan teks Arab Undiacritized dengan ayat Diacritized sepenuhnya.", "Baru-baru ini, Abandah et al melatih rangkaian neural berulang untuk mentranskripsikan teks Arab Undiacritized ke dalam ayat Diacritized sepenuhnya."]}, {"en": ["Furthermore, applying our method in a setting where all labeled examples are available also shows improvements over state-of-the-art supervised methods.", "Examples, our method yields significant improvements over state-of-the-art supervised methods, achieving best reported numbers to date."], "ms": ["Selain itu, menggunakan kaedah kami dalam tetapan di mana semua contoh berlabel tersedia juga menunjukkan peningkatan berbanding kaedah yang diawasi oleh canggih.", "Sebagai contoh, kaedah kami menghasilkan peningkatan yang ketara berbanding kaedah yang diawasi oleh canggih, mencapai nombor yang paling baik dilaporkan setakat ini."]}, {"en": ["Recent progress in natural language understanding shows that Pre-Training transformer Decoders on language Modelling tasks leads to remarkable transferable knowledge which BOOSTS performance on a wide range of Nlp tasks.", "Recent empirical improvements with language models have showed that Unsupervised Pretraining on very large Corpora is an integral part of many Nlp tasks."], "ms": ["Kemajuan terkini dalam pemahaman bahasa semula jadi menunjukkan bahawa Decoders transformer Pra-Latihan pada tugas Pemodelan bahasa membawa kepada pengetahuan yang boleh dipindah milik yang luar biasa yang prestasi BOOSTS pada pelbagai tugas Nlp.", "Peningkatan empirikal terkini dengan model bahasa telah menunjukkan bahawa Pra-latihan yang tidak diawasi pada Corpora yang sangat besar adalah bahagian penting dari banyak tugas Nlp."]}, {"en": ["We present experiments aiming at an automatic classification of Spanish verbs into lexical semantic classes.", "We present experiments aiming at automatically classifying Spanish verbs into lexical semantic classes."], "ms": ["Kami membentangkan eksperimen yang bertujuan untuk klasifikasi automatik kata kerja Sepanyol ke dalam kelas semantik leksikal.", "Kami membentangkan eksperimen yang bertujuan untuk mengklasifikasikan kata kerja Sepanyol secara automatik ke dalam kelas semantik leksikal."]}, {"en": ["In human evaluations, Hisan also outperformed the baseline methods.", "Evaluations, Hisan outperformed baseline methods."], "ms": ["Dalam penilaian manusia, Hisan juga mengatasi kaedah asas.", "Penilaian, Hisan mengatasi kaedah asas."]}, {"en": ["This paper describes ongoing work on a new approach to dialogue management which attempts to fill this gap.", "This paper described a new approach to exploit relational models of dialogue."], "ms": ["Kertas kerja ini menerangkan kerja yang berterusan mengenai pendekatan baru untuk pengurusan dialog yang cuba mengisi jurang ini.", "Kertas ini menerangkan pendekatan baru untuk mengeksploitasi model dialog hubungan."]}, {"en": ["To the best of our knowledge, there has been no exact measure for the optimization, and the usefulness of a given resource can only be assessed when it is finished and used in applications.", "To the best of our knowledge, there is no measure that would relate Granularity, reliability of the Annotation (derived from IAA) and the resulting information."], "ms": ["Untuk pengetahuan kami yang terbaik, tidak ada ukuran yang tepat untuk pengoptimuman, dan kegunaan sumber tertentu hanya dapat dinilai apabila ia selesai dan digunakan dalam aplikasi.", "Untuk pengetahuan kami yang terbaik, tidak ada ukuran yang berkaitan dengan Granularity, kebolehpercayaan Annotasi (diperolehi dari IAA) dan maklumat yang dihasilkan."]}, {"en": ["Our models are also validated on the more difficult WMT \u2019 14 Englishto-German task.", "On the WMT \u2019 14 Englishto-French task, we achieve BLEU = 37 . 7 with a single attention."], "ms": ["Model kami juga disahkan pada tugas WMT yang lebih sukar - 14 Bahasa Inggeris ke Jerman.", "Pada tugas WMT 14 Bahasa Inggeris ke Perancis, kami mencapai BLEU = 37. 7 dengan perhatian tunggal."]}, {"en": ["Note that the result of applying the No-Covered-Roots restriction alone is equivalent to the Arc-Eager Parser by Sagae and Tsujii.", "To this end, we extend the dynamic Oracle defined by Goldberg and Nivre, considering Dag Parsing Arc-Eager system of Sagae and Tsujii."], "ms": ["Perhatikan bahawa hasil penggunaan sekatan No-Covered-Roots sahaja adalah bersamaan dengan Parser Arc-Eager oleh Sagae dan Tsujii.", "Untuk tujuan ini, kami memperluaskan Oracle dinamik yang ditakrifkan oleh Goldberg dan Nivre, memandangkan sistem Dag Parsing Arc-Eager Sagae dan Tsujii."]}, {"en": ["Syllabic units, however, rival the performance of Morphemes in the Kws task.", "Syllabic units, however, rival the performance of morphological units."], "ms": ["Unit-unit silibus, bagaimanapun, menyaingi prestasi Morphemes dalam tugas Kws.", "Unit silibus, bagaimanapun, menyaingi prestasi unit morfologi."]}, {"en": ["We provide comparison of both Algorithms.", "So we can easily provide comparison between both languages."], "ms": ["Kami menyediakan perbandingan kedua-dua algoritma.", "Oleh itu, kita boleh dengan mudah membuat perbandingan antara kedua-dua bahasa."]}, {"en": ["A novel Agent-Aware dropout deep Q-Network (Aad-Dqn) is proposed to address the problem of when to consult the teacher and how to learn from the Teacher\u00a1\u00afS experiences.", "Using a dropout Q-Network, a companion strategy is proposed to control when the student policy directly Consults rules and how often the student policy learns from the teacher \u00a1\u00af s experiences."], "ms": ["Novel Agent-Aware dropout deep Q-Network (Aad-Dqn) dicadangkan untuk menangani masalah apabila untuk berunding dengan guru dan bagaimana untuk belajar daripada pengalaman Guru.", "Menggunakan Q-Network putus sekolah, strategi pendamping dicadangkan untuk mengawal apabila dasar pelajar secara langsung Mengemukakan peraturan dan seberapa kerap dasar pelajar belajar dari pengalaman guru."]}, {"en": ["Our system uses the Svm-Light-Tk Toolkit 3 for computation of the hybrid kernels.", "We exploit the Svm-Light-Tk Toolkit for kernel computation."], "ms": ["Sistem kami menggunakan Svm-Light-Tk Toolkit 3 untuk pengiraan kernel hibrid.", "Kami menggunakan Svm-Light-Tk Toolkit untuk pengiraan kernel."]}, {"en": ["In this paper, we investigate Unsupervised LM adaptation using clustering and Lda based topic analysis.", "In LM adaptation, this paper investigates how to effectively leverage named entity information for latent topic analysis."], "ms": ["Dalam makalah ini, kami menyelidiki adaptasi LM Unsupervised menggunakan clustering dan analisis topik berbasis Lda.", "Dalam penyesuaian LM, kertas ini menyiasat bagaimana untuk memanfaatkan maklumat entiti yang dinamakan secara berkesan untuk analisis topik laten."]}, {"en": ["We trained the Rerankers using Svm-Light-Tk 6, which enables the use of structural kernels in Svm-Light.", "We used the Svm-Light-Tk 5 to train the Reranker with a combination of tree kernels and feature vectors."], "ms": ["Kami melatih Rerankers menggunakan Svm-Light-Tk 6, yang membolehkan penggunaan kernel struktur dalam Svm-Light.", "Kami menggunakan Svm-Light-Tk 5 untuk melatih Reranker dengan gabungan kernel pokok dan vektor ciri."]}, {"en": ["For example, Nishigauchi and Watanabe claimed that there were Island constraints in Japanese, but Ishihara and Sprouse et al mentioned that this language had no Island constraint.", "Nishigauchi and Watanabe claimed that there were Island constraints in Japanese, but Ishihara and Sprouse et al mentioned that this language had no Island constraint."], "ms": ["Sebagai contoh, Nishigauchi dan Watanabe mendakwa bahawa terdapat kekangan Pulau dalam bahasa Jepun, tetapi Ishihara dan Sprouse et al menyebut bahawa bahasa ini tidak mempunyai kekangan Pulau.", "Nishigauchi dan Watanabe mendakwa bahawa terdapat kekangan Pulau dalam bahasa Jepun, tetapi Ishihara dan Sprouse et al menyebut bahawa bahasa ini tidak mempunyai kekangan Pulau."]}, {"en": ["In this paper, we address this problem of prompt adaptation using Multi-Task learning.", "In this paper, we overcome this Shortcoming using a constrained Multi-Task Pairwise-Preference learning."], "ms": ["Dalam makalah ini, kami menangani masalah penyesuaian segera ini menggunakan pembelajaran Multi-Task.", "Dalam makalah ini, kami mengatasi Pendekatan ini menggunakan pembelajaran Multi-Task Pairwise-Preference yang terhad."]}, {"en": ["Conventional methods to measure the relevance between two arguments includes bilinear model, and single layer neural networks, etc.", "Traditional ways to measure their relevance includes Cosine distance, bilinear model, single layer neural network, etc."], "ms": ["Kaedah konvensional untuk mengukur kaitan antara dua argumen termasuk model bilinear, dan rangkaian neural lapisan tunggal, dll.", "Cara tradisional untuk mengukur kaitannya termasuk jarak Kosine, model bilinear, rangkaian neural lapisan tunggal, dan lain-lain."]}, {"en": ["Knight and Graehl , 1997, describe a back Transliteration system for Japanese.", "Knight and Graehl , 1997, describe a Backtransliteration system for Japanese."], "ms": ["Knight dan Graehl, 1997, menggambarkan sistem Transliterasi belakang untuk orang Jepun.", "Knight dan Graehl, 1997, menggambarkan sistem transliterasi untuk Jepun."]}, {"en": ["We used the data provided by the second Sighan Bakeoff to test the two Segmentation models.", "We use the Pku and Msra data provided by the second International Chinese word Segmentation Bakeoff to test our model."], "ms": ["Kami menggunakan data yang disediakan oleh Sighan Bakeoff kedua untuk menguji kedua-dua model Segmentasi.", "Kami menggunakan data Pku dan Msra yang disediakan oleh Segmentasi perkataan Cina Antarabangsa kedua Bakeoff untuk menguji model kami."]}, {"en": ["We also use three data sampling approaches to solve the problem of data Skewness.", "We discuss three data sampling techniques that deal with this Skewness."], "ms": ["Kami juga menggunakan tiga pendekatan pensampelan data untuk menyelesaikan masalah data Skewness.", "Kami membincangkan tiga teknik pensampelan data yang menangani Skewness ini."]}, {"en": ["Koehn and Knight tested this idea on a larger test set consisting of the 1000 most frequent words from a German-English lexicon.", "Koehn and Knight derived such a seed lexicon from German-English Cognates which were selected by using string similarity criteria."], "ms": ["Koehn dan Knight menguji idea ini pada set ujian yang lebih besar yang terdiri daripada 1000 perkataan yang paling kerap dari leksikon Jerman-Inggeris.", "Koehn dan Knight memperoleh leksikon benih seperti itu dari Cognates Jerman-Inggeris yang dipilih dengan menggunakan kriteria persamaan rentetan."]}, {"en": ["We have presented H Eady, an abstractive headline generation system based on the generalization of syntactic patterns by means of a Noisy-Or Bayesian network.", "We present H Eady, which is at the same time a novel system for abstractive headline generation, and a smooth clustering of patterns."], "ms": ["Kami telah membentangkan H Eady, sistem penjanaan tajuk abstrak berdasarkan generalisasi corak sintaksis melalui rangkaian Noisy-Or Bayesian.", "Kami membentangkan H Eady, yang pada masa yang sama sistem novel untuk generasi tajuk abstraktif, dan clustering corak yang lancar."]}, {"en": ["A zero pronoun is a gap in the sentence, which refers to the component that is omitted because of the coherence of language.", "1 the omitted argument is called a zero pronoun."], "ms": ["Kata ganti sifar adalah jurang dalam ayat, yang merujuk kepada komponen yang hilang kerana koheren bahasa.", "1 argumen yang hilang dipanggil kata ganti sifar."]}, {"en": ["We propose a Sense-Aware neural model to address this challenging task.", "We propose a Sense-Aware neural model in this study."], "ms": ["Kami mencadangkan model saraf Sense-Aware untuk menangani tugas yang mencabar ini.", "Kami mencadangkan model saraf Sense-Aware dalam kajian ini."]}, {"en": ["Following Koehn and Knowles, we process all the data with Byte-Pair Encoding to construct a vocabulary of 50K Subwords.", "We use a shared Subword vocabulary by applying Byte-Pair Encoding to the data for all Variants Concatenated."], "ms": ["Berikutan Koehn dan Knowles, kami memproses semua data dengan Byte-Pair Encoding untuk membina perbendaharaan kata 50K Subwords.", "Kami menggunakan perbendaharaan kata Subword bersama dengan menggunakan Byte-Pair Encoding ke data untuk semua Variants Concatenated."]}, {"en": ["Since Sud data are often expensive to obtain at a large scale, to maximize system performance, we focus on methods that employ Unsupervised feature learning to take advantage of a large amount of Unsupervised social media data.", "On a large scale, to maximize system performance, we explore different Unsupervised feature learning methods to take advantage of a large amount of Unsupervised social media data."], "ms": ["Oleh kerana data Sud sering mahal untuk diperoleh pada skala besar, untuk memaksimumkan prestasi sistem, kami memberi tumpuan kepada kaedah yang menggunakan pembelajaran ciri Unsupervised untuk memanfaatkan sejumlah besar data media sosial Unsupervised.", "Pada skala besar, untuk memaksimumkan prestasi sistem, kami meneroka kaedah pembelajaran ciri Unsupervised yang berbeza untuk memanfaatkan sejumlah besar data media sosial Unsupervised."]}, {"en": ["In this paper, we have presented a methodology to extract implicit interpretations from modal constructions.", "In this paper, we extract implicit interpretations intuitively understood by humans."], "ms": ["Dalam kertas kerja ini, kami telah membentangkan metodologi untuk mengekstrak tafsiran tersirat dari pembinaan modal.", "Dalam makalah ini, kita mengekstrak tafsiran tersirat yang difahami secara intuitif oleh manusia."]}, {"en": ["Sac utilizes the attention scheme to automatically select appropriate senses for context words according to the target word.", "We successfully apply the attention scheme to detect word senses and learn representations according to contexts."], "ms": ["Sac menggunakan skema perhatian untuk memilih deria yang sesuai secara automatik untuk kata konteks mengikut kata sasaran.", "Kami berjaya menggunakan skema perhatian untuk mengesan deria perkataan dan mempelajari perwakilan mengikut konteks."]}, {"en": ["To test this hypothesis, we combined an incremental tag Parser with an incremental semantic role Labeler.", "In this paper, we test this hypothesis by combining an incremental tag Parser with an incremental semantic role Labeler."], "ms": ["Untuk menguji hipotesis ini, kami menggabungkan tag tambahan Parser dengan peranan semantik tambahan Labeler.", "Dalam makalah ini, kami menguji hipotesis ini dengan menggabungkan tag tambahan Parser dengan peranan semantik tambahan Labeler."]}, {"en": ["Shriberg and Stolcke studied the location and distribution of repairs in the switchboard corpus, the primary corpus for speech Disfluency research, but did not propose an actual model of repairs.", "Shriberg and Stolcke studied the location and distribution of repairs in the switchboard corpus, but did not propose an actual model of repairs."], "ms": ["Shriberg dan Stolcke mengkaji lokasi dan pengedaran pembaikan dalam korpus papan suis, korpus utama untuk penyelidikan gangguan pertuturan, tetapi tidak mencadangkan model sebenar pembaikan.", "Shriberg dan Stolcke mengkaji lokasi dan pengedaran pembaikan di korpus papan suis, tetapi tidak mencadangkan model pembaikan sebenar."]}, {"en": ["Experimental results show that, our method can significantly improve machine translation performance on both Iwslt and Nist data, compared with a state-of-the-art baseline.", "Experimental results show that, our method can improve the translation performance significantly on both data sets, compared with a state-of-the-art baseline."], "ms": ["Hasil eksperimen menunjukkan bahawa, kaedah kami dapat meningkatkan prestasi terjemahan mesin dengan ketara pada data Iwslt dan Nist, berbanding dengan garis dasar canggih.", "Hasil eksperimen menunjukkan bahawa, kaedah kami dapat meningkatkan prestasi terjemahan dengan ketara pada kedua set data, berbanding dengan garis dasar canggih."]}, {"en": ["We present a method for Cross-Formalism transfer in Parsing.", "In this paper, we propose an alternative approach for Parsing."], "ms": ["Kami membentangkan kaedah untuk pemindahan Cross-Formalism dalam Parsing.", "Dalam kertas kerja ini, kami mencadangkan pendekatan alternatif untuk Parsing."]}, {"en": ["This result shows that Collocation, Context-Words and neighboring sentence sentiment are effective in sentiment adjectives Disambiguation.", "Results show the effectiveness of Collocation features, context words features and sentiment of neighboring sentences."], "ms": ["Hasil ini menunjukkan bahawa sentimen ayat Collocation, Context-Words dan jiran berkesan dalam kata sifat sentimen Disambiguasi.", "Hasil menunjukkan keberkesanan ciri-ciri Collocation, ciri-ciri kata konteks dan sentimen ayat jiran."]}, {"en": ["Ibm constraints, lexical word reordering model, and inversion Transduction grammar constraints belong to this type of approach.", "Ibm constraints, the lexical word reordering model, and inversion Transduction grammar constraints belong to this type of approach."], "ms": ["Kekangan Ibm, model penyusunan semula perkataan leksikal, dan kekangan tatabahasa Transduksi tergolong dalam pendekatan jenis ini.", "Kekangan Ibm, model penyusunan semula perkataan leksikal, dan kekangan tatabahasa Transduksi tergolong dalam pendekatan jenis ini."]}, {"en": ["In this work, we aim to summarize the student responses.", "In this work, we propose a new approach to summarizing student course feedback."], "ms": ["Dalam kerja ini, kami bertujuan untuk merumuskan jawapan pelajar.", "Dalam kerja ini, kami mencadangkan pendekatan baru untuk meringkaskan maklum balas kursus pelajar."]}, {"en": ["We use the Classifieds data provided by Grenager et al and compare with results reported by Crr07 and Mm08 for both supervised and Semi-Supervised learning.", "We use the Classifieds data provided by Grenager et al and compare with results reported by Hk06 and Crr07."], "ms": ["Kami menggunakan data Klasifikasi yang disediakan oleh Grenager et al dan membandingkan dengan hasil yang dilaporkan oleh Crr07 dan Mm08 untuk kedua-dua pembelajaran yang diawasi dan Semi-Supervised.", "Kami menggunakan data Klasifikasi yang disediakan oleh Grenager et al dan membandingkan dengan hasil yang dilaporkan oleh Hk06 dan Crr07."]}, {"en": ["Surprisingly, we also observe our model beats the standard Lstm in terms of accuracy.", "Our model is several times faster than, while the accuracy is on par with the baseline Lstm model."], "ms": ["Yang mengejutkan, kami juga memerhatikan model kami mengalahkan Lstm standard dari segi ketepatan.", "Model kami adalah beberapa kali lebih cepat daripada, manakala ketepatan adalah setanding dengan model Lstm asas."]}, {"en": ["Ian Interactively learns the Coarse-Grained attentions between the context and aspect, and Concatenate the vectors for prediction.", "Ian Interactively learns attentions in the contexts and targets, and generates the representations for targets and contexts separately."], "ms": ["Ian Interactively mempelajari perhatian kasar antara konteks dan aspek, dan Concatenate vektor untuk ramalan.", "Ian Interactively mempelajari perhatian dalam konteks dan sasaran, dan menghasilkan perwakilan untuk sasaran dan konteks secara berasingan."]}, {"en": ["The sentences were Dependencyparsed with Cabocha, and Cooccurrence samples of event mentions were extracted.", "The sentences were Dependencyparsed with Cabocha, and Co-Occurrence samples of event mentions were extracted."], "ms": ["Ayat-ayat itu bergantung kepada Cabocha, dan sampel Cooccurrence sebutan peristiwa diekstrak.", "Ayat-ayat itu bergantung kepada Cabocha, dan sampel rujukan peristiwa Co-Occurrence diekstrak."]}, {"en": ["For language model, we train a 5-Gram modified Kneser-Ney language model and use minimum error rate training to tune the Smt.", "We use our reordering model for N-Best Re-Ranking and optimize BLEU using minimum error rate training."], "ms": ["Untuk model bahasa, kami melatih model bahasa Kneser-Ney yang diubahsuai 5-Gram dan menggunakan latihan kadar ralat minimum untuk menyesuaikan Smt.", "Kami menggunakan model penyusunan semula kami untuk N-Best Re-Ranking dan mengoptimumkan BLEU menggunakan latihan kadar ralat minimum."]}, {"en": ["However, the search space in mt can be quite large.", "Into an Fst leads to far too big search spaces."], "ms": ["Walau bagaimanapun, ruang carian di mt boleh menjadi agak besar.", "Dalam Fst membawa kepada ruang carian yang terlalu besar."]}, {"en": ["By contrast, we incorporate source syntax into a Stringto-Tree model.", "That is it easy to incorporate source syntax in the Stringto-Tree model."], "ms": ["Sebaliknya, kami memasukkan sintaks sumber ke dalam model Stringto-Tree.", "Itulah mudah untuk menggabungkan sintaks sumber dalam model Stringto-Tree."]}, {"en": ["Somasundaran et al developed a scheme for Annotating sentiment and arguing expressions in meetings.", "Somasundaran et al investigated subjectivity classification in meetings."], "ms": ["Somasundaran et al mengembangkan skema untuk Annotating sentiment dan argumentasi dalam pertemuan.", "Somasundaran et al menyelidiki klasifikasi subjektiviti dalam pertemuan."]}, {"en": ["Greedy Transition-Based dependency Parsers Incrementally process an input sentence from left to right.", "Transition-Based dependency Parsers Scan an input sentence from left to right, and perform a sequence of transition actions to predict its Parse tree."], "ms": ["Parsers dependensi Berasaskan Peralihan Greedy Proseskan ayat input dari kiri ke kanan secara berperingkat.", "Penghurai dependensi berasaskan peralihan Imbaskan ayat input dari kiri ke kanan, dan melakukan urutan tindakan peralihan untuk meramalkan pokok Parsenya."]}, {"en": ["Evaluated on Qa-Tempeval (Semeval2015 task 5), our proposed technique Outperforms state-of-the-art methods by a large margin.", "This streamlined architecture is able to outperform state-of-the-art results on a temporal Qa task with a large margin."], "ms": ["Dinilai pada Qa-Tempeval (Semeval2015 tugas 5), teknik kami yang dicadangkan Melaksanakan kaedah canggih dengan margin yang besar.", "Seni bina yang diperkemas ini dapat mengatasi hasil canggih pada tugas Qa temporal dengan margin yang besar."]}, {"en": ["The Csj is the biggest spontaneous speech corpus in the world, consisting of roughly 7M words with the total speech length of 700 hours, and is a collection of Monologues such as academic presentations and simulated public speeches.", "The Csj is a collection of Monologues and dialogues, the majority being Monologues such as academic presentations and simulated public speeches."], "ms": ["Csj adalah korpus ucapan spontan terbesar di dunia, yang terdiri daripada kira-kira 7M perkataan dengan jumlah panjang ucapan 700 jam, dan merupakan koleksi Monologues seperti persembahan akademik dan ucapan awam simulasi.", "Csj adalah koleksi Monologues dan dialog, majoriti adalah Monologues seperti persembahan akademik dan ucapan awam simulasi."]}, {"en": ["In particular, when linked to Wikipedia articles, the task is called Wikifiation.", "In the news domain, the task is often called Wikification or entity linking and has been studied extensively recently."], "ms": ["Khususnya, apabila dikaitkan dengan artikel Wikipedia, tugas itu dipanggil Wikifiation.", "Dalam domain berita, tugas ini sering dipanggil Wikification atau entiti yang menghubungkan dan telah dikaji secara meluas baru-baru ini."]}, {"en": ["Other approaches rely on statistical language models to determine the most likely substitutes to represent contexts.", "Other models use statistical language models to determine the most likely substitutes to represent the contexts."], "ms": ["Pendekatan lain bergantung kepada model bahasa statistik untuk menentukan pengganti yang paling mungkin untuk mewakili konteks.", "Model lain menggunakan model bahasa statistik untuk menentukan pengganti yang paling mungkin untuk mewakili konteks."]}, {"en": ["However, there is a lack of training data Annotated with fine-grained quality information.", "However, only a small amount of Annotated data is available for training quality assessment."], "ms": ["Walau bagaimanapun, terdapat kekurangan data latihan yang diberi nama dengan maklumat berkualiti halus.", "Walau bagaimanapun, hanya sebilangan kecil data Annotated tersedia untuk penilaian kualiti latihan."]}, {"en": ["Wizard-Of-Oz Frameworks have been used in several studies since in order to collect Human-Computer dialogue data to help design dialogue systems.", "Wizard-Of-Oz Frameworks have been used since early 90S in order to collect Human-Computer dialogue data to help design dialogue systems."], "ms": ["Rangka Kerja Wizard-Of-Oz telah digunakan dalam beberapa kajian sejak untuk mengumpul data dialog Human-Computer untuk membantu mereka bentuk sistem dialog.", "Rangka Kerja Wizard-Of-Oz telah digunakan sejak awal 90-an untuk mengumpul data dialog Human-Computer untuk membantu mereka bentuk sistem dialog."]}, {"en": ["Emotion cause extraction aims to identify the reasons behind a certain emotion expressed in text.", "Emotion cause extraction can reveal important information about what causes a certain emotion."], "ms": ["Emosi menyebabkan pengekstrakan bertujuan untuk mengenal pasti sebab-sebab di sebalik emosi tertentu yang dinyatakan dalam teks.", "Emosi menyebabkan pengekstrakan boleh mendedahkan maklumat penting tentang apa yang menyebabkan emosi tertentu."]}, {"en": ["Baseline is a Phrase-Based machine translation system which consists of training data comprising a bilingual Dataset without Preordering.", "The spelling normalisation component is a Character-Based statistical machine translation system implemented with the Moses Toolkit."], "ms": ["Baseline adalah sistem terjemahan mesin berasaskan frasa yang terdiri daripada data latihan yang terdiri daripada Dataset dwibahasa tanpa Preordering.", "Komponen normalisasi ejaan adalah sistem terjemahan mesin statistik Berasaskan Ciri yang dilaksanakan dengan Moses Toolkit."]}, {"en": ["Moreover, those relations have been shown to be very effective knowledge sources for Wsd and interpretation of noun sequences.", "The semantic relations and clusters have been shown to be very effective knowledge sources for such Nlp tasks as Wsd and interpretation of noun sequences."], "ms": ["Selain itu, hubungan tersebut telah terbukti menjadi sumber pengetahuan yang sangat berkesan untuk Wsd dan tafsiran urutan kata nama.", "Hubungan semantik dan kluster telah terbukti menjadi sumber pengetahuan yang sangat berkesan untuk tugas Nlp seperti Wsd dan tafsiran urutan kata nama."]}, {"en": ["We calculate statistical significance of performance differences using stratified shuffling.", "In order to test statistical significance of differences between models we use stratified shuffling."], "ms": ["Kami mengira kepentingan statistik perbezaan prestasi menggunakan shuffling stratified.", "Untuk menguji kepentingan statistik perbezaan antara model, kami menggunakan shuffling stratified."]}, {"en": ["Hierarchical Phrase-Based translation (Hiero, (Chiang , 2005) ) has proven to be a very useful compromise between syntactically informed and purely Corpus-Driven translation.", "Hierarchical Phrase-Based translation (Hiero, (Cite-P-9-1-1) ) provides an attractive framework within which both Short-And long-distance Reorderings can be addressed consistently."], "ms": ["Terjemahan Berasaskan Frasa Hierarki (Hiero, (Chiang, 2005) telah terbukti menjadi kompromi yang sangat berguna antara terjemahan yang dimaklumkan secara sintaks dan semata-mata Corpus-Driven.", "Terjemahan Berasaskan Frasa Hierarki (Hiero, (Cite-P-9-1-1) menyediakan rangka kerja yang menarik di mana kedua-dua Short-And long-distance Reorderings boleh ditangani secara konsisten."]}, {"en": ["All evaluated systems use the same surface Trigram language model, trained on approximately 340 million words from the English Gigaword corpus using the Srilm Toolkit.", "The language models were created using the Srilm Toolkit on the standard training sections of the Ccgbank, with Sentenceinitial words Uncapitalized."], "ms": ["Semua sistem yang dinilai menggunakan model bahasa Trigram permukaan yang sama, dilatih pada kira-kira 340 juta perkataan dari korpus Gigaword Inggeris menggunakan Srilm Toolkit.", "Model bahasa dicipta menggunakan Srilm Toolkit pada bahagian latihan standard Ccgbank, dengan kata-kata Sentenceinitial Uncapitalized."]}, {"en": ["We used the R Igraph package to write graph building and weighted K-Core implementation code.", "We developed our approaches mostly in python using the Igraph library for the graph representation and main core extraction."], "ms": ["Kami menggunakan pakej R Igraph untuk menulis bangunan graf dan kod pelaksanaan K-Core berwajaran.", "Kami membangunkan pendekatan kami kebanyakannya dalam python menggunakan perpustakaan Igraph untuk perwakilan graf dan pengekstrakan teras utama."]}, {"en": ["For example, sentences such as \u00a1\u00b0Bake for 50 Minutes\u00a1\u00b1 do not explicitly mention what to Bake or where.", "For example, sentences such as \u00a1\u00b0 Bake for 50 minutes \u00a1\u00b1 do not explicitly mention what to Bake."], "ms": ["Contohnya, ayat seperti \"Bake for 50 Minutes\" tidak menyebut secara jelas apa yang akan Bake atau di mana.", "Contohnya, ayat seperti Bake selama 50 minit tidak menyebut secara jelas apa yang Bake."]}, {"en": ["G Lossy \u2019 s Extractions have proven useful as seed definitions in an Unsupervised Wsd task.", "Lossy \u2019 s Extractions have proven useful as seed definitions in an Unsupervised Wsd task."], "ms": ["Pengekstrak G Lossy telah terbukti berguna sebagai definisi benih dalam tugas Wsd yang tidak diawasi.", "Lossy s Ekstrak telah terbukti berguna sebagai definisi benih dalam tugas Wsd yang tidak diawasi."]}, {"en": ["In this paper we introduced a novel semantic framework for jointly capturing the meaning of comparison and ellipsis constructions.", "In this paper we introduce a joint theoretical model for comprehensive semantic representation of the structure of comparison and ellipsis."], "ms": ["Dalam makalah ini kami memperkenalkan kerangka semantik novel untuk bersama-sama menangkap makna perbandingan dan pembinaan elipsis.", "Dalam kertas kerja ini kita memperkenalkan model teori bersama untuk perwakilan semantik komprehensif struktur perbandingan dan elipsis."]}, {"en": ["User: I was cleaning out my account when I Acciden-", "User: I want to prevent Tom from reading my file."], "ms": ["Pengguna: Saya membersihkan akaun saya ketika saya Acciden-", "Pengguna: Saya mahu menghalang Tom daripada membaca fail saya."]}, {"en": ["This paper proposed a method to identify the target of a Driu for conversational agents in action control dialogue.", "This paper proposes a method for dealing with repairs in action control dialogue."], "ms": ["Kertas ini mencadangkan kaedah untuk mengenal pasti sasaran Driu untuk ejen perbualan dalam dialog kawalan tindakan.", "Kertas ini mencadangkan kaedah untuk menangani pembaikan dalam dialog kawalan tindakan."]}, {"en": ["We use the explicit semantic analysis based on Wikipedia to compute semantic relatedness between concepts.", "We use Machine-Learning techniques to build a semantic interpreter using the explicit semantic analysis approach."], "ms": ["Kami menggunakan analisis semantik yang jelas berdasarkan Wikipedia untuk mengira hubungan semantik antara konsep.", "Kami menggunakan teknik Machine-Learning untuk membina jurubahasa semantik menggunakan pendekatan analisis semantik yang jelas."]}, {"en": ["Yih et al used Convolutional neural networks to answer Single-Relation questions on Reverb.", "Yih et al focused on answering Single-Relation factual questions by a semantic similarity model using Convolutional neural networks."], "ms": ["Yih et al menggunakan rangkaian saraf Konvolutional untuk menjawab soalan Hubungan Tunggal pada Reverb.", "Yih et al fokus menjawab pertanyaan fakta Hubungan Tunggal oleh model persamaan semantik menggunakan jaringan neural Konvolutional."]}, {"en": ["Swier and Stevenson induce role labels with a Bootstrapping scheme in which the set of labeled instances is Iteratively expanded using a Classifier trained on previously labeled instances.", "Swier and Stevenson induce role labels with a Bootstrapping scheme where the set of labeled instances is Iteratively expanded using a Classifier trained on previously labeled instances."], "ms": ["Swier dan Stevenson mendorong label peranan dengan skema Bootstrapping di mana set contoh berlabel diperluas secara Iteratif menggunakan Klasifier yang dilatih pada contoh berlabel sebelumnya.", "Swier dan Stevenson mendorong label peranan dengan skema Bootstrapping di mana set contoh berlabel diperluas secara Iteratif menggunakan Klasifier yang dilatih pada contoh berlabel sebelumnya."]}, {"en": ["Lin et al defined a search goal as an Action-Entity pair and utilized a web Trigram to identify fine-grained search goals.", "Lin et al defined a search goal as an Action-Entity pair and utilized web Trigram to generate fine-grained search goals."], "ms": ["Lin et al mentakrifkan matlamat carian sebagai pasangan Action-Entity dan menggunakan Trigram web untuk mengenal pasti matlamat carian halus.", "Lin et al mentakrifkan matlamat carian sebagai pasangan Action-Entity dan menggunakan web Trigram untuk menghasilkan matlamat carian halus."]}, {"en": ["The experiments illustrate the different effect of four feature types including direct lexical matching, Idf-Weighted lexical matching, modified BLEU N-Gram matching and named entities matching.", "We illustrate the different effect of four feature types including direct lexical matching, Idf-Weighted lexical matching, modified BLEU N-Gram matching and named entities matching."], "ms": ["Eksperimen ini menggambarkan kesan yang berbeza dari empat jenis ciri termasuk pemadanan leksikal langsung, pemadanan leksikal Idf-Weighted, pemadanan BLEU N-Gram yang diubahsuai dan pemadanan entiti bernama.", "Kami menggambarkan kesan yang berbeza dari empat jenis ciri termasuk pemadanan leksikal langsung, pemadanan leksikal Idf-Weighted, pemadanan BLEU N-Gram yang diubah suai dan pemadanan entiti bernama."]}, {"en": ["Tree substitution grammar (Tsg) is a promising formalism for modeling language data.", "Tree substitution grammar (Tsg) is a compelling grammar formalism which allows Nonterminal rewrites in the form of trees, thereby enabling the Modelling of complex linguistic phenomena such as argument frames, lexical agreement and idiomatic phrases."], "ms": ["Tatabahasa penggantian pokok (Tsg) adalah formalisme yang menjanjikan untuk pemodelan data bahasa.", "Tatabahasa penggantian pokok (Tsg) adalah formalisme tatabahasa yang menarik yang membolehkan penulisan semula Nonterminal dalam bentuk pokok, dengan itu membolehkan Pemodelan fenomena linguistik kompleks seperti bingkai hujah, perjanjian leksikal dan frasa idiomatik."]}, {"en": ["In this experiment, we only use sentiment related words as features to represent opinion documents for classification, instead of using all words.", "In this experiment, we only use sentiment related words as features to represent opinion documents."], "ms": ["Dalam eksperimen ini, kami hanya menggunakan kata-kata yang berkaitan dengan sentimen sebagai ciri untuk mewakili dokumen pendapat untuk klasifikasi, dan bukannya menggunakan semua perkataan.", "Dalam eksperimen ini, kami hanya menggunakan kata-kata yang berkaitan dengan sentimen sebagai ciri untuk mewakili dokumen pendapat."]}, {"en": ["Although this work represents the first formal study of relationship questions that we are aware of, by no means are we claiming a Solution\u00a1\u00aawe see this as merely the first step in addressing a complex problem.", "Although this work represents the first formal study of relationship questions that we are aware of, by no means are we claiming a solution \u00a1\u00aa."], "ms": ["Walaupun kerja ini mewakili kajian formal pertama mengenai soalan hubungan yang kita sedar, tidak semestinya kita menuntut Penyelesaian - kita melihat ini sebagai langkah pertama dalam menangani masalah yang kompleks.", "Walaupun kerja ini mewakili kajian formal pertama mengenai soalan hubungan yang kita sedar, tidak semestinya kita menuntut penyelesaian a."]}, {"en": ["It scored higher than a version of Hobbs' algorithm that we implemented for slot grammar.", "Of Hobbs' algorithm was implemented in the slot grammar framework."], "ms": ["Ia mendapat markah lebih tinggi daripada versi algoritma Hobbs yang kami laksanakan untuk tatabahasa slot.", "Algoritma Hobbs dilaksanakan dalam rangka kerja tatabahasa slot."]}, {"en": ["This metric uses the Stanford dependency Parser to generate the Dependencies.", "The Stanford dependency Parser is used for extracting features from the dependency Parse trees."], "ms": ["Metrik ini menggunakan Stanford dependency Parser untuk menghasilkan Dependencies.", "Parser dependensi Stanford digunakan untuk mengekstrak ciri-ciri dari pokok dependensi Parse."]}, {"en": ["We used a categorical cross entropy loss function and Adam Optimizer and trained the model for 10 Epochs.", "We use a Keras implementation, and fit the model parameters with Adam with a batch size of 32 and Iterations of 20 Epochs."], "ms": ["Kami menggunakan fungsi kehilangan entropi silang kategori dan Adam Optimizer dan melatih model untuk 10 Epochs.", "Kami menggunakan pelaksanaan Keras, dan sesuai dengan parameter model dengan Adam dengan saiz batch 32 dan Iterations 20 Epochs."]}, {"en": ["Affective text shared task on news headlines at Semeval 2007 for emotion and Valence level identification has drawn the focus to this field.", "The Affective text shared task on news headlines for emotion and Valence level identification at Semeval 2007 has drawn focus to this field."], "ms": ["Teks Affective berkongsi tugas pada tajuk berita di Semeval 2007 untuk emosi dan pengenalan tahap Valence telah menarik tumpuan kepada bidang ini.", "Teks Affective berkongsi tugas pada tajuk berita untuk emosi dan pengenalan tahap Valence di Semeval 2007 telah menarik tumpuan kepada bidang ini."]}, {"en": ["Semantics plays indeed a role in Coreference resolution.", "Coreference resolution can benefit from semantic knowledge."], "ms": ["Semantik memang memainkan peranan dalam resolusi Coreference.", "Resolusi sfera boleh mendapat manfaat daripada pengetahuan semantik."]}, {"en": ["Also we propose a two-step training method, which benefit from both large-scale pseudo training data and Task-Specific data, showing promising performance.", "In this paper, we propose a simple but novel approach to automatically generate large-scale pseudo training data."], "ms": ["Kami juga mencadangkan kaedah latihan dua langkah, yang mendapat manfaat daripada kedua-dua data latihan pseudo berskala besar dan data Task-Specific, menunjukkan prestasi yang menjanjikan.", "Dalam makalah ini, kami mencadangkan pendekatan yang mudah tetapi novel untuk menjana data latihan pseudo berskala besar secara automatik."]}, {"en": ["In, the authors Romanized Chinese NES and selected their English Transliterations from English NES extracted from the web by comparing their phonetic similarities with Chinese NES.", "In Chen, the authors Romanized Chinese NES and selected their English Transliterations from English NES extracted from the web by comparing their phonetic similarities with Chinese NES."], "ms": ["Pada tahun 2007, penulis Romanized Chinese NES dan memilih Transliterasi Bahasa Inggeris mereka dari English NES yang diekstrak dari web dengan membandingkan persamaan fonetik mereka dengan Chinese NES.", "Di Chen, penulis Romanized Chinese NES dan memilih Transliterasi Bahasa Inggeris mereka dari English NES yang diekstrak dari web dengan membandingkan persamaan fonetik mereka dengan Chinese NES."]}, {"en": ["For tagging, we use the Stanford Pos Tagger package.", "We tag the source language with the Stanford Pos Tagger."], "ms": ["Untuk tag, kami menggunakan pakej Stanford Pos Tagger.", "Kami tag bahasa sumber dengan Stanford Pos Tagger."]}, {"en": ["A tree transformation is sensible if the size of each output tree is uniformly bounded by a linear function in the size of the corresponding input tree.", "A tree transformation has linear Size-Increase if the size of each output tree is linearly bounded by the size of its corresponding input tree."], "ms": ["Transformasi pokok adalah masuk akal jika saiz setiap pokok output terikat secara seragam oleh fungsi linear dalam saiz pokok input yang sepadan.", "Transformasi pokok mempunyai Saiz-Meningkatkan linear jika saiz setiap pokok output terikat secara linear dengan saiz pokok input yang sepadan."]}, {"en": ["As a base Parser we use Desr, a Shift-Reduce Parser described in.", "We build upon Desr, the Shift-Reduce Parser described in."], "ms": ["Sebagai Parser asas yang kita gunakan Desr, Parser Shift-Reduce yang diterangkan dalam.", "Kami membina Desr, Penghuraian Shift-Reduce yang dijelaskan dalam."]}, {"en": ["For each task, we created labeled data from English, Arabic, and Spanish Tweets.", "For each task, we provide separate training, development, and test Datasets for English, Arabic, and Spanish Tweets."], "ms": ["Untuk setiap tugas, kami mencipta data berlabel dari Tweet Bahasa Inggeris, Arab, dan Sepanyol.", "Untuk setiap tugas, kami menyediakan latihan, pembangunan, dan ujian Dataset berasingan untuk Tweet Bahasa Inggeris, Arab, dan Sepanyol."]}, {"en": ["A kg is a Multi-Relational directed graph composed of entities as nodes and relations as edges.", "A kg is a directed graph whose nodes correspond to entities and edges to relations."], "ms": ["kg adalah graf terarah Multi-Relational yang terdiri daripada entiti sebagai nod dan hubungan sebagai tepi.", "kg adalah graf diarahkan yang nodnya sepadan dengan entiti dan tepi kepada hubungan."]}, {"en": ["On a large-scale Freebase+Clueweb prediction task, we achieve 25% error reduction, and a 53% error reduction on sparse relations.", "With a single Rnn, we show a 54% error reduction in relations that are available only sparsely."], "ms": ["Pada tugas ramalan Freebase + Liquideb berskala besar, kami mencapai pengurangan ralat 25%, dan pengurangan ralat 53% pada hubungan jarang.", "Dengan Rnn tunggal, kami menunjukkan pengurangan ralat 54% dalam hubungan yang hanya tersedia jarang."]}, {"en": ["Unlike Grconv and Adasent, our model uses full Binary tree as the Topological structure.", "In this paper, we adopt the full Binary tree as the Topological structure."], "ms": ["Tidak seperti Grconv dan Adasent, model kami menggunakan pokok Binari penuh sebagai struktur Topologi.", "Dalam kertas ini, kami menggunakan pokok Binary penuh sebagai struktur Topologi."]}, {"en": ["Mistakes made by Non-Native speakers are systematic and also depend on the first language of the writer.", "Nonnative speakers make mistakes in a systematic manner, and errors often depend on the first language of the writer."], "ms": ["Kesalahan yang dibuat oleh penutur Bukan Asli adalah sistematik dan juga bergantung kepada bahasa pertama penulis.", "Penutur bukan asli membuat kesilapan secara sistematik, dan kesilapan sering bergantung kepada bahasa pertama penulis."]}, {"en": ["Katz and Giesbrecht and Baldwin et al use latent semantic analysis for this purpose.", "Baldwin et al employed latent semantic analysis to determine the Decomposability of Mwes."], "ms": ["Katz dan Giesbrecht dan Baldwin et al menggunakan analisis semantik terpendam untuk tujuan ini.", "Baldwin et al menggunakan analisis semantik laten untuk menentukan Kebolehkomposan Mwes."]}, {"en": ["Donaway et al used exhaustive search to generate all three sentences extracts to evaluate different evaluation Metrics.", "Donaway et al suggested that it might be possible to use Contentbased measures for summarization evaluation without generating model summaries."], "ms": ["Donaway et al menggunakan carian menyeluruh untuk menghasilkan ketiga-tiga ekstrak ayat untuk menilai Metrik penilaian yang berbeza.", "Donaway et al mencadangkan bahawa mungkin untuk menggunakan langkah-langkah berasaskan Kandungan untuk penilaian ringkasan tanpa menghasilkan ringkasan model."]}, {"en": ["The novelty of our work is the proposal of a method to automatically extract persuasive argumentation features from political debates by means of the use of semantic frames as pivoting features.", "The novelty of our work is the transformation of a source language topic model rather than the creation of a language independent model from parallel data."], "ms": ["Kebaharuan kerja kami adalah cadangan kaedah untuk mengekstrak ciri-ciri hujah secara automatik dari perdebatan politik dengan menggunakan bingkai semantik sebagai ciri-ciri berputar.", "Kebaharuan kerja kami adalah transformasi model topik bahasa sumber dan bukannya penciptaan model bebas bahasa dari data selari."]}, {"en": ["Besides, our model can also be easily generalized and applied to other sequence labeling tasks.", "Being a specific case, our model can be easily generalized and applied to the other sequence labeling tasks."], "ms": ["Selain itu, model kami juga boleh dengan mudah digeneralisasikan dan digunakan untuk tugas pelabelan urutan lain.", "Sebagai kes tertentu, model kami boleh dengan mudah digeneralisasikan dan digunakan untuk tugas pelabelan urutan yang lain."]}, {"en": ["Conditional random fields are Undirected graphical models trained to maximize a conditional probability of random variables and Y, and the concept is well established for sequential labeling problem.", "Conditional random fields are Undirected graphical models trained to maximize a conditional probability of random variables X and Y, and the concept is well established for sequential labeling problem."], "ms": ["Medan rawak bersyarat adalah model grafik tidak diarahkan yang dilatih untuk memaksimumkan kebarangkalian bersyarat pemboleh ubah rawak dan Y, dan konsep ini ditubuhkan dengan baik untuk masalah pelabelan berurutan.", "Medan rawak bersyarat adalah model grafik tidak diarahkan yang dilatih untuk memaksimumkan kebarangkalian bersyarat pemboleh ubah rawak X dan Y, dan konsep ini ditubuhkan dengan baik untuk masalah pelabelan berurutan."]}, {"en": ["Our Parser is trained by combining a syntactic Parsing task with a Distantly-Supervised relation extraction task.", "Parser is trained by jointly optimizing performance on a syntactic Parsing task and a Distantly-Supervised relation extraction task."], "ms": ["Parser kami dilatih dengan menggabungkan tugas Penghuraian sintaktik dengan tugas pengekstrakan hubungan yang jauh diselia.", "Parser dilatih dengan mengoptimumkan prestasi bersama pada tugas Penghuraian sintaktik dan tugas pengekstrakan hubungan yang jauh diselia."]}, {"en": ["We propose a new approach to language modeling which utilizes Discriminative learning methods.", "We extend this line of work to study the extent to which Discriminative learning methods can lead to better Generative language models."], "ms": ["Kami mencadangkan pendekatan baru untuk pemodelan bahasa yang menggunakan kaedah pembelajaran Discriminative.", "Kami memperluaskan garis kerja ini untuk mengkaji sejauh mana kaedah pembelajaran Discriminatif boleh membawa kepada model bahasa Generatif yang lebih baik."]}, {"en": ["With both automatic and human evaluations, the results show that the proposed method effectively balance between adequacy and Dissimilarity.", "Testing data with automatic evaluation as well as human judgments suggest that the proposed method is able to enhance the paraphrase quality."], "ms": ["Dengan penilaian automatik dan manusia, hasilnya menunjukkan bahawa kaedah yang dicadangkan berkesan mengimbangi antara kecukupan dan ketidakserasian.", "Menguji data dengan penilaian automatik dan penilaian manusia mencadangkan bahawa kaedah yang dicadangkan dapat meningkatkan kualiti parafrasa."]}, {"en": ["Multitask learning models have been proven very useful for several Nlp tasks and applications ,.", "Embeddings, have recently shown to be effective in a wide range of tasks."], "ms": ["Model pembelajaran pelbagai tugas telah terbukti sangat berguna untuk beberapa tugas dan aplikasi Nlp.", "Embeddings, baru-baru ini terbukti berkesan dalam pelbagai tugas."]}, {"en": ["A comparable corpus consists of documents in two or more languages or varieties which are not translation of each other and deal with similar topics.", "Conversely, a comparable corpus is a collection of Multilingual documents written over the same set of classes (NI et al . , 2011; Yogatama and Tanaka-Ishii , 2009) without any restriction about translation or perfect correspondence between documents."], "ms": ["Korpus yang setanding terdiri daripada dokumen dalam dua atau lebih bahasa atau jenis yang tidak saling terjemahan dan menangani topik yang serupa.", "Sebaliknya, korpus yang setanding adalah koleksi dokumen Multilingual yang ditulis di atas set kelas yang sama (NI et al., 2011; Yogatama dan Tanaka-Ishii, 2009) tanpa sebarang sekatan mengenai terjemahan atau surat-menyurat sempurna antara dokumen."]}, {"en": ["Clarke and Lapata improved the above Discriminative model by using Ilp in decoding, making it convenient to add constraints to preserve grammatical structure.", "Clarke and Lapata use integer linear programming to find the optimal compression per sentence within linguistic constraints."], "ms": ["Clarke dan Lapata memperbaiki model Diskriminatif di atas dengan menggunakan Ilp dalam penyahkodan, menjadikannya mudah untuk menambah kekangan untuk mengekalkan struktur tatabahasa.", "Clarke dan Lapata menggunakan pengaturcaraan linear integer untuk mencari pemampatan optimum bagi setiap ayat dalam kekangan linguistik."]}, {"en": ["Our experimental results showed that the graph cut based method achieved competitive performance compared to Ilp, while about 100 times faster.", "Our method achieves competitive Rouge score and has good Readability, while is much faster than the integer linear programming (Ilp) method."], "ms": ["Hasil eksperimen kami menunjukkan bahawa kaedah berasaskan graf memotong mencapai prestasi kompetitif berbanding dengan Ilp, sementara kira-kira 100 kali lebih cepat.", "Kaedah kami mencapai skor Rouge yang kompetitif dan mempunyai Kebolehbacaan yang baik, sementara jauh lebih pantas daripada kaedah pengaturcaraan linear integer (Ilp)."]}, {"en": ["Argument mining is a Trending research domain that focuses on the extraction of arguments and their relations from text.", "Argument mining consists of the automatic identification of Argumentative structures in documents, a valuable task with applications in policy making, summarization, and education, among others."], "ms": ["Perlombongan hujah adalah domain penyelidikan Trending yang memberi tumpuan kepada pengekstrakan hujah dan hubungan mereka dari teks.", "Perlombongan hujah terdiri daripada pengenalan automatik struktur hujah dalam dokumen, tugas berharga dengan aplikasi dalam pembuatan dasar, ringkasan, dan pendidikan, antara lain."]}, {"en": ["Machine comprehension of text is the central goal in Nlp.", "Machine comprehension of text is a typical natural language processing task which remains an elusive challenge."], "ms": ["Pengertian mesin teks adalah matlamat utama dalam Nlp.", "Pengertian mesin teks adalah tugas pemprosesan bahasa semulajadi yang tetap menjadi cabaran sukar difahami."]}, {"en": ["One reason for this is that in the tagging scheme for such languages, a complete Pos tag is formed by combining tags from multiple tag SETS defined for each Morphosyntactic category.", "In the tagging scheme for such languages, a complete Pos tag is formed by combining tags from multiple tag SETS defined for each Morphosyntactic category."], "ms": ["Salah satu sebab untuk ini adalah bahawa dalam skema penandaan untuk bahasa tersebut, tag Pos lengkap dibentuk dengan menggabungkan tag dari pelbagai tag SETS yang ditakrifkan untuk setiap kategori Morphosyntactic.", "Dalam skema penandaan untuk bahasa tersebut, tag Pos lengkap dibentuk dengan menggabungkan tag dari pelbagai tag SETS yang ditakrifkan untuk setiap kategori Morphosyntactic."]}, {"en": ["Aue and Gamon attempt to solve the problem of the absence of large amounts of labeled data by Customizing sentiment classifiers to new domains using training data from other domains.", "Aue and Gamon explored various strategies for Customizing sentiment classifiers to new domains, where the training is based on a small number of labelled examples and large amounts of Unlabelled In-Domain data."], "ms": ["Aue dan Gamon cuba menyelesaikan masalah ketiadaan sejumlah besar data berlabel dengan Mengubah pengelas sentimen ke domain baru menggunakan data latihan dari domain lain.", "Aue dan Gamon meneroka pelbagai strategi untuk menyesuaikan pengelas sentimen ke domain baru, di mana latihan itu berdasarkan sebilangan kecil contoh berlabel dan sejumlah besar data In-Domain Tidak Berlabel."]}, {"en": ["We choose the Crf learning Toolkit Wapiti 1 to train models.", "We employ the Crf implementation in the Wapiti Toolkit, using default settings."], "ms": ["Kami memilih Crf Learning Toolkit Wapiti 1 untuk melatih model.", "Kami menggunakan pelaksanaan Crf dalam Wapiti Toolkit, menggunakan tetapan lalai."]}, {"en": ["Hashtags are extremely popular in Twitter.", "Hashtags are spelling mistakes of Twitter."], "ms": ["Hashtags sangat popular di Twitter.", "Hashtags adalah ejaan kesilapan Twitter."]}, {"en": ["We implemented our model with Wfsas using the Openfst library.", "Alignment and Segmentation procedures were implemented with the help of Openfst."], "ms": ["Kami melaksanakan model kami dengan Wfsas menggunakan perpustakaan Openfst.", "Prosedur penjajaran dan Segmentasi dilaksanakan dengan bantuan Openfst."]}, {"en": ["Patty used sequence mining Algorithms for gathering a general class of relational phrases, organizing them into Synsets, and Inferring lexical type signatures.", "Patty devised a sequence mining algorithm to extract relational phrases with semantic type signatures, and organized them into synonymy sets and Hypernymy hierarchies."], "ms": ["Patty menggunakan algoritma perlombongan urutan untuk mengumpulkan kelas umum frasa hubungan, menyusunnya menjadi Synsets, dan memasukkan tandatangan jenis leksikal.", "Patty mencipta algoritma perlombongan urutan untuk mengekstrak frasa hubungan dengan tandatangan jenis semantik, dan menyusunnya menjadi set sinonim dan hierarki Hypernymy."]}, {"en": ["It is a specific kind of generalized linear model where its function is the Logit function and the dependent variable Y is a Binary or Dichotomic variable which has a Bernoulli distribution.", "It is a specific kind of generalized linear model, where its function is the Logit function and the independent variable Y is a Binary or Dicothomic variable which has a Bernoulli distribution."], "ms": ["Ia adalah jenis tertentu model linear umum di mana fungsinya adalah fungsi Logit dan pemboleh ubah bergantung Y adalah pemboleh ubah Binari atau Dikotomik yang mempunyai taburan Bernoulli.", "Ia adalah jenis tertentu model linear umum, di mana fungsinya adalah fungsi Logit dan pemboleh ubah bebas Y adalah pemboleh ubah Binari atau Dikotomik yang mempunyai taburan Bernoulli."]}, {"en": ["Here, we employ a method proposed by Neubig et al, which uses parametric Bayesian inference with the Phrasal Itgs.", "In particular, we employ the Nonparametric Bayesian Phrasal inversion Transduction grammar of Neubig et al to perform phrase table extraction."], "ms": ["Di sini, kami menggunakan kaedah yang dicadangkan oleh Neubig et al, yang menggunakan kesimpulan Bayesian parametrik dengan Frasa Itgs.", "Khususnya, kita menggunakan tatabahasa Transduksi Frasa Bayesian Nonparametrik Neubig et al untuk melaksanakan pengekstrakan jadual frasa."]}, {"en": ["Topic signatures are weighted topical vectors that are associated with senses or concepts.", "Topic signatures are word vectors related to a particular topic."], "ms": ["Tanda tangan topikal adalah vektor topikal berwajaran yang dikaitkan dengan deria atau konsep.", "Tandatangan topik adalah vektor perkataan yang berkaitan dengan topik tertentu."]}, {"en": ["Klein and Manning presented another approach focusing on constituent sequences called the Constituent-Context model.", "Klein and Manning present a Generative model for inducing constituent boundaries from Part-Of-Speech tagged text."], "ms": ["Klein dan Manning membentangkan pendekatan lain yang memberi tumpuan kepada urutan konstituen yang dipanggil model Konstituen-Konteks.", "Klein dan Manning mempersembahkan model Generatif untuk mendorong sempadan konstituen dari teks bertanda Bahagian-Of-Speech."]}, {"en": ["Our System\u00a1\u00afS best result ranked 35 among 73 submitted runs with 0.7189 average Pearson Correlations over five test sets.", "Our system \u00a1\u00af s best result ranked 35 among 73 system runs with 0 . 7189 average Pearson correlation over five test sets."], "ms": ["Keputusan terbaik Sistem kami menduduki tempat 35 di antara 73 larian yang diserahkan dengan 0.7189 Pearson Correlations purata lebih daripada lima set ujian.", "Keputusan terbaik sistem kami menduduki tempat 35 di antara 73 sistem berjalan dengan 0.7189 purata Pearson korelasi lebih lima set ujian."]}, {"en": ["The EF Cambridge open language Database is an English L2 corpus that was released in 2013 and used for Nli in.", "The EF Cambridge open language Database is an English L2 corpus that was released recently."], "ms": ["Pangkalan Data Bahasa Terbuka EF Cambridge adalah korpus Bahasa Inggeris L2 yang dikeluarkan pada tahun 2013 dan digunakan untuk Nli.", "Pangkalan Data Bahasa Terbuka EF Cambridge adalah korpus Bahasa Inggeris L2 yang dikeluarkan baru-baru ini."]}, {"en": ["When training over 10,000 features on a modest amount of data, we, like Watanabe et al, did observe Overfitting, yet saw improvements on new data.", "This seems in line with the finding of Watanabe et al that with on the order of 10,000 features, Overfitting is possible, but we can still improve accuracy on new data."], "ms": ["Apabila melatih lebih daripada 10,000 ciri pada jumlah data yang sederhana, kami, seperti Watanabe et al, memerhatikan Overfitting, namun melihat peningkatan pada data baru.", "Ini seolah-olah selaras dengan penemuan Watanabe et al bahawa dengan susunan 10,000 ciri, Kelengkapan adalah mungkin, tetapi kita masih boleh meningkatkan ketepatan pada data baru."]}, {"en": ["We Downloaded glove data as the source of Pre-Trained word Embeddings.", "We used 300-Dimensional Pre-Trained glove word Embeddings."], "ms": ["Kami memuat turun data sarung tangan sebagai sumber Embedding perkataan Pra-Latihan.", "Kami menggunakan perkataan sarung tangan Pra-Latihan 300 Dimensional Embeddings."]}, {"en": ["A comparable corpus consists of documents in two or more languages or varieties which are not translation of each other and deal with similar topics.", "A comparable corpus is a collection of texts composed independently in the respective languages and combined on the basis of similarity of content (Cite-P-12-1-15)."], "ms": ["Korpus yang setanding terdiri daripada dokumen dalam dua atau lebih bahasa atau jenis yang tidak saling terjemahan dan menangani topik yang serupa.", "Korpus yang setanding adalah koleksi teks yang disusun secara bebas dalam bahasa masing-masing dan digabungkan berdasarkan persamaan kandungan (Cite-P-12-1-15)."]}, {"en": ["We use the same training, development and Out-Of-Domain test set as provided in the Conll 2009 shared task.", "To Re-Train and evaluate models with different feature sets, we use the same training, development and test SETS as provided in the Conll shared task."], "ms": ["Kami menggunakan set ujian latihan, pembangunan dan Out-Of-Domain yang sama seperti yang disediakan dalam tugas bersama Conll 2009.", "Untuk melatih semula dan menilai model dengan set ciri yang berbeza, kami menggunakan latihan, pembangunan dan ujian SETS yang sama seperti yang disediakan dalam tugas bersama Conll."]}, {"en": ["A good survey of the state of the art is available in (Cite-P-20-12-0).", "Articles that summarize the state-of-the-art are available in (Cite-P-20-1-2)."], "ms": ["Tinjauan yang baik mengenai keadaan seni boleh didapati di (Cite-P-20-12-0).", "Artikel yang meringkaskan state-of-the-art boleh didapati di (Cite-P-20-1-2)."]}, {"en": ["For our learners, we used the Na\u8302Ve Bayes implementation in the Weka machine learning Toolkit, a support vector machine , 3 and the Crf implementation in Mallet.", "For our classifiers, we used the Weka implementation of Na\u8302Ve Bayes and the Svmlight implementation of the SVM."], "ms": ["Bagi pelajar kami, kami menggunakan pelaksanaan NaVe Bayes dalam Toolkit pembelajaran mesin Weka, mesin vektor sokongan, 3 dan pelaksanaan Crf di Mallet.", "Untuk pengelas kami, kami menggunakan pelaksanaan Weka NaVe Bayes dan pelaksanaan Svmlight SVM."]}, {"en": ["In this study, we explore the feasibility of controlling human perception of traits using automated methods.", "In this pilot study, we measure the extent to which human perception of basic user trait information."], "ms": ["Dalam kajian ini, kami meneroka kemungkinan mengawal persepsi manusia terhadap ciri-ciri menggunakan kaedah automatik.", "Dalam kajian perintis ini, kami mengukur sejauh mana persepsi manusia terhadap maklumat sifat pengguna asas."]}, {"en": ["In this study, we focus on the problem of Community-Related event detection by community emotions.", "We propose an event detection algorithm based on the sequence of community level emotion distribution."], "ms": ["Dalam kajian ini, kami memberi tumpuan kepada masalah pengesanan peristiwa berkaitan Komuniti oleh emosi masyarakat.", "Kami mencadangkan algoritma pengesanan acara berdasarkan urutan pengedaran emosi peringkat komuniti."]}, {"en": ["We obtained better results by using case frames constructed from larger Corpora; the performance was not saturated even with a Corpus size of 100 billion words.", "Better results were obtained using case frames constructed from larger Corpora, and the performance showed no saturation even when the corpus size was 1 . 6 billion sentences."], "ms": ["Kami memperoleh hasil yang lebih baik dengan menggunakan bingkai kes yang dibina dari Corpora yang lebih besar; prestasi tidak tepu walaupun dengan saiz Corpus 100 bilion perkataan.", "Hasil yang lebih baik diperolehi menggunakan bingkai kes yang dibina dari Corpora yang lebih besar, dan prestasi tidak menunjukkan ketepuan walaupun saiz korpus adalah 1.6 bilion ayat."]}, {"en": ["Grosz, Joshi, and Weinstein state that CF may be ordered using different factors, but they only use information about grammatical roles.", "Grosz, Joshi, and Weinstein admit that several factors may have an influence on the ranking of the CF but limit their exposition to the exploitation of grammatical roles only."], "ms": ["Grosz, Joshi, dan Weinstein menyatakan bahawa CF boleh dipesan menggunakan faktor yang berbeza, tetapi mereka hanya menggunakan maklumat mengenai peranan tatabahasa.", "Grosz, Joshi, dan Weinstein mengakui bahawa beberapa faktor mungkin mempunyai pengaruh pada kedudukan CF tetapi mengehadkan eksploitasi mereka untuk eksploitasi peranan tatabahasa sahaja."]}, {"en": ["React achieves an accuracy of 92% for the Onand Off-Topic classification task and an f 1 -Measure of 72% for the semantic Annotation.", "React achieves an accuracy of 92% in distinguishing between Onand Off-Topic information."], "ms": ["React mencapai ketepatan 92% untuk tugas klasifikasi Onand Off-Topic dan f 1 -Langkah 72% untuk Annotasi semantik.", "React mencapai ketepatan 92% dalam membezakan antara maklumat Onand Off-Topic."]}, {"en": ["We extended the Lexrank Graph-Based algorithm with information from the NER step.", "So, we used the Lexrank algorithm to summarize the event clusters obtained in the previous step."], "ms": ["Kami memperluaskan algoritma berasaskan Grafik Lexrank dengan maklumat dari langkah NER.", "Oleh itu, kami menggunakan algoritma Lexrank untuk meringkaskan kluster acara yang diperoleh dalam langkah sebelumnya."]}, {"en": ["Both were Initialised by uniformly sampling values from the symmetric interval suggested by Glorot and Bengio.", "Parameters are Initialized using the method described by Glorot and Bengio."], "ms": ["Kedua-duanya telah diawalkan oleh nilai persampelan seragam dari selang simetri yang dicadangkan oleh Glorot dan Bengio.", "Parameter diawalkan menggunakan kaedah yang diterangkan oleh Glorot dan Bengio."]}, {"en": ["We further split the words into Sub-Words using joint Bpe with 32 , 000 merge operations.", "Then we split the words into Subwords by joint Bytepair-Encoding with 32,000 merge operations."], "ms": ["Kami seterusnya membahagikan perkataan ke Sub-Words menggunakan Bpe bersama dengan 32, 000 operasi penggabungan.", "Kemudian kami membahagikan kata-kata ke dalam Subwords dengan Bytepair-Encoding bersama dengan 32,000 operasi penggabungan."]}, {"en": ["Further insights may be available from the Finer-Grained data available in the preposition Disambiguation task.", "That will provide further insights into the characterization of preposition behavior."], "ms": ["Pandangan lanjut boleh didapati dari data Finer-Grained yang terdapat dalam tugas Disambiguasi preposisi.", "Ini akan memberikan gambaran lebih lanjut mengenai ciri tingkah laku preposisi."]}, {"en": ["However, the research community is also aware of the deficiencies of these Metrics.", "Nevertheless, the research community has been aware of the deficiencies of the BLEU metric."], "ms": ["Walau bagaimanapun, komuniti penyelidikan juga menyedari kekurangan Metrik ini.", "Walau bagaimanapun, komuniti penyelidikan telah menyedari kekurangan metrik BLEU."]}, {"en": ["The key component is the so-called alignment model, which makes sure the Embeddings of entities, relations, and words are in the same space.", "The key component is a new procedure to directly optimize the global scoring function used by a Smt Decoder."], "ms": ["Komponen utama adalah model penjajaran yang dipanggil, yang memastikan Embedding entiti, hubungan, dan kata-kata berada dalam ruang yang sama.", "Komponen utama adalah prosedur baru untuk mengoptimumkan secara langsung fungsi pemarkahan global yang digunakan oleh Smt Decoder."]}, {"en": ["We implemented a version of Mira from Crammer and singer, which we used for regression.", "We used an implementation of the Mira algorithm for regression."], "ms": ["Kami melaksanakan versi Mira dari Crammer dan penyanyi, yang kami gunakan untuk regresi.", "Kami menggunakan pelaksanaan algoritma Mira untuk regresi."]}, {"en": ["In section 2, we provide some background and review previous work on Graph-Based dependency Parsing for mono- and Cross-Lingual settings and on word Embeddings.", "In section 2, we provide some background and review previous work on Graph-Based dependency Parsing for Mono-And Cross-Lingual settings."], "ms": ["Dalam seksyen 2, kami menyediakan beberapa latar belakang dan mengkaji kerja sebelumnya mengenai Penghuraian dependensi Berasaskan Grafik untuk tetapan mono dan Cross-Lingual dan pada Embedding perkataan.", "Dalam seksyen 2, kami menyediakan beberapa latar belakang dan mengkaji kerja sebelumnya mengenai Penghuraian dependensi Berasaskan Grafik untuk tetapan Mono-Dan Cross-Lingual."]}, {"en": ["We also propose to use the Mdlbased tree cut model for identifying question topic and question focus automatically.", "In this paper, we have proposed an approach to question search which models question topic and question focus."], "ms": ["Kami juga mencadangkan untuk menggunakan model potong pokok Mdlbased untuk mengenal pasti topik soalan dan fokus soalan secara automatik.", "Dalam makalah ini, kami telah mencadangkan pendekatan untuk mencari model mana yang mempersoalkan topik dan fokus soalan."]}, {"en": ["In our Dataset, we Additionally provide the most similar training questions for each challenge question.", "In our Dataset, we Additionally provide the most similar training questions for each challenge."], "ms": ["Dalam Dataset kami, kami juga menyediakan soalan latihan yang paling serupa untuk setiap soalan cabaran.", "Dalam Dataset kami, kami juga menyediakan soalan latihan yang paling serupa untuk setiap cabaran."]}, {"en": ["In the following, we heavily rely on the work of Clarke and Lapata, who develop an approach based on Ilp for Monolingual sentence compression.", "Our first two models include various lexical and syntactical constraints based on the work of Clarke and Lapata."], "ms": ["Dalam perkara berikut, kami sangat bergantung pada kerja Clarke dan Lapata, yang mengembangkan pendekatan berdasarkan mampatan ayat Monolingual Ilp.", "Dua model pertama kami termasuk pelbagai kekangan leksikal dan sintaksis berdasarkan kerja Clarke dan Lapata."]}, {"en": ["Therefore, it is not suitable to exploit existing Word-Based models to translate this set of languages.", "Word-Based models are not suitable to process such complex languages."], "ms": ["Oleh itu, tidak sesuai untuk mengeksploitasi model berasaskan perkataan yang ada untuk menterjemahkan set bahasa ini.", "Model berasaskan perkataan tidak sesuai untuk memproses bahasa yang kompleks seperti itu."]}, {"en": ["Transliteration is a key building block for Multilingual and Cross-Lingual Nlp since it is essential for (I) handling of names in applications like machine translation (mt) and Cross-Lingual information Retrieval (Clir), and (II) User-Friendly input methods.", "Transliteration is a Subtask in NE translation, which translates NES based on the phonetic similarity."], "ms": ["Transliterasi adalah blok bangunan utama untuk Multilingual dan Cross-Lingual Nlp kerana ia adalah penting untuk (I) pengendalian nama dalam aplikasi seperti terjemahan mesin (mt) dan Retrieval maklumat Cross-Lingual (Clir), dan (II) Kaedah input Pengguna-Perniagaan.", "Transliterasi adalah Subtugas dalam terjemahan NE, yang menterjemahkan NES berdasarkan persamaan fonetik."]}, {"en": ["While Antonymy is defined as the Oppositeness between words, synonymy refers to words that are similar in meaning (Cite-P-11-1-2, Cite-P-11-1-10).", "While Antonymy is defined as the Oppositeness between words, synonymy refers to words that are similar in meaning (Cite-P-21-1-2, Cite-P-21-4-5)."], "ms": ["Walaupun Antonymy ditakrifkan sebagai Ketepatan antara perkataan, sinonim merujuk kepada perkataan yang serupa dalam makna (Cite-P-11-1-2, Cite-P-11-1-10).", "Walaupun Antonymy ditakrifkan sebagai Ketepatan antara perkataan, sinonim merujuk kepada perkataan yang serupa dalam makna (Cite-P-21-1-2, Cite-P-21-4-5)."]}, {"en": ["Learning is efficiently Parallelized by splitting training data among shards and by merging parameters in each round (Cite-P-14-3-10).", "Among parallel jobs, training is efficiently and easily carried out by distributing training data among shards and by mixing parameters in each Iteration (Cite-P-14-3-10)."], "ms": ["Pembelajaran adalah selari dengan cekap dengan membahagikan data latihan di kalangan shards dan dengan menggabungkan parameter dalam setiap pusingan (Cite-P-14-3-10).", "Antara pekerjaan selari, latihan adalah cekap dan mudah dilakukan dengan mengedarkan data latihan di kalangan shards dan dengan mencampurkan parameter dalam setiap Iterasi (Cite-P-14-3-10)."]}, {"en": ["We evaluate our methodology using intrinsic and Extrinsic measures.", "And evaluate our methodology using both intrinsic and Extrinsic measures."], "ms": ["Kami menilai metodologi kami menggunakan langkah-langkah intrinsik dan ekstrinsik.", "Dan menilai metodologi kami menggunakan kedua-dua langkah intrinsik dan ekstrinsik."]}, {"en": ["It is also observed that RCM might automatically measure the knowledge levels of words.", "Rcm might provide an automatic way to quantitatively measure the knowledge levels of words."], "ms": ["Ia juga diperhatikan bahawa RCM secara automatik boleh mengukur tahap pengetahuan perkataan.", "Rcm mungkin menyediakan cara automatik untuk mengukur tahap pengetahuan perkataan secara kuantitatif."]}, {"en": ["In this paper we model discussions in Online political Blogs.", "In this paper we attempt to deliver a framework useful for analyzing text in Blogs."], "ms": ["Dalam makalah ini kita memodelkan perbincangan dalam Blog politik Online.", "Dalam makalah ini, kami berusaha menyampaikan kerangka kerja yang berguna untuk menganalisis teks di Blog."]}, {"en": ["Individual word tokens in the utterances were further processed with the Porter Stemmer in the Nltk package.", "Each document was split into sentences using the Punkt sentence Tokenizer in Nltk."], "ms": ["Token perkataan individu dalam ucapan diproses lagi dengan Porter Stemmer dalam pakej Nltk.", "Setiap dokumen dibahagikan kepada ayat menggunakan Tokenizer ayat Punkt di Nltk."]}, {"en": ["To this end, we use automatically word aligned Bitext between the source and target language pair, and learn a Discriminative conditional random field model on the target side.", "In the source language, we infer constraints over the label distribution in the target language, and train a Discriminative model."], "ms": ["Untuk tujuan ini, kami menggunakan Bitext yang diselaraskan perkataan secara automatik antara pasangan bahasa sumber dan sasaran, dan mempelajari model medan rawak bersyarat Discriminative di sisi sasaran.", "Dalam bahasa sumber, kami menyimpulkan kekangan terhadap pengedaran label dalam bahasa sasaran, dan melatih model Diskriminatif."]}, {"en": ["This paper describes our participation in the task denominated Cross-Lingual textual Entailment (Clte) for content synchronization.", "We explained our participation in the new challenging task of Cross-Lingual textual Entailment (Clte) for content synchronization."], "ms": ["Kertas kerja ini menerangkan penyertaan kami dalam tugas yang dinamakan Cross-Lingual textual Entailment (Clte) untuk penyegerakan kandungan.", "Kami menjelaskan penyertaan kami dalam tugas baru yang mencabar Entailment teks Cross-Lingual (Clte) untuk penyegerakan kandungan."]}, {"en": ["We use a 5-Gram LM trained on the Spanish part of Europarl with the Srilm Toolkit.", "We used the Disambig tool provided by the Srilm Toolkit."], "ms": ["Kami menggunakan LM 5-Gram yang dilatih di bahagian Sepanyol Europarl dengan Srilm Toolkit.", "Kami menggunakan alat Disambig yang disediakan oleh Srilm Toolkit."]}, {"en": ["Supervised methods include hidden Markov model, maximum entropy, conditional random fields, and support vector machines.", "Supervised approaches include the Bayesian Classifier, maximum entropy, Skip-Chain Crf, Discriminative Reranking, among others."], "ms": ["Kaedah yang diawasi termasuk model Markov tersembunyi, entropi maksimum, medan rawak bersyarat, dan mesin vektor sokongan.", "Pendekatan yang diawasi termasuk Bayesian Classifier, entropi maksimum, Skip-Chain Crf, Discriminative Reranking, antara lain."]}, {"en": ["We use a conditional random field formalism to learn a model from labeled training data that can be applied to unseen data.", "To predict labels, we train conditional random fields, which are directly Optimized for splitting."], "ms": ["Kami menggunakan formalisme medan rawak bersyarat untuk mempelajari model dari data latihan berlabel yang boleh digunakan untuk data yang tidak kelihatan.", "Untuk meramalkan label, kami melatih medan rawak bersyarat, yang secara langsung Dioptimumkan untuk pemisahan."]}, {"en": ["In this work, we represent document with Convolutional-Gated recurrent neural network, which Adaptively Encodes Semantics of sentences and their relations.", "In this work, we develop neural models in a sequential way, and Encode sentence Semantics and their relations automatically."], "ms": ["Dalam karya ini, kami mewakili dokumen dengan rangkaian saraf berulang Convolutional-Gated, yang Mengkod Semantik ayat dan hubungan mereka secara Adaptively.", "Dalam kerja ini, kami membangunkan model saraf dengan cara berurutan, dan Mengkodkan Semantik ayat dan hubungan mereka secara automatik."]}, {"en": ["Our results experimentally confirm the theoretical assumption that a sufficiently detailed lexicon provides enough information to reliably predict the Aspectual value of verbs across their readings.", "On a set of manually Annotated verbal readings, we found that our lexicon provided enough information to reliably predict the Aspectual value of verbs across their readings."], "ms": ["Hasil eksperimen kami mengesahkan andaian teori bahawa leksikon yang cukup terperinci memberikan maklumat yang cukup untuk meramalkan nilai kata kerja secara pasti di seluruh pembacaan mereka.", "Pada satu set bacaan lisan Annotated secara manual, kami mendapati bahawa leksikon kami memberikan maklumat yang cukup untuk meramalkan nilai kata kerja secara pasti di seluruh bacaan mereka."]}, {"en": ["It consists of two parts: Multi-Channel CNN, and Lstm.", "That consists of two parts: Multi-Channel CNN and Lstm."], "ms": ["Ia terdiri daripada dua bahagian: CNN Multi-Channel, dan Lstm.", "Ia terdiri daripada dua bahagian: CNN Multi-Channel dan Lstm."]}, {"en": ["Kendall \u2019 s Math-W-11-5-2-1 can be easily used to evaluate the output of automatic systems, Irrespectively of the domain or application at hand.", "Kendall \u2019 s Math-W-2-5-2-97 as a performance measure for evaluating the output of Information-Ordering components."], "ms": ["Kendall Math-W-11-5-2-1 boleh digunakan dengan mudah untuk menilai output sistem automatik, tanpa mengira domain atau aplikasi di tangan.", "Kendall s Math-W-2-5-2-97 sebagai ukuran prestasi untuk menilai output komponen Maklumat-Penyelidikan."]}, {"en": ["In contrast, we present an automatic approach that Infers the general connotation of words.", "In this work, we assume the general connotation of each word over statistically prevailing senses."], "ms": ["Sebaliknya, kami membentangkan pendekatan automatik yang menyimpulkan konotasi umum perkataan.", "Dalam kerja ini, kita menganggap konotasi umum setiap perkataan melebihi deria yang berlaku secara statistik."]}, {"en": ["We have also shown that these paraphrases can be used to obtain high precision extraction patterns for information extraction.", "With this result, we further show that these paraphrases can be used to obtain high precision surface patterns."], "ms": ["Kami juga telah menunjukkan bahawa parafrasa ini boleh digunakan untuk mendapatkan corak pengekstrakan ketepatan tinggi untuk pengekstrakan maklumat.", "Dengan hasil ini, kami menunjukkan bahawa parafrasa ini boleh digunakan untuk mendapatkan corak permukaan ketepatan tinggi."]}, {"en": ["One uses confusion networks formed along a skeleton sentence to combine translation systems as described in and.", "One uses confusion network decoding to combine translation systems as described in and."], "ms": ["Satu menggunakan rangkaian kekeliruan yang terbentuk di sepanjang ayat rangka untuk menggabungkan sistem terjemahan seperti yang diterangkan dalam dan.", "Satu menggunakan penyahkodan rangkaian kekeliruan untuk menggabungkan sistem terjemahan seperti yang diterangkan dalam dan."]}, {"en": ["A CNN is a Feedforward network with Convolution layers Interleaved with pooling layers.", "Cnn is a neural network that can make use of the internal structure of data such as the 2d structure of image data through Convolution layers, where each computation unit responds to a small region of input data (E.G ., a small square of a large image)."], "ms": ["CNN adalah rangkaian Feedforward dengan lapisan Convolution Interleaved dengan lapisan pooling.", "Cnn adalah rangkaian neural yang boleh menggunakan struktur dalaman data seperti struktur 2d data imej melalui lapisan Konvolusi, di mana setiap unit pengiraan bertindak balas kepada rantau kecil data input (E.G., persegi kecil imej besar)."]}, {"en": ["English-German, English-French and Chinese-To-English translation tasks.", "Englishgerman, English-French and Chinese-To-English translation tasks."], "ms": ["Tugas terjemahan Bahasa Inggeris-Jerman, Bahasa Inggeris-Perancis dan Bahasa Cina-Ke-Inggeris.", "Bahasa Inggeris, Bahasa Inggeris-Perancis dan tugas terjemahan Bahasa Cina-Ke-Inggeris."]}, {"en": ["We achieved a macro F1 score of 32.73% for the English data and 17.98% for the Spanish data.", "Our macro F1 score were 32 . 73% and 17 . 98% for our English data and Spanish data."], "ms": ["Kami mencapai skor makro F1 32.73% untuk data Bahasa Inggeris dan 17.98% untuk data Sepanyol.", "Skor makro F1 kami adalah 32.73% dan 17.98% untuk data Bahasa Inggeris dan Sepanyol kami."]}, {"en": ["All models used the Sbieon Encoding to support the recognition of Non-Continuous entities.", "To be able to recognize Non-Continuous entities, an Sbieon Encoding was used."], "ms": ["Semua model menggunakan Sbieon Encoding untuk menyokong pengiktirafan entiti Bukan Berterusan.", "Untuk mengenali entiti Bukan Berterusan, pengekodan Sbieon digunakan."]}, {"en": ["Such a model is extended from a Graph-Based model for dependency Parsing.", "This approach is similar to previous structure learning Modelings for dependency Parsing."], "ms": ["Model sedemikian diperluaskan dari model Berasaskan Grafik untuk Penghuraian dependensi.", "Pendekatan ini serupa dengan Model pembelajaran struktur terdahulu untuk Penghuraian dependensi."]}, {"en": ["We use the Unigrams and Bigrams to represent lexical features, and the Stanford Partof-Speech Tagger to extract the Lexicalized named entity and Part-Of-Speech features.", "We also extract Subject-Verbobject event representations, using the Stanford Partof-Speech Tagger and Maltparser."], "ms": ["Kami menggunakan Unigrams dan Bigrams untuk mewakili ciri-ciri leksikal, dan Stanford Partof-Speech Tagger untuk mengekstrak entiti bernama Lexicalized dan ciri-ciri Part-Of-Speech.", "Kami juga mengekstrak perwakilan acara Subjek-Verbobject, menggunakan Stanford Partof-Speech Tagger dan Maltparser."]}, {"en": ["Not surprisingly, the ensemble system performs the best, obtaining a weighted Pearson correlation of 0.738.", "However, the ensemble system is able to effectively leverage this higher prediction, producing a prediction of 1 . 76, which is the most accurate."], "ms": ["Tidak menghairankan, sistem ensemble melakukan yang terbaik, memperoleh korelasi Pearson berwajaran 0.738.", "Walau bagaimanapun, sistem ensemble dapat memanfaatkan ramalan yang lebih tinggi ini dengan berkesan, menghasilkan ramalan 1.76, yang paling tepat."]}, {"en": ["Zhang and Clark improve this model by using both character and Word-Based decoding.", "Zhang and Clark proposed a Word-Based model using Perceptron."], "ms": ["Zhang dan Clark memperbaiki model ini dengan menggunakan kedua-dua watak dan penyahkodan berasaskan perkataan.", "Zhang dan Clark mencadangkan model berasaskan perkataan menggunakan Perceptron."]}, {"en": ["Trigram language models are implemented using the Srilm Toolkit.", "The language model is trained and applied with the Srilm Toolkit."], "ms": ["Model bahasa Trigram dilaksanakan menggunakan Srilm Toolkit.", "Model bahasa dilatih dan digunakan dengan Srilm Toolkit."]}, {"en": ["Experimental results show that our model yields high quality poems compared to the state of the art.", "Experimental results show that our model Outperforms competitive Chinese poetry generation systems."], "ms": ["Hasil eksperimen menunjukkan bahawa model kami menghasilkan puisi berkualiti tinggi berbanding dengan keadaan seni.", "Hasil eksperimen menunjukkan bahawa model kami Melaksanakan sistem penjanaan puisi Cina yang kompetitif."]}, {"en": ["Mikolov et al attempt different dimensions of word Embedding for the source language and the target language to achieve the best translation quality.", "In Mikolov et al, the authors are able to successfully learn word translations using linear transformations between the source and target word Vector-Spaces."], "ms": ["Mikolov et al mencuba dimensi yang berbeza dari perkataan Embedding untuk bahasa sumber dan bahasa sasaran untuk mencapai kualiti terjemahan terbaik.", "Dalam Mikolov et al, penulis dapat mempelajari terjemahan perkataan dengan jayanya menggunakan transformasi linear antara sumber dan kata sasaran Vector-Spaces."]}, {"en": ["As their published state-of-the-art result described in, their Attention-Based model is based on Word-Level Embeddings.", "The current state-of-the-art result on Atis is an attention based Bidirectional Lstm model."], "ms": ["Seperti yang dinyatakan dalam hasil canggih mereka yang diterbitkan, model Berasaskan Perhatian mereka berdasarkan Embeddings Tahap-Word.", "Hasil terkini pada Atis adalah model Lstm Bidirectional berasaskan perhatian."]}, {"en": ["Wang et al 2016 built on this framework and introduced attention mechanism for generating these Sentential features.", "Wang et al, proposed an attention based Lstm which introduced the aspect clues by Concatenating the aspect Embeddings and the word representations."], "ms": ["Wang et al 2016 dibina di atas kerangka ini dan memperkenalkan mekanisme perhatian untuk menghasilkan ciri-ciri Sentential ini.", "Wang et al, mencadangkan perhatian berasaskan Lstm yang memperkenalkan petunjuk aspek dengan Menggabungkan Embedding aspek dan perwakilan perkataan."]}, {"en": ["Murphy, Liu, sun, and Wu, Topkara, Topkara, and Atallah, Meral et al, Murphy and Vogel, and Meral et al all belong to this syntactic transformation category.", "Liu et al, Meral et al, Murphy, Murphy and Vogel and Topkara et al all belong to the syntactic transformation category."], "ms": ["Murphy, Liu, matahari, dan Wu, Topkara, Topkara, dan Atallah, Meral et al, Murphy dan Vogel, dan Meral et al semuanya tergolong dalam kategori transformasi sintaktik ini.", "Liu et al, Meral et al, Murphy, Murphy dan Vogel serta Topkara et al semuanya tergolong dalam kategori transformasi sintaktik."]}, {"en": ["Ccgbank was created by Semiautomatically converting the Penn Treebank to Ccg derivations.", "This data was created by Semi-Automatically converting the Penn Treebank to Ccg derivations."], "ms": ["Ccgbank dicipta oleh Semiautomatik menukar Penn Treebank kepada Ccg derivations.", "Data ini dicipta oleh Semi-Automatik menukar Penn Treebank ke Ccg terbitan."]}, {"en": ["Previous work that generate surveys of scientific topics use the text of citation sentences alone.", "Previous work has used citations to produce summaries of scientific work."], "ms": ["Kerja terdahulu yang menghasilkan kaji selidik topik saintifik menggunakan teks ayat petikan sahaja.", "Kerja-kerja terdahulu telah menggunakan petikan untuk menghasilkan ringkasan kerja saintifik."]}, {"en": ["Shook in our example, extracted following the Head-Finding strategy by Yamada and Matsumoto, while feature is a Boolean feature that indicates for each token if it is the main verb in the sentence or not.", "More specifically, feature is the main verb token, extracted following the Head-Finding strategy by Yamada and Matsumoto, while feature is a Boolean feature that indicates for each token if it is the main verb in the sentence or not."], "ms": ["Shook dalam contoh kami, diekstrak mengikut strategi Head-Finding oleh Yamada dan Matsumoto, sementara ciri adalah ciri Boolean yang menunjukkan untuk setiap token jika ia adalah kata kerja utama dalam ayat atau tidak.", "Lebih khusus lagi, ciri adalah token kata kerja utama, diekstrak mengikut strategi Head-Finding oleh Yamada dan Matsumoto, manakala ciri adalah ciri Boolean yang menunjukkan untuk setiap token jika ia adalah kata kerja utama dalam ayat atau tidak."]}, {"en": ["The proposed method can also be used in the traditional Within-Domain problem with some simplifications.", "With simplification, this method can be used in the traditional Within-Domain case."], "ms": ["Kaedah yang dicadangkan juga boleh digunakan dalam masalah Within-Domain tradisional dengan beberapa penyederhanaan.", "Dengan penyederhanaan, kaedah ini boleh digunakan dalam kes Within-Domain tradisional."]}, {"en": ["In experiments using the Chinese Treebank (Ctb), we show that the Accuracies of the three tasks can be improved significantly over the baseline models, particularly by 0.6% for Pos tagging and 2.4% for dependency Parsing.", "We perform experiments using the Chinese Treebank (Ctb) Corpora, demonstrating that the Accuracies of the three tasks can be improved significantly over the pipeline."], "ms": ["Dalam eksperimen menggunakan Chinese Treebank (Ctb), kami menunjukkan bahawa Ketepatan tiga tugas dapat ditingkatkan dengan ketara berbanding model asas, terutamanya dengan 0.6% untuk penandaan Pos dan 2.4% untuk Penggantungan dependensi.", "Kami melakukan eksperimen menggunakan Chinese Treebank (Ctb) Corpora, menunjukkan bahawa Ketepatan tiga tugas dapat ditingkatkan dengan ketara melalui saluran paip."]}, {"en": ["We use the Europarl parallel corpus as the basis for our small-scale Cross-Lingual experiments.", "We use the Europarl corpus in our experiments because our ultimate goal is to apply the Analogy-Based Ebmt method to this kind of data."], "ms": ["Kami menggunakan korpus selari Europarl sebagai asas untuk eksperimen Cross-Lingual berskala kecil kami.", "Kami menggunakan korpus Europarl dalam eksperimen kami kerana matlamat utama kami adalah untuk menggunakan kaedah Ebmt Berasaskan Analogi untuk data jenis ini."]}, {"en": ["Urdu is the National language of Pakistan and one of the official languages of India.", "Urdu is the National language of Pakistan, and also one of the state languages in India, and is written in Perso-Arabic script."], "ms": ["Urdu adalah bahasa kebangsaan Pakistan dan salah satu bahasa rasmi India.", "Urdu ialah bahasa Kebangsaan Pakistan, dan juga salah satu bahasa negeri di India, dan ditulis dalam skrip Perso-Arab."]}, {"en": ["Hasegawa et al tried to extract multiple relations by choosing entity types.", "Hasegawa et al propose an approach that discovers relations between two named entity types."], "ms": ["Hasegawa et al cuba mengekstrak pelbagai hubungan dengan memilih jenis entiti.", "Hasegawa et al mencadangkan pendekatan yang menemui hubungan antara dua jenis entiti yang dinamakan."]}, {"en": ["In this paper, we present an initial set of experiments on Englishto-Arabic Smt.", "In this paper, we report on a set of initial results for Englishto-Arabic."], "ms": ["Dalam makalah ini, kami membentangkan satu set eksperimen awal mengenai Bahasa Inggeris-Arab Smt.", "Dalam kertas ini, kami melaporkan satu set keputusan awal untuk Bahasa Inggeris-Arab."]}, {"en": ["Our models are similar to several other approaches.", "This type of model is closely related to several other approaches."], "ms": ["Model kami serupa dengan beberapa pendekatan lain.", "Model jenis ini berkait rapat dengan beberapa pendekatan lain."]}, {"en": ["Bwe of 512 dimensions were obtained using word Embeddings trained with Fasttext 9 and aligned in the same space using Unsupervised Vecmap 10 for this induction.", "For this induction, bilingual word Embeddings of 512 dimensions were obtained using word Embeddings trained with Fasttext 5 and aligned in the same space using Unsupervised Vecmap."], "ms": ["Bwe dari 512 dimensi diperolehi menggunakan perkataan Embeddings dilatih dengan Fasttext 9 dan sejajar dalam ruang yang sama menggunakan Vecmap 10 Unsupervised untuk induksi ini.", "Untuk induksi ini, Embedding kata dwibahasa 512 dimensi diperolehi menggunakan Embedding kata yang dilatih dengan Fasttext 5 dan diselaraskan dalam ruang yang sama menggunakan Vecmap Unsupervised."]}, {"en": ["Semi-Supervised learning (Ssl) is a machine learning (ml) approach that utilizes large amounts of Unlabeled data, combined with a smaller amount of labeled data, to learn a target function (Cite-P-23-1-15, Cite-P-23-1-2).", "Semi-Supervised learning (Ssl) is the use of small amounts of labeled data with relatively large amounts of Unlabeled data to train predictors."], "ms": ["Semi-Supervised Learning (Ssl) adalah pendekatan pembelajaran mesin (ml) yang menggunakan sejumlah besar data Unlabeled, digabungkan dengan jumlah data yang lebih kecil yang dilabel, untuk mempelajari fungsi sasaran (Cite-P-23-1-15, Cite-P-23-1-2).", "Pembelajaran Semi-Supervised (Ssl) adalah penggunaan sejumlah kecil data berlabel dengan jumlah data Unlabeled yang agak besar untuk melatih peramal."]}]