ms
sequence
en
sequence
[ "Tweets itu Tokenized dan Part-Ofspeech ditandai dengan alat Cmu Ark Twitter Nlp dan Stanford Corenlp.", "Untuk semua kaedah, Tweets Tokenized dengan alat Cmu Twitter Nlp." ]
[ "The Tweets were Tokenized and Part-Ofspeech tagged with the Cmu Ark Twitter Nlp tool and Stanford Corenlp.", "For all methods, the Tweets were Tokenized with the Cmu Twitter Nlp tool." ]
[ "Sebagai contoh, Nederhof et al menunjukkan bahawa kebarangkalian awalan, dan oleh itu Surprisal, boleh dianggarkan dari pokok bersebelahan Grammars.", "Ia ditunjukkan oleh Nederhof et al bahawa Kebarangkalian Awalan juga dapat dikira dengan berkesan untuk pokok probabilistik yang bersebelahan dengan Grammar." ]
[ "Nederhof et al, for instance, show that Prefix probabilities, and therefore Surprisal, can be estimated from tree adjoining Grammars.", "It was shown by Nederhof et al that Prefix probabilities can also be effectively computed for probabilistic tree adjoining Grammars." ]
[ "Pertama, Kikuchi et al cuba mengawal panjang ayat yang dihasilkan oleh model Encoder-Decoder dalam tugas ringkasan teks.", "Pertama, Kikuchi et al mencadangkan rangkaian ingatan jangka pendek yang baru untuk mengawal panjang ayat yang dihasilkan oleh model Encoder-Decoder dalam tugas ringkasan teks." ]
[ "First, Kikuchi et al tried to control the length of the sentence generated by an Encoder-Decoder model in a text summarization task.", "First, Kikuchi et al proposed a new long short-term memory network to control the length of the sentence generated by an Encoder-Decoder model in a text summarization task." ]
[ "Kerumitan dikuasai oleh perkataan pembinaan rangkaian kekeliruan dan Parsing.", "Dengan rangkaian kekeliruan perkataan meningkatkan lagi prestasi." ]
[ "The complexity is dominated by the word confusion network construction and Parsing.", "With word confusion networks further improves performance." ]
[ "Fofe boleh memodelkan susunan perkataan dalam urutan menggunakan mekanisme Ordinal-Forgetting yang mudah mengikut kedudukan perkataan.", "Fofe boleh memodelkan susunan perkataan dalam urutan berdasarkan mekanisme Ordinal-Forgetting yang mudah, yang menggunakan kedudukan setiap perkataan dalam urutan." ]
[ "Fofe can model the word order in a sequence using a simple Ordinally-Forgetting mechanism according to the positions of words.", "Fofe can model the word order in a sequence based on a simple Ordinally-Forgetting mechanism, which uses the position of each word in the sequence." ]
[ "Kami mendapati bahawa prestasi bertambah baik dengan stabil kerana bilangan bahasa yang tersedia meningkat.", "Kami telah menunjukkan bahawa manfaat pembelajaran Multilingual Unsupervised meningkat dengan stabil dengan bilangan bahasa yang ada." ]
[ "We found that performance improves steadily as the number of available languages increases.", "We ’ ve demonstrated that the benefits of Unsupervised Multilingual learning increase steadily with the number of available languages." ]
[ "Penghuraian Dependensi adalah cara menganalisis secara struktur ayat dari sudut pandangan pengubahsuaian.", "Penghuraian Dependensi terdiri daripada mencari struktur ayat seperti yang dinyatakan oleh satu set pautan terarah (Bergantung) antara perkataan." ]
[ "Dependency Parsing is a way of structurally analyzing a sentence from the viewpoint of modification.", "Dependency Parsing consists of finding the structure of a sentence as expressed by a set of directed links (Dependencies) between words." ]
[ "Untuk setiap tugas, kami menyediakan latihan, pembangunan, dan ujian Dataset untuk Tweet Bahasa Inggeris, Arab, dan Sepanyol.", "Untuk setiap tugas, kami menyediakan latihan, pembangunan, dan ujian Dataset berasingan untuk Tweet Bahasa Inggeris, Arab, dan Sepanyol." ]
[ "For each task, we provided training, development, and test Datasets for English, Arabic, and Spanish Tweets.", "For each task, we provide separate training, development, and test Datasets for English, Arabic, and Spanish Tweets." ]
[ "Model bahasa 5-Gram dengan smoothing Kneser-Ney dilatih dengan Srilm pada data Bahasa Inggeris Monolingual.", "Model bahasa 3-Gram dilatih dari sisi sasaran data latihan untuk bahasa Cina dan Arab, menggunakan Srilm Toolkit." ]
[ "A 5-Gram language model with Kneser-Ney smoothing was trained with Srilm on Monolingual English data.", "A 3-Gram language model was trained from the target side of the training data for Chinese and Arabic, using the Srilm Toolkit." ]
[ "Kami menambah ciri jenis 0E (dengan P (0E) = {0}) C. = {(Subj, 0), <N, 0), <V, 0), <Comp,0), (bar, 0), dan jenis 1Pengganti ciri sistem dan... <AGR, 1), <slash, 1) } gunakan ini untuk membina set indeks.", "C. = {(Subj, 0), <N, 0), <V, 0), <COMP, 0), (bar, 0), dan jenis 1Pengganti ciri sistem dan... <AGR, 1), <slash, 1) }." ]
[ "We add a type 0 feature 0E (with P (0E) = {0} ) C. ~= {( Subj , 0), <N , 0), <V , 0), <Comp,0), (bar , 0), and a type 1Feature successor to the feature system and...<AGR , 1), <slash , 1) } use this to build the set of indices.", "C . ~ = {( Subj , 0), <N , 0), <V , 0), <COMP , 0), (bar , 0), and a type 1Feature successor to the feature system and . . . <AGR , 1), <slash , 1) }." ]
[ "Tugas Normalisasi masa penghuraian adalah usaha pertama untuk memanjangkan Normalisasi masa kepada ungkapan masa yang lebih kaya dan lebih kompleks.", "Tugas yang dikongsi adalah pendekatan baru untuk Normalisasi masa berdasarkan Annotasi komposisi secara semantik ungkapan masa." ]
[ "The Parsing time Normalization task is the first effort to extend time Normalization to richer and more complex time expressions.", "Shared task is a new approach to time Normalization based on the semantically compositional Annotation of time expressions." ]
[ "Kami menggunakan model Word2Vec Cbow dengan saiz tetingkap 5 dan frekuensi minimum 5 untuk menghasilkan vektor 200-Dimensional.", "Kami memperoleh vektor perkataan 100 dimensi menggunakan model Skip-Gram Word2Vec yang dilatih melalui korpus domain." ]
[ "We use the Word2Vec Cbow model with a window size of 5 and a minimum frequency of 5 to generate 200-Dimensional vectors.", "We derive 100-Dimensional word vectors using Word2Vec Skip-Gram model trained over the domain corpus." ]
[ "Sebaliknya, model bahasa sintaktik boleh menjadi lebih perlahan untuk melatih kerana ciri-ciri yang kaya.", "Model bahasa sintaktik boleh menjadi lambat untuk dilatih." ]
[ "In contrast, syntactic language models can be much slower to train due to rich features.", "Syntactic language models can become Intolerantly slow to train." ]
[ "Peraturan pembelajaran ialah Adam dengan parameter piawai.", "Peraturan pembelajaran adalah Adam dengan parameter Tensorflow lalai." ]
[ "The learning rule was Adam with standard parameters.", "The learning rule was Adam with default Tensorflow parameters." ]
[ "Kami memperoleh vektor perkataan 100 dimensi menggunakan model Skip-Gram Word2Vec yang dilatih melalui korpus domain.", "Kami memasukkan semua perkataan dan watak ke dalam vektor Nilai Nyata Rendah Dimensional yang boleh dipelajari oleh model bahasa." ]
[ "We derive 100-Dimensional word vectors using Word2Vec Skip-Gram model trained over the domain corpus.", "We Embed all words and characters into Low-Dimensional Real-Value vectors which can be learned by language model." ]
[ "Pengetahuan semantik diwakili dalam bentuk yang sangat terperinci (Word_Sense Pragmatics).", "Pengetahuan semantik (E. G. Word-Senses) telah ditakrifkan di pusat saintifik IBM." ]
[ "Semantic knowledge is represented in a very detailed form (Word_Sense Pragmatics).", "Semantic knowledge (E . G . Word-Senses) has been defined at the IBM scientific center." ]
[ "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Kami menggunakan sisi sasaran korpus selari dan Srilm Toolkit untuk melatih model bahasa 5-Gram." ]
[ "We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "We used the target side of the parallel corpus and the Srilm Toolkit to train a 5-Gram language model." ]
[ "Untuk mendapatkan ini, kami melaksanakan pemotongan Min-Max yang dicadangkan oleh Ding et al, yang merupakan kaedah pengelompokan spektrum.", "Untuk mendapatkan ini, kami menggunakan Mcut yang dicadangkan oleh Ding et al yang merupakan sejenis kluster spektrum." ]
[ "To obtain this, we perform Min-Max cut proposed by Ding et al, which is a spectral clustering method.", "To obtain this, we used Mcut proposed by Ding et al which is a type of spectral clustering." ]
[ "Penandaan Part-Of-Speech adalah proses utama untuk pelbagai tugas seperti `pengekstrak maklumat, sintesis Teks-Ke-Speech, Disambiguasi deria perkataan dan terjemahan mesin.", "Penandaan Part-Of-Speech adalah proses awal yang penting dalam banyak aplikasi pemprosesan bahasa semula jadi." ]
[ "Part-Of-Speech tagging is a key process for various tasks such as ` information extraction, Text-To-Speech synthesis, word sense Disambiguation and machine translation.", "Part-Of-Speech tagging is a crucial preliminary process in many natural language processing applications." ]
[ "Pengekstrakan maklumat (Ie) adalah proses mencari entiti yang berkaitan dan hubungan mereka dalam dokumen teks.", "Pengekstrakan maklumat (Ie) adalah aspek utama Nlp untuk menganalisis kertas saintifik, yang merangkumi pengiktirafan entiti bernama (NER) dan pengekstrakan hubungan (re)." ]
[ "Information extraction (Ie) is the process of finding relevant entities and their relationships within textual documents.", "Information extraction (Ie) is a main Nlp aspects for analyzing scientific papers, which includes named entity recognition (NER) and relation extraction (re)." ]
[ "Kami menggunakan Case-Insensitive Bleu-4 sebagai metrik penilaian.", "Semua sistem dinilai menggunakan Case-Insensitive BLEU." ]
[ "We adopted the Case-Insensitive Bleu-4 as the evaluation metric.", "All systems are evaluated using Case-Insensitive BLEU." ]
[ "Captioning imej automatik adalah topik yang banyak dikaji dalam kedua-dua bidang pemprosesan bahasa semula jadi (Nlp) dan penglihatan komputer (CV) penyelidikan.", "Tangkapan imej automatik adalah tugas asas yang menggabungkan pembelajaran visual dan linguistik." ]
[ "Automatic image Captioning is a much studied topic in both the natural language processing (Nlp) and computer vision (CV) areas of research.", "Automatic image Captioning is a fundamental task that couples visual and linguistic learning." ]
[ "Tugas-tugas dikongsi Conll baru-baru ini telah memberi tumpuan kepada penghuraian dependensi semantik bersama dengan penghuraian dependensi sintaktik tradisional.", "Khususnya, tugas-tugas bersama Conll 2008 menangani Penghuraian bersama sintaksis dan semantik Dependencies." ]
[ "The recent Conll shared tasks have been focusing on semantic dependency Parsing along with the traditional syntactic dependency Parsing.", "In particular, the recent shared tasks of Conll 2008 tackled joint Parsing of syntactic and semantic Dependencies." ]
[ "Medan rawak bersyarat adalah model grafik Tidak Tertib Tertib yang mendapati pelabelan optimum global untuk konfigurasi pemboleh ubah rawak yang diberikan.", "Medan rawak bersyarat adalah model grafik tidak diarahkan yang dilatih untuk memaksimumkan kebarangkalian bersyarat output yang dikehendaki diberikan input yang sepadan." ]
[ "Conditional random fields are Discriminatively-Trained Undirected graphical models that find the globally optimal labeling for a given configuration of random variables.", "Conditional random fields are Undirected graphical models trained to maximize the conditional probability of the desired outputs given the corresponding inputs." ]
[ "Model bahasa 5-Gram dicipta dengan Toolkit pemodelan bahasa Sri dan dilatih menggunakan Gigaword corpus dan ayat bahasa Inggeris dari data selari.", "Selain itu, model Back-Off 2-Gram dengan diskaun Goodturing dan tiada kelas leksikal dibina daripada data latihan yang sama, menggunakan Srilm Toolkit." ]
[ "A 5-Gram language model was created with the Sri language modeling Toolkit and trained using the Gigaword corpus and English sentences from the parallel data.", "Additionally, a Back-Off 2-Gram model with Goodturing discounting and no lexical classes was built from the same training data, using the Srilm Toolkit." ]
[ "Johnson dan Charniak (2004) mencadangkan model saluran bising berasaskan Tag untuk pengesanan Nyaman.", "Johnson dan Charniak mencadangkan model saluran bising berasaskan Tag, yang menunjukkan peningkatan yang besar berbanding Boosting-Based Classifier." ]
[ "Johnson and Charniak , 2004) proposed a Tag-Based noisy channel model for Disfluency detection.", "Johnson and Charniak proposed a Tag-Based noisy channel model, which showed great improvement over a Boosting-Based Classifier." ]
[ "Seperti yang dilaporkan sebelum ini, seseorang boleh menyatakan pendirian yang sama terhadap sasaran dengan menggunakan bahasa negatif atau positif.", "Ini juga selaras dengan apa yang telah diperhatikan sebelum ini bahawa seseorang boleh menyatakan pendirian yang sama terhadap sasaran dengan menggunakan bahasa negatif atau positif." ]
[ "As previously reported in, a person may express the same stance towards a target by using negative or positive language.", "This is also in line with what has been previously observed in that a person may express the same stance towards a target by using negative or positive language." ]
[ "Pengekstrakan hubungan adalah tugas asas dalam pengekstrakan maklumat.", "Pengekstrakan hubungan (re) adalah tugas untuk mengenal pasti hubungan yang ditaip antara sebutan entiti yang diketahui dalam ayat." ]
[ "Relation extraction is a fundamental task in information extraction.", "Relation extraction (re) is a task of identifying typed relations between known entity mentions in a sentence." ]
[ "Perbezaan semantik adalah hubungan Ternary antara dua konsep (epal, pisang) dan ciri Diskriminatif (merah) yang mencirikan konsep pertama tetapi bukan yang lain.", "Perbezaan semantik adalah hubungan Ternary antara dua konsep (epal, pisang) dan atribut Diskriminatif (merah) yang mencirikan konsep pertama tetapi bukan yang lain." ]
[ "Semantic difference is a Ternary relation between two concepts (apple, banana) and a Discriminative feature (red) that characterizes the first concept but not the other.", "Semantic difference is a Ternary relation between two concepts (apple, banana) and a Discriminative attribute (red) that characterizes the first concept but not the other." ]
[ "Ding dan Palmer memperkenalkan tanggapan tatabahasa pemasukan dependensi yang bersinkron sebagai tatabahasa penggantian pokok yang ditakrifkan pada pokok dependensi.", "Ding dan Palmer mencadangkan model terjemahan berasaskan Syntax berdasarkan tatabahasa sisipan dependensi bersegerak probabilistik, versi tatabahasa bersegerak yang ditakrifkan pada pokok dependensi." ]
[ "Ding and Palmer introduce the notion of a synchronous dependency insertion grammar as a tree substitution grammar defined on dependency trees.", "Ding and Palmer propose a Syntax-Based translation model based on a probabilistic synchronous dependency insert grammar, a version of synchronous Grammars defined on dependency trees." ]
[ "Klasifikasi sentimen adalah tugas untuk meramalkan label sentimen, seperti Positif / Negatif, untuk teks tertentu dan telah digunakan untuk banyak domain seperti ulasan Filem / Produk, tinjauan pelanggan, komen berita, dan media sosial.", "Klasifikasi sentimen adalah masalah yang sangat Domain-Specific; melatih pengelas menggunakan data dari satu domain mungkin gagal apabila menguji terhadap data dari domain lain." ]
[ "Sentiment classification is a task to predict a sentiment label, such as Positive/Negative, for a given text and has been applied to many domains such as Movie/Product reviews, customer surveys, news comments, and social media.", "Sentiment classification is a very Domain-Specific problem; training a Classifier using the data from one domain may fail when testing against data from another." ]
[ "Bansal et al menunjukkan bahawa konteks Deps lebih baik daripada konteks linear pada tugas Parsing.", "Bansal et al menunjukkan manfaat Embeddings Konteks Terubahsuai dalam tugas Penghuraian dependensi." ]
[ "Bansal et al show that Deps context is preferable to linear context on Parsing task.", "Bansal et al show the benefits of such Modified-Context Embeddings in dependency Parsing task." ]
[ "Yang lain mendapati mereka berguna dalam Parsing dan tugas lain.", "Mereka telah berguna sebagai ciri dalam banyak tugas Nlp." ]
[ "Others have found them useful in Parsing and other tasks.", "They have been useful as features in many Nlp tasks." ]
[ "Lebih konkrit, Faruqui dan Dyer menggunakan analisis korelasi Canonical untuk memproyeksikan perkataan Embeddings dalam kedua-dua bahasa ke ruang vektor yang dikongsi.", "Sebagai contoh, Faruqui dan Dyer menggunakan analisis komponen Canonical untuk menyelaraskan dua ruang Embedding." ]
[ "More concretely, Faruqui and Dyer use Canonical correlation analysis to project the word Embeddings in both languages to a shared vector space.", "For example, Faruqui and Dyer use Canonical component analysis to align the two Embedding spaces." ]
[ "Latihan kadar ralat minimum digunakan untuk menyesuaikan berat ciri.", "Berat gabungan Log-Lineal telah dioptimumkan menggunakan Mert." ]
[ "The minimum error rate training was used to tune the feature weights.", "The Log-Lineal combination weights were Optimized using Mert." ]
[ "Kami memodelkan urutan tag morfologi menggunakan Marmot, Crf Pesanan Tinggi yang dipangkas.", "Kami melatih model Crf Secondorder menggunakan Marmot, pelaksanaan Crf Higher-Order yang cekap." ]
[ "We model the sequence of morphological tags using Marmot, a pruned Higher-Order Crf.", "We train a Secondorder Crf model using Marmot, an efficient Higher-Order Crf implementation." ]
[ "Penjajahan perkataan adalah masalah asas dalam terjemahan mesin statistik.", "Penjajahan perkataan adalah proses mengenal pasti pautan Wordto-Word antara ayat selari." ]
[ "Word alignment is a fundamental problem in statistical machine translation.", "Word alignment is the process of identifying Wordto-Word links between parallel sentences." ]
[ "Analisis sentimen adalah kawasan yang banyak dikaji yang berkaitan dengan pengenalan pendapat positif, negatif dan neutral dalam teks.", "Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-3-0) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B)." ]
[ "Sentiment analysis is a Much-Researched area that deals with identification of positive, negative and neutral opinions in text.", "Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-3-0) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B)." ]
[ "Kami menggunakan vektor Pra-Trained dari sarung tangan untuk Embeddings Peringkat Perkataan.", "Kami menggunakan Embedding sarung tangan Pra-Trained untuk mewakili perkataan." ]
[ "We use Pre-Trained vectors from glove for Word-Level Embeddings.", "We use Pre-Trained glove Embeddings to represent the words." ]
[ "Memandangkan banyak ironi dalam Tweets adalah sindiran, melihat beberapa ciri ini mungkin berguna.", "Oleh itu, dalam kebanyakan kes ironi, ciri-ciri sedemikian akan berguna untuk pengesanan." ]
[ "Given much of the irony in Tweets is sarcasm, looking at some of these features may be useful.", "So in most cases of irony, such features will be useful for detection." ]
[ "Dalam kerja ini, kami mengambil pendekatan yang lebih langsung dan merawat jenis perkataan dan tag Pos yang dibenarkan sebagai elemen utama model.", "Itu menganggap jenis perkataan dan tag Pos yang dibenarkan sebagai elemen utama model." ]
[ "In this work, we take a more direct approach and treat a word type and its allowed Pos tags as a primary element of the model.", "That considers a word type and its allowed Pos tags as a primary element of the model." ]
[ "Khususnya, kami menggunakan Wordsim353, Dataset penanda aras, yang terdiri daripada penilaian berkaitan untuk pasangan kata 353.", "Kami menggunakan Wordsim-353, yang mengandungi 353 pasangan perkataan Inggeris dengan penilaian persamaan manusia." ]
[ "Specifically, we used Wordsim353, a benchmark Dataset, consisting of relatedness judgments for 353 word pairs.", "We use Wordsim-353, which contains 353 English word pairs with human similarity ratings." ]
[ "Berbeza dengan membandingkan kata nama kepala secara langsung, McCarthy sebaliknya membandingkan pilihan Pemilihan untuk setiap dua slot.", "Mccarthy sebaliknya membandingkan dua profil semantik dalam Wordnet yang mengandungi konsep yang sepadan dengan kata nama dari kedua-dua kedudukan hujah." ]
[ "In contrast to comparing head nouns directly, McCarthy instead compares the Selectional preferences for each of the two slots.", "Mccarthy instead compares two semantic profiles in Wordnet that contain the concepts corresponding to the nouns from the two argument positions." ]
[ "Kami menggunakan sarung tangan Embeddings perkataan Pra-Latih untuk vektor perkataan kandungan.", "Embedding perkataan Pra-Latihan 50 Dimensional disediakan oleh sarung tangan, yang ditetapkan semasa latihan model kami." ]
[ "We use the glove Pre-Trained word Embeddings for the vectors of the content words.", "The 50-Dimensional Pre-Trained word Embeddings are provided by glove, which are fixed during our model training." ]
[ "Mann dan Yarowsky menggunakan maklumat semantik yang diekstrak daripada dokumen yang merujuk kepada orang sasaran dalam algoritma kluster Hierarki Agglomerative.", "Mann dan Yarowsky menggunakan maklumat semantik yang diekstrak daripada dokumen untuk memaklumkan algoritma kluster Agglomeratif Hierarki." ]
[ "Mann and Yarowsky used semantic information extracted from documents referring to the target person in an Hierarchical Agglomerative clustering algorithm.", "Mann and Yarowsky use semantic information that is extracted from documents to inform a Hierarchical Agglomerative clustering algorithm." ]
[ "Twitter adalah perkhidmatan rangkaian sosial yang terkenal yang membolehkan pengguna untuk menyiarkan kemas kini status 140 aksara pendek yang dipanggil \"Tweet\".", "Twitter adalah laman web Micro Blogging yang sangat popular." ]
[ "Twitter is a well-known social network service that allows users to post short 140 character status update which is called β€œ Tweet ”.", "Twitter is a very popular Micro Blogging site." ]
[ "Berat parameter dioptimumkan dengan latihan kadar ralat minimum.", "Berat ciri ditala untuk mengoptimumkan BLEU menggunakan algoritma latihan kadar ralat minimum." ]
[ "The parameter weights are Optimized with minimum error rate training.", "The feature weights are tuned to optimize BLEU using the minimum error rate training algorithm." ]
[ "Untuk mengintegrasikan kekuatan mereka, dalam kertas ini, kami mencadangkan urutan pokok berasaskan hutan untuk model terjemahan rentetan.", "Dalam makalah ini, kami mencadangkan urutan pokok berasaskan hutan untuk model rentetan, yang direka untuk mengintegrasikan kekuatan berasaskan hutan dan pokok." ]
[ "To integrate their strengths, in this paper, we propose a Forest-Based tree sequence to string translation model.", "In this paper, we propose a Forest-Based tree sequence to string model, which is designed to integrate the strengths of the Forest-Based and the tree." ]
[ "Transliterasi sering ditakrifkan sebagai terjemahan fonetik (Cite-P-21-3-2).", "Transliterasi adalah Subtugas dalam terjemahan NE, yang menterjemahkan NES berdasarkan persamaan fonetik." ]
[ "Transliteration is often defined as phonetic translation (Cite-P-21-3-2).", "Transliteration is a Subtask in NE translation, which translates NES based on the phonetic similarity." ]
[ "Dalam kerja masa depan, kami akan menilai prestasi ramalan struktur dialog mengenai ucapan yang diiktiraf.", "Dalam makalah ini, kami membincangkan kaedah untuk membuat model struktur dialog secara automatik." ]
[ "In future work, we will assess the performance of dialog structure prediction on recognized speech.", "In this paper, we discuss methods for automatically creating models of dialog structure." ]
[ "Kami menggunakan BLEU sebagai kriteria penilaian kami dan kaedah Bootstrapping untuk ujian kepentingan.", "Sebagai ujian kepentingan statistik, kami menggunakan Bootstrap Resampling." ]
[ "We used BLEU as our evaluation criteria and the Bootstrapping method for significance testing.", "As a statistical significance test, we used Bootstrap Resampling." ]
[ "Kami telah menggunakan Srilm dengan smoothing Kneser-Ney untuk melatih model bahasa untuk peringkat pertama penyahkodan.", "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side." ]
[ "We have used the Srilm with Kneser-Ney smoothing for training a language model for the first stage of decoding.", "We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus." ]
[ "Perkataan Embeddings dikenal pasti menggunakan perwakilan sarung tangan standard.", "Perkataan dalam dokumen, soalan dan jawapan diwakili menggunakan Embedding perkataan Pra-Latih." ]
[ "The word Embeddings are identified using the standard glove representations.", "The words in the document, question and answer are represented using Pre-Trained word Embeddings." ]
[ "Pengekstrakan hubungan adalah tugas asas dalam pengekstrakan maklumat.", "Pengekstrakan hubungan adalah tugas mengesan dan mengklasifikasikan hubungan antara dua entiti dari teks." ]
[ "Relation extraction is a fundamental task in information extraction.", "Relation extraction is the task of detecting and classifying relationships between two entities from text." ]
[ "Kobayashi et al menggunakan teknik pembelajaran yang diselia untuk mencari corak sintaksis yang berguna sebagai petunjuk Kontekstual.", "Kobayashi et al mengenal pasti hubungan pendapat dengan mencari petunjuk Kontekstual sintaksis yang berguna." ]
[ "Kobayashi et al adopted a supervised learning technique to search for useful syntactic patterns as Contextual clues.", "Kobayashi et al identified opinion relations by searching for useful syntactic Contextual clues." ]
[ "Pelbagai model untuk pembelajaran perkataan Embeddings telah dicadangkan, termasuk model bahasa jaring saraf dan model spektrum.", "Model saraf telah menunjukkan kejayaan besar dalam pelbagai tugas, termasuk terjemahan mesin, penjanaan Caption imej, dan pemodelan bahasa." ]
[ "Various models for learning word Embeddings have been proposed, including neural net language models and spectral models.", "Neural models have shown great success on a variety of tasks, including machine translation, image Caption generation, and language modeling." ]
[ "Penyahsiran Morfologi adalah tugas memilih Parse morfologi yang betul untuk perkataan yang diberikan dalam konteks yang diberikan.", "Penyahsuaian Morfologi ialah proses menetapkan satu set ciri morfologi kepada setiap perkataan individu dalam teks." ]
[ "Morphological Disambiguation is the task of selecting the correct morphological Parse for a given word in a given context.", "Morphological Disambiguation is the process of assigning one set of morphological features to each individual word in a text." ]
[ "Semua sistem dinilai menggunakan Case-Insensitive BLEU.", "Bleu4 Case-Insensitive digunakan sebagai metrik penilaian." ]
[ "All systems are evaluated using Case-Insensitive BLEU.", "Case-Insensitive Bleu4 was used as the evaluation metric." ]
[ "Hasilnya menunjukkan bahawa model kami dapat mengatasi Garis Asas dengan jelas dari segi tiga metrik penilaian.", "Hasil penilaian menunjukkan bahawa model kami jelas Melaksanakan beberapa model asas dari segi kedua-dua jawatan clustering." ]
[ "The results show that our model can clearly outperform the Baselines in terms of three evaluation Metrics.", "Evaluation results show that our model clearly Outperforms a number of baseline models in terms of both clustering posts." ]
[ "Model bahasa gram dilatih melalui Target-Side data latihan, menggunakan Srilm dengan diskaun Kneser-Ney yang diubahsuai.", "Model Kneser-Ney Trigram yang diubahsuai dilatih menggunakan Srilm pada bahagian data latihan Cina." ]
[ "Gram language models are trained over the Target-Side of the training data, using Srilm with modified Kneser-Ney discounting.", "Modified Kneser-Ney Trigram models are trained using Srilm upon the Chinese portion of the training data." ]
[ "Terdapat teknik untuk menganalisis perjanjian apabila Annotasi melibatkan sempadan segmen, tetapi tumpuan kami dalam kertas kerja ini adalah pada perkataan.", "Terdapat teknik untuk menganalisis perjanjian apabila Annotasi melibatkan sempadan segmen, tetapi tumpuan kami dalam artikel ini adalah pada perkataan." ]
[ "There are techniques for analyzing agreement when Annotations involve segment boundaries, but our focus in this paper is on words.", "There are techniques for analyzing agreement when Annotations involve segment boundaries, but our focus in this article is on words." ]
[ "Selanjutnya, kami menerapkan model bahasa 4-Gram yang dilatih dengan Srilm Toolkit di sisi target korpus pelatihan.", "Untuk sistem Berasaskan Pokok, kami menggunakan model bahasa 4-Gram dengan smoothing Kneserney menggunakan Srilm Toolkit yang dilatih pada keseluruhan korpus Monolingual." ]
[ "Further, we apply a 4-Gram language model trained with the Srilm Toolkit on the target side of the training corpus.", "For the Tree-Based system, we applied a 4-Gram language model with Kneserney smoothing using Srilm Toolkit trained on the whole Monolingual corpus." ]
[ "Untuk mengurangkan Overfitting, kami menggunakan kaedah putus sekolah untuk input dan output rangkaian.", "Untuk mengurangkan pemasangan, kami menggunakan kaedah putus sekolah untuk mengatur model kami." ]
[ "To mitigate Overfitting, we apply the dropout method to the inputs and outputs of the network.", "To reduce Overfitting, we apply the dropout method to regularize our model." ]
[ "Untuk model bahasa, kami menggunakan model bahasa Trigram yang dilatih dengan Srilm Toolkit di sisi bahasa Inggeris korpus latihan.", "Kami melatih model bahasa Kn-Smoothed 5-Gram di sisi sasaran data latihan selari dengan Srilm." ]
[ "For language model, we use a Trigram language model trained with the Srilm Toolkit on the English side of the training corpus.", "We train a Kn-Smoothed 5-Gram language model on the target side of the parallel training data with Srilm." ]
[ "Twitter adalah sumber yang kaya untuk maklumat mengenai peristiwa sehari-hari - orang menghantar Tweet mereka ke Twitter secara terbuka dalam masa nyata kerana mereka menjalankan aktiviti mereka sepanjang hari, menghasilkan sejumlah besar maklumat biasa mengenai peristiwa biasa.", "Twitter adalah media di mana orang menghantar mesej masa nyata untuk membincangkan topik yang berbeza, dan menyatakan sentimen mereka." ]
[ "Twitter is a rich resource for information about everyday events – people post their Tweets to Twitter publicly in real-time as they conduct their activities throughout the day, resulting in a significant amount of mundane information about common events.", "Twitter is the medium where people post real time messages to discuss on the different topics, and express their sentiments." ]
[ "Model-model tersebut dilatih menggunakan Skip-Gram dan Cbow Word2Vec.", "Embeddings saraf dicipta menggunakan perisian Word2Vec 3 yang disertakan." ]
[ "Those models were trained using Word2Vec Skip-Gram and Cbow.", "The neural Embeddings were created using the Word2Vec software 3 accompanying." ]
[ "Dalam kerja ini, kami telah mengkaji tugas model Segmentasi bidang pembelajaran menggunakan pembelajaran yang tidak diawasi.", "Dalam makalah ini, kami menyiasat pembelajaran model Segmentasi medan yang tidak diawasi." ]
[ "In this work, we have examined the task of learning field Segmentation models using Unsupervised learning.", "In this paper, we investigate Unsupervised learning of field Segmentation models." ]
[ "Terjemahan mesin saraf baru-baru ini menjadi pendekatan dominan untuk terjemahan mesin.", "Terjemahan mesin saraf kini merupakan paradigma seni State-Of-The untuk terjemahan mesin." ]
[ "Neural machine translation has recently become the dominant approach to machine translation.", "Neural machine translation is currently the State-Of-The art paradigm for machine translation." ]
[ "Model bahasa ini dibina sehingga urutan 5 dengan smoothing Kneser-Ney menggunakan Srilm Toolkit.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai." ]
[ "These language models were built up to an order of 5 with Kneser-Ney smoothing using the Srilm Toolkit.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing." ]
[ "Model Konstituen-Konteks adalah sistem induksi tatabahasa konstituen yang tidak diawasi pertama yang mencapai prestasi yang lebih baik daripada garis dasar bercabang kanan yang remeh untuk bahasa Inggeris.", "Model konteks konstituen untuk mendorong Parses konstituen adalah pendekatan Unsupervised pertama untuk melampaui garis dasar yang betul." ]
[ "The Constituent-Context model is the first Unsupervised constituency grammar induction system that achieves better performance than the trivial right branching baseline for English.", "The constituent context model for inducing constituency Parses was the first Unsupervised approach to surpass a Right-Branching baseline." ]
[ "Kertas ini membentangkan resipi tambahan untuk melatih penjana bahasa Multi-Domain berdasarkan model generasi berasaskan Data-Driven, Rnn.", "Dalam makalah ini, kami mencadangkan prosedur untuk melatih penjana bahasa Multi-Domain, Rangkaian Berasaskan neural berulang (Rnn) melalui pelbagai penyesuaian." ]
[ "The paper presents an incremental recipe for training Multi-Domain language generators based on a purely Data-Driven, Rnn-Based generation model.", "In this paper, we propose a procedure to train Multi-Domain, recurrent neural Network-Based (Rnn) language generators via multiple adaptation." ]
[ "Kami juga menggunakan Word2Vec untuk menghasilkan vektor perkataan yang padat untuk semua jenis perkataan dalam korpus pembelajaran kami.", "Kami menggunakan vektor perkataan Word2Vec Pra-Trained dan perwakilan vektor oleh Tilk et al untuk mendapatkan maklumat persamaan Tahap-Word." ]
[ "We also used Word2Vec to generate dense word vectors for all word types in our learning corpus.", "We use Pre-Trained Word2Vec word vectors and vector representations by Tilk et al to obtain Word-Level similarity information." ]
[ "Latihan dilakukan melalui keturunan kecerunan stokastik ke atas Mini-Batches yang disempit dengan peraturan kemas kini Adadelta.", "Keturunan kecerunan stokastik dengan Back-Propagation dilakukan menggunakan peraturan kemas kini Adadelta." ]
[ "Training is done through stochastic gradient descent over shuffled Mini-Batches with Adadelta update rule.", "The stochastic gradient descent with Back-Propagation is performed using Adadelta update rule." ]
[ "Dalam N-Coalescent, setiap pasangan keturunan bergabung secara bebas dengan kadar 1, dengan ibu bapa dipilih secara seragam secara rawak dari set ibu bapa yang mungkin pada langkah masa sebelumnya.", "Dalam N-Coalescent, setiap pasangan keturunan bergabung secara bebas dengan kadar 1, dengan ibu bapa dipilih secara seragam secara rawak dari set ibu bapa yang mungkin." ]
[ "In the N-Coalescent, every pair of lineages merges independently with rate 1, with parents chosen uniformly at random from the set of possible parents at the previous time step.", "In the N-Coalescent, every pair of lineages merges independently with rate 1, with parents chosen uniformly at random from the set of possible parents." ]
[ "Perbezaan kritikal dalam kerja kami adalah untuk membenarkan penyusunan semula sewenang-wenang ayat bahasa sumber (seperti dalam sistem Berasaskan Frasa), melalui penggunaan operasi Penghuraian fleksibel.", "Dalam pendekatan kami adalah untuk membolehkan operasi penyusunan semula yang sangat fleksibel, dalam kombinasi dengan model Diskriminatif yang boleh bergantung pada ciri-ciri yang kaya dari input Sumber-Bahasa." ]
[ "A critical difference in our work is to allow arbitrary Reorderings of the source language sentence (as in Phrase-Based systems), through the use of flexible Parsing operations.", "In our approach is to allow highly flexible reordering operations, in combination with a Discriminative model that can condition on rich features of the Source-Language input." ]
[ "Kami menilai kualiti terjemahan sistem menggunakan metrik BLEU.", "Kami mengukur kualiti terjemahan menggunakan rujukan tunggal BLEU." ]
[ "We evaluated the translation quality of the system using the BLEU metric.", "We measure the translation quality using a single reference BLEU." ]
[ "Model bahasa Trigram dengan diskaun Kneser-Ney yang diubahsuai dan interpolasi digunakan seperti yang dihasilkan oleh Srilm Toolkit.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai." ]
[ "A Trigram language model with modified Kneser-Ney discounting and interpolation was used as produced by the Srilm Toolkit.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing." ]
[ "Pemampatan ayat adalah tugas memampatkan ayat panjang, ayat Verbose menjadi pendek, ringkas.", "Pemampatan ayat adalah tugas Nlp standard di mana matlamatnya adalah untuk menghasilkan frasa yang lebih pendek dari ayat." ]
[ "Sentence compression is the task of compressing long, Verbose sentences into short, concise ones.", "Sentence compression is a standard Nlp task where the goal is to generate a shorter paraphrase of a sentence." ]
[ "Wu mencadangkan tatabahasa Segmentasi dwibahasa yang memanjangkan peraturan terminal dengan memasukkan pasangan frasa.", "Wu mempersembahkan tatabahasa yang lebih baik yang direka untuk menghasilkan Parsa Tail-Rekursif sahaja." ]
[ "Wu proposes a bilingual Segmentation grammar extending the terminal rules by including phrase pairs.", "Wu presents a Better-Constrained grammar designed to only produce Tail-Recursive Parses." ]
[ "Resolusi spatial adalah proses menentukan sama ada dua ungkapan dalam bahasa semula jadi merujuk kepada entiti yang sama di dunia.", "Walaupun resolusi Coreference adalah Submasalah pemahaman bahasa semula jadi, Metrik penilaian resolusi Coreference telah banyak dibincangkan dari segi entiti abstrak dan kesilapan sistem hipotesis." ]
[ "Coreference resolution is the process of determining whether two expressions in natural language refer to the same entity in the world.", "Although Coreference resolution is a Subproblem of natural language understanding, Coreference resolution evaluation Metrics have predominately been discussed in terms of abstract entities and hypothetical system errors." ]
[ "Kami menggunakan Srilm Toolkit untuk menghasilkan skor tanpa lancar.", "Kami melatih model bahasa perkataan Tri-Gram Hindi dengan alat Srilm." ]
[ "We used the Srilm Toolkit to generate the scores with no smoothing.", "We trained a Tri-Gram Hindi word language model with the Srilm tool." ]
[ "Analisis kepekaan adalah tugas untuk mengenal pasti Ketinggian atau polariti sekeping teks secara automatik.", "Analisis sentimen adalah bidang penyelidikan di mana analisis pengiraan perasaan atau kepercayaan orang yang dinyatakan dalam teks seperti emosi, pendapat, sikap, penilaian, dan lain-lain (Cite-P-12-1-3)." ]
[ "Sentiment analysis is the task of automatically identifying the Valence or polarity of a piece of text.", "Sentiment analysis is a research area where does a computational analysis of people ’ s feelings or beliefs expressed in texts such as emotions, opinions, attitudes, appraisals, etc . (Cite-P-12-1-3)." ]
[ "Untuk penilaian keputusan kami menggunakan skor BLEU.", "Kami menggunakan dua metrik Rouge dan BLEU standard untuk penilaian." ]
[ "For the evaluation of the results we use the BLEU score.", "We adopt two standard Metrics Rouge and BLEU for evaluation." ]
[ "Dalam makalah ini, kami memberi tumpuan kepada masalah membina sistem Assistif yang dapat membantu pengguna menulis ulasan.", "Dalam makalah ini, kami memberi tumpuan kepada mereka bentuk model generasi ulasan yang dapat memanfaatkan maklumat pengguna dan item." ]
[ "In this paper, we focus on the problem of building Assistive systems that can help users to write reviews.", "In this paper, we focus on designing a review generation model that is able to leverage both user and item information." ]
[ "Semua data secara automatik Dianotasi dengan tag sintaktik menggunakan Maltparser.", "Set ciri sintaktik diekstrak selepas penghuraian dependensi menggunakan Maltparser." ]
[ "All data is automatically Annotated with syntactic tags using Maltparser.", "The syntactic feature set is extracted after dependency Parsing using the Maltparser." ]
[ "Kami mencadangkan rangka kerja Cross-Lingual untuk perlombongan pendapat halus menggunakan unjuran Bitext.", "Kami menggunakan teknik unjuran Bitext untuk memindahkan bingkai pendapat berasaskan Dependency." ]
[ "We propose a Cross-Lingual framework for fine-grained opinion mining using Bitext projection.", "We used a Bitext projection technique to transfer Dependency-Based opinion frames." ]
[ "Bahasa ibunda kami (L1) memainkan peranan penting dalam proses pilihan leksikal.", "Pengetahuan bahasa ibunda kami menyediakan asas awal untuk pembelajaran bahasa kedua." ]
[ "Our native language (L1) plays an essential role in the process of lexical choice.", "Knowledge of our native language provides an initial foundation for second language learning." ]
[ "Arah, cara, dan tujuan adalah label argumen Adjungtif Propbank.", "Peranan semantik dianggarkan oleh peranan hujah Propbank." ]
[ "Direction, manner, and purpose are Propbank Adjunctive argument labels.", "Semantic roles are approximated by Propbank argument roles." ]
[ "Dalam makalah ini, kami mencadangkan pendekatan baru dan berkesan untuk analisis sentimen mengenai ulasan produk.", "Dalam makalah ini, kami mengkaji masalah analisis sentimen mengenai ulasan produk." ]
[ "In this paper, we propose a novel and effective approach to sentiment analysis on product reviews.", "In this paper, we study the problem of sentiment analysis on product reviews." ]
[ "Dalam makalah ini kami menggunakan kerangka pemerolehan leksikal Berasaskan Pattern untuk penemuan maklumat geografi.", "Dalam makalah ini kami membentangkan kerangka Algorithmic yang membolehkan pemerolehan maklumat Map-Like secara automatik dari web, berdasarkan corak permukaan." ]
[ "In this paper we utilize a Pattern-Based lexical acquisition framework for the discovery of geographical information.", "In this paper we present an Algorithmic framework which allows an automated acquisition of Map-Like information from the web, based on surface patterns." ]
[ "Bulatan menandakan penetapan, dan garis-garisnya adalah Saccades.", "Bulatan menandakan peristiwa, petak menandakan argumen, anak panah pepejal mewakili hubungan Peristiwa-peristiwa, dan anak panah putus mewakili hubungan Peristiwa-Argumen." ]
[ "The circles denote fixations, and the lines are Saccades.", "Circles denote events, squares denote arguments, solid arrows represent Event-Event relations, and dashed arrows represent Event-Argument relations." ]
[ "Penghuraian Semantik adalah tugas menterjemahkan ucapan bahasa semula jadi ke dalam perwakilan makna Mesin-Terpretasi.", "Penghuraian Semantik adalah tugas pemetaan ayat bahasa semula jadi kepada perwakilan makna formal." ]
[ "Semantic Parsing is the task of translating natural language utterances into a Machine-Interpretable meaning representation.", "Semantic Parsing is the task of mapping natural language sentences to a formal representation of meaning." ]
[ "1 konteks terdiri daripada semua corak N-Gram dalam tetingkap tertentu di sekitar sebutan entiti yang sepadan.", "Setiap konteks terdiri daripada kira-kira satu perenggan teks sekeliling, di mana perkataan yang akan didiskriminasi (kata sasaran) dijumpai kira-kira di tengah-tengah konteks." ]
[ "1 a context consists of all the patterns of N-Grams within a certain window around the corresponding entity mention.", "Each context consists of approximately a paragraph of surrounding text, where the word to be discriminated (the target word) is found approximately in the middle of the context." ]
[ "Dalam asas ini, kami menggunakan perkataan Embedding yang dilatih oleh Skipgram di Wiki2014.", "Kami menggunakan Embedding Google Pra-Trained untuk Memulakan perkataan Embedding matriks." ]
[ "In this baseline, we applied the word Embedding trained by Skipgram on Wiki2014.", "We used the Pre-Trained Google Embedding to Initialize the word Embedding matrix." ]
[ "Perkataan Embeddings Dimulakan menggunakan sarung tangan Pra-Trained, dan saiz Embedding adalah 300.", "Perkataan Embeddings yang digunakan dalam setiap rangkaian saraf diawalkan dengan sarung tangan Pra-Trained dengan dimensi 300." ]
[ "The word Embeddings are Initialized using the Pre-Trained glove, and the Embedding size is 300.", "The word Embeddings used in each neural network is Initialized with the Pre-Trained glove with the dimension of 300." ]
[ "Walaupun perhatian yang luas ini, definisi formal terbuka Ie s kurang.", "Walaupun perhatian yang luas ini, definisi tugas Ie terbuka telah kurang." ]
[ "In spite of this wide attention, open Ie ’ s formal definition is lacking.", "In spite of this broad attention, the open Ie task definition has been lacking." ]
[ "Rangkaian saraf konvolutional yang menarik, yang digunakan secara meluas untuk pemprosesan imej, baru-baru ini muncul sebagai model kelas yang kuat untuk tugas Nlp.", "Model rangkaian saraf telah dieksploitasi untuk mempelajari perwakilan ciri padat untuk pelbagai tugas Nlp." ]
[ "Interestingly Convolutional neural networks, widely used for image processing, have recently emerged as a strong class of models for Nlp tasks.", "Neural network models have been exploited to learn dense feature representation for a variety of Nlp tasks." ]
[ "Susunan semula adalah masalah biasa yang diperhatikan dalam pasangan bahasa asal bahasa yang jauh.", "Susunan semula adalah tugas yang sukar dalam menerjemahkan antara bahasa yang berbeza seperti bahasa Jepun dan Inggeris." ]
[ "Reordering is a common problem observed in language pairs of distant language origins.", "Reordering is a difficult task in translating between widely different languages such as Japanese and English." ]
[ "Ciri Cdsm kami adalah berdasarkan vektor perkataan yang diperolehi menggunakan model Skip-Gram.", "Kami Memulakan vektor perkataan kami dengan Embedding perkataan 300-Dimensional Word2Vec." ]
[ "Our Cdsm feature is based on word vectors derived using a Skip-Gram model.", "We Initialize our word vectors with 300-Dimensional Word2Vec word Embeddings." ]
[ "Model kami adalah medan rawak bersyarat rantai linear pesanan pertama.", "Kami menentukan medan rawak bersyarat untuk tugas ini." ]
[ "Our model is a first order linear chain conditional random field.", "We define a conditional random field for this task." ]