en
sequence
ms
sequence
[ "The Tweets were Tokenized and Part-Ofspeech tagged with the Cmu Ark Twitter Nlp tool and Stanford Corenlp.", "For all methods, the Tweets were Tokenized with the Cmu Twitter Nlp tool." ]
[ "Tweets itu Tokenized dan Part-Ofspeech ditandai dengan alat Cmu Ark Twitter Nlp dan Stanford Corenlp.", "Untuk semua kaedah, Tweets Tokenized dengan alat Cmu Twitter Nlp." ]
[ "Nederhof et al, for instance, show that Prefix probabilities, and therefore Surprisal, can be estimated from tree adjoining Grammars.", "It was shown by Nederhof et al that Prefix probabilities can also be effectively computed for probabilistic tree adjoining Grammars." ]
[ "Sebagai contoh, Nederhof et al menunjukkan bahawa kebarangkalian awalan, dan oleh itu Surprisal, boleh dianggarkan dari pokok bersebelahan Grammars.", "Ia ditunjukkan oleh Nederhof et al bahawa Kebarangkalian Awalan juga dapat dikira dengan berkesan untuk pokok probabilistik yang bersebelahan dengan Grammar." ]
[ "First, Kikuchi et al tried to control the length of the sentence generated by an Encoder-Decoder model in a text summarization task.", "First, Kikuchi et al proposed a new long short-term memory network to control the length of the sentence generated by an Encoder-Decoder model in a text summarization task." ]
[ "Pertama, Kikuchi et al cuba mengawal panjang ayat yang dihasilkan oleh model Encoder-Decoder dalam tugas ringkasan teks.", "Pertama, Kikuchi et al mencadangkan rangkaian ingatan jangka pendek yang baru untuk mengawal panjang ayat yang dihasilkan oleh model Encoder-Decoder dalam tugas ringkasan teks." ]
[ "The complexity is dominated by the word confusion network construction and Parsing.", "With word confusion networks further improves performance." ]
[ "Kerumitan dikuasai oleh perkataan pembinaan rangkaian kekeliruan dan Parsing.", "Dengan rangkaian kekeliruan perkataan meningkatkan lagi prestasi." ]
[ "Fofe can model the word order in a sequence using a simple Ordinally-Forgetting mechanism according to the positions of words.", "Fofe can model the word order in a sequence based on a simple Ordinally-Forgetting mechanism, which uses the position of each word in the sequence." ]
[ "Fofe boleh memodelkan susunan perkataan dalam urutan menggunakan mekanisme Ordinal-Forgetting yang mudah mengikut kedudukan perkataan.", "Fofe boleh memodelkan susunan perkataan dalam urutan berdasarkan mekanisme Ordinal-Forgetting yang mudah, yang menggunakan kedudukan setiap perkataan dalam urutan." ]
[ "We found that performance improves steadily as the number of available languages increases.", "We โ€™ ve demonstrated that the benefits of Unsupervised Multilingual learning increase steadily with the number of available languages." ]
[ "Kami mendapati bahawa prestasi bertambah baik dengan stabil kerana bilangan bahasa yang tersedia meningkat.", "Kami telah menunjukkan bahawa manfaat pembelajaran Multilingual Unsupervised meningkat dengan stabil dengan bilangan bahasa yang ada." ]
[ "Dependency Parsing is a way of structurally analyzing a sentence from the viewpoint of modification.", "Dependency Parsing consists of finding the structure of a sentence as expressed by a set of directed links (Dependencies) between words." ]
[ "Penghuraian Dependensi adalah cara menganalisis secara struktur ayat dari sudut pandangan pengubahsuaian.", "Penghuraian Dependensi terdiri daripada mencari struktur ayat seperti yang dinyatakan oleh satu set pautan terarah (Bergantung) antara perkataan." ]
[ "For each task, we provided training, development, and test Datasets for English, Arabic, and Spanish Tweets.", "For each task, we provide separate training, development, and test Datasets for English, Arabic, and Spanish Tweets." ]
[ "Untuk setiap tugas, kami menyediakan latihan, pembangunan, dan ujian Dataset untuk Tweet Bahasa Inggeris, Arab, dan Sepanyol.", "Untuk setiap tugas, kami menyediakan latihan, pembangunan, dan ujian Dataset berasingan untuk Tweet Bahasa Inggeris, Arab, dan Sepanyol." ]
[ "A 5-Gram language model with Kneser-Ney smoothing was trained with Srilm on Monolingual English data.", "A 3-Gram language model was trained from the target side of the training data for Chinese and Arabic, using the Srilm Toolkit." ]
[ "Model bahasa 5-Gram dengan smoothing Kneser-Ney dilatih dengan Srilm pada data Bahasa Inggeris Monolingual.", "Model bahasa 3-Gram dilatih dari sisi sasaran data latihan untuk bahasa Cina dan Arab, menggunakan Srilm Toolkit." ]
[ "We add a type 0 feature 0E (with P (0E) = {0} ) C. ~= {( Subj , 0), <N , 0), <V , 0), <Comp,0), (bar , 0), and a type 1Feature successor to the feature system and...<AGR , 1), <slash , 1) } use this to build the set of indices.", "C . ~ = {( Subj , 0), <N , 0), <V , 0), <COMP , 0), (bar , 0), and a type 1Feature successor to the feature system and . . . <AGR , 1), <slash , 1) }." ]
[ "Kami menambah ciri jenis 0E (dengan P (0E) = {0}) C. = {(Subj, 0), <N, 0), <V, 0), <Comp,0), (bar, 0), dan jenis 1Pengganti ciri sistem dan... <AGR, 1), <slash, 1) } gunakan ini untuk membina set indeks.", "C. = {(Subj, 0), <N, 0), <V, 0), <COMP, 0), (bar, 0), dan jenis 1Pengganti ciri sistem dan... <AGR, 1), <slash, 1) }." ]
[ "The Parsing time Normalization task is the first effort to extend time Normalization to richer and more complex time expressions.", "Shared task is a new approach to time Normalization based on the semantically compositional Annotation of time expressions." ]
[ "Tugas Normalisasi masa penghuraian adalah usaha pertama untuk memanjangkan Normalisasi masa kepada ungkapan masa yang lebih kaya dan lebih kompleks.", "Tugas yang dikongsi adalah pendekatan baru untuk Normalisasi masa berdasarkan Annotasi komposisi secara semantik ungkapan masa." ]
[ "We use the Word2Vec Cbow model with a window size of 5 and a minimum frequency of 5 to generate 200-Dimensional vectors.", "We derive 100-Dimensional word vectors using Word2Vec Skip-Gram model trained over the domain corpus." ]
[ "Kami menggunakan model Word2Vec Cbow dengan saiz tetingkap 5 dan frekuensi minimum 5 untuk menghasilkan vektor 200-Dimensional.", "Kami memperoleh vektor perkataan 100 dimensi menggunakan model Skip-Gram Word2Vec yang dilatih melalui korpus domain." ]
[ "In contrast, syntactic language models can be much slower to train due to rich features.", "Syntactic language models can become Intolerantly slow to train." ]
[ "Sebaliknya, model bahasa sintaktik boleh menjadi lebih perlahan untuk melatih kerana ciri-ciri yang kaya.", "Model bahasa sintaktik boleh menjadi lambat untuk dilatih." ]
[ "The learning rule was Adam with standard parameters.", "The learning rule was Adam with default Tensorflow parameters." ]
[ "Peraturan pembelajaran ialah Adam dengan parameter piawai.", "Peraturan pembelajaran adalah Adam dengan parameter Tensorflow lalai." ]
[ "We derive 100-Dimensional word vectors using Word2Vec Skip-Gram model trained over the domain corpus.", "We Embed all words and characters into Low-Dimensional Real-Value vectors which can be learned by language model." ]
[ "Kami memperoleh vektor perkataan 100 dimensi menggunakan model Skip-Gram Word2Vec yang dilatih melalui korpus domain.", "Kami memasukkan semua perkataan dan watak ke dalam vektor Nilai Nyata Rendah Dimensional yang boleh dipelajari oleh model bahasa." ]
[ "Semantic knowledge is represented in a very detailed form (Word_Sense Pragmatics).", "Semantic knowledge (E . G . Word-Senses) has been defined at the IBM scientific center." ]
[ "Pengetahuan semantik diwakili dalam bentuk yang sangat terperinci (Word_Sense Pragmatics).", "Pengetahuan semantik (E. G. Word-Senses) telah ditakrifkan di pusat saintifik IBM." ]
[ "We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "We used the target side of the parallel corpus and the Srilm Toolkit to train a 5-Gram language model." ]
[ "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Kami menggunakan sisi sasaran korpus selari dan Srilm Toolkit untuk melatih model bahasa 5-Gram." ]
[ "To obtain this, we perform Min-Max cut proposed by Ding et al, which is a spectral clustering method.", "To obtain this, we used Mcut proposed by Ding et al which is a type of spectral clustering." ]
[ "Untuk mendapatkan ini, kami melaksanakan pemotongan Min-Max yang dicadangkan oleh Ding et al, yang merupakan kaedah pengelompokan spektrum.", "Untuk mendapatkan ini, kami menggunakan Mcut yang dicadangkan oleh Ding et al yang merupakan sejenis kluster spektrum." ]
[ "Part-Of-Speech tagging is a key process for various tasks such as ` information extraction, Text-To-Speech synthesis, word sense Disambiguation and machine translation.", "Part-Of-Speech tagging is a crucial preliminary process in many natural language processing applications." ]
[ "Penandaan Part-Of-Speech adalah proses utama untuk pelbagai tugas seperti `pengekstrak maklumat, sintesis Teks-Ke-Speech, Disambiguasi deria perkataan dan terjemahan mesin.", "Penandaan Part-Of-Speech adalah proses awal yang penting dalam banyak aplikasi pemprosesan bahasa semula jadi." ]
[ "Information extraction (Ie) is the process of finding relevant entities and their relationships within textual documents.", "Information extraction (Ie) is a main Nlp aspects for analyzing scientific papers, which includes named entity recognition (NER) and relation extraction (re)." ]
[ "Pengekstrakan maklumat (Ie) adalah proses mencari entiti yang berkaitan dan hubungan mereka dalam dokumen teks.", "Pengekstrakan maklumat (Ie) adalah aspek utama Nlp untuk menganalisis kertas saintifik, yang merangkumi pengiktirafan entiti bernama (NER) dan pengekstrakan hubungan (re)." ]
[ "We adopted the Case-Insensitive Bleu-4 as the evaluation metric.", "All systems are evaluated using Case-Insensitive BLEU." ]
[ "Kami menggunakan Case-Insensitive Bleu-4 sebagai metrik penilaian.", "Semua sistem dinilai menggunakan Case-Insensitive BLEU." ]
[ "Automatic image Captioning is a much studied topic in both the natural language processing (Nlp) and computer vision (CV) areas of research.", "Automatic image Captioning is a fundamental task that couples visual and linguistic learning." ]
[ "Captioning imej automatik adalah topik yang banyak dikaji dalam kedua-dua bidang pemprosesan bahasa semula jadi (Nlp) dan penglihatan komputer (CV) penyelidikan.", "Tangkapan imej automatik adalah tugas asas yang menggabungkan pembelajaran visual dan linguistik." ]
[ "The recent Conll shared tasks have been focusing on semantic dependency Parsing along with the traditional syntactic dependency Parsing.", "In particular, the recent shared tasks of Conll 2008 tackled joint Parsing of syntactic and semantic Dependencies." ]
[ "Tugas-tugas dikongsi Conll baru-baru ini telah memberi tumpuan kepada penghuraian dependensi semantik bersama dengan penghuraian dependensi sintaktik tradisional.", "Khususnya, tugas-tugas bersama Conll 2008 menangani Penghuraian bersama sintaksis dan semantik Dependencies." ]
[ "Conditional random fields are Discriminatively-Trained Undirected graphical models that find the globally optimal labeling for a given configuration of random variables.", "Conditional random fields are Undirected graphical models trained to maximize the conditional probability of the desired outputs given the corresponding inputs." ]
[ "Medan rawak bersyarat adalah model grafik Tidak Tertib Tertib yang mendapati pelabelan optimum global untuk konfigurasi pemboleh ubah rawak yang diberikan.", "Medan rawak bersyarat adalah model grafik tidak diarahkan yang dilatih untuk memaksimumkan kebarangkalian bersyarat output yang dikehendaki diberikan input yang sepadan." ]
[ "A 5-Gram language model was created with the Sri language modeling Toolkit and trained using the Gigaword corpus and English sentences from the parallel data.", "Additionally, a Back-Off 2-Gram model with Goodturing discounting and no lexical classes was built from the same training data, using the Srilm Toolkit." ]
[ "Model bahasa 5-Gram dicipta dengan Toolkit pemodelan bahasa Sri dan dilatih menggunakan Gigaword corpus dan ayat bahasa Inggeris dari data selari.", "Selain itu, model Back-Off 2-Gram dengan diskaun Goodturing dan tiada kelas leksikal dibina daripada data latihan yang sama, menggunakan Srilm Toolkit." ]
[ "Johnson and Charniak , 2004) proposed a Tag-Based noisy channel model for Disfluency detection.", "Johnson and Charniak proposed a Tag-Based noisy channel model, which showed great improvement over a Boosting-Based Classifier." ]
[ "Johnson dan Charniak (2004) mencadangkan model saluran bising berasaskan Tag untuk pengesanan Nyaman.", "Johnson dan Charniak mencadangkan model saluran bising berasaskan Tag, yang menunjukkan peningkatan yang besar berbanding Boosting-Based Classifier." ]
[ "As previously reported in, a person may express the same stance towards a target by using negative or positive language.", "This is also in line with what has been previously observed in that a person may express the same stance towards a target by using negative or positive language." ]
[ "Seperti yang dilaporkan sebelum ini, seseorang boleh menyatakan pendirian yang sama terhadap sasaran dengan menggunakan bahasa negatif atau positif.", "Ini juga selaras dengan apa yang telah diperhatikan sebelum ini bahawa seseorang boleh menyatakan pendirian yang sama terhadap sasaran dengan menggunakan bahasa negatif atau positif." ]
[ "Relation extraction is a fundamental task in information extraction.", "Relation extraction (re) is a task of identifying typed relations between known entity mentions in a sentence." ]
[ "Pengekstrakan hubungan adalah tugas asas dalam pengekstrakan maklumat.", "Pengekstrakan hubungan (re) adalah tugas untuk mengenal pasti hubungan yang ditaip antara sebutan entiti yang diketahui dalam ayat." ]
[ "Semantic difference is a Ternary relation between two concepts (apple, banana) and a Discriminative feature (red) that characterizes the first concept but not the other.", "Semantic difference is a Ternary relation between two concepts (apple, banana) and a Discriminative attribute (red) that characterizes the first concept but not the other." ]
[ "Perbezaan semantik adalah hubungan Ternary antara dua konsep (epal, pisang) dan ciri Diskriminatif (merah) yang mencirikan konsep pertama tetapi bukan yang lain.", "Perbezaan semantik adalah hubungan Ternary antara dua konsep (epal, pisang) dan atribut Diskriminatif (merah) yang mencirikan konsep pertama tetapi bukan yang lain." ]
[ "Ding and Palmer introduce the notion of a synchronous dependency insertion grammar as a tree substitution grammar defined on dependency trees.", "Ding and Palmer propose a Syntax-Based translation model based on a probabilistic synchronous dependency insert grammar, a version of synchronous Grammars defined on dependency trees." ]
[ "Ding dan Palmer memperkenalkan tanggapan tatabahasa pemasukan dependensi yang bersinkron sebagai tatabahasa penggantian pokok yang ditakrifkan pada pokok dependensi.", "Ding dan Palmer mencadangkan model terjemahan berasaskan Syntax berdasarkan tatabahasa sisipan dependensi bersegerak probabilistik, versi tatabahasa bersegerak yang ditakrifkan pada pokok dependensi." ]
[ "Sentiment classification is a task to predict a sentiment label, such as Positive/Negative, for a given text and has been applied to many domains such as Movie/Product reviews, customer surveys, news comments, and social media.", "Sentiment classification is a very Domain-Specific problem; training a Classifier using the data from one domain may fail when testing against data from another." ]
[ "Klasifikasi sentimen adalah tugas untuk meramalkan label sentimen, seperti Positif / Negatif, untuk teks tertentu dan telah digunakan untuk banyak domain seperti ulasan Filem / Produk, tinjauan pelanggan, komen berita, dan media sosial.", "Klasifikasi sentimen adalah masalah yang sangat Domain-Specific; melatih pengelas menggunakan data dari satu domain mungkin gagal apabila menguji terhadap data dari domain lain." ]
[ "Bansal et al show that Deps context is preferable to linear context on Parsing task.", "Bansal et al show the benefits of such Modified-Context Embeddings in dependency Parsing task." ]
[ "Bansal et al menunjukkan bahawa konteks Deps lebih baik daripada konteks linear pada tugas Parsing.", "Bansal et al menunjukkan manfaat Embeddings Konteks Terubahsuai dalam tugas Penghuraian dependensi." ]
[ "Others have found them useful in Parsing and other tasks.", "They have been useful as features in many Nlp tasks." ]
[ "Yang lain mendapati mereka berguna dalam Parsing dan tugas lain.", "Mereka telah berguna sebagai ciri dalam banyak tugas Nlp." ]
[ "More concretely, Faruqui and Dyer use Canonical correlation analysis to project the word Embeddings in both languages to a shared vector space.", "For example, Faruqui and Dyer use Canonical component analysis to align the two Embedding spaces." ]
[ "Lebih konkrit, Faruqui dan Dyer menggunakan analisis korelasi Canonical untuk memproyeksikan perkataan Embeddings dalam kedua-dua bahasa ke ruang vektor yang dikongsi.", "Sebagai contoh, Faruqui dan Dyer menggunakan analisis komponen Canonical untuk menyelaraskan dua ruang Embedding." ]
[ "The minimum error rate training was used to tune the feature weights.", "The Log-Lineal combination weights were Optimized using Mert." ]
[ "Latihan kadar ralat minimum digunakan untuk menyesuaikan berat ciri.", "Berat gabungan Log-Lineal telah dioptimumkan menggunakan Mert." ]
[ "We model the sequence of morphological tags using Marmot, a pruned Higher-Order Crf.", "We train a Secondorder Crf model using Marmot, an efficient Higher-Order Crf implementation." ]
[ "Kami memodelkan urutan tag morfologi menggunakan Marmot, Crf Pesanan Tinggi yang dipangkas.", "Kami melatih model Crf Secondorder menggunakan Marmot, pelaksanaan Crf Higher-Order yang cekap." ]
[ "Word alignment is a fundamental problem in statistical machine translation.", "Word alignment is the process of identifying Wordto-Word links between parallel sentences." ]
[ "Penjajahan perkataan adalah masalah asas dalam terjemahan mesin statistik.", "Penjajahan perkataan adalah proses mengenal pasti pautan Wordto-Word antara ayat selari." ]
[ "Sentiment analysis is a Much-Researched area that deals with identification of positive, negative and neutral opinions in text.", "Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-3-0) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B)." ]
[ "Analisis sentimen adalah kawasan yang banyak dikaji yang berkaitan dengan pengenalan pendapat positif, negatif dan neutral dalam teks.", "Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-3-0) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B)." ]
[ "We use Pre-Trained vectors from glove for Word-Level Embeddings.", "We use Pre-Trained glove Embeddings to represent the words." ]
[ "Kami menggunakan vektor Pra-Trained dari sarung tangan untuk Embeddings Peringkat Perkataan.", "Kami menggunakan Embedding sarung tangan Pra-Trained untuk mewakili perkataan." ]
[ "Given much of the irony in Tweets is sarcasm, looking at some of these features may be useful.", "So in most cases of irony, such features will be useful for detection." ]
[ "Memandangkan banyak ironi dalam Tweets adalah sindiran, melihat beberapa ciri ini mungkin berguna.", "Oleh itu, dalam kebanyakan kes ironi, ciri-ciri sedemikian akan berguna untuk pengesanan." ]
[ "In this work, we take a more direct approach and treat a word type and its allowed Pos tags as a primary element of the model.", "That considers a word type and its allowed Pos tags as a primary element of the model." ]
[ "Dalam kerja ini, kami mengambil pendekatan yang lebih langsung dan merawat jenis perkataan dan tag Pos yang dibenarkan sebagai elemen utama model.", "Itu menganggap jenis perkataan dan tag Pos yang dibenarkan sebagai elemen utama model." ]
[ "Specifically, we used Wordsim353, a benchmark Dataset, consisting of relatedness judgments for 353 word pairs.", "We use Wordsim-353, which contains 353 English word pairs with human similarity ratings." ]
[ "Khususnya, kami menggunakan Wordsim353, Dataset penanda aras, yang terdiri daripada penilaian berkaitan untuk pasangan kata 353.", "Kami menggunakan Wordsim-353, yang mengandungi 353 pasangan perkataan Inggeris dengan penilaian persamaan manusia." ]
[ "In contrast to comparing head nouns directly, McCarthy instead compares the Selectional preferences for each of the two slots.", "Mccarthy instead compares two semantic profiles in Wordnet that contain the concepts corresponding to the nouns from the two argument positions." ]
[ "Berbeza dengan membandingkan kata nama kepala secara langsung, McCarthy sebaliknya membandingkan pilihan Pemilihan untuk setiap dua slot.", "Mccarthy sebaliknya membandingkan dua profil semantik dalam Wordnet yang mengandungi konsep yang sepadan dengan kata nama dari kedua-dua kedudukan hujah." ]
[ "We use the glove Pre-Trained word Embeddings for the vectors of the content words.", "The 50-Dimensional Pre-Trained word Embeddings are provided by glove, which are fixed during our model training." ]
[ "Kami menggunakan sarung tangan Embeddings perkataan Pra-Latih untuk vektor perkataan kandungan.", "Embedding perkataan Pra-Latihan 50 Dimensional disediakan oleh sarung tangan, yang ditetapkan semasa latihan model kami." ]
[ "Mann and Yarowsky used semantic information extracted from documents referring to the target person in an Hierarchical Agglomerative clustering algorithm.", "Mann and Yarowsky use semantic information that is extracted from documents to inform a Hierarchical Agglomerative clustering algorithm." ]
[ "Mann dan Yarowsky menggunakan maklumat semantik yang diekstrak daripada dokumen yang merujuk kepada orang sasaran dalam algoritma kluster Hierarki Agglomerative.", "Mann dan Yarowsky menggunakan maklumat semantik yang diekstrak daripada dokumen untuk memaklumkan algoritma kluster Agglomeratif Hierarki." ]
[ "Twitter is a well-known social network service that allows users to post short 140 character status update which is called โ€œ Tweet โ€.", "Twitter is a very popular Micro Blogging site." ]
[ "Twitter adalah perkhidmatan rangkaian sosial yang terkenal yang membolehkan pengguna untuk menyiarkan kemas kini status 140 aksara pendek yang dipanggil \"Tweet\".", "Twitter adalah laman web Micro Blogging yang sangat popular." ]
[ "The parameter weights are Optimized with minimum error rate training.", "The feature weights are tuned to optimize BLEU using the minimum error rate training algorithm." ]
[ "Berat parameter dioptimumkan dengan latihan kadar ralat minimum.", "Berat ciri ditala untuk mengoptimumkan BLEU menggunakan algoritma latihan kadar ralat minimum." ]
[ "To integrate their strengths, in this paper, we propose a Forest-Based tree sequence to string translation model.", "In this paper, we propose a Forest-Based tree sequence to string model, which is designed to integrate the strengths of the Forest-Based and the tree." ]
[ "Untuk mengintegrasikan kekuatan mereka, dalam kertas ini, kami mencadangkan urutan pokok berasaskan hutan untuk model terjemahan rentetan.", "Dalam makalah ini, kami mencadangkan urutan pokok berasaskan hutan untuk model rentetan, yang direka untuk mengintegrasikan kekuatan berasaskan hutan dan pokok." ]
[ "Transliteration is often defined as phonetic translation (Cite-P-21-3-2).", "Transliteration is a Subtask in NE translation, which translates NES based on the phonetic similarity." ]
[ "Transliterasi sering ditakrifkan sebagai terjemahan fonetik (Cite-P-21-3-2).", "Transliterasi adalah Subtugas dalam terjemahan NE, yang menterjemahkan NES berdasarkan persamaan fonetik." ]
[ "In future work, we will assess the performance of dialog structure prediction on recognized speech.", "In this paper, we discuss methods for automatically creating models of dialog structure." ]
[ "Dalam kerja masa depan, kami akan menilai prestasi ramalan struktur dialog mengenai ucapan yang diiktiraf.", "Dalam makalah ini, kami membincangkan kaedah untuk membuat model struktur dialog secara automatik." ]
[ "We used BLEU as our evaluation criteria and the Bootstrapping method for significance testing.", "As a statistical significance test, we used Bootstrap Resampling." ]
[ "Kami menggunakan BLEU sebagai kriteria penilaian kami dan kaedah Bootstrapping untuk ujian kepentingan.", "Sebagai ujian kepentingan statistik, kami menggunakan Bootstrap Resampling." ]
[ "We have used the Srilm with Kneser-Ney smoothing for training a language model for the first stage of decoding.", "We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus." ]
[ "Kami telah menggunakan Srilm dengan smoothing Kneser-Ney untuk melatih model bahasa untuk peringkat pertama penyahkodan.", "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side." ]
[ "The word Embeddings are identified using the standard glove representations.", "The words in the document, question and answer are represented using Pre-Trained word Embeddings." ]
[ "Perkataan Embeddings dikenal pasti menggunakan perwakilan sarung tangan standard.", "Perkataan dalam dokumen, soalan dan jawapan diwakili menggunakan Embedding perkataan Pra-Latih." ]
[ "Relation extraction is a fundamental task in information extraction.", "Relation extraction is the task of detecting and classifying relationships between two entities from text." ]
[ "Pengekstrakan hubungan adalah tugas asas dalam pengekstrakan maklumat.", "Pengekstrakan hubungan adalah tugas mengesan dan mengklasifikasikan hubungan antara dua entiti dari teks." ]
[ "Kobayashi et al adopted a supervised learning technique to search for useful syntactic patterns as Contextual clues.", "Kobayashi et al identified opinion relations by searching for useful syntactic Contextual clues." ]
[ "Kobayashi et al menggunakan teknik pembelajaran yang diselia untuk mencari corak sintaksis yang berguna sebagai petunjuk Kontekstual.", "Kobayashi et al mengenal pasti hubungan pendapat dengan mencari petunjuk Kontekstual sintaksis yang berguna." ]
[ "Various models for learning word Embeddings have been proposed, including neural net language models and spectral models.", "Neural models have shown great success on a variety of tasks, including machine translation, image Caption generation, and language modeling." ]
[ "Pelbagai model untuk pembelajaran perkataan Embeddings telah dicadangkan, termasuk model bahasa jaring saraf dan model spektrum.", "Model saraf telah menunjukkan kejayaan besar dalam pelbagai tugas, termasuk terjemahan mesin, penjanaan Caption imej, dan pemodelan bahasa." ]
[ "Morphological Disambiguation is the task of selecting the correct morphological Parse for a given word in a given context.", "Morphological Disambiguation is the process of assigning one set of morphological features to each individual word in a text." ]
[ "Penyahsiran Morfologi adalah tugas memilih Parse morfologi yang betul untuk perkataan yang diberikan dalam konteks yang diberikan.", "Penyahsuaian Morfologi ialah proses menetapkan satu set ciri morfologi kepada setiap perkataan individu dalam teks." ]
[ "All systems are evaluated using Case-Insensitive BLEU.", "Case-Insensitive Bleu4 was used as the evaluation metric." ]
[ "Semua sistem dinilai menggunakan Case-Insensitive BLEU.", "Bleu4 Case-Insensitive digunakan sebagai metrik penilaian." ]
[ "The results show that our model can clearly outperform the Baselines in terms of three evaluation Metrics.", "Evaluation results show that our model clearly Outperforms a number of baseline models in terms of both clustering posts." ]
[ "Hasilnya menunjukkan bahawa model kami dapat mengatasi Garis Asas dengan jelas dari segi tiga metrik penilaian.", "Hasil penilaian menunjukkan bahawa model kami jelas Melaksanakan beberapa model asas dari segi kedua-dua jawatan clustering." ]
[ "Gram language models are trained over the Target-Side of the training data, using Srilm with modified Kneser-Ney discounting.", "Modified Kneser-Ney Trigram models are trained using Srilm upon the Chinese portion of the training data." ]
[ "Model bahasa gram dilatih melalui Target-Side data latihan, menggunakan Srilm dengan diskaun Kneser-Ney yang diubahsuai.", "Model Kneser-Ney Trigram yang diubahsuai dilatih menggunakan Srilm pada bahagian data latihan Cina." ]
[ "There are techniques for analyzing agreement when Annotations involve segment boundaries, but our focus in this paper is on words.", "There are techniques for analyzing agreement when Annotations involve segment boundaries, but our focus in this article is on words." ]
[ "Terdapat teknik untuk menganalisis perjanjian apabila Annotasi melibatkan sempadan segmen, tetapi tumpuan kami dalam kertas kerja ini adalah pada perkataan.", "Terdapat teknik untuk menganalisis perjanjian apabila Annotasi melibatkan sempadan segmen, tetapi tumpuan kami dalam artikel ini adalah pada perkataan." ]
[ "Further, we apply a 4-Gram language model trained with the Srilm Toolkit on the target side of the training corpus.", "For the Tree-Based system, we applied a 4-Gram language model with Kneserney smoothing using Srilm Toolkit trained on the whole Monolingual corpus." ]
[ "Selanjutnya, kami menerapkan model bahasa 4-Gram yang dilatih dengan Srilm Toolkit di sisi target korpus pelatihan.", "Untuk sistem Berasaskan Pokok, kami menggunakan model bahasa 4-Gram dengan smoothing Kneserney menggunakan Srilm Toolkit yang dilatih pada keseluruhan korpus Monolingual." ]
[ "To mitigate Overfitting, we apply the dropout method to the inputs and outputs of the network.", "To reduce Overfitting, we apply the dropout method to regularize our model." ]
[ "Untuk mengurangkan Overfitting, kami menggunakan kaedah putus sekolah untuk input dan output rangkaian.", "Untuk mengurangkan pemasangan, kami menggunakan kaedah putus sekolah untuk mengatur model kami." ]
[ "For language model, we use a Trigram language model trained with the Srilm Toolkit on the English side of the training corpus.", "We train a Kn-Smoothed 5-Gram language model on the target side of the parallel training data with Srilm." ]
[ "Untuk model bahasa, kami menggunakan model bahasa Trigram yang dilatih dengan Srilm Toolkit di sisi bahasa Inggeris korpus latihan.", "Kami melatih model bahasa Kn-Smoothed 5-Gram di sisi sasaran data latihan selari dengan Srilm." ]
[ "Twitter is a rich resource for information about everyday events โ€“ people post their Tweets to Twitter publicly in real-time as they conduct their activities throughout the day, resulting in a significant amount of mundane information about common events.", "Twitter is the medium where people post real time messages to discuss on the different topics, and express their sentiments." ]
[ "Twitter adalah sumber yang kaya untuk maklumat mengenai peristiwa sehari-hari - orang menghantar Tweet mereka ke Twitter secara terbuka dalam masa nyata kerana mereka menjalankan aktiviti mereka sepanjang hari, menghasilkan sejumlah besar maklumat biasa mengenai peristiwa biasa.", "Twitter adalah media di mana orang menghantar mesej masa nyata untuk membincangkan topik yang berbeza, dan menyatakan sentimen mereka." ]
[ "Those models were trained using Word2Vec Skip-Gram and Cbow.", "The neural Embeddings were created using the Word2Vec software 3 accompanying." ]
[ "Model-model tersebut dilatih menggunakan Skip-Gram dan Cbow Word2Vec.", "Embeddings saraf dicipta menggunakan perisian Word2Vec 3 yang disertakan." ]
[ "In this work, we have examined the task of learning field Segmentation models using Unsupervised learning.", "In this paper, we investigate Unsupervised learning of field Segmentation models." ]
[ "Dalam kerja ini, kami telah mengkaji tugas model Segmentasi bidang pembelajaran menggunakan pembelajaran yang tidak diawasi.", "Dalam makalah ini, kami menyiasat pembelajaran model Segmentasi medan yang tidak diawasi." ]
[ "Neural machine translation has recently become the dominant approach to machine translation.", "Neural machine translation is currently the State-Of-The art paradigm for machine translation." ]
[ "Terjemahan mesin saraf baru-baru ini menjadi pendekatan dominan untuk terjemahan mesin.", "Terjemahan mesin saraf kini merupakan paradigma seni State-Of-The untuk terjemahan mesin." ]
[ "These language models were built up to an order of 5 with Kneser-Ney smoothing using the Srilm Toolkit.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing." ]
[ "Model bahasa ini dibina sehingga urutan 5 dengan smoothing Kneser-Ney menggunakan Srilm Toolkit.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai." ]
[ "The Constituent-Context model is the first Unsupervised constituency grammar induction system that achieves better performance than the trivial right branching baseline for English.", "The constituent context model for inducing constituency Parses was the first Unsupervised approach to surpass a Right-Branching baseline." ]
[ "Model Konstituen-Konteks adalah sistem induksi tatabahasa konstituen yang tidak diawasi pertama yang mencapai prestasi yang lebih baik daripada garis dasar bercabang kanan yang remeh untuk bahasa Inggeris.", "Model konteks konstituen untuk mendorong Parses konstituen adalah pendekatan Unsupervised pertama untuk melampaui garis dasar yang betul." ]
[ "The paper presents an incremental recipe for training Multi-Domain language generators based on a purely Data-Driven, Rnn-Based generation model.", "In this paper, we propose a procedure to train Multi-Domain, recurrent neural Network-Based (Rnn) language generators via multiple adaptation." ]
[ "Kertas ini membentangkan resipi tambahan untuk melatih penjana bahasa Multi-Domain berdasarkan model generasi berasaskan Data-Driven, Rnn.", "Dalam makalah ini, kami mencadangkan prosedur untuk melatih penjana bahasa Multi-Domain, Rangkaian Berasaskan neural berulang (Rnn) melalui pelbagai penyesuaian." ]
[ "We also used Word2Vec to generate dense word vectors for all word types in our learning corpus.", "We use Pre-Trained Word2Vec word vectors and vector representations by Tilk et al to obtain Word-Level similarity information." ]
[ "Kami juga menggunakan Word2Vec untuk menghasilkan vektor perkataan yang padat untuk semua jenis perkataan dalam korpus pembelajaran kami.", "Kami menggunakan vektor perkataan Word2Vec Pra-Trained dan perwakilan vektor oleh Tilk et al untuk mendapatkan maklumat persamaan Tahap-Word." ]
[ "Training is done through stochastic gradient descent over shuffled Mini-Batches with Adadelta update rule.", "The stochastic gradient descent with Back-Propagation is performed using Adadelta update rule." ]
[ "Latihan dilakukan melalui keturunan kecerunan stokastik ke atas Mini-Batches yang disempit dengan peraturan kemas kini Adadelta.", "Keturunan kecerunan stokastik dengan Back-Propagation dilakukan menggunakan peraturan kemas kini Adadelta." ]
[ "In the N-Coalescent, every pair of lineages merges independently with rate 1, with parents chosen uniformly at random from the set of possible parents at the previous time step.", "In the N-Coalescent, every pair of lineages merges independently with rate 1, with parents chosen uniformly at random from the set of possible parents." ]
[ "Dalam N-Coalescent, setiap pasangan keturunan bergabung secara bebas dengan kadar 1, dengan ibu bapa dipilih secara seragam secara rawak dari set ibu bapa yang mungkin pada langkah masa sebelumnya.", "Dalam N-Coalescent, setiap pasangan keturunan bergabung secara bebas dengan kadar 1, dengan ibu bapa dipilih secara seragam secara rawak dari set ibu bapa yang mungkin." ]
[ "A critical difference in our work is to allow arbitrary Reorderings of the source language sentence (as in Phrase-Based systems), through the use of flexible Parsing operations.", "In our approach is to allow highly flexible reordering operations, in combination with a Discriminative model that can condition on rich features of the Source-Language input." ]
[ "Perbezaan kritikal dalam kerja kami adalah untuk membenarkan penyusunan semula sewenang-wenang ayat bahasa sumber (seperti dalam sistem Berasaskan Frasa), melalui penggunaan operasi Penghuraian fleksibel.", "Dalam pendekatan kami adalah untuk membolehkan operasi penyusunan semula yang sangat fleksibel, dalam kombinasi dengan model Diskriminatif yang boleh bergantung pada ciri-ciri yang kaya dari input Sumber-Bahasa." ]
[ "We evaluated the translation quality of the system using the BLEU metric.", "We measure the translation quality using a single reference BLEU." ]
[ "Kami menilai kualiti terjemahan sistem menggunakan metrik BLEU.", "Kami mengukur kualiti terjemahan menggunakan rujukan tunggal BLEU." ]
[ "A Trigram language model with modified Kneser-Ney discounting and interpolation was used as produced by the Srilm Toolkit.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing." ]
[ "Model bahasa Trigram dengan diskaun Kneser-Ney yang diubahsuai dan interpolasi digunakan seperti yang dihasilkan oleh Srilm Toolkit.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai." ]
[ "Sentence compression is the task of compressing long, Verbose sentences into short, concise ones.", "Sentence compression is a standard Nlp task where the goal is to generate a shorter paraphrase of a sentence." ]
[ "Pemampatan ayat adalah tugas memampatkan ayat panjang, ayat Verbose menjadi pendek, ringkas.", "Pemampatan ayat adalah tugas Nlp standard di mana matlamatnya adalah untuk menghasilkan frasa yang lebih pendek dari ayat." ]
[ "Wu proposes a bilingual Segmentation grammar extending the terminal rules by including phrase pairs.", "Wu presents a Better-Constrained grammar designed to only produce Tail-Recursive Parses." ]
[ "Wu mencadangkan tatabahasa Segmentasi dwibahasa yang memanjangkan peraturan terminal dengan memasukkan pasangan frasa.", "Wu mempersembahkan tatabahasa yang lebih baik yang direka untuk menghasilkan Parsa Tail-Rekursif sahaja." ]
[ "Coreference resolution is the process of determining whether two expressions in natural language refer to the same entity in the world.", "Although Coreference resolution is a Subproblem of natural language understanding, Coreference resolution evaluation Metrics have predominately been discussed in terms of abstract entities and hypothetical system errors." ]
[ "Resolusi spatial adalah proses menentukan sama ada dua ungkapan dalam bahasa semula jadi merujuk kepada entiti yang sama di dunia.", "Walaupun resolusi Coreference adalah Submasalah pemahaman bahasa semula jadi, Metrik penilaian resolusi Coreference telah banyak dibincangkan dari segi entiti abstrak dan kesilapan sistem hipotesis." ]
[ "We used the Srilm Toolkit to generate the scores with no smoothing.", "We trained a Tri-Gram Hindi word language model with the Srilm tool." ]
[ "Kami menggunakan Srilm Toolkit untuk menghasilkan skor tanpa lancar.", "Kami melatih model bahasa perkataan Tri-Gram Hindi dengan alat Srilm." ]
[ "Sentiment analysis is the task of automatically identifying the Valence or polarity of a piece of text.", "Sentiment analysis is a research area where does a computational analysis of people โ€™ s feelings or beliefs expressed in texts such as emotions, opinions, attitudes, appraisals, etc . (Cite-P-12-1-3)." ]
[ "Analisis kepekaan adalah tugas untuk mengenal pasti Ketinggian atau polariti sekeping teks secara automatik.", "Analisis sentimen adalah bidang penyelidikan di mana analisis pengiraan perasaan atau kepercayaan orang yang dinyatakan dalam teks seperti emosi, pendapat, sikap, penilaian, dan lain-lain (Cite-P-12-1-3)." ]
[ "For the evaluation of the results we use the BLEU score.", "We adopt two standard Metrics Rouge and BLEU for evaluation." ]
[ "Untuk penilaian keputusan kami menggunakan skor BLEU.", "Kami menggunakan dua metrik Rouge dan BLEU standard untuk penilaian." ]
[ "In this paper, we focus on the problem of building Assistive systems that can help users to write reviews.", "In this paper, we focus on designing a review generation model that is able to leverage both user and item information." ]
[ "Dalam makalah ini, kami memberi tumpuan kepada masalah membina sistem Assistif yang dapat membantu pengguna menulis ulasan.", "Dalam makalah ini, kami memberi tumpuan kepada mereka bentuk model generasi ulasan yang dapat memanfaatkan maklumat pengguna dan item." ]
[ "All data is automatically Annotated with syntactic tags using Maltparser.", "The syntactic feature set is extracted after dependency Parsing using the Maltparser." ]
[ "Semua data secara automatik Dianotasi dengan tag sintaktik menggunakan Maltparser.", "Set ciri sintaktik diekstrak selepas penghuraian dependensi menggunakan Maltparser." ]
[ "We propose a Cross-Lingual framework for fine-grained opinion mining using Bitext projection.", "We used a Bitext projection technique to transfer Dependency-Based opinion frames." ]
[ "Kami mencadangkan rangka kerja Cross-Lingual untuk perlombongan pendapat halus menggunakan unjuran Bitext.", "Kami menggunakan teknik unjuran Bitext untuk memindahkan bingkai pendapat berasaskan Dependency." ]
[ "Our native language (L1) plays an essential role in the process of lexical choice.", "Knowledge of our native language provides an initial foundation for second language learning." ]
[ "Bahasa ibunda kami (L1) memainkan peranan penting dalam proses pilihan leksikal.", "Pengetahuan bahasa ibunda kami menyediakan asas awal untuk pembelajaran bahasa kedua." ]
[ "Direction, manner, and purpose are Propbank Adjunctive argument labels.", "Semantic roles are approximated by Propbank argument roles." ]
[ "Arah, cara, dan tujuan adalah label argumen Adjungtif Propbank.", "Peranan semantik dianggarkan oleh peranan hujah Propbank." ]
[ "In this paper, we propose a novel and effective approach to sentiment analysis on product reviews.", "In this paper, we study the problem of sentiment analysis on product reviews." ]
[ "Dalam makalah ini, kami mencadangkan pendekatan baru dan berkesan untuk analisis sentimen mengenai ulasan produk.", "Dalam makalah ini, kami mengkaji masalah analisis sentimen mengenai ulasan produk." ]
[ "In this paper we utilize a Pattern-Based lexical acquisition framework for the discovery of geographical information.", "In this paper we present an Algorithmic framework which allows an automated acquisition of Map-Like information from the web, based on surface patterns." ]
[ "Dalam makalah ini kami menggunakan kerangka pemerolehan leksikal Berasaskan Pattern untuk penemuan maklumat geografi.", "Dalam makalah ini kami membentangkan kerangka Algorithmic yang membolehkan pemerolehan maklumat Map-Like secara automatik dari web, berdasarkan corak permukaan." ]
[ "The circles denote fixations, and the lines are Saccades.", "Circles denote events, squares denote arguments, solid arrows represent Event-Event relations, and dashed arrows represent Event-Argument relations." ]
[ "Bulatan menandakan penetapan, dan garis-garisnya adalah Saccades.", "Bulatan menandakan peristiwa, petak menandakan argumen, anak panah pepejal mewakili hubungan Peristiwa-peristiwa, dan anak panah putus mewakili hubungan Peristiwa-Argumen." ]
[ "Semantic Parsing is the task of translating natural language utterances into a Machine-Interpretable meaning representation.", "Semantic Parsing is the task of mapping natural language sentences to a formal representation of meaning." ]
[ "Penghuraian Semantik adalah tugas menterjemahkan ucapan bahasa semula jadi ke dalam perwakilan makna Mesin-Terpretasi.", "Penghuraian Semantik adalah tugas pemetaan ayat bahasa semula jadi kepada perwakilan makna formal." ]
[ "1 a context consists of all the patterns of N-Grams within a certain window around the corresponding entity mention.", "Each context consists of approximately a paragraph of surrounding text, where the word to be discriminated (the target word) is found approximately in the middle of the context." ]
[ "1 konteks terdiri daripada semua corak N-Gram dalam tetingkap tertentu di sekitar sebutan entiti yang sepadan.", "Setiap konteks terdiri daripada kira-kira satu perenggan teks sekeliling, di mana perkataan yang akan didiskriminasi (kata sasaran) dijumpai kira-kira di tengah-tengah konteks." ]
[ "In this baseline, we applied the word Embedding trained by Skipgram on Wiki2014.", "We used the Pre-Trained Google Embedding to Initialize the word Embedding matrix." ]
[ "Dalam asas ini, kami menggunakan perkataan Embedding yang dilatih oleh Skipgram di Wiki2014.", "Kami menggunakan Embedding Google Pra-Trained untuk Memulakan perkataan Embedding matriks." ]
[ "The word Embeddings are Initialized using the Pre-Trained glove, and the Embedding size is 300.", "The word Embeddings used in each neural network is Initialized with the Pre-Trained glove with the dimension of 300." ]
[ "Perkataan Embeddings Dimulakan menggunakan sarung tangan Pra-Trained, dan saiz Embedding adalah 300.", "Perkataan Embeddings yang digunakan dalam setiap rangkaian saraf diawalkan dengan sarung tangan Pra-Trained dengan dimensi 300." ]
[ "In spite of this wide attention, open Ie โ€™ s formal definition is lacking.", "In spite of this broad attention, the open Ie task definition has been lacking." ]
[ "Walaupun perhatian yang luas ini, definisi formal terbuka Ie s kurang.", "Walaupun perhatian yang luas ini, definisi tugas Ie terbuka telah kurang." ]
[ "Interestingly Convolutional neural networks, widely used for image processing, have recently emerged as a strong class of models for Nlp tasks.", "Neural network models have been exploited to learn dense feature representation for a variety of Nlp tasks." ]
[ "Rangkaian saraf konvolutional yang menarik, yang digunakan secara meluas untuk pemprosesan imej, baru-baru ini muncul sebagai model kelas yang kuat untuk tugas Nlp.", "Model rangkaian saraf telah dieksploitasi untuk mempelajari perwakilan ciri padat untuk pelbagai tugas Nlp." ]
[ "Reordering is a common problem observed in language pairs of distant language origins.", "Reordering is a difficult task in translating between widely different languages such as Japanese and English." ]
[ "Susunan semula adalah masalah biasa yang diperhatikan dalam pasangan bahasa asal bahasa yang jauh.", "Susunan semula adalah tugas yang sukar dalam menerjemahkan antara bahasa yang berbeza seperti bahasa Jepun dan Inggeris." ]
[ "Our Cdsm feature is based on word vectors derived using a Skip-Gram model.", "We Initialize our word vectors with 300-Dimensional Word2Vec word Embeddings." ]
[ "Ciri Cdsm kami adalah berdasarkan vektor perkataan yang diperolehi menggunakan model Skip-Gram.", "Kami Memulakan vektor perkataan kami dengan Embedding perkataan 300-Dimensional Word2Vec." ]
[ "Our model is a first order linear chain conditional random field.", "We define a conditional random field for this task." ]
[ "Model kami adalah medan rawak bersyarat rantai linear pesanan pertama.", "Kami menentukan medan rawak bersyarat untuk tugas ini." ]

No dataset card yet

New: Create and edit this dataset card directly on the website!

Contribute a Dataset Card
Downloads last month
0
Add dataset card