[{"en": ["Belz and Kow proposed another Smt based Nlg system which made use of the Phrase-Based Smt model.", "The Phraseextraction Heuristics of were used to build the Phrase-Based Smt systems."], "ms": ["Belz dan Kow mencadangkan satu lagi sistem Nlg berasaskan Smt yang menggunakan model Smt Berasaskan Frasa.", "Heuristik Frasa Ekstraksi digunakan untuk membina sistem Smt Berasaskan Frasa."]}, {"en": ["In order to measure translation quality, we use BLEU 7 and Ter scores.", "We measure the translation quality with automatic Metrics including BLEU and Ter."], "ms": ["Untuk mengukur kualiti terjemahan, kami menggunakan skor BLEU 7 dan Ter.", "Kami mengukur kualiti terjemahan dengan Metrik automatik termasuk BLEU dan Ter."]}, {"en": ["Note that we use the naive Bayes Multinomial Classifier in Weka for classification.", "We relied on the Multinomial naive Bayes Classifier by Mccallum and Nigam."], "ms": ["Perhatikan bahawa kami menggunakan Klasifikasi Multinomial Bayes naif di Weka untuk klasifikasi.", "Kami bergantung kepada Multinomial naive Bayes Classifier oleh Mccallum dan Nigam."]}, {"en": ["As for Multiwords, we used the phrases from the Pre-Trained Google news Word2Vec vectors, which were obtained using a simple statistical approach.", "We used the Pre-Trained word Embeddings that are learned using the Word2Vec Toolkit on Google news Dataset."], "ms": ["Bagi Multiwords, kami menggunakan frasa dari vektor Word2Vec berita Google Pra-Trained, yang diperoleh menggunakan pendekatan statistik yang mudah.", "Kami menggunakan Embedding perkataan Pra-Latih yang dipelajari menggunakan Word2Vec Toolkit pada Dataset berita Google."]}, {"en": ["Liu et al proposed a recursive neural network designed to model the Subtrees, and CNN to capture the most important features on the shortest dependency path.", "Liu et al developed a Dependency-Based neural network, in which a Convolutional neural network has been used to capture features on the shortest path and a recursive neural network is designed to model Subtrees."], "ms": ["Liu et al mencadangkan rangkaian saraf rekursif yang direka untuk memodelkan Subtrees, dan CNN untuk menangkap ciri-ciri yang paling penting pada laluan kebergantungan terpendek.", "Liu et al membangunkan rangkaian neural Berasaskan Dependensi, di mana rangkaian neural Konvolutional telah digunakan untuk menangkap ciri-ciri di laluan terpendek dan rangkaian neural rekursif direka untuk model Subtrees."]}, {"en": ["Parameters were tuned using minimum error rate training.", "The minimum error rate training was used to tune the feature weights."], "ms": ["Parameter ditala menggunakan latihan kadar ralat minimum.", "Latihan kadar ralat minimum digunakan untuk menyesuaikan berat ciri."]}, {"en": ["Taxonomies, which serve as Backbones for structured knowledge, are useful for many Nlp applications such as question answering and document clustering.", "Taxonomies that are backbone of structured Ontology knowledge have been found to be useful for many areas such as question answering, document clustering and textual Entailment."], "ms": ["Taksonomi, yang berfungsi sebagai tulang belakang untuk pengetahuan berstruktur, berguna untuk banyak aplikasi Nlp seperti menjawab soalan dan pengelompokan dokumen.", "Taksonomi yang menjadi tulang belakang pengetahuan Ontologi berstruktur telah didapati berguna untuk banyak bidang seperti menjawab soalan, pengelompokan dokumen dan Entailment teks."]}, {"en": ["Relation extraction is the task of finding semantic relations between two entities from text.", "Relation extraction (re) is the task of extracting semantic relationships between entities in text."], "ms": ["Pengekstrakan hubungan adalah tugas mencari hubungan semantik antara dua entiti dari teks.", "Pengekstrakan hubungan (re) adalah tugas mengekstrak hubungan semantik antara entiti dalam teks."]}, {"en": ["Like we used support vector machines via the Classifier Svmlight.", "We chose to use support vector machines for our Classifier."], "ms": ["Seperti yang kita gunakan mesin vektor sokongan melalui Svmlight Classifier.", "Kami memilih untuk menggunakan mesin vektor sokongan untuk Pengelas kami."]}, {"en": ["We Pre-Train the word Embedding via Word2Vec on the whole Dataset.", "We used 300 dimensional Skip-Gram word Embeddings Pre-Trained on Pubmed."], "ms": ["Kami Pra-Latih perkataan Embedding melalui Word2Vec pada keseluruhan Dataset.", "Kami menggunakan 300 dimensi Skip-Gram perkataan Embeddings Pra-Trained di Pubmed."]}, {"en": ["In this paper we presented the results of a Corpus study of naturally occurring CRS in Task-Oriented dialogue.", "In this paper, we investigate the use of Form-Function Mappings derived from Human-Human dialogues."], "ms": ["Dalam makalah ini kami membentangkan hasil kajian Corpus mengenai CRS yang berlaku secara semula jadi dalam dialog Berorientasi Tugas.", "Dalam makalah ini, kita menyelidiki penggunaan Pemetaan Bentuk-Fungsi yang berasal dari dialog Manusia-Manusia."]}, {"en": ["We estimate a 5-Gram language model using interpolated Kneser-Ney discounting with Srilm.", "We use a Fourgram language model with modified Kneser-Ney smoothing as implemented in the Srilm Toolkit."], "ms": ["Kami menganggarkan model bahasa 5-Gram menggunakan diskaun Kneser-Ney yang saling berkaitan dengan Srilm.", "Kami menggunakan model bahasa Fourgram dengan smoothing Kneser-Ney yang diubahsuai seperti yang dilaksanakan dalam Srilm Toolkit."]}, {"en": ["A 5-Gram language model with Kneser-Ney smoothing was trained with Srilm on Monolingual English data.", "The Targetside 4-Gram language model was estimated using the Srilm Toolkit and modified Kneser-Ney discounting with interpolation."], "ms": ["Model bahasa 5-Gram dengan smoothing Kneser-Ney dilatih dengan Srilm pada data Bahasa Inggeris Monolingual.", "Model bahasa Targetside 4-Gram dianggarkan menggunakan Srilm Toolkit dan diskaun Kneser-Ney yang diubahsuai dengan interpolasi."]}, {"en": ["Zeng et al use Convolutional neural network for learning Sentence-Level features of contexts and obtain good performance even without using syntactic features.", "Zeng et al exploit a Convolutional neural network to extract lexical and sentence level features for relation classification."], "ms": ["Zeng et al menggunakan rangkaian neural Konvolutional untuk mempelajari ciri-ciri konteks Tahap-Keterangan dan mendapat prestasi yang baik walaupun tanpa menggunakan ciri-ciri sintaksis.", "Zeng et al mengeksploitasi rangkaian saraf Konvolutional untuk mengekstrak ciri-ciri tahap leksikal dan ayat untuk pengelasan hubungan."]}, {"en": ["We use several classifiers including logistic regression, random forest and Adaboost implemented in Scikit-Learn.", "We use the logistic regression Classifier in the Skll package, which is based on Scikit-Learn, optimizing for f 1 score."], "ms": ["Kami menggunakan beberapa pengelas termasuk regresi logistik, hutan rawak dan Adaboost yang dilaksanakan di Scikit-Learn.", "Kami menggunakan Klasifikasi regresi logistik dalam pakej Skll, yang berdasarkan Scikit-Learn, mengoptimumkan skor f 1."]}, {"en": ["Negation is a complex phenomenon present in all human languages, allowing for the uniquely human capacities of denial, contradiction, misrepresentation, lying, and irony (Horn and Wansing , 2015).", "Negation is a grammatical category which comprises various kinds of devices to reverse the truth value of a proposition (Cite-P-18-3-8)."], "ms": ["Negasi adalah fenomena kompleks yang terdapat dalam semua bahasa manusia, yang membolehkan keupayaan manusia yang unik untuk menafikan, bercanggah, salah nyata, berbohong, dan ironi (Horn and Wansing, 2015).", "Negasi adalah kategori tatabahasa yang terdiri daripada pelbagai jenis peranti untuk membalikkan nilai kebenaran cadangan (Cite-P-18-3-8)."]}, {"en": ["Lei et al employ three-way Tensors to obtain a Low-Dimensional input representation Optimized for Parsing performance.", "Lei et al proposed to learn features by representing the Cross-Products of some primitive units with Low-Rank Tensors for dependency Parsing."], "ms": ["Lei et al menggunakan Tensor tiga hala untuk mendapatkan perwakilan input Rendah Dimensi Optimized untuk prestasi Parsing.", "Lei et al mencadangkan untuk mempelajari ciri-ciri dengan mewakili Cross-Products beberapa unit primitif dengan Tensor Rendah Berkuda untuk Penghuraian dependensi."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of identifying the correct sense of an ambiguous word in a given context.", "Word sense Disambiguation (Wsd) is the task of determining the meaning of a word in a given context."], "ms": ["Kemusykilan erti kata Kemusykilan (Wsd) ialah tugas mengenal pasti pengertian yang betul bagi sesuatu perkataan yang samar-samar dalam konteks tertentu.", "Disambiguasi erti kata (Wsd) ialah tugas menentukan makna sesuatu perkataan dalam konteks tertentu."]}, {"en": ["For representing words, we used 100 dimensional Pre-Trained glove Embeddings.", "We use the Pre-Trained glove 50-Dimensional word Embeddings to represent words found in the glove Dataset."], "ms": ["Untuk mewakili perkataan, kami menggunakan 100 dimensi Embedding sarung tangan Pra-Trained.", "Kami menggunakan sarung tangan Pra-Latih 50-Dimensional Embedding perkataan untuk mewakili perkataan yang terdapat dalam Dataset sarung tangan."]}, {"en": ["We trained a 4-Gram language model on this data with Kneser-Ney discounting using Srilm.", "We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit."], "ms": ["Kami melatih model bahasa 4-Gram pada data ini dengan diskaun Kneser-Ney menggunakan Srilm.", "Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit."]}, {"en": ["Our model uses non-negative matrix Factorization in order to find latent dimensions.", "The model uses non-negative matrix Factorization in order to find latent dimensions."], "ms": ["Model kami menggunakan pemfaktoran matriks bukan negatif untuk mencari dimensi terpendam.", "Model ini menggunakan pemfaktoran matriks bukan negatif untuk mencari dimensi terpendam."]}, {"en": ["For training the translation model and for decoding we used the Moses Toolkit.", "In the translation tasks, we used the Moses Phrase-Based Smt systems."], "ms": ["Untuk melatih model terjemahan dan untuk penyahkodan, kami menggunakan Musa Toolkit.", "Dalam tugas terjemahan, kami menggunakan sistem Smt Berasaskan Frasa Musa."]}, {"en": ["In this run, we use a sentence vector derived from word Embeddings obtained from Word2Vec.", "For the Embeddings trained on stack overflow corpus, we use the Word2Vec implementation of Gensim 8 Toolkit."], "ms": ["Dalam larian ini, kami menggunakan vektor ayat yang berasal dari perkataan Embeddings yang diperoleh dari Word2Vec.", "Untuk Embeddings yang dilatih pada korpus limpahan timbunan, kami menggunakan pelaksanaan Word2Vec Gensim 8 Toolkit."]}, {"en": ["Traditional supervised re models heavily rely on abundant amounts of high-quality Annotated data.", "Traditional supervised learning methods heavily rely on large scale Annotated data which is time and labor consuming."], "ms": ["Model re yang diawasi secara tradisional sangat bergantung pada jumlah data Annotated berkualiti tinggi yang banyak.", "Kaedah pembelajaran yang diawasi secara tradisional sangat bergantung pada data Annotated berskala besar yang memakan masa dan tenaga kerja."]}, {"en": ["Results confirmed that our method using Noun-Phrase Chunking is effective for automatic evaluation for machine translation.", "In this paper, we propose a new automatic evaluation method for machine translation using Noun-Phrase Chunking."], "ms": ["Keputusan mengesahkan bahawa kaedah kami menggunakan Noun-Phrase Chunking berkesan untuk penilaian automatik untuk terjemahan mesin.", "Dalam makalah ini, kami mencadangkan kaedah penilaian automatik baru untuk terjemahan mesin menggunakan Noun-Phrase Chunking."]}, {"en": ["The English side of the parallel corpus is trained into a language model using Srilm.", "The Pre-Processed Monolingual sentences will be used by Srilm or Berkeleylm to train a N-Gram language model."], "ms": ["Bahagian Inggeris korpus selari dilatih menjadi model bahasa menggunakan Srilm.", "Kalimat Monolingual Pra-Proses akan digunakan oleh Srilm atau Berkeleylm untuk melatih model bahasa N-Gram."]}, {"en": ["We use 300-Dimensional vectors that were trained and provided by Word2Vec tool using a part of the Google news Dataset 4.", "On all Datasets and models, we use 300-Dimensional word vectors Pre-Trained on Google news."], "ms": ["Kami menggunakan vektor 300 dimensi yang dilatih dan disediakan oleh alat Word2Vec menggunakan sebahagian daripada Dataset berita Google 4.", "Pada semua Dataset dan model, kami menggunakan 300-Dimensional vektor perkataan Pra-Trained pada berita Google."]}, {"en": ["Bilingual Dictionaries are an essential resource in many Multilingual natural language processing tasks such as machine translation and Cross-Language information Retrieval.", "Bilingual Lexicons serve as an indispensable source of knowledge for various Cross-Lingual tasks such as Cross-Lingual information Retrieval or statistical machine translation."], "ms": ["Kamus dwibahasa merupakan sumber penting dalam banyak tugas pemprosesan bahasa semula jadi pelbagai bahasa seperti terjemahan mesin dan Retrieval maklumat Cross-Language.", "Leksikon dwibahasa berfungsi sebagai sumber pengetahuan yang sangat diperlukan untuk pelbagai tugas Cross-Lingual seperti Retrieval maklumat Cross-Lingual atau terjemahan mesin statistik."]}, {"en": ["We use the Moses Toolkit to train our Phrase-Based Smt models.", "We evaluated the reordering approach within the Moses Phrase-Based Smt system."], "ms": ["Kami menggunakan Musa Toolkit untuk melatih model Smt Berasaskan Frasa kami.", "Kami menilai pendekatan penyusunan semula dalam sistem Smt Berasaskan Frasa Musa."]}, {"en": ["Our baseline system is an standard Phrase-Based Smt system built with Moses.", "Our baseline is a Phrase-Based mt system trained using the Moses Toolkit."], "ms": ["Sistem asas kami adalah sistem Smt Berasaskan Frasa standard yang dibina dengan Musa.", "Asas kami adalah sistem mt berasaskan frasa yang dilatih menggunakan Musa Toolkit."]}, {"en": ["Grammar induction is the task of inducing high-level rules for application of Grammars in spoken dialogue systems.", "Grammar induction is the task of learning grammatical structure from plain text without human supervision."], "ms": ["Induksi Grammar adalah tugas mendorong peraturan peringkat tinggi untuk penerapan Grammar dalam sistem dialog lisan.", "Induksi tatabahasa adalah tugas pembelajaran struktur tatabahasa dari teks biasa tanpa pengawasan manusia."]}, {"en": ["We use Moses, a statistical machine translation system that allows training of translation models.", "For our baseline we use the Moses software to train a phrase based machine translation model."], "ms": ["Kami menggunakan Moses, sistem terjemahan mesin statistik yang membolehkan latihan model terjemahan.", "Untuk asas kami, kami menggunakan perisian Moses untuk melatih model terjemahan mesin berasaskan frasa."]}, {"en": ["We use the popular Moses Toolkit to build the Smt system.", "We use a Pbsmt model built with the Moses Smt Toolkit."], "ms": ["Kami menggunakan Musa Toolkit yang popular untuk membina sistem Smt.", "Kami menggunakan model Pbsmt yang dibina dengan Musa Smt Toolkit."]}, {"en": ["We used a standard Pbmt system built using Moses Toolkit.", "Our system is built using the Open-Source Moses Toolkit with default settings."], "ms": ["Kami menggunakan sistem Pbmt standard yang dibina menggunakan Musa Toolkit.", "Sistem kami dibina menggunakan Open-Source Moses Toolkit dengan tetapan lalai."]}, {"en": ["We used the Sri language modeling Toolkit with Kneser-Kney smoothing.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Kney.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["The language model has an Embedding size of 250 and two Lstm layers with a hidden size of 1000.", "The Decoder and Encoder word Embeddings are of size 500, the Encoder uses a Bidirectional Lstm layer with 1K units to Encode the source side."], "ms": ["Model bahasa mempunyai saiz Embedding 250 dan dua lapisan Lstm dengan saiz tersembunyi 1000.", "Embedding kata Decoder dan Encoder bersaiz 500, Encoder menggunakan lapisan Lstm Bidirectional dengan unit 1K untuk mengekod sisi sumber."]}, {"en": ["Conditional random fields are Undirected graphical models of a conditional distribution.", "Conditional random fields are probabilistic models for labelling sequential data."], "ms": ["Medan rawak bersyarat adalah model grafik tidak diarahkan bagi taburan bersyarat.", "Medan rawak bersyarat adalah model kebarangkalian untuk melabel data berurutan."]}, {"en": ["Table 4 shows end-to-end translation BLEU score results.", "Table 1 shows the translation performance by BLEU."], "ms": ["Jadual 4 menunjukkan hasil skor BLEU terjemahan hujung ke hujung.", "Jadual 1 menunjukkan prestasi terjemahan oleh BLEU."]}, {"en": ["For example, Faruqui et al introduce knowledge in lexical resources into the models in Word2Vec.", "Faruqui et al employ semantic relations of Ppdb, Wordnet, Framenet to retrofit word Embeddings for various prediction tasks."], "ms": ["Sebagai contoh, Faruqui et al memperkenalkan pengetahuan dalam sumber leksikal ke dalam model dalam Word2Vec.", "Faruqui et al menggunakan hubungan semantik Ppdb, Wordnet, Framenet untuk mengadaptasi Embedding kata untuk pelbagai tugas ramalan."]}, {"en": ["Negation is a complex phenomenon present in all human languages, allowing for the uniquely human capacities of denial, contradiction, misrepresentation, lying, and irony (Cite-P-18-3-7).", "Negation is a grammatical category which comprises various kinds of devices to reverse the truth value of a proposition (Cite-P-18-3-8)."], "ms": ["Negasi adalah fenomena kompleks yang terdapat dalam semua bahasa manusia, yang membolehkan keupayaan manusia yang unik untuk menafikan, bercanggah, salah nyata, berbohong, dan ironi (Cite-P-18-3-7).", "Negasi adalah kategori tatabahasa yang terdiri daripada pelbagai jenis peranti untuk membalikkan nilai kebenaran cadangan (Cite-P-18-3-8)."]}, {"en": ["In addition, we utilize the Pre-Trained word Embeddings with 300 dimensions from for Initialization.", "In addition, we can use Pre-Trained neural word Embeddings on large scale corpus for neural network Initialization."], "ms": ["Di samping itu, kami menggunakan Embedding perkataan Pra-Latih dengan 300 dimensi dari untuk Permulaan.", "Di samping itu, kita boleh menggunakan Embedding perkataan neural Pra-Trained pada korpus skala besar untuk permulaan rangkaian neural."]}, {"en": ["We use the Stanford named entity Recognizer for this purpose.", "For Emd we used the Stanford named entity Recognizer."], "ms": ["Kami menggunakan Stanford dinamakan entiti Pengiktirafan untuk tujuan ini.", "Untuk Emd kami menggunakan Stanford bernama Recognizer."]}, {"en": ["Bahdanau et al propose integrating an attention mechanism in the Decoder, which is trained to determine on which portions of the source sentence to focus.", "For instance, Bahdanau et al advocate the attention mechanism to dynamically generate a context vector of the whole source sentence for improving the performance of the Nmt."], "ms": ["Bahdanau et al mencadangkan mengintegrasikan mekanisme perhatian dalam Decoder, yang dilatih untuk menentukan bahagian mana ayat sumber untuk memberi tumpuan.", "Sebagai contoh, Bahdanau et al menganjurkan mekanisme perhatian untuk secara dinamik menghasilkan vektor konteks keseluruhan ayat sumber untuk meningkatkan prestasi Nmt."]}, {"en": ["We used 100 dimensional glove Embeddings for this purpose.", "For the sick and Msrvid experiments, we used 300-Dimension glove word Embeddings."], "ms": ["Kami menggunakan 100 dimensi sarung tangan Embeddings untuk tujuan ini.", "Untuk eksperimen yang sakit dan Msrvid, kami menggunakan perkataan sarung tangan 300 Dimensi Embeddings."]}, {"en": ["The system was trained using Moses with default settings, using a 5-Gram language model created from the English side of the training corpus using Srilm.", "The language models were created using the Srilm Toolkit on the standard training sections of the Ccgbank, with Sentenceinitial words Uncapitalized."], "ms": ["Sistem ini dilatih menggunakan Musa dengan tetapan lalai, menggunakan model bahasa 5-Gram yang dicipta dari sisi bahasa Inggeris korpus latihan menggunakan Srilm.", "Model bahasa dicipta menggunakan Srilm Toolkit pada bahagian latihan standard Ccgbank, dengan kata-kata Sentenceinitial Uncapitalized."]}, {"en": ["Table 2 shows the blind test results using Bleu-4, meteor and Ter.", "Table 5 shows the BLEU and per scores obtained by each system."], "ms": ["Jadual 2 menunjukkan keputusan ujian buta menggunakan Bleu-4, meteor dan Ter.", "Jadual 5 menunjukkan BLEU dan setiap skor yang diperolehi oleh setiap sistem."]}, {"en": ["We learn the noise model parameters using an Expectation-Maximization approach.", "Thus, we propose a new approach based on the Expectation-Maximization algorithm."], "ms": ["Kami mempelajari parameter model bunyi menggunakan pendekatan Jangkaan-Maximization.", "Oleh itu, kami mencadangkan pendekatan baru berdasarkan algoritma Jangkaan-Maximization."]}, {"en": ["Discourse Segmentation is the first step in building discourse Parsers.", "Discourse Segmentation is the first step in building a discourse Parser."], "ms": ["Segmentasi Wacana adalah langkah pertama dalam membina wacana Parsers.", "Segmentasi Wacana adalah langkah pertama dalam membina Parser wacana."]}, {"en": ["Semantic Parsing is the task of Transducing natural language (NL) utterances into formal meaning representations (Mrs), commonly represented as tree structures.", "Semantic Parsing is the task of converting natural language utterances into their complete formal meaning representations which are Executable for some application."], "ms": ["Penghuraian Semantik adalah tugas Transducing bahasa semula jadi (NL) ucapan ke dalam perwakilan makna formal (Puan), biasanya diwakili sebagai struktur pokok.", "Penghuraian Semantik adalah tugas menukar ucapan bahasa semula jadi menjadi perwakilan makna formal lengkap mereka yang boleh dilaksanakan untuk beberapa aplikasi."]}, {"en": ["Using word or phrase representations as extra features has been proven to be an effective and simple way to improve the predictive performance of an Nlp system.", "Word representations, especially Brown clustering, have been shown to improve the performance of NER system when added as a feature."], "ms": ["Menggunakan perwakilan perkataan atau frasa sebagai ciri tambahan telah terbukti sebagai cara yang berkesan dan mudah untuk meningkatkan prestasi ramalan sistem Nlp.", "Perwakilan perkataan, terutamanya pengelompokan Brown, telah ditunjukkan untuk meningkatkan prestasi sistem NER apabila ditambah sebagai ciri."]}, {"en": ["Hatzivassiloglou and Mckeown proposed a supervised algorithm to determine the semantic orientation of adjectives.", "Hatzivassiloglou and Mckeown proposed the first method for determining adjective polarities or orientations."], "ms": ["Hatzivassiloglou dan Mckeown mencadangkan algoritma yang diselia untuk menentukan orientasi semantik kata sifat.", "Hatzivassiloglou dan Mckeown mencadangkan kaedah pertama untuk menentukan polariti atau orientasi kata sifat."]}, {"en": ["Latent Dirichlet allocation is one of the widely adopted Generative models for topic modeling.", "Latent Dirichlet allocation is a representative of topic models."], "ms": ["Peruntukan Dirichlet laten adalah salah satu model Generatif yang diterima pakai secara meluas untuk pemodelan topik.", "Peruntukan Dirichlet laten adalah wakil model topik."]}, {"en": ["A 5-Gram language model with Kneser-Ney smoothing was trained with Srilm on Monolingual English data.", "The language models used were 7-Gram Srilm with Kneser-Ney smoothing and linear interpolation."], "ms": ["Model bahasa 5-Gram dengan smoothing Kneser-Ney dilatih dengan Srilm pada data Bahasa Inggeris Monolingual.", "Model bahasa yang digunakan ialah Srilm 7-Gram dengan smoothing Kneser-Ney dan interpolasi linear."]}, {"en": ["We use the 300-Dimensional Skip-Gram word Embeddings built on the Google-News corpus.", "We used the Google news Pretrained Word2Vec word Embeddings for our model."], "ms": ["Kami menggunakan Embedding perkataan Skip-Gram 300-Dimensional yang dibina di korpus Google-News.", "Kami menggunakan perkataan Embedding Word2Vec Pretrained Google untuk model kami."]}, {"en": ["We obtained distributed word representations using Word2Vec 4 with Skip-Gram.", "We experiment with Word2Vec and glove for estimating similarity of words."], "ms": ["Kami memperoleh perwakilan perkataan yang diedarkan menggunakan Word2Vec 4 dengan Skip-Gram.", "Kami bereksperimen dengan Word2Vec dan sarung tangan untuk menganggarkan persamaan perkataan."]}, {"en": ["For this purpose, we use the Minipar dependency Parser.", "We automatically Parse sentences with Minipar, a Broad-Coverage dependency Parser."], "ms": ["Untuk tujuan ini, kami menggunakan Penghurai dependensi Minipar.", "Kami secara automatik Menghuraikan ayat dengan Minipar, Parser dependensi Broad-Coverage."]}, {"en": ["Gong et al and Xiao et al introduce Topic-Based similarity models to improve Smt system.", "Recently, Gong and Zhou also applied topic modeling into domain adaptation in Smt."], "ms": ["Gong et al dan Xiao et al memperkenalkan model persamaan Berasaskan Topik untuk meningkatkan sistem Smt.", "Baru-baru ini, Gong dan Zhou juga menerapkan pemodelan topik ke dalam penyesuaian domain dalam Smt."]}, {"en": ["All Han models and a Subset of Bca models are Initialized with Pretrained glove word Embeddings 1.", "The word Embeddings are Initialized by Pre-Trained glove Embeddings 2."], "ms": ["Semua model Han dan Subset model Bca Diawalkan dengan perkataan sarung tangan Pretrained Embeddings 1.", "Perkataan Embeddings Dimulakan oleh Embedding sarung tangan Pra-Latihan 2."]}, {"en": ["Bleu is widely used for automatic evaluation of machine translation systems.", "A similar idea called IBM BLEU score has proved successful in automatic machine translation evaluation."], "ms": ["Bleu digunakan secara meluas untuk penilaian automatik sistem terjemahan mesin.", "Idea serupa yang dipanggil skor IBM BLEU telah terbukti berjaya dalam penilaian terjemahan mesin automatik."]}, {"en": ["High quality word Embeddings have been proven helpful in many Nlp tasks.", "In the Nlp field, Nn-Based Multi-Task learning has been proven to be effective."], "ms": ["Embedding perkataan berkualiti tinggi telah terbukti berguna dalam banyak tugas Nlp.", "Dalam bidang Nlp, pembelajaran Multi-Task berasaskan Nn telah terbukti berkesan."]}, {"en": ["We used Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting ,.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai interpolated.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["For language model, we use a Trigram language model trained with the Srilm Toolkit on the English side of the training corpus.", "We train a Trigram language model with modified Kneser-Ney smoothing from the training Dataset using the Srilm Toolkit, and use the same language model for all three systems."], "ms": ["Untuk model bahasa, kami menggunakan model bahasa Trigram yang dilatih dengan Srilm Toolkit di sisi bahasa Inggeris korpus latihan.", "Kami melatih model bahasa Trigram dengan Kneser-Ney yang diubahsuai dari Dataset latihan menggunakan Srilm Toolkit, dan menggunakan model bahasa yang sama untuk ketiga-tiga sistem."]}, {"en": ["An English 5-Gram language model is trained using Kenlm on the Gigaword corpus.", "The 5-Gram target language model was trained using Kenlm."], "ms": ["Model bahasa 5-Gram Inggeris dilatih menggunakan Kenlm pada korpus Gigaword.", "Model bahasa sasaran 5-Gram dilatih menggunakan Kenlm."]}, {"en": ["With the user and product attention, our model can take account of the global user preference and product characteristics in both word level and semantic level.", "With the consideration of user and product information, our model can significantly improve the performance of sentiment classification."], "ms": ["Dengan perhatian pengguna dan produk, model kami boleh mengambil kira keutamaan pengguna global dan ciri produk dalam kedua-dua tahap perkataan dan tahap semantik.", "Dengan pertimbangan maklumat pengguna dan produk, model kami dapat meningkatkan prestasi klasifikasi sentimen dengan ketara."]}, {"en": ["Segmentation is the first step in a discourse Parser, a system that Constructs discourse trees from elementary discourse units.", "Since Segmentation is the first stage of discourse Parsing, quality discourse segments are critical to building quality discourse representations (Cite-P-12-1-10)."], "ms": ["Segmentasi merupakan langkah pertama dalam Parser wacana, sistem yang Membina pokok wacana dari unit wacana dasar.", "Oleh kerana Segmentasi adalah peringkat pertama wacana Penghuraian, segmen wacana berkualiti adalah penting untuk membina perwakilan wacana berkualiti (Cite-P-12-1-10)."]}, {"en": ["We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing.", "For the language model, we used Srilm with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Untuk model bahasa, kami menggunakan Srilm dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We use 300-Dimensional word Embeddings from glove to Initialize the model.", "Meanwhile, we adopt glove Pre-Trained word Embeddings 5 to Initialize the representation of input tokens."], "ms": ["Kami menggunakan Embedding perkataan 300 dimensi dari sarung tangan untuk Memulakan model.", "Sementara itu, kami menggunakan sarung tangan Embeddings perkataan Pra-Latih 5 untuk Memulakan perwakilan token input."]}, {"en": ["Dependency Parsing is the task of predicting the most probable dependency structure for a given sentence.", "Dependency Parsing is the task to assign dependency structures to a given sentence Math-W-4-1-0-14."], "ms": ["Penghuraian dependensi adalah tugas meramalkan struktur dependensi yang paling mungkin untuk ayat tertentu.", "Penghuraian dependensi adalah tugas untuk menetapkan struktur dependensi pada ayat Math-W-4-1-0-14."]}, {"en": ["Empirical results showed that our model can generate either general or specific responses, and significantly outperform state-of-the-art generation methods.", "Empirical studies show that our model can significantly outperform the state-of-the-art response generation models."], "ms": ["Hasil empirikal menunjukkan bahawa model kami dapat menghasilkan tindak balas umum atau spesifik, dan dengan ketara mengatasi kaedah generasi canggih.", "Kajian empirikal menunjukkan bahawa model kami dapat mengatasi model generasi tindak balas canggih."]}, {"en": ["Unpruned language models were trained using Lmplz which employs modified Kneser-Ney smoothing.", "Language modeling is trained using Kenlm using 5-Grams, with modified Kneser-Ney smoothing."], "ms": ["Model bahasa yang tidak dipangkas dilatih menggunakan Lmplz yang menggunakan smoothing Kneser-Ney yang diubahsuai.", "Pemodelan bahasa dilatih menggunakan Kenlm menggunakan 5-Gram, dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We compute the syntactic features only for pairs of event mentions from the same sentence, using the Stanford dependency Parser.", "We apply the rules to each sentence with its dependency tree structure acquired from the Stanford Parser."], "ms": ["Kami mengira ciri sintaksis hanya untuk pasangan sebutan peristiwa dari ayat yang sama, menggunakan Stanford dependency Parser.", "Kami menggunakan peraturan untuk setiap ayat dengan struktur pokok dependensi yang diperoleh daripada Stanford Parser."]}, {"en": ["For opinion mining, Wu et al also utilized a dependency structure based on Mwus, although they restricted Mwus with predefined relations.", "For example, Wu et al identified aspects based on the features explored by dependency Parser."], "ms": ["Untuk perlombongan pendapat, Wu et al juga menggunakan struktur kebergantungan berdasarkan Mwus, walaupun mereka mengehadkan Mwus dengan hubungan yang telah ditentukan.", "Sebagai contoh, Wu et al mengenal pasti aspek berdasarkan ciri-ciri yang diterokai oleh Parser dependensi."]}, {"en": ["We use Srilm for training a Trigram language model on the English side of the training corpus.", "The language model is a 3-Gram language model trained using the Srilm Toolkit on the English side of the training data."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa Trigram di sisi bahasa Inggeris korpus latihan.", "Model bahasa adalah model bahasa 3-Gram yang dilatih menggunakan Srilm Toolkit di sisi bahasa Inggeris data latihan."]}, {"en": ["We use Srilm Toolkit to train a Trigram language model with modified Kneser-Ney smoothing on the target side of training corpus.", "We use Sri language modeling Toolkit to train a 5-Gram language model on the English sentences of Fbis corpus."], "ms": ["Kami menggunakan Srilm Toolkit untuk melatih model bahasa Trigram dengan smoothing Kneser-Ney yang diubahsuai di sisi sasaran korpus latihan.", "Kami menggunakan Sri bahasa pemodelan Toolkit untuk melatih model bahasa 5-Gram pada ayat bahasa Inggeris Fbis corpus."]}, {"en": ["Mikolov et al and Mikolov et al introduce efficient methods to directly learn high-quality word Embeddings from large amounts of unstructured raw text.", "Mikolov et al proposed a Computationally efficient method for learning distributed word representation such that words with similar meanings will map to similar vectors."], "ms": ["Mikolov et al dan Mikolov et al memperkenalkan kaedah yang cekap untuk mempelajari Embedding perkataan berkualiti tinggi secara langsung dari sejumlah besar teks mentah yang tidak tersusun.", "Mikolov et al mencadangkan kaedah yang cekap pengiraan untuk mempelajari perwakilan perkataan yang diedarkan sedemikian rupa sehingga perkataan dengan makna yang serupa akan memetakan kepada vektor yang serupa."]}, {"en": ["For feature building, we use Word2Vec Pre-Trained word Embeddings.", "We use word Embeddings 3 as a cheap Low-Maintenance alternative for knowledge base construction."], "ms": ["Untuk bangunan ciri, kami menggunakan Embedding kata Pra-Latihan Word2Vec.", "Kami menggunakan perkataan Embeddings 3 sebagai alternatif Low-Maintenance murah untuk pembinaan asas pengetahuan."]}, {"en": ["A Kn-Smoothed 5-Gram language model is trained on the target side of the parallel data with Srilm.", "We use Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting."], "ms": ["Model bahasa Kn-Smoothed 5-Gram dilatih pada sisi sasaran data selari dengan Srilm.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Unsupervised word Embeddings trained from large amounts of Unlabeled data have been shown to improve many Nlp tasks.", "Word Embeddings have proven to be effective models of semantic representation of words in various Nlp tasks."], "ms": ["Embedding perkataan yang tidak diawasi yang dilatih dari sejumlah besar data Unlabeled telah ditunjukkan untuk meningkatkan banyak tugas Nlp.", "Embedding Word telah terbukti menjadi model berkesan perwakilan semantik perkataan dalam pelbagai tugas Nlp."]}, {"en": ["For Japanese, we produce Rmrs from the dependency Parser Cabocha.", "We used the statistical Japanese dependency Parser Cabocha for Parsing."], "ms": ["Untuk Jepun, kami menghasilkan Rmrs dari dependency Parser Cabocha.", "Kami menggunakan statistik Jepun dependency Parser Cabocha untuk Parsing."]}, {"en": ["Our model is a first order linear chain conditional random field.", "We primarily compared our model with conditional random fields."], "ms": ["Model kami adalah medan rawak bersyarat rantai linear pesanan pertama.", "Kami terutamanya membandingkan model kami dengan medan rawak bersyarat."]}, {"en": ["Roth and Yih also described a Classification-Based framework in which they jointly learn to identify named entities and relations.", "Roth and Yih use Ilp to deal with the joint inference problem of named entity and relation identification."], "ms": ["Roth dan Yih juga menerangkan rangka kerja berasaskan Klasifikasi di mana mereka bersama-sama belajar untuk mengenal pasti entiti dan hubungan yang dinamakan.", "Roth dan Yih menggunakan Ilp untuk menangani masalah kesimpulan bersama entiti bernama dan pengenalan hubungan."]}, {"en": ["We train the models for 20 Epochs using categorical Cross-Entropy loss and the Adam optimization method.", "We adopt Adam for optimization, train for 20 Epochs and pick the best epoch based on development set loss."], "ms": ["Kami melatih model untuk 20 Epochs menggunakan kerugian Cross-Entropy kategori dan kaedah pengoptimuman Adam.", "Kami mengamalkan Adam untuk pengoptimuman, melatih untuk 20 Epochs dan memilih zaman terbaik berdasarkan kehilangan set pembangunan."]}, {"en": ["In this paper, we propose to use the Co-Training approach to address the problem of Cross-Lingual sentiment classification.", "In this study, we focus on improving the Corpus-Based method for Cross-Lingual sentiment classification of Chinese product reviews."], "ms": ["Dalam makalah ini, kami mencadangkan untuk menggunakan pendekatan Latihan Bersama untuk menangani masalah klasifikasi sentimen Cross-Lingual.", "Dalam kajian ini, kami memberi tumpuan kepada meningkatkan kaedah berasaskan Corpus untuk klasifikasi sentimen Cross-Lingual ulasan produk Cina."]}, {"en": ["Semantic Parsing is reduced to query graph generation, formulated as a staged search problem.", "Semantic Parsing is then reduced to query graph generation, formulated as a search problem with staged."], "ms": ["Penghuraian Semantik dikurangkan kepada penjanaan graf pertanyaan, dirumuskan sebagai masalah carian berperingkat.", "Penghuraian Semantik kemudiannya dikurangkan kepada penjanaan graf pertanyaan, dirumuskan sebagai masalah carian dengan dipentaskan."]}, {"en": ["A pun is the exploitation of the various meanings of a word or words with phonetic similarity but different meanings.", "When a pun is a spoken utterance, two types of Puns are commonly distinguished: Homophonic Puns, which exploit different meanings of the same word, and Heterophonic Puns, in which one or more words have similar but not identical Pronunciations to some other word or phrase that is alluded to in the pun."], "ms": ["A pun adalah eksploitasi pelbagai makna perkataan atau perkataan dengan persamaan fonetik tetapi makna yang berbeza.", "Apabila pun adalah kata-kata yang diucapkan, dua jenis Puns biasanya dibezakan: Puns Homophonic, yang mengeksploitasi makna yang berbeza dari perkataan yang sama, dan Puns Heterophonic, di mana satu atau lebih perkataan mempunyai sebutan yang sama tetapi tidak sama dengan beberapa perkataan atau frasa lain yang menyinggung dalam pun."]}, {"en": ["We use 4-Gram language models in both tasks, and conduct Minimumerror-Rate training to optimize feature weights on the Dev set.", "We use minimum error rate training with Nbest list size 100 to optimize the feature weights for maximum development BLEU."], "ms": ["Kami menggunakan model bahasa 4-Gram dalam kedua-dua tugas, dan menjalankan latihan Minimumerror-Rate untuk mengoptimumkan berat ciri pada set Dev.", "Kami menggunakan latihan kadar ralat minimum dengan saiz senarai Nbest 100 untuk mengoptimumkan berat ciri untuk pembangunan maksimum BLEU."]}, {"en": ["We use Pre-Trained word vectors from glove.", "We use Pre-Trained glove Embeddings to represent the words."], "ms": ["Kami menggunakan vektor perkataan pra-latihan dari sarung tangan.", "Kami menggunakan Embedding sarung tangan Pra-Trained untuk mewakili perkataan."]}, {"en": ["The Optimisation of the feature weights of the model is done with minimum error rate training against the BLEU evaluation metric.", "The Log-Linear model is then tuned as usual with minimum error rate training on a separate development set coming from the same domain."], "ms": ["Pengoptimuman berat ciri model dilakukan dengan latihan kadar ralat minimum terhadap metrik penilaian BLEU.", "Model Log-Linear kemudian ditala seperti biasa dengan latihan kadar ralat minimum pada set pembangunan berasingan yang berasal dari domain yang sama."]}, {"en": ["Tai et al, and Le and Zuidema extended sequential Lstms to Tree-Structured Lstms by adding branching factors.", "Tai et al introduced Tree-Lstm, a Generalisation of Lstms to Tree-Structured network Topologies, Eg, recursive neural networks."], "ms": ["Tai et al, dan Le dan Zuidema memanjangkan Lstm berurutan ke Lstms Tree-Structured dengan menambah faktor bercabang.", "Tai et al memperkenalkan Tree-Lstm, Generalisation of Lstms to Tree-Structured network Topologies, Eg, recursive neural networks."]}, {"en": ["On the remaining Tweets, we trained a 10-Gram word length model, and a 5-Gram language model, using Srilm with Kneyser-Ney smoothing.", "We trained a Trigram language model on the Chinese side, with the Srilm Toolkit, using the modified Kneser-Ney smoothing option."], "ms": ["Pada Tweet yang tinggal, kami melatih model panjang perkataan 10-Gram, dan model bahasa 5-Gram, menggunakan Srilm dengan smoothing Kneyser-Ney.", "Kami melatih model bahasa Trigram di sisi Cina, dengan Srilm Toolkit, menggunakan pilihan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["The tuning step used minimum error rate training.", "The decoding weights were Optimized with minimum error rate training."], "ms": ["Langkah penalaan menggunakan latihan kadar ralat minimum.", "Berat penyahkodan dioptimumkan dengan latihan kadar ralat minimum."]}, {"en": ["We build a French Tagger based on Englishfrench data from the Europarl corpus.", "We extract our paraphrase grammar from the French-English portion of the Europarl corpus."], "ms": ["Kami membina Tagger Perancis berdasarkan data bahasa Inggeris dari korpus Europarl.", "Kami mengekstrak tatabahasa parafrasa kami dari bahagian Perancis-Inggeris korpus Europarl."]}, {"en": ["Model fitting for our model is based on the Expectation-Maximization algorithm.", "For this purpose, we turn to the expectation maximization algorithm."], "ms": ["Model yang sesuai untuk model kami adalah berdasarkan algoritma Jangkaan-Maximization.", "Untuk tujuan ini, kita beralih kepada algoritma memaksimumkan jangkaan."]}, {"en": ["We use the cube pruning method to approximately intersect the translation forest with the language model.", "We then follow published procedures to extract Hierarchical phrases from the Union of the directional word alignments."], "ms": ["Kami menggunakan kaedah pemangkasan kiub untuk kira-kira bersilang hutan terjemahan dengan model bahasa.", "Kami kemudian mengikuti prosedur yang diterbitkan untuk mengekstrak frasa Hierarki dari Kesatuan penjajaran perkataan arah."]}, {"en": ["Collobert et al used word Embeddings as the input of various Nlp tasks, including Part-Of-Speech tagging, Chunking, NER, and semantic role labeling.", "Collobert et al , 2011) used word Embeddings for Pos tagging, named entity recognition and semantic role labeling."], "ms": ["Collobert et al menggunakan perkataan Embeddings sebagai input pelbagai tugas Nlp, termasuk penandaan Part-Of-Speech, Chunking, NER, dan pelabelan peranan semantik.", "Collobert et al, 2011) menggunakan perkataan Embeddings untuk penandaan Pos, pengiktirafan entiti dinamakan dan pelabelan peranan semantik."]}, {"en": ["Specifically, we adopt Linear-Chain conditional random fields as the method for sequence labeling.", "We solve this sequence tagging problem using the Mallet implementation of conditional random fields."], "ms": ["Khususnya, kami menggunakan medan rawak bersyarat Linear-Chain sebagai kaedah untuk pelabelan urutan.", "Kami menyelesaikan masalah penandaan urutan ini menggunakan pelaksanaan Mallet medan rawak bersyarat."]}, {"en": ["We observe that the Propbank roles are more robust in all tested experimental conditions, I.E ., the performance decrease is more severe for Verbnet.", "With the two alternative role Annotations, we show that the Propbank role set is more robust to the lack of verb \u00a8C specific semantic information."], "ms": ["Kami memerhatikan bahawa peranan Propbank lebih mantap dalam semua keadaan eksperimen yang diuji, I.E., penurunan prestasi lebih teruk untuk Verbnet.", "Dengan dua Annotasi peranan alternatif, kami menunjukkan bahawa set peranan Propbank lebih mantap terhadap kekurangan maklumat semantik khusus kata kerja C."]}, {"en": ["All systems are evaluated using Case-Insensitive BLEU.", "We use Case-Insensitive BLEU as evaluation metric."], "ms": ["Semua sistem dinilai menggunakan Case-Insensitive BLEU.", "Kami menggunakan Case-Insensitive BLEU sebagai metrik penilaian."]}, {"en": ["We used the Scikit-Learn implementation of Svrs and the Skll Toolkit.", "We used the implementation of random forest in Scikitlearn as the Classifier."], "ms": ["Kami menggunakan pelaksanaan Scikit-Learn Svrs dan Skll Toolkit.", "Kami menggunakan pelaksanaan hutan rawak di Scikitlearn sebagai Pengelas."]}, {"en": ["We trained a specific language model using Srilm from each of these Corpora in order to estimate N-Gram Log-Probabilities.", "In our experiments, we used the Srilm Toolkit to build 5-Gram language model using the LDC Arabic Gigaword corpus."], "ms": ["Kami melatih model bahasa tertentu menggunakan Srilm dari setiap Corpora ini untuk menganggarkan N-Gram Log-Probabilities.", "Dalam eksperimen kami, kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram menggunakan LDC Arabic Gigaword corpus."]}, {"en": ["Al-Onaizan and Knight present a hybrid model for Arabic-To-English Transliteration, which is a linear combination of Phoneme-Based and Grapheme-Based models.", "A Spelling-Based model that directly maps English letter sequences into Arabic letters was developed by Al-Onaizan and knight."], "ms": ["Al-Onaizan dan Knight mempersembahkan model hibrid untuk Transliterasi Bahasa Arab-Ke-Inggeris, yang merupakan gabungan linear model berasaskan Phoneme dan Grapheme.", "Model berasaskan Ejaan yang memetakan secara langsung urutan huruf Inggeris ke dalam huruf Arab telah dibangunkan oleh Al-Onaizan dan kesatria."]}, {"en": ["We used Srilm to build a 4-Gram language model with interpolated Kneser-Ney discounting.", "A Trigram language model with modified Kneser-Ney discounting and interpolation was used as produced by the Srilm Toolkit."], "ms": ["Kami menggunakan Srilm untuk membina model bahasa 4-Gram dengan diskaun Kneser-Ney yang saling berkaitan.", "Model bahasa Trigram dengan diskaun Kneser-Ney yang diubahsuai dan interpolasi digunakan seperti yang dihasilkan oleh Srilm Toolkit."]}, {"en": ["We use the collapsed tree formalism of the Stanford dependency Parser.", "We used a Caseless Parsing model of the Stanford Parser for a dependency representation of the messages."], "ms": ["Kami menggunakan formalisme pokok runtuh dari Stanford dependency Parser.", "Kami menggunakan model Penghuraian Caseless dari Stanford Parser untuk perwakilan kebergantungan mesej."]}, {"en": ["In this paper, we present a method for the semantic tagging of word chunks extracted from a written transcription of conversations.", "In this paper, we focus on semantic tagging based on a Domain-Specific Ontology, a Dictionary-Thesaurus and the overlapping coefficient."], "ms": ["Dalam makalah ini, kami membentangkan kaedah untuk penanda semantik potongan perkataan yang diekstrak dari transkripsi perbualan bertulis.", "Dalam makalah ini, kami memberi tumpuan kepada penanda semantik berdasarkan Ontologi Domain-Specific, Kamus-Tesaurus dan pekali bertindih."]}, {"en": ["We used glove word Embeddings with 300 dimensions Pre-Trained using Commoncrawl to get a vector representation of the evidence sentence.", "We used 200 dimensional glove word representations, which were Pre-Trained on 6 billion Tweets."], "ms": ["Kami menggunakan perkataan sarung tangan Embeddings dengan 300 dimensi Pra-Trained menggunakan Commoncrawl untuk mendapatkan perwakilan vektor ayat bukti.", "Kami menggunakan perwakilan perkataan sarung tangan 200 dimensi, yang telah Dilatih pada 6 bilion Tweet."]}, {"en": ["Semeval is a yearly event in which teams compete in natural language processing tasks.", "Semeval is the International workshop on semantic evaluation that has evolved from Senseval."], "ms": ["Semeval adalah acara tahunan di mana pasukan bersaing dalam tugas pemprosesan bahasa semula jadi.", "Semeval adalah bengkel Antarabangsa mengenai penilaian semantik yang telah berkembang dari Senseval."]}, {"en": ["Distributional semantic models represent the meanings of words by relying on their statistical distribution in text.", "Distributional semantic models induce large-scale Vector-Based lexical semantic representations from statistical patterns of word usage."], "ms": ["Model semantik pengagihan mewakili makna perkataan dengan bergantung kepada taburan statistik mereka dalam teks.", "Model semantik pengagihan mendorong perwakilan semantik leksikal Berasaskan Vektor berskala besar daripada corak statistik penggunaan perkataan."]}, {"en": ["A 4-Gram language model was trained on the Monolingual data by the Srilm Toolkit.", "The language models are 4-Grams with modified Kneser-Ney smoothing which have been trained with the Srilm Toolkit."], "ms": ["Model bahasa 4-Gram dilatih pada data Monolingual oleh Srilm Toolkit.", "Model bahasa adalah 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang telah dilatih dengan Srilm Toolkit."]}, {"en": ["We used Svm-Light-Tk, which enables the use of the partial tree kernel.", "We use Svm-Light-Tk 5, which enables the use of structural kernels."], "ms": ["Kami menggunakan Svm-Light-Tk, yang membolehkan penggunaan kernel pokok separa.", "Kami menggunakan Svm-Light-Tk 5, yang membolehkan penggunaan kernel struktur."]}, {"en": ["To obtain these features, we use the Word2Vec implementation available in the Gensim Toolkit to obtain word vectors with dimension 300 for each word in the responses.", "For word representation, we train the Skip-Gram word Embedding on each Dataset separately to Initialize the word vectors."], "ms": ["Untuk mendapatkan ciri-ciri ini, kami menggunakan pelaksanaan Word2Vec yang terdapat dalam Gensim Toolkit untuk mendapatkan vektor perkataan dengan dimensi 300 untuk setiap perkataan dalam jawapan.", "Untuk perwakilan perkataan, kami melatih Embedding perkataan Skip-Gram pada setiap Dataset secara berasingan untuk Memulakan vektor perkataan."]}, {"en": ["We trained a Phrase-Based Smt engine to translate known words and phrases using the training tools available with Moses.", "We conducted baseline experiments for Phrasebased machine translation using the Moses Toolkit."], "ms": ["Kami melatih enjin Smt Berasaskan Frasa untuk menterjemahkan perkataan dan frasa yang diketahui menggunakan alat latihan yang ada dengan Musa.", "Kami menjalankan eksperimen asas untuk terjemahan mesin berasaskan Phrase menggunakan Musa Toolkit."]}, {"en": ["Active learning is a promising way for sentiment classification to reduce the Annotation cost.", "Active learning is a general framework and does not depend on tasks or domains."], "ms": ["Pembelajaran aktif adalah cara yang menjanjikan untuk pengelasan sentimen untuk mengurangkan kos Anotasi.", "Pembelajaran aktif adalah kerangka umum dan tidak bergantung pada tugas atau domain."]}, {"en": ["A manual Annotation effort demonstrates implicit relations yield substantial additional meaning.", "An Annotation effort demonstrates implicit relations reveal as much as 30% of meaning."], "ms": ["Usaha Annotasi manual menunjukkan hubungan tersirat menghasilkan makna tambahan yang besar.", "Usaha Annotasi menunjukkan hubungan tersirat mendedahkan sebanyak 30% makna."]}, {"en": ["Firstly, we built a forward 5-Gram language model using the Srilm Toolkit with modified Kneser-Ney smoothing.", "Our Trigram word language model was trained on the target side of the training corpus using the Srilm Toolkit with modified Kneser-Ney smoothing."], "ms": ["Pertama, kami membina model bahasa 5-Gram maju menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Model bahasa perkataan Trigram kami dilatih di sisi sasaran korpus latihan menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["The weights associated to feature functions are Optimally combined using the minimum error rate training.", "The weights for the Loglinear model are learned using the Mert system."], "ms": ["Berat yang berkaitan dengan fungsi ciri digabungkan secara optimum menggunakan latihan kadar ralat minimum.", "Berat untuk model Loglinear dipelajari menggunakan sistem Mert."]}, {"en": ["We used the Srilm Toolkit to build Unpruned 5-Gram models using interpolated modified Kneser-Ney smoothing.", "We built a 5-Gram language model on the English side of Europarl and used the Kneser-Ney smoothing method and Srilm as the language model Toolkit."], "ms": ["Kami menggunakan Srilm Toolkit untuk membina model 5-Gram Unpruned menggunakan smoothing Kneser-Ney yang diubahsuai secara interpolated.", "Kami membina model bahasa 5-Gram di sisi bahasa Inggeris Europarl dan menggunakan kaedah smoothing Kneser-Ney dan Srilm sebagai model bahasa Toolkit."]}, {"en": ["We implemented the different Aes models using Scikit-Learn.", "We use the linear SVM Classifier from Scikit-Learn."], "ms": ["Kami melaksanakan model Aes yang berbeza menggunakan Scikit-Learn.", "Kami menggunakan Classifier SVM linear dari Scikit-Learn."]}, {"en": ["We apply Sri language modeling Toolkit to train a 4-Gram language model with Kneser-Ney smoothing.", "For this language model, we built a Trigram language model with Kneser-Ney smoothing using Srilm from the same automatically Segmented corpus."], "ms": ["Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model bahasa 4-Gram dengan smoothing Kneser-Ney.", "Untuk model bahasa ini, kami membina model bahasa Trigram dengan smoothing Kneser-Ney menggunakan Srilm dari korpus Segmen yang sama secara automatik."]}, {"en": ["We used minimum error rate training for tuning on the development set.", "We used Max-F 1 training to train the feature weights."], "ms": ["Kami menggunakan latihan kadar ralat minimum untuk menyesuaikan pada set pembangunan.", "Kami menggunakan latihan Max-F 1 untuk melatih berat ciri."]}, {"en": ["Relation extraction is the key component for building relation knowledge graphs, and it is of crucial significance to natural language processing applications such as structured search, sentiment analysis, question answering, and summarization.", "Relation extraction (re) is the task of recognizing relationships between entities mentioned in text."], "ms": ["Pengekstrakan hubungan adalah komponen utama untuk membina graf pengetahuan hubungan, dan ia sangat penting untuk aplikasi pemprosesan bahasa semula jadi seperti carian berstruktur, analisis sentimen, jawapan soalan, dan ringkasan.", "Pengekstrakan hubungan (re) adalah tugas mengenali hubungan antara entiti yang disebut dalam teks."]}, {"en": ["We learn our word Embeddings by using Word2Vec 3 on Unlabeled review data.", "We obtained these scores by training a Word2Vec model on the Wiki corpus."], "ms": ["Kami mempelajari perkataan Embeddings kami dengan menggunakan Word2Vec 3 pada data ulasan yang tidak berlabel.", "Kami memperoleh skor ini dengan melatih model Word2Vec di korpus Wiki."]}, {"en": ["Djuric et al , 2015) used Binary classification to detect hate speech.", "Djuric et al use a Paragraph2Vec approach to classify language on user comments as abusive or clean."], "ms": ["Djuric et al, 2015) menggunakan klasifikasi Binari untuk mengesan ucapan kebencian.", "Djuric et al menggunakan pendekatan Paragraph2Vec untuk mengklasifikasikan bahasa pada komen pengguna sebagai kasar atau bersih."]}, {"en": ["Text Categorization is a classical text information processing task which has been studied adequately (Cite-P-18-1-9).", "Text Categorization is a crucial and Well-Proven method for organizing the collection of large scale documents."], "ms": ["Teks Categorization adalah tugas pemprosesan maklumat teks klasik yang telah dikaji dengan secukupnya (Cite-P-18-1-9).", "Categorization teks adalah kaedah penting dan terbukti untuk mengatur pengumpulan dokumen berskala besar."]}, {"en": ["We train a Trigram language model with the Srilm Toolkit.", "We use 5-Grams for all language models implemented using the Srilm Toolkit."], "ms": ["Kami melatih model bahasa Trigram dengan Srilm Toolkit.", "Kami menggunakan 5-Gram untuk semua model bahasa yang dilaksanakan menggunakan Srilm Toolkit."]}, {"en": ["Case-Insensitive Bleu-4 is our evaluation metric.", "The evaluation metric is the Case-Insensitive Bleu4."], "ms": ["Bleu-4 adalah metrik penilaian kami.", "Metrik penilaian ialah Case-Insensitive Bleu4."]}, {"en": ["Sentiment analysis is a Much-Researched area that deals with identification of positive, negative and neutral opinions in text.", "One of the first challenges in sentiment analysis is the vast lexical diversity of subjective language."], "ms": ["Analisis sentimen adalah kawasan yang banyak dikaji yang berkaitan dengan pengenalan pendapat positif, negatif dan neutral dalam teks.", "Salah satu cabaran pertama dalam analisis sentimen adalah kepelbagaian leksikal bahasa subjektif yang luas."]}, {"en": ["The weights of the different feature functions were Optimised by means of minimum error rate training.", "The minimum error rate training was used to tune the feature weights."], "ms": ["Berat fungsi ciri yang berbeza telah dioptimumkan melalui latihan kadar ralat minimum.", "Latihan kadar ralat minimum digunakan untuk menyesuaikan berat ciri."]}, {"en": ["We propose two kinds of probabilistic models defined on Parsing actions to compute the probability of entire sentence.", "On the input sentence, we propose two kinds of probabilistic Parsing action models that can compute the entire dependency tree \u2019 s probability."], "ms": ["Kami mencadangkan dua jenis model probabilistik yang ditakrifkan pada tindakan Penghuraian untuk mengira kebarangkalian keseluruhan ayat.", "Pada ayat input, kami mencadangkan dua jenis model tindakan probabilistik yang boleh mengira keseluruhan kebarangkalian pokok dependensi."]}, {"en": ["We evaluate using the standard penalty Metrics P K and Windowdiff.", "We have measured the performance of the Segmenters with the Windowdiff metric."], "ms": ["Kami menilai menggunakan metrik penalti standard P K dan Windowdiff.", "Kami telah mengukur prestasi Segmenters dengan metrik Windowdiff."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit.", "For the fluency and Grammaticality features, we train 4-Gram LMS using the development Dataset with the Sri Toolkit."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit.", "Untuk kefasihan dan ciri Grammaticality, kami melatih LMS 4-Gram menggunakan Dataset pembangunan dengan Sri Toolkit."]}, {"en": ["Mikolov et al proposed the Word2Vec method for learning continuous vector representations of words from large text Datasets.", "Recently, Mikolov et al introduced an efficient way for Inferring word Embeddings that are effective in capturing syntactic and semantic relationships in natural language."], "ms": ["Mikolov et al mencadangkan kaedah Word2Vec untuk mempelajari perwakilan vektor berterusan perkataan dari Dataset teks besar.", "Baru-baru ini, Mikolov et al memperkenalkan cara yang cekap untuk menyimpulkan perkataan Embeddings yang berkesan dalam menangkap hubungan sintaktik dan semantik dalam bahasa semula jadi."]}, {"en": ["Translation quality is measured in Truecase with BLEU on the Mt08 test sets.", "Translation performances are measured with Case-Insensitive Bleu4 score."], "ms": ["Kualiti terjemahan diukur dalam Truecase dengan BLEU pada set ujian Mt08.", "Persembahan terjemahan diukur dengan skor Case-Insensitive Bleu4."]}, {"en": ["With English Gigaword corpus, we use the Skip-Gram model as implemented in Word2Vec 3 to induce Embeddings.", "We apply the 3-Phase learning procedure proposed by where we first create word Embeddings based on the Skip-Gram model."], "ms": ["Dengan Gigaword corpus bahasa Inggeris, kami menggunakan model Skip-Gram seperti yang dilaksanakan dalam Word2Vec 3 untuk mendorong Embeddings.", "Kami menggunakan prosedur pembelajaran 3-Phase yang dicadangkan oleh mana kami mula-mula membuat Embedding perkataan berdasarkan model Skip-Gram."]}, {"en": ["The system was trained using the Moses Toolkit.", "The Smt systems were built using the Moses Toolkit."], "ms": ["Sistem ini dilatih menggunakan Musa Toolkit.", "Sistem Smt dibina menggunakan Musa Toolkit."]}, {"en": ["We used Nltk Wordnet Synsets for obtaining the ambiguity of the word.", "For this step we used regular expressions and Nltk to Tokenize the text."], "ms": ["Kami menggunakan Nltk Wordnet Synsets untuk mendapatkan kekaburan perkataan.", "Untuk langkah ini kami menggunakan ungkapan biasa dan Nltk untuk Tokenize teks."]}, {"en": ["Our first layer was a 200-Dimensional Embedding layer, using the glove Twitter Embeddings.", "For the sick and Msrvid experiments, we used 300-Dimension glove word Embeddings."], "ms": ["Lapisan pertama kami adalah lapisan Embedding 200 Dimensional, menggunakan sarung tangan Twitter Embeddings.", "Untuk eksperimen yang sakit dan Msrvid, kami menggunakan perkataan sarung tangan 300 Dimensi Embeddings."]}, {"en": ["Word2Vec is an appropriate tool for this problem.", "We Pre-Train the word Embeddings using Word2Vec."], "ms": ["Word2Vec adalah alat yang sesuai untuk masalah ini.", "Kami Pra-Latih Embedding perkataan menggunakan Word2Vec."]}, {"en": ["We used the Scikit-Learn implementation of Svrs and the Skll Toolkit.", "We used the Scikit-Learn library the SVM model."], "ms": ["Kami menggunakan pelaksanaan Scikit-Learn Svrs dan Skll Toolkit.", "Kami menggunakan perpustakaan Scikit-Learn model SVM."]}, {"en": ["The Web-Derived Ukwac is already Tokenized and Pos-Tagged with the Treetagger.", "The Corpus is automatically tagged and Lemmatised by Treetagger."], "ms": ["Ukwac yang Diperolehi Web sudah Tokenized dan Pos-Tagged dengan Treetagger.", "Corpus ditandakan secara automatik dan Lemmatized oleh Treetagger."]}, {"en": ["The language model is a 5-Gram with interpolation and Kneserney smoothing.", "The language models were 5-Gram models with Kneser-Ney smoothing built using Kenlm."], "ms": ["Model bahasa adalah 5-Gram dengan interpolasi dan smoothing Kneserney.", "Model bahasa adalah model 5-Gram dengan smoothing Kneser-Ney dibina menggunakan Kenlm."]}, {"en": ["Stance detection has been defined as automatically detecting whether the author of a piece of text is in favor of the given target or against it.", "Stance detection is the task of classifying the attitude previous work has assumed that either the target is mentioned in the text or that training data for every target is given."], "ms": ["Pengesanan santun telah ditakrifkan sebagai mengesan secara automatik sama ada pengarang sekeping teks memihak kepada sasaran yang diberikan atau menentangnya.", "Pengesanan santun adalah tugas mengklasifikasikan sikap kerja terdahulu telah mengandaikan bahawa sama ada sasaran disebut dalam teks atau data latihan untuk setiap sasaran diberikan."]}, {"en": ["Part-Of-Speech tagging is the problem of determining the syntactic part of speech of an occurrence of a word in context.", "Part-Of-Speech tagging is the process of assigning to a word the category that is most probable given the Sentential context (Cite-P-4-1-2)."], "ms": ["Penandaan Part-Of-Speech adalah masalah menentukan bahagian sintaksis ucapan kejadian perkataan dalam konteks.", "Penandaan Part-Of-Speech adalah proses menetapkan perkataan kategori yang paling mungkin diberikan konteks Sentential (Cite-P-4-1-2)."]}, {"en": ["We built a Trigram language model with Kneser-Ney smoothing using Kenlm Toolkit.", "For language modeling we used the Kenlm Toolkit for standard N-Gram modeling with an N-Gram length of 5."], "ms": ["Kami membina model bahasa Trigram dengan smoothing Kneser-Ney menggunakan Kenlm Toolkit.", "Untuk pemodelan bahasa kami menggunakan Kenlm Toolkit untuk pemodelan N-Gram standard dengan panjang N-Gram 5."]}, {"en": ["A key insight in our approach is to reduce content selection and surface realization into a common Parsing problem.", "In our approach is to reduce the tasks of content selection (\u201c what to say \u201d) and surface realization (\u201c how to say \u201d) into a common Parsing problem."], "ms": ["Wawasan utama dalam pendekatan kami adalah untuk mengurangkan pemilihan kandungan dan kesedaran permukaan menjadi masalah Parsing yang biasa.", "Dalam pendekatan kami adalah untuk mengurangkan tugas pemilihan kandungan ( apa yang hendak dikatakan ) dan kesedaran permukaan ( bagaimana untuk mengatakan ) menjadi masalah Parsing yang biasa."]}, {"en": ["We use the Word2Vec framework in the Gensim implementation to generate the Embedding spaces.", "We Preinitialize the word Embeddings by running the Word2Vec tool on the English Wikipedia dump."], "ms": ["Kami menggunakan kerangka Word2Vec dalam pelaksanaan Gensim untuk menghasilkan ruang Embedding.", "Kami Preinitialize perkataan Embeddings dengan menjalankan alat Word2Vec di dump Wikipedia Bahasa Inggeris."]}, {"en": ["For input representation, we used glove word Embeddings.", "For all models, we use the 300-Dimensional glove word Embeddings."], "ms": ["Untuk perwakilan input, kami menggunakan perkataan sarung tangan Embeddings.", "Untuk semua model, kami menggunakan perkataan sarung tangan 300 dimensi Embeddings."]}, {"en": ["We trained a 5-Gram Sri language model using the corpus supplied for this purpose by the shared task organizers.", "We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit."], "ms": ["Kami melatih model bahasa Sri 5-Gram menggunakan korpus yang dibekalkan untuk tujuan ini oleh penganjur tugas bersama.", "Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit."]}, {"en": ["The negated event is the property that is negated by the Cue.", "The negated event is the event or the entity that the negation indicates its absence or DENIES its occurrence."], "ms": ["Peristiwa yang ditebus ialah harta yang ditebus oleh Cue.", "Peristiwa yang ditebus ialah peristiwa atau entiti yang ditebus menunjukkan ketiadaannya atau MENDENGAR kejadiannya."]}, {"en": ["We use 300 dimension Word2Vec word Embeddings for the experiments.", "For feature building, we use Word2Vec Pre-Trained word Embeddings."], "ms": ["Kami menggunakan 300 dimensi perkataan Embeddings Word2Vec untuk eksperimen.", "Untuk bangunan ciri, kami menggunakan Embedding kata Pra-Latihan Word2Vec."]}, {"en": ["Bleu is used as a standard evaluation metric.", "Bleu is the most commonly used metric for mt evaluation."], "ms": ["Bleu digunakan sebagai metrik penilaian standard.", "Bleu adalah metrik yang paling biasa digunakan untuk penilaian mt."]}, {"en": ["These features were extracted using Stanford Corenlp.", "These attributes were computed using Stanford core Nlp."], "ms": ["Ciri-ciri ini diekstrak menggunakan Stanford Corenlp.", "Atribut-atribut ini dikira menggunakan Stanford core Nlp."]}, {"en": ["Lstms were introduced by Hochreiter and Schmidhuber in order to mitigate the vanishing gradient problem.", "Hochreiter and Schmidhuber proposed long short-term memories as the specific version of Rnn designed to overcome vanishing and exploding gradient problem."], "ms": ["Lstms diperkenalkan oleh Hochreiter dan Schmidhuber untuk mengurangkan masalah kecerunan yang hilang.", "Hochreiter dan Schmidhuber mencadangkan kenangan jangka pendek yang panjang sebagai versi Rnn khusus yang direka untuk mengatasi masalah kecerunan yang hilang dan meletup."]}, {"en": ["We use the Adam Optimizer for the Gradient-Based optimization.", "We use a Minibatch stochastic gradient descent algorithm together with the Adam Optimizer."], "ms": ["Kami menggunakan Adam Optimizer untuk pengoptimuman berasaskan Gradien.", "Kami menggunakan algoritma keturunan kecerunan stokastik Minibatch bersama dengan Adam Optimizer."]}, {"en": ["We apply Sri language modeling Toolkit to train a 4-Gram language model with Kneser-Ney smoothing.", "For language model, we used Sri language modeling Toolkit to train a 4-Gram model with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model bahasa 4-Gram dengan smoothing Kneser-Ney.", "Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model 4-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of identifying the correct sense of an ambiguous word in a given context.", "Word sense Disambiguation (Wsd) is a task to identify the intended sense of a word based on its context."], "ms": ["Kemusykilan erti kata Kemusykilan (Wsd) ialah tugas mengenal pasti pengertian yang betul bagi sesuatu perkataan yang samar-samar dalam konteks tertentu.", "Disambiguasi erti kata (Wsd) adalah tugas untuk mengenal pasti pengertian perkataan yang dimaksudkan berdasarkan konteksnya."]}, {"en": ["As Monolingual Baselines, we use the Skip-Gram and Cbow methods of Mikolov et al as implemented in the Gensim package.", "For estimating the Monolingual we, we use the Cbow algorithm as implemented in the Word2Vec package using a 5-Token window."], "ms": ["Sebagai Garis Dasar Monolingual, kami menggunakan kaedah Skip-Gram dan Cbow Mikolov et al seperti yang dilaksanakan dalam pakej Gensim.", "Untuk menganggarkan Monolingual kami, kami menggunakan algoritma Cbow seperti yang dilaksanakan dalam pakej Word2Vec menggunakan tetingkap 5-Token."]}, {"en": ["In our experiment, word Embeddings were 200-Dimensional as used in, trained on Gigaword with Word2Vec.", "In this baseline, we applied the word Embedding trained by Skipgram on Wiki2014."], "ms": ["Dalam eksperimen kami, Embedding perkataan adalah 200-Dimensional seperti yang digunakan dalam, dilatih pada Gigaword dengan Word2Vec.", "Dalam asas ini, kami menggunakan perkataan Embedding yang dilatih oleh Skipgram di Wiki2014."]}, {"en": ["As a baseline system, we used the Moses statistical machine translation package to build Grapheme-Based and Phoneme-Based translation systems, using a Bigram language model.", "We use the Moses Toolkit to create a statistical Phrase-Based machine translation model built on the best Pre-Processed data, as described above."], "ms": ["Sebagai sistem asas, kami menggunakan pakej terjemahan mesin statistik Moses untuk membina sistem terjemahan Berasaskan Grafik dan Berasaskan Fonem, menggunakan model bahasa Bigram.", "Kami menggunakan Musa Toolkit untuk mencipta model terjemahan mesin berasaskan frasa statistik yang dibina berdasarkan data Pra-proses terbaik, seperti yang dijelaskan di atas."]}, {"en": ["Several recent Syntax-Based models for machine translation can be seen as instances of the general framework of synchronous Grammars and tree transducers.", "The use of various synchronous grammar based Formalisms has been a trend for statistical machine translation."], "ms": ["Beberapa model berasaskan Syntax baru-baru ini untuk terjemahan mesin boleh dilihat sebagai contoh rangka kerja umum Grammars dan transduser pokok.", "Penggunaan pelbagai tatabahasa yang bersangkutan Formalisme telah menjadi trend untuk terjemahan mesin statistik."]}, {"en": ["The translations are evaluated in terms of BLEU score.", "The translation quality is evaluated by Caseinsensitive Bleu-4 metric."], "ms": ["Terjemahan dinilai dari segi skor BLEU.", "Kualiti terjemahan dinilai oleh Caseinsensitive Bleu-4 metrik."]}, {"en": ["Our method involved using the machine translation software Moses.", "We ran mt experiments using the Moses Phrase-Based translation system."], "ms": ["Kaedah kami melibatkan menggunakan perisian terjemahan mesin Moses.", "Kami menjalankan eksperimen mt menggunakan sistem terjemahan berasaskan frasa Musa."]}, {"en": ["Information extraction (Ie) is the process of finding relevant entities and their relationships within textual documents.", "Information extraction (Ie) is a technology that can be applied to identifying both sources and targets of new Hyperlinks."], "ms": ["Pengekstrakan maklumat (Ie) adalah proses mencari entiti yang berkaitan dan hubungan mereka dalam dokumen teks.", "Pengekstrakan maklumat (Ie) adalah teknologi yang boleh digunakan untuk mengenal pasti kedua-dua sumber dan sasaran Hyperlinks baru."]}, {"en": ["We use the attentive Nmt model introduced by Bahdanau et al as our Text-Only Nmt baseline.", "We use the Attention-Based Nmt model introduced by Bahdanau et al as our Text-Only Nmt baseline."], "ms": ["Kami menggunakan model Nmt perhatian yang diperkenalkan oleh Bahdanau et al sebagai garis dasar Text-Only Nmt kami.", "Kami menggunakan model Nmt Berasaskan Perhatian yang diperkenalkan oleh Bahdanau et al sebagai garis dasar Text-Only Nmt kami."]}, {"en": ["More recently, Mikolov et al propose two Log-Linear models, namely the Skip-Gram and Cbow model, to efficiently induce word Embeddings.", "Recently, Mikolov et al introduced an efficient way for Inferring word Embeddings that are effective in capturing syntactic and semantic relationships in natural language."], "ms": ["Baru-baru ini, Mikolov et al mencadangkan dua model Log-Linear, iaitu model Skip-Gram dan Cbow, untuk mendorong Embedding perkataan dengan cekap.", "Baru-baru ini, Mikolov et al memperkenalkan cara yang cekap untuk menyimpulkan perkataan Embeddings yang berkesan dalam menangkap hubungan sintaktik dan semantik dalam bahasa semula jadi."]}, {"en": ["The Irstlm Toolkit is used to build Ngram language models with modified Kneser-Ney smoothing.", "The Srilm Toolkit was used for training the language models using Kneser-Ney smoothing."], "ms": ["Alat Irstlm digunakan untuk membina model bahasa Ngram dengan smoothing Kneser-Ney yang diubahsuai.", "Srilm Toolkit digunakan untuk melatih model bahasa menggunakan smoothing Kneser-Ney."]}, {"en": ["Mikolov et al , 2013A) proposes Skip-Gram and continuous Bag-Of-Words models based on a Single-Layer network architecture.", "Mikolov et al , 2013A, builds a translation matrix using linear regression that transforms the source language word vectors to the target language space."], "ms": ["Mikolov et al, 2013A) mencadangkan model Skip-Gram dan Bag-Of-Words yang berterusan berdasarkan seni bina rangkaian Single-Layer.", "Mikolov et al, 2013A, membina matriks terjemahan menggunakan regresi linear yang mengubah vektor perkataan bahasa sumber ke ruang bahasa sasaran."]}, {"en": ["We estimated 5-Gram language models using the Sri Toolkit with modified Kneser-Ney smoothing.", "For language model, we used Sri language modeling Toolkit to train a 4-Gram model with modified Kneser-Ney smoothing."], "ms": ["Kami menganggarkan model bahasa 5-Gram menggunakan Sri Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model 4-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["In this work, we use Vmf as the observational distribution.", "In this paper, we propose to use the von Mises-Fisher distribution."], "ms": ["Dalam kerja ini, kami menggunakan Vmf sebagai pengedaran pemerhatian.", "Dalam kertas ini, kami mencadangkan untuk menggunakan pengedaran von Mises-Fisher."]}, {"en": ["We trained a Trigram language model on the Chinese side, with the Srilm Toolkit, using the modified Kneser-Ney smoothing option.", "We used the Srilm Toolkit to build Unpruned 5-Gram models using interpolated modified Kneser-Ney smoothing."], "ms": ["Kami melatih model bahasa Trigram di sisi Cina, dengan Srilm Toolkit, menggunakan pilihan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm Toolkit untuk membina model 5-Gram Unpruned menggunakan smoothing Kneser-Ney yang diubahsuai secara interpolated."]}, {"en": ["For language model, we use a Trigram language model trained with the Srilm Toolkit on the English side of the training corpus.", "We train an English language model on the whole training set using the Srilm Toolkit and train mt models mainly on a 10K sentence pair Subset of the ACL training set."], "ms": ["Untuk model bahasa, kami menggunakan model bahasa Trigram yang dilatih dengan Srilm Toolkit di sisi bahasa Inggeris korpus latihan.", "Kami melatih model bahasa Inggeris pada keseluruhan set latihan menggunakan Srilm Toolkit dan melatih model mt terutamanya pada pasangan ayat 10K Subset set latihan ACL."]}, {"en": ["Our baseline is the Smt Toolkit Moses run over letter strings rather than word strings.", "We use the Moses Smt Toolkit to test the augmented Datasets."], "ms": ["Asas kami adalah Smt Toolkit Musa berjalan melalui rentetan huruf dan bukannya rentetan perkataan.", "Kami menggunakan Musa Smt Toolkit untuk menguji Dataset yang ditambah."]}, {"en": ["Sentiment analysis is a research area in the field of natural language processing.", "Sentiment analysis is a Nlp task that deals with extraction of opinion from a piece of text on a topic."], "ms": ["Analisis kepekaan adalah bidang penyelidikan dalam bidang pemprosesan bahasa semula jadi.", "Analisis sentimen adalah tugas Nlp yang berkaitan dengan pengekstrakan pendapat dari sekeping teks mengenai topik."]}, {"en": ["Text Segmentation is the task of dividing text into segments, such that each segment is Topically coherent, and cutoff points indicate a change of topic (Cite-P-15-1-8, Cite-P-15-3-4, Cite-P-15-1-3).", "Text Segmentation is the task of splitting text into segments by placing boundaries within it."], "ms": ["Segmentasi teks adalah tugas membahagikan teks ke dalam segmen, supaya setiap segmen adalah Topically koheren, dan titik pemotongan menunjukkan perubahan topik (Cite-P-15-1-8, Cite-P-15-3-4, Cite-P-15-1-3).", "Segmentasi teks adalah tugas membahagikan teks ke segmen dengan meletakkan sempadan di dalamnya."]}, {"en": ["Language models were built with Srilm, modified Kneser-Ney smoothing, default pruning, and order 5.", "Models were built and interpolated using Srilm with modified Kneser-Ney smoothing and the default pruning settings."], "ms": ["Model bahasa dibina dengan Srilm, smoothing Kneser-Ney yang diubahsuai, pemangkasan lalai, dan pesanan 5.", "Model dibina dan diinterpolasi menggunakan Srilm dengan smoothing Kneser-Ney yang diubahsuai dan tetapan pemangkasan lalai."]}, {"en": ["To minimize the objective, we use stochastic gradient descent with the diagonal variant of Adagrad.", "Parameter optimization is performed with the diagonal variant of Adagrad with Minibatchs."], "ms": ["Untuk meminimumkan objektif, kita menggunakan keturunan kecerunan stokastik dengan varian pepenjuru Adagrad.", "Pengoptimuman parameter dilakukan dengan varian pepenjuru Adagrad dengan Minibatchs."]}, {"en": ["Semantic role labeling (SRL) is the task of identifying the Predicate-Argument structure of a sentence.", "Semantic role labeling (SRL) is the task of automatically Annotating the Predicate-Argument structure in a sentence with semantic roles."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas mengenal pasti struktur Predicate-Argument ayat.", "Pelabelan peranan semantik (SRL) adalah tugas untuk secara automatik Menganotasi struktur Predicate-Argument dalam ayat dengan peranan semantik."]}, {"en": ["It has been empirically shown that word Embeddings can capture semantic and syntactic similarities between words.", "Extensive experiments have leveraged word Embeddings to find general semantic relations."], "ms": ["Telah ditunjukkan secara empirikal bahawa perkataan Embeddings dapat menangkap persamaan semantik dan sintaksis antara perkataan.", "Eksperimen yang luas telah memanfaatkan perkataan Embeddings untuk mencari hubungan semantik umum."]}, {"en": ["Sentiment analysis (SA) is a field of knowledge which deals with the analysis of people \u2019 s opinions, sentiments, evaluations, appraisals, attitudes and emotions towards particular entities (Cite-P-17-1-0).", "Sentiment analysis (SA) is a Hot-Topic in the academic world, and also in the industry."], "ms": ["Analisis sentimen (SA) adalah bidang pengetahuan yang berkaitan dengan analisis pendapat, sentimen, penilaian, penilaian, sikap dan emosi orang terhadap entiti tertentu (Cite-P-17-1-0).", "Analisis sentimen (SA) adalah Hot-Topic dalam dunia akademik, dan juga dalam industri."]}, {"en": ["Based on the Distributional hypothesis, we train a Skip-Gram model to learn the Distributional representations of words in a large corpus.", "To start with, we replace word types with corresponding neural language model representations estimated using the Skip-Gram model."], "ms": ["Berdasarkan hipotesis Pengagihan, kami melatih model Skip-Gram untuk mempelajari perwakilan Pengagihan perkataan dalam korpus besar.", "Untuk memulakan, kami menggantikan jenis perkataan dengan perwakilan model bahasa saraf yang sesuai yang dianggarkan menggunakan model Skip-Gram."]}, {"en": ["We use Srilm for training a Trigram language model on the English side of the training data.", "Further, we apply a 4-Gram language model trained with the Srilm Toolkit on the target side of the training corpus."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa Trigram di sisi bahasa Inggeris data latihan.", "Selanjutnya, kami menerapkan model bahasa 4-Gram yang dilatih dengan Srilm Toolkit di sisi target korpus pelatihan."]}, {"en": ["We Optimized each system separately using minimum error rate training.", "We use our reordering model for N-Best Re-Ranking and optimize BLEU using minimum error rate training."], "ms": ["Kami mengoptimumkan setiap sistem secara berasingan menggunakan latihan kadar ralat minimum.", "Kami menggunakan model penyusunan semula kami untuk N-Best Re-Ranking dan mengoptimumkan BLEU menggunakan latihan kadar ralat minimum."]}, {"en": ["We use the 300-Dimensional Pre-Trained Word2Vec 3 word Embeddings and compare the performance with that of glove 4 Embeddings.", "Specifically, we tested the methods Word2Vec using the Gensim Word2Vec package and Pretrained glove word Embeddings."], "ms": ["Kami menggunakan Embedding perkataan Pra-Trained 300-Dimensional 2Vec 3 dan membandingkan prestasi dengan sarung tangan 4 Embeddings.", "Khususnya, kami menguji kaedah Word2Vec menggunakan pakej Gensim Word2Vec dan Embedding kata sarung tangan Pretrained."]}, {"en": ["We evaluated the translation quality using the Bleu-4 metric.", "We measure the translation quality using a single reference BLEU."], "ms": ["Kami menilai kualiti terjemahan menggunakan metrik Bleu-4.", "Kami mengukur kualiti terjemahan menggunakan rujukan tunggal BLEU."]}, {"en": ["Experiments were performed using the publicly available Europarl Corpora for the English-French language pair.", "The source of bilingual data used in the experiments is the Europarl collection."], "ms": ["Eksperimen dilakukan menggunakan Europarl Corpora yang tersedia secara terbuka untuk pasangan bahasa Inggeris-Perancis.", "Sumber data dwibahasa yang digunakan dalam eksperimen adalah koleksi Europarl."]}, {"en": ["Further, we apply a 4-Gram language model trained with the Srilm Toolkit on the target side of the training corpus.", "We use a Fourgram language model with modified Kneser-Ney smoothing as implemented in the Srilm Toolkit."], "ms": ["Selanjutnya, kami menerapkan model bahasa 4-Gram yang dilatih dengan Srilm Toolkit di sisi target korpus pelatihan.", "Kami menggunakan model bahasa Fourgram dengan smoothing Kneser-Ney yang diubahsuai seperti yang dilaksanakan dalam Srilm Toolkit."]}, {"en": ["We use the 300-Dimensional Pre-Trained Word2Vec 3 word Embeddings and compare the performance with that of glove 4 Embeddings.", "For sentences, we Tokenize each sentence by Stanford Corenlp and use the 300-D word Embeddings from glove to Initialize the models."], "ms": ["Kami menggunakan Embedding perkataan Pra-Trained 300-Dimensional 2Vec 3 dan membandingkan prestasi dengan sarung tangan 4 Embeddings.", "Untuk ayat, kami Tokenize setiap ayat oleh Stanford Corenlp dan menggunakan Embedding perkataan 300-D dari sarung tangan untuk Memulakan model."]}, {"en": ["We used glove word Embeddings with 300 dimensions Pre-Trained using Commoncrawl to get a vector representation of the evidence sentence.", "Also, we Initialized all of the word Embeddings using the 300 dimensional Pre-Trained vectors from glove."], "ms": ["Kami menggunakan perkataan sarung tangan Embeddings dengan 300 dimensi Pra-Trained menggunakan Commoncrawl untuk mendapatkan perwakilan vektor ayat bukti.", "Juga, kami Memulakan semua perkataan Embeddings menggunakan 300 dimensi vektor Pra-Trained dari sarung tangan."]}, {"en": ["Although Coreference resolution is a Subproblem of natural language understanding, Coreference resolution evaluation Metrics have predominately been discussed in terms of abstract entities and hypothetical system errors.", "Coreference resolution is the task of determining which mentions in a text refer to the same entity."], "ms": ["Walaupun resolusi Coreference adalah Submasalah pemahaman bahasa semula jadi, Metrik penilaian resolusi Coreference telah banyak dibincangkan dari segi entiti abstrak dan kesilapan sistem hipotesis.", "Resolusi spatial adalah tugas menentukan sebutan mana dalam teks merujuk kepada entiti yang sama."]}, {"en": ["Table 1 shows the translation performance by BLEU.", "The translations are evaluated in terms of BLEU score."], "ms": ["Jadual 1 menunjukkan prestasi terjemahan oleh BLEU.", "Terjemahan dinilai dari segi skor BLEU."]}, {"en": ["For feature extraction, we used the Stanford Pos Tagger.", "We tag the source language with the Stanford Pos Tagger."], "ms": ["Untuk pengekstrakan ciri, kami menggunakan Stanford Pos Tagger.", "Kami tag bahasa sumber dengan Stanford Pos Tagger."]}, {"en": ["We use Moses, a statistical machine translation system that allows training of translation models.", "We use the Moses translation system, and we evaluate the quality of the automatically produced translations by using the BLEU evaluation tool."], "ms": ["Kami menggunakan Moses, sistem terjemahan mesin statistik yang membolehkan latihan model terjemahan.", "Kami menggunakan sistem terjemahan Musa, dan kami menilai kualiti terjemahan yang dihasilkan secara automatik dengan menggunakan alat penilaian BLEU."]}, {"en": ["Word sense Disambiguation (Wsd) is formally defined as the task of Computationally identifying senses of a word in a context.", "In natural language, a word often assumes different meanings, and the task of determining the correct meaning, or sense, of a word in different contexts is known as word sense Disambiguation (Wsd)."], "ms": ["Disambiguasi erti kata (Wsd) secara rasmi ditakrifkan sebagai tugas Mengenal pasti deria perkataan secara komputasi dalam konteks.", "Dalam bahasa semula jadi, perkataan sering mengandaikan makna yang berbeza, dan tugas menentukan makna yang betul, atau rasa, perkataan dalam konteks yang berbeza dikenali sebagai kata rasa Disambiguation (Wsd)."]}, {"en": ["The weights of the different feature functions were Optimised by means of minimum error rate training on the 2013 WMT test set.", "The weights of the different feature functions were Optimised by means of minimum error rate training."], "ms": ["Berat fungsi ciri yang berbeza telah dioptimumkan melalui latihan kadar ralat minimum pada set ujian WMT 2013.", "Berat fungsi ciri yang berbeza telah dioptimumkan melalui latihan kadar ralat minimum."]}, {"en": ["Then we use the standard minimum Error-Rate training to tune the feature weights to maximize the System\u6f5eS BLEU score.", "We implement the weight tuning component according to the minimum error rate training method."], "ms": ["Kemudian kami menggunakan latihan Ralat-Rate minimum standard untuk menyesuaikan berat ciri untuk memaksimumkan skor SystemS BLEU.", "Kami melaksanakan komponen penalaan berat mengikut kaedah latihan kadar ralat minimum."]}, {"en": ["We obtained Parse trees using the Stanford Parser, and used Jacana for word alignment.", "We Parsed the corpus with rasp and with the Stanford Pcfg Parser."], "ms": ["Kami memperoleh pokok Parse menggunakan Stanford Parser, dan menggunakan Jacana untuk penjajaran perkataan.", "Kami Parsed corpus dengan rasp dan dengan Stanford Pcfg Parser."]}, {"en": ["We use a morphological Analyzer for Arabic called Madamira.", "We use a variant on the the publicly available Madamira tool for the Arabic Msa-Egy pair."], "ms": ["Kami menggunakan Analisa morfologi untuk bahasa Arab yang dipanggil Madamira.", "Kami menggunakan varian pada alat Madamira yang tersedia untuk pasangan Msa-Egy Arab."]}, {"en": ["Shen et al proposed a String-To-Dependency model, which restricted the Target-Side of a rule by dependency structures.", "Shen et al proposed a target dependency language model for Smt to employ Target-Side structured information."], "ms": ["Shen et al mencadangkan model String-To-Dependency, yang mengehadkan Target-Side peraturan oleh struktur dependensi.", "Shen et al mencadangkan model bahasa dependensi sasaran untuk Smt menggunakan maklumat berstruktur Target-Side."]}, {"en": ["We evaluate the translation quality using the Case-Sensitive Bleu-4 metric.", "We measure the translation quality with automatic Metrics including BLEU and Ter."], "ms": ["Kami menilai kualiti terjemahan menggunakan metrik Case-Sensitive Bleu-4.", "Kami mengukur kualiti terjemahan dengan Metrik automatik termasuk BLEU dan Ter."]}, {"en": ["We used the BLEU score to evaluate the translation accuracy with and without the Normalization.", "For evaluation, we used the Case-Insensitive BLEU metric with a single reference."], "ms": ["Kami menggunakan skor BLEU untuk menilai ketepatan terjemahan dengan dan tanpa Normalisasi.", "Untuk penilaian, kami menggunakan metrik BLEU Case-Insensitive dengan rujukan tunggal."]}, {"en": ["Semantic Parsing is the task of mapping natural language sentences into logical forms which can be executed on a knowledge base (Cite-P-18-5-13, Cite-P-18-5-14, Cite-P-18-3-6, Cite-P-18-5-8, Cite-P-18-3-15, Cite-P-18-3-9).", "Semantic Parsing is the task of translating natural language utterances to a formal meaning representation language (Cite-P-16-1-6, Cite-P-16-3-6, Cite-P-16-1-8, Cite-P-16-3-7, Cite-P-16-1-0)."], "ms": ["Penghuraian Semantik adalah tugas pemetaan ayat bahasa semula jadi ke dalam bentuk logik yang boleh dilaksanakan pada asas pengetahuan (Cite-P-18-5-13, Cite-P-18-5-14, Cite-P-18-3-6, Cite-P-18-5-8, Cite-P-18-3-15, Cite-P-18-3-9).", "Penghuraian Semantik adalah tugas menterjemahkan pengucapan bahasa semula jadi kepada bahasa perwakilan makna formal (Cite-P-16-1-6, Cite-P-16-3-6, Cite-P-16-1-8, Cite-P-16-3-7, Cite-P-16-1-0)."]}, {"en": ["A 4-Grams language model is trained by the Srilm Toolkit.", "This means in practice that the language model was trained using the Srilm Toolkit."], "ms": ["Model bahasa 4-Gram dilatih oleh Srilm Toolkit.", "Ini bermakna dalam amalan bahawa model bahasa dilatih menggunakan Srilm Toolkit."]}, {"en": ["We used Yamcha 1, which is a general purpose Svm-Based Chunker.", "We used Yamcha as a text Chunker, which is based on support vector machine."], "ms": ["Kami menggunakan Yamcha 1, yang merupakan tujuan umum Svm-Based Chunker.", "Kami menggunakan Yamcha sebagai Chunker teks, yang berdasarkan mesin vektor sokongan."]}, {"en": ["We used the Pre-Trained word Embeddings that were learned using the Word2Vec Toolkit on Google news Dataset.", "We used the Google news Pretrained Word2Vec word Embeddings for our model."], "ms": ["Kami menggunakan Embedding perkataan Pra-Latih yang dipelajari menggunakan Word2Vec Toolkit pada Dataset berita Google.", "Kami menggunakan perkataan Embedding Word2Vec Pretrained Google untuk model kami."]}, {"en": ["In this task, we use the 300-Dimensional 840B glove word Embeddings.", "We use Pre-Trained 50 dimensional glove vectors 4 for word Embeddings Initialization."], "ms": ["Dalam tugas ini, kami menggunakan perkataan sarung tangan 300-Dimensional 840B Embeddings.", "Kami menggunakan vektor sarung tangan 50 dimensi Pra-Trained 4 untuk Pengawalan Embeddings perkataan."]}, {"en": ["Nenkova et al found that Entrainment on High-Frequency words was correlated with naturalness, task success, and coordinated Turn-Taking behavior.", "Nenkova et al found that high frequency word Entrainment in dialogue is correlated with engagement and task success."], "ms": ["Nenkova et al mendapati bahawa Entrainment on High-Frequency perkataan berkorelasi dengan sifat semula jadi, kejayaan tugas, dan tingkah laku Turn-Taking yang diselaraskan.", "Nenkova et al mendapati bahawa perkataan frekuensi tinggi Entrainment dalam dialog berkorelasi dengan penglibatan dan kejayaan tugas."]}, {"en": ["The Srilm language Modelling Toolkit was used with interpolated Kneser-Ney discounting.", "The language models used were 7-Gram Srilm with Kneser-Ney smoothing and linear interpolation."], "ms": ["Alat Pemodelan bahasa Srilm digunakan dengan diskaun Kneser-Ney yang saling berkaitan.", "Model bahasa yang digunakan ialah Srilm 7-Gram dengan smoothing Kneser-Ney dan interpolasi linear."]}, {"en": ["Our Trigram word language model was trained on the target side of the training corpus using the Srilm Toolkit with modified Kneser-Ney smoothing.", "We used 5-Gram models, estimated using the Sri language modeling Toolkit with modified Kneser-Ney smoothing."], "ms": ["Model bahasa perkataan Trigram kami dilatih di sisi sasaran korpus latihan menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan model 5-Gram, dianggarkan menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Language models of order 5 have been built and interpolated with Srilm and Kenlm.", "These language models were built up to an order of 5 with Kneser-Ney smoothing using the Srilm Toolkit."], "ms": ["Model bahasa order 5 telah dibina dan diinterpolasi dengan Srilm dan Kenlm.", "Model bahasa ini dibina sehingga urutan 5 dengan smoothing Kneser-Ney menggunakan Srilm Toolkit."]}, {"en": ["Word alignment is a Well-Studied problem in natural language computing.", "Word alignment is a fundamental problem in statistical machine translation."], "ms": ["Penjajahan perkataan adalah masalah yang dikaji dengan baik dalam pengkomputeran bahasa semula jadi.", "Penjajahan perkataan adalah masalah asas dalam terjemahan mesin statistik."]}, {"en": ["Our 5-Gram language model is trained by the Sri language modeling Toolkit.", "We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit."], "ms": ["Model bahasa 5-Gram kami dilatih oleh Toolkit pemodelan bahasa Sri.", "Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit."]}, {"en": ["Similarity is a kind of Association implying the presence of characteristics in common.", "Similarity is the intrinsic ability of humans and some animals to balance Commonalities and differences when comparing objects that are not identical."], "ms": ["Kesamaan adalah sejenis Persatuan yang menyiratkan kehadiran ciri-ciri yang sama.", "Kesamaan adalah keupayaan intrinsik manusia dan sesetengah haiwan untuk mengimbangi Kesamaan dan perbezaan apabila membandingkan objek yang tidak sama."]}, {"en": ["The Promt Smt system is based on the Moses Open-Source Toolkit.", "Our baseline is a Phrase-Based mt system trained using the Moses Toolkit."], "ms": ["Sistem Promt Smt adalah berdasarkan kepada Musa Open-Source Toolkit.", "Asas kami adalah sistem mt berasaskan frasa yang dilatih menggunakan Musa Toolkit."]}, {"en": ["We use the glove vectors of 300 dimension to represent the input words.", "For this reason, we used glove vectors to extract the vector representation of words."], "ms": ["Kami menggunakan vektor sarung tangan 300 dimensi untuk mewakili perkataan input.", "Atas sebab ini, kami menggunakan vektor sarung tangan untuk mengekstrak perwakilan vektor perkataan."]}, {"en": ["The integrated dialect Classifier is a maximum entropy model that we train using the Liblinear Toolkit.", "We utilize a maximum entropy model to design the basic Classifier used in active learning for Wsd."], "ms": ["Klasifier dialek bersepadu adalah model entropi maksimum yang kami melatih menggunakan Liblinear Toolkit.", "Kami menggunakan model entropi maksimum untuk mereka bentuk Klasifier asas yang digunakan dalam pembelajaran aktif untuk Wsd."]}, {"en": ["We perform the Mert training to tune the optimal feature weights on the development set.", "We set the feature weights by optimizing the BLEU score directly using minimum error rate training on the development set."], "ms": ["Kami melaksanakan latihan Mert untuk menyesuaikan berat ciri optimum pada set pembangunan.", "Kami menetapkan berat ciri dengan mengoptimumkan skor BLEU secara langsung menggunakan latihan kadar ralat minimum pada set pembangunan."]}, {"en": ["Shutova defined metaphor interpretation as a Paraphrasing task and presented a method for deriving literal paraphrases for metaphorical expressions from the Bnc.", "Shutova defined metaphor interpretation as a Paraphrasing task, where literal paraphrases for metaphorical expressions are derived from corpus data using a set of statistical measures."], "ms": ["Shutova mentakrifkan tafsiran metafora sebagai tugas Parafrasa dan membentangkan kaedah untuk memperoleh parafrasa literal untuk ungkapan metafora dari Bnc.", "Shutova mentakrifkan tafsiran metafora sebagai tugas Parafrasa, di mana parafrasa literal untuk ungkapan metafora berasal dari data korpus menggunakan satu set langkah statistik."]}, {"en": ["We first use BLEU score to perform automatic evaluation.", "We adopt two standard Metrics Rouge and BLEU for evaluation."], "ms": ["Kami menggunakan skor BLEU untuk melakukan penilaian automatik.", "Kami menggunakan dua metrik Rouge dan BLEU standard untuk penilaian."]}, {"en": ["The Treebank data in our experiments are from the Conll Shared-Tasks on dependency Parsing.", "We use the Treebanks from the Conll shared tasks on dependency Parsing for evaluation."], "ms": ["Data Treebank dalam eksperimen kami adalah dari Conll Shared-Tasks mengenai Penghuraian dependensi.", "Kami menggunakan Treebanks dari tugas kongsi Conll pada Penghuraian dependensi untuk penilaian."]}, {"en": ["The Wordnet-Affect resource was employed for obtaining the Affective terms.", "An Affective lexicon, Wordnet-Affect was used to identify words with emotional content in the text."], "ms": ["Sumber Wordnet-Affect digunakan untuk mendapatkan terma Affective.", "Leksikon Affektif, Wordnet-Affect digunakan untuk mengenal pasti perkataan dengan kandungan emosi dalam teks."]}, {"en": ["Coreference resolution is a complex problem, and successful systems must tackle a variety of Non-Trivial Subproblems that are central to the Coreference task \u2014 E.G ., Mention/Markable detection, Anaphor identification \u2014 and that require substantial implementation efforts.", "Coreference resolution is a key problem in natural language understanding that still escapes reliable solutions."], "ms": ["Resolusi Coreference adalah masalah yang kompleks, dan sistem yang berjaya mesti menangani pelbagai Submasalah Bukan Trivial yang menjadi pusat tugas Coreference - E.G., pengesanan Mention / Markable, pengenalan Anaphor - dan yang memerlukan usaha pelaksanaan yang besar.", "Resolusi spatial adalah masalah utama dalam pemahaman bahasa semula jadi yang masih terlepas daripada penyelesaian yang boleh dipercayai."]}, {"en": ["Coreference resolution is the task of automatically grouping references to the same Real-World entity in a document into a set.", "Although Coreference resolution is a Subproblem of natural language understanding, Coreference resolution evaluation Metrics have predominately been discussed in terms of abstract entities and hypothetical system errors."], "ms": ["Resolusi spatial adalah tugas untuk mengumpulkan rujukan secara automatik ke entiti Dunia Nyata yang sama dalam dokumen ke dalam satu set.", "Walaupun resolusi Coreference adalah Submasalah pemahaman bahasa semula jadi, Metrik penilaian resolusi Coreference telah banyak dibincangkan dari segi entiti abstrak dan kesilapan sistem hipotesis."]}, {"en": ["The feature weights for each system were tuned on development SETS using the Moses implementation of minimum error rate training.", "All the feature weights were trained using our implementation of minimum error rate training."], "ms": ["Berat ciri bagi setiap sistem ditala pada pembangunan SETS menggunakan pelaksanaan Musa latihan kadar ralat minimum.", "Semua berat ciri dilatih menggunakan pelaksanaan latihan kadar ralat minimum kami."]}, {"en": ["We use the Moses statistical mt Toolkit to perform the translation.", "From this, we extract an old domain sense dictionary, using the Moses mt framework."], "ms": ["Kami menggunakan Musa statistik mt Toolkit untuk melaksanakan terjemahan.", "Dari ini, kita mengekstrak kamus pengertian domain lama, menggunakan kerangka mt Musa."]}, {"en": ["We use Pre-Trained Word2Vec word vectors and vector representations by Tilk et al to obtain Word-Level similarity information.", "This approach relies on word Embeddings for the computation of semantic relatedness with Word2Vec."], "ms": ["Kami menggunakan vektor perkataan Word2Vec Pra-Trained dan perwakilan vektor oleh Tilk et al untuk mendapatkan maklumat persamaan Tahap-Word.", "Pendekatan ini bergantung pada Embedding perkataan untuk pengiraan hubungan semantik dengan Word2Vec."]}, {"en": ["All word vectors are trained on the Skipgram architecture.", "The character Embeddings are computed using a method similar to Word2Vec."], "ms": ["Semua vektor perkataan dilatih pada seni bina Skipgram.", "Embedding watak dikira menggunakan kaedah yang serupa dengan Word2Vec."]}, {"en": ["Translation results are evaluated using the Word-Based BLEU score.", "The BLEU metric was used for translation evaluation."], "ms": ["Hasil terjemahan dinilai menggunakan skor BLEU berasaskan perkataan.", "Metrik BLEU digunakan untuk penilaian terjemahan."]}, {"en": ["Twitter is a Microblogging service that has 313 million monthly active users 1.", "Twitter is a social platform which contains rich textual content."], "ms": ["Twitter adalah perkhidmatan Microblogging yang mempunyai 313 juta pengguna aktif bulanan 1.", "Twitter adalah platform sosial yang mengandungi kandungan teks yang kaya."]}, {"en": ["Our machine translation system is a Phrase-Based system using the Moses Toolkit.", "Our Phrase-Based mt system is trained by Moses with standard parameters settings."], "ms": ["Sistem terjemahan mesin kami adalah sistem berasaskan frasa menggunakan Musa Toolkit.", "Sistem mt Berasaskan Frasa kami dilatih oleh Musa dengan tetapan parameter standard."]}, {"en": ["The translation quality is evaluated by Caseinsensitive Bleu-4 metric.", "The evaluation metric for the overall translation quality was Case-Insensitive Bleu4."], "ms": ["Kualiti terjemahan dinilai oleh Caseinsensitive Bleu-4 metrik.", "Metrik penilaian untuk kualiti terjemahan keseluruhan adalah Case-Insensitive Bleu4."]}, {"en": ["We trained Kneser-Ney discounted 5-Gram language models on each available corpus using the Srilm Toolkit.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Kami melatih model bahasa 5-Gram Kneser-Ney didiskaun pada setiap korpus yang tersedia menggunakan Srilm Toolkit.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We use the Srilm Toolkit to compute our language models.", "We use Srilm with its default parameters for this purpose."], "ms": ["Kami menggunakan Srilm Toolkit untuk mengira model bahasa kami.", "Kami menggunakan Srilm dengan parameter lalai untuk tujuan ini."]}, {"en": ["We tune model weights using minimum error rate training on the WMT 2008 test data.", "We use minimum error rate training with Nbest list size 100 to optimize the feature weights for maximum development BLEU."], "ms": ["Kami menala berat model menggunakan latihan kadar ralat minimum pada data ujian WMT 2008.", "Kami menggunakan latihan kadar ralat minimum dengan saiz senarai Nbest 100 untuk mengoptimumkan berat ciri untuk pembangunan maksimum BLEU."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit.", "Unpruned language models were trained using Lmplz which employs modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit.", "Model bahasa yang tidak dipangkas dilatih menggunakan Lmplz yang menggunakan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["All linear models were trained with the Perceptron update rule.", "The models were implemented using Scikit-Learn Module."], "ms": ["Semua model linear dilatih dengan peraturan kemas kini Perceptron.", "Model-model ini dilaksanakan menggunakan Modul Scikit-Learn."]}, {"en": ["Following, we use the Na\u8302Ve Bayes model implemented in Weka for candidate phrase selection.", "Note that we use the naive Bayes Multinomial Classifier in Weka for classification."], "ms": ["Seterusnya, kami menggunakan model NaVe Bayes yang dilaksanakan di Weka untuk pemilihan frasa calon.", "Perhatikan bahawa kami menggunakan Klasifikasi Multinomial Bayes naif di Weka untuk klasifikasi."]}, {"en": ["Relation extraction (re) is the task of identifying instances of relations, such as nationality (person, country) or place of birth (person, location), in passages of natural text.", "Relation extraction is the key component for building relation knowledge graphs, and it is of crucial significance to natural language processing applications such as structured search, sentiment analysis, question answering, and summarization."], "ms": ["Pengekstrakan hubungan (re) adalah tugas mengenal pasti contoh hubungan, seperti kewarganegaraan (orang, negara) atau tempat kelahiran (orang, lokasi), dalam petikan teks semula jadi.", "Pengekstrakan hubungan adalah komponen utama untuk membina graf pengetahuan hubungan, dan ia sangat penting untuk aplikasi pemprosesan bahasa semula jadi seperti carian berstruktur, analisis sentimen, jawapan soalan, dan ringkasan."]}, {"en": ["The language model defined by the expression is named the conditional language model.", "A language model is a probability distribution over strings P (s) that attempts to reflect the frequency with which each string s occurs as a sentence in natural text."], "ms": ["Model bahasa yang ditakrifkan oleh ungkapan dinamakan model bahasa bersyarat.", "Model bahasa adalah taburan kebarangkalian berbanding rentetan P (s) yang cuba mencerminkan kekerapan yang mana setiap rentetan s berlaku sebagai ayat dalam teks semula jadi."]}, {"en": ["We also develop a semantic Parser for this corpus.", "We develop a semantic Parser for this corpus."], "ms": ["Kami juga membangunkan Parser semantik untuk korpus ini.", "Kami membangunkan Parser semantik untuk korpus ini."]}, {"en": ["Dependency Annotation for Hindi is based on Paninian framework for building the Treebank.", "For Hindi, dependency Annotation is done using Paninian framework."], "ms": ["Anotasi Dependensi untuk Hindi didasarkan pada kerangka Paninian untuk membangun Treebank.", "Bagi bahasa Hindi, anotasi dependensi dilakukan menggunakan rangka kerja Paninian."]}, {"en": ["The Embeddings were trained over the English Wikipedia using Word2Vec.", "Word Embeddings have been trained using Word2Vec 4 tool."], "ms": ["Embeddings dilatih melalui Wikipedia Bahasa Inggeris menggunakan Word2Vec.", "Embedding Word telah dilatih menggunakan alat Word2Vec 4."]}, {"en": ["Part-Of-Speech (Pos) tagging is a job to assign a proper Pos tag to each linguistic unit such as word for a given sentence.", "Part-Of-Speech (Pos) tagging is a critical task for natural language processing (Nlp) applications, providing lexical syntactic information."], "ms": ["Penandaan Part-Of-Speech (Pos) adalah tugas untuk menetapkan tag Pos yang betul untuk setiap unit linguistik seperti perkataan untuk ayat yang diberikan.", "Penandaan Part-Of-Speech (Pos) adalah tugas kritikal untuk aplikasi pemprosesan bahasa semula jadi (Nlp), menyediakan maklumat sintaksis leksikal."]}, {"en": ["We estimated 5-Gram language models using the Sri Toolkit with modified Kneser-Ney smoothing.", "We trained a 4-Gram language model on this data with Kneser-Ney discounting using Srilm."], "ms": ["Kami menganggarkan model bahasa 5-Gram menggunakan Sri Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami melatih model bahasa 4-Gram pada data ini dengan diskaun Kneser-Ney menggunakan Srilm."]}, {"en": ["Motivated by the idea of addressing Wce problem as a sequence labeling process, we employ the conditional random fields for our model training, with Wapiti Toolkit.", "Motivated by the idea of addressing word confidence estimation problem as a sequence labeling process, we employ the conditional random fields for our model training, with Wapiti Toolkit."], "ms": ["Didorong oleh idea menangani masalah Wce sebagai proses pelabelan urutan, kami menggunakan medan rawak bersyarat untuk latihan model kami, dengan Wapiti Toolkit.", "Didorong oleh idea menangani masalah anggaran keyakinan perkataan sebagai proses pelabelan urutan, kami menggunakan medan rawak bersyarat untuk latihan model kami, dengan Wapiti Toolkit."]}, {"en": ["We use the cube pruning method to approximately intersect the translation forest with the language model.", "We then follow standard Heuristics and filtering strategies to extract Hierarchical phrases from the Union of the directional word alignments."], "ms": ["Kami menggunakan kaedah pemangkasan kiub untuk kira-kira bersilang hutan terjemahan dengan model bahasa.", "Kami kemudian mengikuti Heuristik standard dan strategi penapisan untuk mengekstrak frasa Hierarki dari Kesatuan penjajaran perkataan arah."]}, {"en": ["Semantic role labeling (SRL) is the task of identifying the semantic arguments of a Predicate and labeling them with their semantic roles.", "Semantic role labeling (SRL) is the process of assigning semantic roles to strings of words in a sentence according to their relationship to the semantic Predicates expressed in the sentence."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas mengenal pasti hujah semantik Predicate dan melabelkannya dengan peranan semantik mereka.", "Pelabelan peranan semantik (SRL) adalah proses menetapkan peranan semantik kepada rentetan perkataan dalam ayat mengikut hubungan mereka dengan semantik Predicates yang dinyatakan dalam ayat."]}, {"en": ["The best model achieved an overall WER improvement of 10% relative to the 3-Gram baseline.", "To be the only Parse, the reduction in PPL \u00a1\u00aa relative to a 3-Gram baseline."], "ms": ["Model terbaik mencapai peningkatan WER keseluruhan sebanyak 10% berbanding dengan garis dasar 3-Gram.", "Untuk menjadi satu-satunya Parse, pengurangan PPL a berbanding dengan garis dasar 3-Gram."]}, {"en": ["We use Srilm for training a Trigram language model on the English side of the training corpus.", "We train a Kn-Smoothed 5-Gram language model on the target side of the parallel training data with Srilm."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa Trigram di sisi bahasa Inggeris korpus latihan.", "Kami melatih model bahasa Kn-Smoothed 5-Gram di sisi sasaran data latihan selari dengan Srilm."]}, {"en": ["Sentence compression is the task of producing a shorter form of a single given sentence, so that the new form is grammatical and retains the most important information of the original one.", "Sentence compression is the task of producing a shorter form of a grammatical source sentence, so that the new form will still be grammatical and it will retain the most important information of the source."], "ms": ["Pemampatan ayat adalah tugas menghasilkan bentuk yang lebih pendek dari satu ayat yang diberikan, supaya bentuk baru adalah tatabahasa dan mengekalkan maklumat yang paling penting dari yang asal.", "Pemampatan ayat adalah tugas menghasilkan bentuk yang lebih pendek dari ayat sumber tatabahasa, sehingga bentuk baru masih tatabahasa dan akan menyimpan maklumat yang paling penting dari sumber tersebut."]}, {"en": ["We used the Moses Toolkit for performing statistical machine translation.", "We trained the statistical Phrase-Based systems using the Moses Toolkit with Mert tuning."], "ms": ["Kami menggunakan Musa Toolkit untuk melaksanakan terjemahan mesin statistik.", "Kami melatih sistem berasaskan frasa statistik menggunakan Musa Toolkit dengan penalaan Mert."]}, {"en": ["We evaluated the proposed method using four evaluation measures, BLEU, Nist, WER, and per.", "In order to present a comprehensive evaluation, we evaluated the accuracy of each model output using both BLEU and Chrf3 Metrics."], "ms": ["Kami menilai kaedah yang dicadangkan menggunakan empat langkah penilaian, BLEU, Nist, WER, dan per.", "Untuk membentangkan penilaian yang komprehensif, kami menilai ketepatan setiap output model menggunakan kedua-dua BLEU dan Chrf3 Metrics."]}, {"en": ["The translation results are evaluated by Caseinsensitive Bleu-4 metric.", "The translation quality is evaluated by Case-Insensitive Bleu-4 metric."], "ms": ["Hasil terjemahan dinilai oleh metrik Caseinsensitive Bleu-4.", "Kualiti terjemahan dinilai oleh metrik Case-Insensitive Bleu-4."]}, {"en": ["We Pretrain word vectors with the Word2Vec tool on the news Dataset released by Ding et al, which are Fine-Tuned during training.", "In this work, we employ the Toolkit Word2Vec to Pre-Train the word Embedding for the source and target languages."], "ms": ["Kami Pretrain vektor perkataan dengan alat Word2Vec pada Dataset berita yang dikeluarkan oleh Ding et al, yang Fine-Tuned semasa latihan.", "Dalam kerja ini, kami menggunakan Toolkit Word2Vec untuk Pra-Latih perkataan Embedding untuk bahasa sumber dan sasaran."]}, {"en": ["Our baseline system is Re-Implementation of Hiero, a Hierarchical Phrase-Based system.", "Our Hierarchical Phrase-Based system is similar to the one described in."], "ms": ["Sistem asas kami adalah Pelaksanaan Semula Hiero, sistem Berasaskan Frasa Hierarki.", "Sistem Berasaskan Frasa Hierarki kami serupa dengan yang dijelaskan dalam."]}, {"en": ["To train our neural algorithm, we apply word Embeddings of a Look-Up from 100-D glove Pre-Trained on Wikipedia and Gigaword.", "We use glove vectors with 100 dimensions trained on Wikipedia and Gigaword as word Embeddings, which we do not optimize during training."], "ms": ["Untuk melatih algoritma saraf kami, kami menggunakan perkataan Embeddings of a Look-Up dari sarung tangan 100-D Pra-Trained di Wikipedia dan Gigaword.", "Kami menggunakan vektor sarung tangan dengan 100 dimensi yang dilatih di Wikipedia dan Gigaword sebagai Embedding perkataan, yang kami tidak mengoptimumkan semasa latihan."]}, {"en": ["Framenet is a Lexico-Semantic resource focused on semantic frames.", "Framenet is a Lexicalsemantic resource manually built by FN experts."], "ms": ["Framenet adalah sumber Lexico-Semantik yang tertumpu pada bingkai semantik.", "Framenet adalah sumber Lexicalsemantic yang dibina secara manual oleh pakar FN."]}, {"en": ["The translation systems were evaluated by BLEU score.", "Translation performance was measured by Case-Insensitive BLEU."], "ms": ["Sistem terjemahan dinilai oleh skor BLEU.", "Prestasi terjemahan diukur oleh Case-Insensitive BLEU."]}, {"en": ["We train and evaluate a L2-Regularized logistic regression Classifier with the Liblin-Ear Solver as implemented in Scikit-Learn.", "We also use editor score as an outcome variable for a linear regression Classifier, which we evaluate using 10-fold Cross-Validation in Scikit-Learn."], "ms": ["Kami melatih dan menilai Classifier regresi logistik L2-Regularized dengan Liblin-Ear Solver seperti yang dilaksanakan dalam Scikit-Learn.", "Kami juga menggunakan skor editor sebagai pemboleh ubah hasil untuk Classifier regresi linear, yang kami menilai menggunakan Cross-Validation 10 kali ganda dalam Scikit-Learn."]}, {"en": ["Neural networks, working on top of conventional N-Gram models, have been introduced in as a potential means to improve conventional N-Gram language models.", "Neural networks, working on top of conventional N-Gram Back-Off language models, have been introduced in as a potential means to improve discrete language models."], "ms": ["Rangkaian saraf, yang bekerja di atas model N-Gram konvensional, telah diperkenalkan sebagai cara yang berpotensi untuk meningkatkan model bahasa N-Gram konvensional.", "Rangkaian saraf, yang bekerja di atas model bahasa N-Gram Back-Off konvensional, telah diperkenalkan sebagai cara yang berpotensi untuk meningkatkan model bahasa diskret."]}, {"en": ["Our translation system is an in-house Phrasebased system analogous to Moses.", "For our experiments, we use a Phrase-Based translation system similar to Moses."], "ms": ["Sistem terjemahan kami adalah sistem berasaskan firase dalaman yang serupa dengan Musa.", "Untuk eksperimen kami, kami menggunakan sistem terjemahan Berasaskan Frasa yang serupa dengan Musa."]}, {"en": ["This paper presents an Unsupervised learning approach to non-English stemming.", "This paper presents an Unsupervised learning approach to building a non-English."], "ms": ["Kertas ini membentangkan pendekatan pembelajaran yang tidak diawasi kepada stemming bukan bahasa Inggeris.", "Kertas ini membentangkan pendekatan pembelajaran yang tidak diawasi untuk membina bukan bahasa Inggeris."]}, {"en": ["Dependency Parsing is a valuable form of syntactic processing for Nlp applications due to its transparent Lexicalized representation and robustness with respect to flexible word order languages.", "Dependency Parsing is a very important Nlp task and has wide usage in different tasks such as question answering, semantic Parsing, information extraction and machine translation."], "ms": ["Penghuraian Dependensi adalah satu bentuk pemprosesan sintaktik yang berharga untuk aplikasi Nlp kerana perwakilan Lexicalized telus dan keteguhan berkenaan dengan bahasa pesanan perkataan yang fleksibel.", "Dependency Parsing adalah tugas Nlp yang sangat penting dan mempunyai penggunaan yang luas dalam tugas yang berbeza seperti menjawab soalan, Penghuraian semantik, pengekstrakan maklumat dan terjemahan mesin."]}, {"en": ["We used a Phrase-Based Smt model as implemented in the Moses Toolkit.", "We then implemented our model using Moses Toolkit with Kenlm as the language model in 5-Gram setting."], "ms": ["Kami menggunakan model Smt Berasaskan Frasa seperti yang dilaksanakan dalam Musa Toolkit.", "Kami kemudian melaksanakan model kami menggunakan Musa Toolkit dengan Kenlm sebagai model bahasa dalam tetapan 5-Gram."]}, {"en": ["We use the glove Pre-Trained word Embeddings for the vectors of the content words.", "In our experiments, we choose to use the published glove Pre-Trained word Embeddings."], "ms": ["Kami menggunakan sarung tangan Embeddings perkataan Pra-Latih untuk vektor perkataan kandungan.", "Dalam eksperimen kami, kami memilih untuk menggunakan sarung tangan yang diterbitkan Embedding perkataan Pra-Latih."]}, {"en": ["We use the Mallet implementation of conditional random fields.", "In this task, we used conditional random fields."], "ms": ["Kami menggunakan pelaksanaan Mallet medan rawak bersyarat.", "Dalam tugas ini, kami menggunakan medan rawak bersyarat."]}, {"en": ["Sentiment analysis is a growing research field, especially on web social networks.", "Sentiment analysis is a research area where does a computational analysis of people \u2019 s feelings or beliefs expressed in texts such as emotions, opinions, attitudes, appraisals, etc . (Cite-P-12-1-3)."], "ms": ["Analisis sentimen adalah bidang penyelidikan yang semakin meningkat, terutamanya di rangkaian sosial web.", "Analisis sentimen adalah bidang penyelidikan di mana analisis pengiraan perasaan atau kepercayaan orang yang dinyatakan dalam teks seperti emosi, pendapat, sikap, penilaian, dan lain-lain (Cite-P-12-1-3)."]}, {"en": ["Our semantic Parser is implemented as a neural Sequence-To-Sequence model with attention.", "We train Attentional Sequence-To-Sequence models implemented in Nematus."], "ms": ["Parser semantik kami dilaksanakan sebagai model neural Sequence-To-Sequence dengan perhatian.", "Kami melatih model Attentional Sequence-To-Sequence yang dilaksanakan di Nematus."]}, {"en": ["We implement an In-Domain language model using the Sri language modeling Toolkit.", "We use a Fourgram language model with modified Kneser-Ney smoothing as implemented in the Srilm Toolkit."], "ms": ["Kami melaksanakan model bahasa In-Domain menggunakan Toolkit pemodelan bahasa Sri.", "Kami menggunakan model bahasa Fourgram dengan smoothing Kneser-Ney yang diubahsuai seperti yang dilaksanakan dalam Srilm Toolkit."]}, {"en": ["In this section, we briefly review the Hmm alignment model.", "This section describes the classic hidden Markov model based alignment model."], "ms": ["Dalam bahagian ini, kami mengkaji secara ringkas model penjajaran Hmm.", "Bahagian ini menerangkan model penjajaran berasaskan Markov tersembunyi klasik."]}, {"en": ["Language models were built using the Sri language modeling Toolkit with modified Kneser-Ney smoothing.", "The language model was generated from the Europarl corpus using the Sri language modeling Toolkit."], "ms": ["Model bahasa dibina menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai.", "Model bahasa dihasilkan daripada korpus Europarl menggunakan Toolkit pemodelan bahasa Sri."]}, {"en": ["The word Embeddings can provide word vector representation that captures semantic and syntactic information of words.", "Word Embedding provides an unique property to capture Semantics and syntactic information of different words."], "ms": ["Perkataan Embeddings boleh memberikan perwakilan vektor perkataan yang menangkap maklumat semantik dan sintaktik perkataan.", "Embedding Word menyediakan sifat unik untuk menangkap maklumat Semantik dan sintaktik perkataan yang berbeza."]}, {"en": ["We use the automatic mt evaluation Metrics BLEU, meteor, and Ter, to evaluate the absolute translation quality obtained.", "We measure the translation quality with automatic Metrics including BLEU and Ter."], "ms": ["Kami menggunakan Metrik Penilaian Mt automatik BLEU, meteor, dan Ter, untuk menilai kualiti terjemahan mutlak yang diperoleh.", "Kami mengukur kualiti terjemahan dengan Metrik automatik termasuk BLEU dan Ter."]}, {"en": ["Coreference resolution is the problem of partitioning a sequence of noun phrases (or mentions), as they occur in a natural language text, into a set of Referential entities.", "Coreference resolution is the task of partitioning a set of entity mentions in a text, where each partition corresponds to some entity in an underlying discourse model."], "ms": ["Resolusi spatial adalah masalah pembahagian urutan frasa kata nama (atau sebutan), kerana ia berlaku dalam teks bahasa semula jadi, ke dalam satu set entiti rujukan.", "Resolusi spatial adalah tugas pembahagian satu set sebutan entiti dalam teks, di mana setiap partition sepadan dengan beberapa entiti dalam model wacana yang mendasari."]}, {"en": ["Coreference resolution is the process of linking together multiple expressions of a given entity.", "Coreference resolution is the process of linking multiple mentions that refer to the same entity."], "ms": ["Resolusi spatial adalah proses menghubungkan pelbagai ungkapan entiti tertentu.", "Resolusi spatial adalah proses menghubungkan pelbagai sebutan yang merujuk kepada entiti yang sama."]}, {"en": ["We used Trigram language models with interpolated Kneser-Kney discounting trained using the Sri language modeling Toolkit.", "We trained a 5-Gram language model on the Xinhua portion of Gigaword corpus using the Srilm Toolkit."], "ms": ["Kami menggunakan model bahasa Trigram dengan diskaun Kneser-Kney yang diinterpolasi dilatih menggunakan Toolkit pemodelan bahasa Sri.", "Kami melatih model bahasa 5-Gram di bahagian Xinhua Gigaword corpus menggunakan Srilm Toolkit."]}, {"en": ["In recent years, error mining techniques have been developed to help identify the most likely sources of Parsing failure (Cite-P-15-3-2, Cite-P-15-3-1, Cite-P-15-1-4).", "In recent years, error mining techniques have been developed to help identify the most likely sources of Parsing failure."], "ms": ["Dalam tahun-tahun kebelakangan ini, teknik perlombongan ralat telah dibangunkan untuk membantu mengenal pasti sumber kegagalan Parsing yang paling mungkin (Cite-P-15-3-2, Cite-P-15-3-1, Cite-P-15-1-4).", "Dalam tahun-tahun kebelakangan ini, teknik perlombongan ralat telah dibangunkan untuk membantu mengenal pasti sumber kegagalan Parsing yang paling mungkin."]}, {"en": ["The matrix is weighted using positive Pointwise mutual information.", "The matrix was then normalized with Pointwise mutual information."], "ms": ["Matriks ditimbang menggunakan maklumat bersama Pointwise positif.", "Matriks kemudian dinormalisasi dengan maklumat bersama Pointwise."]}, {"en": ["Cohesion is a Surface-Level property of Well-Formed texts.", "Cohesion can be defined as a set of resources linking within a text that organize the text together (Cite-P-16-1-12)."], "ms": ["Cohesion adalah sifat Surface-Level teks Well-Formed.", "Kohesi boleh ditakrifkan sebagai satu set sumber yang menghubungkan dalam teks yang menyusun teks bersama (Cite-P-16-1-12)."]}, {"en": ["We use a set of 318 English function words from the Scikit-Learn package.", "We use the SVM implementation from Scikit-Learn, which in turn is based on Libsvm."], "ms": ["Kami menggunakan satu set 318 perkataan fungsi bahasa Inggeris dari pakej Scikit-Learn.", "Kami menggunakan pelaksanaan SVM dari Scikit-Learn, yang seterusnya berdasarkan Libsvm."]}, {"en": ["We use the Moses package to train a Phrase-Based machine translation model.", "We used Moses, a Phrase-Based Smt Toolkit, for training the translation model."], "ms": ["Kami menggunakan pakej Musa untuk melatih model terjemahan mesin berasaskan frasa.", "Kami menggunakan Musa, Alat Alat Smt Berasaskan Frasa, untuk melatih model terjemahan."]}, {"en": ["Word sense Disambiguation (Wsd) is a key Enabling-Technology that automatically chooses the intended sense of a word in context.", "Word sense Disambiguation (Wsd) is the task of determining the correct meaning (\u201c sense \u201d) of a word in context, and several efforts have been made to develop automatic Wsd systems."], "ms": ["Disambiguation Word Sense Disambiguation (Wsd) ialah kunci Enabling-Technology yang secara automatik memilih pengertian perkataan yang dimaksudkan dalam konteks.", "Disambiguasi perkataan (Wsd) adalah tugas menentukan makna yang betul ( sense ) perkataan dalam konteks, dan beberapa usaha telah dibuat untuk membangunkan sistem Wsd automatik."]}, {"en": ["Coreference resolution is the task of partitioning the set of mentions of discourse Referents in a text into classes (or \u2018 chains \u2019) corresponding to those Referents (Cite-P-12-3-14).", "Coreference resolution is a set partitioning problem in which each resulting partition refers to an entity."], "ms": ["Resolusi spatial adalah tugas pembahagian set sebutan rujukan wacana dalam teks ke dalam kelas (atau rantai ) yang sepadan dengan rujukan tersebut (Cite-P-12-3-14).", "Resolusi spatial adalah masalah pembahagian yang ditetapkan di mana setiap partition yang dihasilkan merujuk kepada entiti."]}, {"en": ["The model was built using the Srilm Toolkit with Backoff and Kneser-Ney smoothing.", "A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit."], "ms": ["Model ini dibina menggunakan Srilm Toolkit dengan Backoff dan Kneser-Ney smoothing.", "Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit."]}, {"en": ["In addition, we use an English corpus of roughly 227 million words to build a Target-Side 5-Gram language model with Srilm in combination with Kenlm.", "The Pre-Processed Monolingual sentences will be used by Srilm or Berkeleylm to train a N-Gram language model."], "ms": ["Di samping itu, kami menggunakan korpus bahasa Inggeris kira-kira 227 juta perkataan untuk membina model bahasa Target-Side 5-Gram dengan Srilm dalam kombinasi dengan Kenlm.", "Kalimat Monolingual Pra-Proses akan digunakan oleh Srilm atau Berkeleylm untuk melatih model bahasa N-Gram."]}, {"en": ["We use the glove vector representations to compute Cosine similarity between two words.", "For the classification task, we use Pre-Trained glove Embedding vectors as lexical features."], "ms": ["Kami menggunakan perwakilan vektor sarung tangan untuk mengira persamaan kosinus antara dua perkataan.", "Untuk tugas pengelasan, kami menggunakan vektor Embedding sarung tangan Pra-Latih sebagai ciri leksikal."]}, {"en": ["These models are usually regarded as features and combined with Scaling factors to form a Log-Linear model.", "The translation models are included within a Log-Linear model which allows a weighted combination of features functions."], "ms": ["Model-model ini biasanya dianggap sebagai ciri dan digabungkan dengan faktor Penskalaan untuk membentuk model Log-Linear.", "Model terjemahan termasuk dalam model Log-Linear yang membolehkan gabungan fungsi ciri berwajaran."]}, {"en": ["The Ud scheme is built on the Google universal Part-Of-Speech Tagset, the Interset Interlingua of Morphosyntactic features, and Stanford Dependencies.", "The Annotation scheme is derived from the universal Stanford Dependencies, the Google universal Part-Of-Speech tags and the Interset Interlingua for morphological Tagsets."], "ms": ["Skim Ud dibina di Google universal Part-Of-Speech Tagset, Interset Interlingua ciri Morphosyntactic, dan Stanford Dependencies.", "Skim Annotasi berasal dari Stanford Dependencies universal, tag Part-Of-Speech universal Google dan Interset Interlingua untuk Tagset morfologi."]}, {"en": ["We use a random forest Classifier, as implemented in Scikit-Learn.", "For the classifiers we use the Scikit-Learn machine learning Toolkit."], "ms": ["Kami menggunakan Classifier hutan rawak, seperti yang dilaksanakan dalam Scikit-Learn.", "Untuk pengelas, kami menggunakan alat pembelajaran mesin Scikit-Learn."]}, {"en": ["We report Case-Sensitive BLEU and Ter as the mt evaluation Metrics.", "We report the mt performance using the original BLEU metric."], "ms": ["Kami melaporkan Case-Sensitive BLEU dan Ter sebagai Metrik penilaian mt.", "Kami melaporkan prestasi mt menggunakan metrik BLEU asal."]}, {"en": ["A 4-Gram language model was trained on the Monolingual data by the Srilm Toolkit.", "The language models in this experiment were Trigram models with Good-Turing smoothing built using Srilm."], "ms": ["Model bahasa 4-Gram dilatih pada data Monolingual oleh Srilm Toolkit.", "Model bahasa dalam eksperimen ini adalah model Trigram dengan smoothing Good-Turing yang dibina menggunakan Srilm."]}, {"en": ["Relation extraction is the task of finding semantic relations between two entities from text.", "Relation extraction is the key component for building relation knowledge graphs, and it is of crucial significance to natural language processing applications such as structured search, sentiment analysis, question answering, and summarization."], "ms": ["Pengekstrakan hubungan adalah tugas mencari hubungan semantik antara dua entiti dari teks.", "Pengekstrakan hubungan adalah komponen utama untuk membina graf pengetahuan hubungan, dan ia sangat penting untuk aplikasi pemprosesan bahasa semula jadi seperti carian berstruktur, analisis sentimen, jawapan soalan, dan ringkasan."]}, {"en": ["We used Srilm to build a 4-Gram language model with interpolated Kneser-Ney discounting.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan Srilm untuk membina model bahasa 4-Gram dengan diskaun Kneser-Ney yang saling berkaitan.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We derive 100-Dimensional word vectors using Word2Vec Skip-Gram model trained over the domain corpus.", "We use the 100-Dimensional Pre-Trained word Embeddings trained by Word2Vec 2 and the 100-Dimensional randomly Initialized Pos tag Embeddings."], "ms": ["Kami memperoleh vektor perkataan 100 dimensi menggunakan model Skip-Gram Word2Vec yang dilatih melalui korpus domain.", "Kami menggunakan Embedding perkataan Pra-Latihan 100 Dimensional yang dilatih oleh Word2Vec 2 dan Embedding tag Pos Permulaan 100 Dimensional secara rawak."]}, {"en": ["Kalchbrenner et al proposed a dynamic Convolution neural network with multiple layers of Convolution and K-Max pooling to model a sentence.", "Kalchbrenner et al , 2014) proposes a CNN framework with multiple Convolution layers, with latent, dense and Low-Dimensional word Embeddings as inputs."], "ms": ["Kalchbrenner et al mencadangkan rangkaian neural Convolution dinamik dengan pelbagai lapisan Convolution dan K-Max pooling untuk memodelkan ayat.", "Kalchbrenner et al, 2014) mencadangkan rangka kerja CNN dengan lapisan Convolution berganda, dengan perkataan laten, padat dan Low-Dimensional Embeddings sebagai input."]}, {"en": ["The Penn discourse Treebank is the largest corpus richly Annotated with explicit and implicit discourse relations and their senses.", "The Penn discourse Treebank is the largest available corpus of Annotations for discourse relations, covering one million words of the Wall Street Journal."], "ms": ["Penn discourse Treebank adalah corpus terbesar yang kaya Annotated dengan hubungan wacana yang eksplisit dan tersirat dan deria mereka.", "Penn discourse Treebank adalah korpus Annotasi yang tersedia terbesar untuk hubungan wacana, yang merangkumi satu juta perkataan Wall Street Journal."]}, {"en": ["Major discourse Annotated resources in English include the Rst Treebank and the Penn discourse Treebank.", "Another corpus has been Annotated for discourse phenomena in English, the Penn discourse Treebank."], "ms": ["Wacana utama Sumber-sumber yang diberi perhatian dalam bahasa Inggeris termasuk Rst Treebank dan Penn discourse Treebank.", "Satu lagi korpus telah Dianotasi untuk fenomena wacana dalam bahasa Inggeris, Penn discourse Treebank."]}, {"en": ["Zens and Ney show that Itg constraints yield significantly better alignment coverage than the constraints used in IBM statistical machine translation models on both German-English and French-English.", "Zens and Ney showed that Itg constraints allow a higher flexibility in Word-Ordering for longer sentences than the conventional IBM model."], "ms": ["Zens dan Ney menunjukkan bahawa kekangan Itg menghasilkan liputan penjajaran yang jauh lebih baik daripada kekangan yang digunakan dalam model terjemahan mesin statistik IBM pada kedua-dua Jerman-Inggeris dan Perancis-Inggeris.", "Zens dan Ney menunjukkan bahawa kekangan Itg membenarkan fleksibiliti yang lebih tinggi dalam Word-Ordering untuk ayat yang lebih panjang daripada model IBM konvensional."]}, {"en": ["Semantic role labeling (SRL) is a major Nlp task, providing a shallow Sentence-Level semantic analysis.", "Semantic role labeling (SRL) is the task of automatic recognition of individual Predicates together with their major roles (E.G . frame elements) as they are grammatically realized in input sentences."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas utama Nlp, menyediakan analisis semantik Tahap Sentence cetek.", "Pelabelan peranan semantik (SRL) adalah tugas pengiktirafan automatik individu Predicates bersama-sama dengan peranan utama mereka (unsur bingkai G) kerana mereka direalisasikan secara tatabahasa dalam ayat input."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Translation results are evaluated using the Word-Based BLEU score.", "Results are reported using Case-Insensitive BLEU with a single reference."], "ms": ["Hasil terjemahan dinilai menggunakan skor BLEU berasaskan perkataan.", "Keputusan dilaporkan menggunakan Case-Insensitive BLEU dengan rujukan tunggal."]}, {"en": ["We use Pre-Trained 50-Dimensional word Embeddings vector from glove.", "We use 300-Dimensional word Embeddings from glove to Initialize the model."], "ms": ["Kami menggunakan perkataan Pra-Trained 50-Dimensional Embeddings vektor dari sarung tangan.", "Kami menggunakan Embedding perkataan 300 dimensi dari sarung tangan untuk Memulakan model."]}, {"en": ["Sentiment classification is a well studied problem (Cite-P-13-3-6, Cite-P-13-1-14, Cite-P-13-3-3) and in many domains users explicitly provide ratings for each aspect making automated means unnecessary.", "Sentiment classification is a useful technique for analyzing subjective information in a large number of texts, and many studies have been conducted (Cite-P-15-3-1)."], "ms": ["Klasifikasi kepekaan adalah masalah yang dikaji dengan baik (Cite-P-13-3-6, Cite-P-13-1-14, Cite-P-13-3-3) dan dalam banyak domain pengguna secara eksplisit memberikan penilaian untuk setiap aspek membuat cara automatik tidak perlu.", "Klasifikasi kepekaan adalah teknik yang berguna untuk menganalisis maklumat subjektif dalam sebilangan besar teks, dan banyak kajian telah dijalankan (Cite-P-15-3-1)."]}, {"en": ["The weights of the Log-Linear interpolation model were Optimized via minimum error rate training on the Ted development set, using 200 best translations at each tuning Iteration.", "Feature weights were trained with minimum Error-Rate training on the News-Test2008 development set using the Dp beam search Decoder and the Mert implementation of the Moses Toolkit."], "ms": ["Berat model interpolasi Log-Linear dioptimumkan melalui latihan kadar ralat minimum pada set pembangunan Ted, menggunakan 200 terjemahan terbaik pada setiap penalaan Iterasi.", "Berat ciri dilatih dengan latihan Ralat-Rate minimum pada set pembangunan News-Test2008 menggunakan Decoder carian rasuk Dp dan pelaksanaan Mert Musa Toolkit."]}, {"en": ["In this run, we use a sentence vector derived from word Embeddings obtained from Word2Vec.", "Using Word2Vec, we compute word Embeddings for our text corpus."], "ms": ["Dalam larian ini, kami menggunakan vektor ayat yang berasal dari perkataan Embeddings yang diperoleh dari Word2Vec.", "Menggunakan Word2Vec, kami mengira Embedding perkataan untuk korpus teks kami."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of assigning sense tags to ambiguous lexical items (Lis) in a text.", "In natural language, a word often assumes different meanings, and the task of determining the correct meaning, or sense, of a word in different contexts is known as word sense Disambiguation (Wsd)."], "ms": ["Disambiguasi kata (Wsd) adalah tugas untuk menetapkan tag deria kepada item leksikal samar (Lis) dalam teks.", "Dalam bahasa semula jadi, perkataan sering mengandaikan makna yang berbeza, dan tugas menentukan makna yang betul, atau rasa, perkataan dalam konteks yang berbeza dikenali sebagai kata rasa Disambiguation (Wsd)."]}, {"en": ["We implemented our method in a Phrase-Based Smt system.", "We used Moses, a state-of-the-art Phrase-Based Smt model, in decoding."], "ms": ["Kami melaksanakan kaedah kami dalam sistem Smt Berasaskan Frasa.", "Kami menggunakan Musa, model Smt Berasaskan Frasa canggih, dalam penyahkodan."]}, {"en": ["A 3-Gram language model is trained on the target side of the training data by the Srilm Toolkits with modified Kneser-Ney smoothing.", "We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus."], "ms": ["Model bahasa 3-Gram dilatih pada sisi sasaran data latihan oleh Srilm Toolkits dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side."]}, {"en": ["We used the logistic regression implemented in the Scikit-Learn library with the default settings.", "We implement logistic regression with Scikit-Learn and use the Lbfgs Solver."], "ms": ["Kami menggunakan regresi logistik yang dilaksanakan dalam perpustakaan Scikit-Learn dengan tetapan lalai.", "Kami melaksanakan regresi logistik dengan Scikit-Learn dan menggunakan Lbfgs Solver."]}, {"en": ["Twitter is a communication platform which combines SMS, instant messages and social networks.", "Twitter is a Microblogging site where people express themselves and react to content in real-time."], "ms": ["Twitter adalah platform komunikasi yang menggabungkan SMS, mesej segera dan rangkaian sosial.", "Twitter adalah laman Microblogging di mana orang menyatakan diri mereka dan bertindak balas terhadap kandungan dalam masa nyata."]}, {"en": ["We follow previous studies, conducting experiments by using the Rst discourse Treebank.", "We follow Ji and Eisenstein, exploiting a Transition-Based framework for Rst discourse Parsing."], "ms": ["Kami mengikuti kajian sebelumnya, menjalankan eksperimen dengan menggunakan wacana Rst Treebank.", "Kami mengikuti Ji dan Eisenstein, mengeksploitasi kerangka Berasaskan Peralihan untuk Parsing wacana Rst."]}, {"en": ["Continuous representation of words and phrases are proven effective in many Nlp tasks.", "Unsupervised word Embeddings trained from large amounts of Unlabeled data have been shown to improve many Nlp tasks."], "ms": ["Perwakilan berterusan kata-kata dan frasa terbukti berkesan dalam banyak tugas Nlp.", "Embedding perkataan yang tidak diawasi yang dilatih dari sejumlah besar data Unlabeled telah ditunjukkan untuk meningkatkan banyak tugas Nlp."]}, {"en": ["Sentence compression is the task of generating a grammatical and shorter summary for a long sentence while preserving its most important information.", "Sentence compression is a Text-To-Text generation task in which an input sentence must be transformed into a shorter output sentence which accurately reflects the meaning in the input and also remains grammatically Well-Formed."], "ms": ["Pemampatan ayat adalah tugas menghasilkan ringkasan tatabahasa dan pendek untuk ayat yang panjang sambil mengekalkan maklumat yang paling penting.", "Pemampatan ayat adalah tugas penjanaan Teks-Ke-Teks di mana ayat input mesti diubah menjadi ayat output yang lebih pendek yang mencerminkan makna dalam input dengan tepat dan juga kekal secara tatabahasa Well-Formed."]}, {"en": ["Parameter tuning was carried out using both K-Best Mira and minimum error rate training on a Held-Out development set.", "System tuning was carried out using minimum error rate training Optimised with K-Best Mira on a held out development set."], "ms": ["Penalaan parameter dijalankan menggunakan kedua-dua K-Best Mira dan latihan kadar ralat minimum pada set pembangunan Held-Out.", "Penalaan sistem dijalankan menggunakan latihan kadar ralat minimum Optimized dengan K-Best Mira pada set pembangunan yang diadakan."]}, {"en": ["We used Yamcha as a text Chunker, which is based on support vector machine.", "We use a support vector machine -Based Chunker Yamcha for the Chunking process."], "ms": ["Kami menggunakan Yamcha sebagai Chunker teks, yang berdasarkan mesin vektor sokongan.", "Kami menggunakan mesin vektor sokongan -Based Chunker Yamcha untuk proses Chunking."]}, {"en": ["A Knsmoothed 5-Gram language model is trained on the target side of the parallel data with Srilm.", "We train a Kn-Smoothed 5-Gram language model on the target side of the parallel training data with Srilm."], "ms": ["Model bahasa 5-Gram Knsmoothed dilatih pada sisi sasaran data selari dengan Srilm.", "Kami melatih model bahasa Kn-Smoothed 5-Gram di sisi sasaran data latihan selari dengan Srilm."]}, {"en": ["The statistical significance test is performed using the Re-Sampling approach.", "The statistical significance test is performed by the Re-Sampling approach."], "ms": ["Ujian kepentingan statistik dilakukan menggunakan pendekatan Pensampelan Semula.", "Ujian kepentingan statistik dilakukan oleh pendekatan Pensampelan Semula."]}, {"en": ["Discourse Segmentation is the first step in building a discourse Parser.", "Discourse Segmentation is the task of identifying coherent clusters of sentences and the points of transition between those groupings."], "ms": ["Segmentasi Wacana adalah langkah pertama dalam membina Parser wacana.", "Segmentasi Wacana adalah tugas mengenal pasti kluster ayat yang koheren dan titik peralihan antara kumpulan tersebut."]}, {"en": ["Collobert et al used word Embeddings as the input of various Nlp tasks, including Part-Of-Speech tagging, Chunking, NER, and semantic role labeling.", "In particular, Collobert et al and Turian et al learn word Embeddings to improve the performance of In-Domain Pos tagging, named entity recognition, Chunking and semantic role labelling."], "ms": ["Collobert et al menggunakan perkataan Embeddings sebagai input pelbagai tugas Nlp, termasuk penandaan Part-Of-Speech, Chunking, NER, dan pelabelan peranan semantik.", "Khususnya, Collobert et al dan Turian et al mempelajari perkataan Embeddings untuk meningkatkan prestasi penandaan Pos Dalam Domain, pengiktirafan entiti dinamakan, Chunking dan pelabelan peranan semantik."]}, {"en": ["Relation extraction is a Subtask of information extraction that finds various predefined semantic relations, such as location, affiliation, rival, etc ., between pairs of entities in text.", "Relation extraction is the task of detecting and classifying relationships between two entities from text."], "ms": ["Pengekstrakan hubungan adalah Subtugas pengekstrakan maklumat yang menemui pelbagai hubungan semantik yang telah ditentukan, seperti lokasi, gabungan, saingan, dll., Antara pasangan entiti dalam teks.", "Pengekstrakan hubungan adalah tugas mengesan dan mengklasifikasikan hubungan antara dua entiti dari teks."]}, {"en": ["Mikolov et al showed that the Sg algorithm achieves better Accuracies in tested cases.", "Top accuracy on the entire data set and on the semantic Subset was reached by Mikolov et al using a Skip-Gram predict model."], "ms": ["Mikolov et al menunjukkan bahawa algoritma Sg mencapai Accuracies yang lebih baik dalam kes yang diuji.", "Ketepatan teratas pada keseluruhan set data dan pada Subset semantik telah dicapai oleh Mikolov et al menggunakan model ramalan Skip-Gram."]}, {"en": ["We use a Pbsmt model built with the Moses Smt Toolkit.", "Our system is built using the Open-Source Moses Toolkit with default settings."], "ms": ["Kami menggunakan model Pbsmt yang dibina dengan Musa Smt Toolkit.", "Sistem kami dibina menggunakan Open-Source Moses Toolkit dengan tetapan lalai."]}, {"en": ["The Targetside 4-Gram language model was estimated using the Srilm Toolkit and modified Kneser-Ney discounting with interpolation.", "The Phrase-Based translation model uses the Con- the baseline LM was a regular N-Gram LM with Kneser-Ney smoothing and interpolation by means of the Srilm Toolkit."], "ms": ["Model bahasa Targetside 4-Gram dianggarkan menggunakan Srilm Toolkit dan diskaun Kneser-Ney yang diubahsuai dengan interpolasi.", "Model terjemahan Berfiksyen menggunakan Con- LM asas adalah LM N-Gram biasa dengan smoothing Kneser-Ney dan interpolasi melalui Srilm Toolkit."]}, {"en": ["We use the Weka Toolkit and the derived features to train a Naive-Bayes Classifier.", "Note that we use the naive Bayes Multinomial Classifier in Weka for classification."], "ms": ["Kami menggunakan Weka Toolkit dan ciri-ciri yang diperolehi untuk melatih Classifier Naive-Bayes.", "Perhatikan bahawa kami menggunakan Klasifikasi Multinomial Bayes naif di Weka untuk klasifikasi."]}, {"en": ["We use minimum error rate training to tune the feature weights of Hpb for maximum BLEU score on the development set with Serval groups of different start weights.", "We then learn Reranking weights using minimum error rate training on the development set for this combined list, using only these two features."], "ms": ["Kami menggunakan latihan kadar ralat minimum untuk menyesuaikan berat ciri Hpb untuk skor BLEU maksimum pada set pembangunan dengan kumpulan Serval yang berbeza berat permulaan.", "Kami kemudian belajar Reranking berat menggunakan latihan kadar ralat minimum pada set pembangunan untuk senarai gabungan ini, menggunakan hanya dua ciri ini."]}, {"en": ["We chose the Skip-Gram model provided by Word2Vec tool developed by for training word Embeddings.", "We trained word vectors with the two architectures included in the Word2Vec software."], "ms": ["Kami memilih model Skip-Gram yang disediakan oleh alat Word2Vec yang dibangunkan oleh untuk latihan Embedding perkataan.", "Kami melatih vektor perkataan dengan dua seni bina yang termasuk dalam perisian Word2Vec."]}, {"en": ["Coreference resolution is the task of partitioning a set of mentions (I.E . person, organization and location) into entities.", "Coreference resolution is a key task in natural language processing (Cite-P-13-1-8) aiming to detect the Referential expressions (mentions) in a text that point to the same entity."], "ms": ["Resolusi spatial adalah tugas pembahagian satu set sebutan (I.E. orang, organisasi dan lokasi) ke dalam entiti.", "Resolusi spatial adalah tugas utama dalam pemprosesan bahasa semula jadi (Cite-P-13-1-8) yang bertujuan untuk mengesan ungkapan rujukan (mention) dalam teks yang menunjuk kepada entiti yang sama."]}, {"en": ["Named entity recognition (NER) is the task of identifying named entities in free Text\u2014Typically personal names, organizations, Gene-Protein entities, and so on.", "Named entity recognition (NER) is a fundamental task in text mining and natural language understanding."], "ms": ["Pengecaman entiti dinamakan (NER) adalah tugas mengenal pasti entiti yang dinamakan dalam nama peribadi, organisasi, entiti Gene-Protein, dan sebagainya.", "Pengecaman entiti yang dinamakan (NER) adalah tugas asas dalam perlombongan teks dan pemahaman bahasa semula jadi."]}, {"en": ["Otero et al took advantage of the translation equivalents inserted in Wikipedia by means of Interlanguage links to extract similar articles.", "Otero et al used Wikipedia categories as the restriction to detect the equivalents within small-scale reliable candidates."], "ms": ["Otero et al memanfaatkan setara terjemahan yang dimasukkan dalam Wikipedia melalui pautan Antara bahasa untuk mengekstrak artikel yang serupa.", "Otero et al menggunakan kategori Wikipedia sebagai sekatan untuk mengesan setara dalam calon yang boleh dipercayai berskala kecil."]}, {"en": ["We report the mt performance using the original BLEU metric.", "We also measure overall performance with Uncased BLEU."], "ms": ["Kami melaporkan prestasi mt menggunakan metrik BLEU asal.", "Kami juga mengukur prestasi keseluruhan dengan Uncased BLEU."]}, {"en": ["We use a Cws-Oriented model modified from the Skip-Gram model to derive word Embeddings.", "As Embedding vectors, we used the publicly available representations obtained from the Word2Vec Cbow model."], "ms": ["Kami menggunakan model Berorientasi Cws yang diubahsuai dari model Skip-Gram untuk memperoleh perkataan Embeddings.", "Sebagai vektor Embedding, kami menggunakan perwakilan yang tersedia secara terbuka yang diperoleh daripada model Word2Vec Cbow."]}, {"en": ["Socher et al present a compositional model based on a recursive neural network.", "Socher et al , 2012, uses a recursive neural network in relation extraction, and further use Lstm."], "ms": ["Socher et al mempersembahkan model komposisi berdasarkan rangkaian saraf rekursif.", "Socher et al, 2012, menggunakan rangkaian neural rekursif dalam pengekstrakan hubungan, dan menggunakan Lstm lebih lanjut."]}, {"en": ["We use Word2Vec as the vector representation of the words in Tweets.", "Here, for textual representation of captions, we use Fisher-Encoded Word2Vec features."], "ms": ["Kami menggunakan Word2Vec sebagai perwakilan vektor perkataan dalam Tweets.", "Di sini, untuk perwakilan teks kapsyen, kami menggunakan ciri Word2Vec Fisher-Encoded."]}, {"en": ["Coreference resolution is the task of partitioning a set of mentions (I.E . person, organization and location) into entities.", "Coreference resolution is the task of clustering a set of mentions in the text such that all mentions in the same cluster refer to the same entity."], "ms": ["Resolusi spatial adalah tugas pembahagian satu set sebutan (I.E. orang, organisasi dan lokasi) ke dalam entiti.", "Resolusi spatial adalah tugas untuk mengelompokkan satu set sebutan dalam teks sedemikian rupa sehingga semua sebutan dalam kluster yang sama merujuk kepada entiti yang sama."]}, {"en": ["We use the automatic mt evaluation Metrics BLEU, meteor, and Ter, to evaluate the absolute translation quality obtained.", "We use Corpus-Level BLEU score to quantitatively evaluate the generated paragraphs."], "ms": ["Kami menggunakan Metrik Penilaian Mt automatik BLEU, meteor, dan Ter, untuk menilai kualiti terjemahan mutlak yang diperoleh.", "Kami menggunakan skor BLEU Tahap-Kosus untuk menilai secara kuantitatif perenggan yang dihasilkan."]}, {"en": ["The work described in this paper is based on the Smt framework of Hierarchical Phrase-Based translation.", "Moreover, throughout this paper we use the Hierarchical Phrase-Based translation system, which is based on a synchronous Contextfree grammar model."], "ms": ["Karya yang diterangkan dalam kertas ini adalah berdasarkan kerangka Smt terjemahan Berasaskan Frasa Hierarki.", "Selain itu, sepanjang kertas kerja ini kita menggunakan sistem terjemahan Berasaskan Frasa Hierarki, yang berdasarkan model tatabahasa Contextfree yang diselaraskan."]}, {"en": ["A pun is a form of Wordplay, which is often Profiled by exploiting Polysemy of a word or by replacing a Phonetically similar sounding word for an intended humorous effect.", "The pun is defined as \u201c a joke exploiting the different possible meanings of a word or the fact that there are words which sound alike but have different meanings \u201d (Cite-P-7-1-6)."], "ms": ["A pun adalah satu bentuk Wordplay, yang sering Diprofilkan dengan mengeksploitasi Polysemy perkataan atau dengan menggantikan perkataan yang serupa Phonetically untuk kesan lucu yang dimaksudkan.", "Pun ditakrifkan sebagai \"gurauan mengeksploitasi makna yang berbeza dari perkataan atau fakta bahawa ada perkataan yang sama bunyi tetapi mempunyai makna yang berbeza\" (Cite-P-7-1-6)."]}, {"en": ["The dependency Parser we use is an implementation of a Transition-Based dependency Parser.", "All of our Parsing models are based on the Transition-Based dependency Parsing paradigm."], "ms": ["Parser dependensi yang kita gunakan adalah pelaksanaan Parser dependensi Berasaskan Peralihan.", "Semua model Penghuraian kami adalah berdasarkan paradigma Penghuraian dependensi berasaskan Peralihan."]}, {"en": ["We trained a 4-Gram language model on the Xinhua portion of Gigaword corpus using the Sri language modeling Toolkit with modified Kneser-Ney smoothing.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Kami melatih model bahasa 4-Gram di bahagian Xinhua Gigaword corpus menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Fast decoding is achieved by using a novel Multiple-Beam search algorithm.", "Beam search decoding is effective with a small beam size."], "ms": ["Decoding cepat dicapai dengan menggunakan algoritma carian Multiple-Beam novel.", "Penyahkodan carian rasuk berkesan dengan saiz rasuk kecil."]}, {"en": ["Name tagging is a critical early stage in many natural language processing pipelines.", "Name tagging is a key task for language understanding, and provides input to several other tasks such as question answering, summarization, searching and recommendation."], "ms": ["Penandaan nama adalah peringkat awal kritikal dalam banyak saluran paip pemprosesan bahasa semula jadi.", "Penandaan nama adalah tugas utama untuk pemahaman bahasa, dan memberikan input kepada beberapa tugas lain seperti menjawab soalan, ringkasan, mencari dan cadangan."]}, {"en": ["For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided.", "We use Srilm Toolkits to train two 4-Gram language models on the filtered English Blog authorship corpus and the Xinhua portion of Gigaword corpus, respectively."], "ms": ["Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan.", "Kami menggunakan Srilm Toolkits untuk melatih dua model bahasa 4-Gram pada corpus pengarangan Blog Bahasa Inggeris yang ditapis dan bahagian Xinhua Gigaword corpus, masing-masing."]}, {"en": ["There has been a substantial amount of work on automatic semantic role labeling, starting with the statistical model of Gildea and Jurafsky.", "The advent of the supervised method proposed by Gildea and Jurafsky has led to the creation of Annotated Corpora for semantic role labeling."], "ms": ["Terdapat banyak kerja pada pelabelan peranan semantik automatik, bermula dengan model statistik Gildea dan Jurafsky.", "Kemunculan kaedah yang diselia yang dicadangkan oleh Gildea dan Jurafsky telah membawa kepada penciptaan Annotated Corpora untuk pelabelan peranan semantik."]}, {"en": ["Specifically, we used Wordsim353, a benchmark Dataset, consisting of relatedness judgments for 353 word pairs.", "We use three standard human judgements Datasets -Mc, Rg and Wordsim353, composed of 30 , 65, and 353 pairs of terms respectively."], "ms": ["Khususnya, kami menggunakan Wordsim353, Dataset penanda aras, yang terdiri daripada penilaian berkaitan untuk pasangan kata 353.", "Kami menggunakan tiga standard manusia penghakiman Dataset - Mc, Rg dan Wordsim353, terdiri daripada 30, 65, dan 353 pasangan istilah masing-masing."]}, {"en": ["We follow this practice here, and Additionally detect person names at Decode-Time using the Stanford named entity Recognizer.", "We extract the named entities from the web pages using the Stanford named entity Recognizer."], "ms": ["Kami mengikuti amalan ini di sini, dan juga mengesan nama orang di Decode-Time menggunakan Stanford bernama Recognizer.", "Kami mengekstrak entiti yang dinamakan dari laman web menggunakan Stanford entiti bernama Recognizer."]}, {"en": ["To get a dictionary of word Embeddings, we use the Word2Vec tool 2 and train it on the Chinese Gigaword corpus.", "We use the popular Word2Vec 1 tool proposed by Mikolov et al to extract the vector representations of words."], "ms": ["Untuk mendapatkan kamus Embedding kata, kami menggunakan alat Word2Vec 2 dan melatihnya di korpus Gigaword Cina.", "Kami menggunakan alat Word2Vec 1 yang popular yang dicadangkan oleh Mikolov et al untuk mengekstrak perwakilan vektor perkataan."]}, {"en": ["We apply a Pretrained glove word Embedding on.", "We used 300-Dimensional Pre-Trained glove word Embeddings."], "ms": ["Kami menggunakan perkataan sarung tangan Pretrained Embedding pada.", "Kami menggunakan perkataan sarung tangan Pra-Latihan 300 Dimensional Embeddings."]}, {"en": ["We first use BLEU score to perform automatic evaluation.", "We also measure overall performance with Uncased BLEU."], "ms": ["Kami menggunakan skor BLEU untuk melakukan penilaian automatik.", "Kami juga mengukur prestasi keseluruhan dengan Uncased BLEU."]}, {"en": ["We use the automatic mt evaluation Metrics BLEU, meteor, and Ter, to evaluate the absolute translation quality obtained.", "We evaluate the performance of different translation models using both BLEU and Ter Metrics."], "ms": ["Kami menggunakan Metrik Penilaian Mt automatik BLEU, meteor, dan Ter, untuk menilai kualiti terjemahan mutlak yang diperoleh.", "Kami menilai prestasi model terjemahan yang berbeza menggunakan kedua-dua BLEU dan Ter Metrics."]}, {"en": ["The system used a Tri-Gram language model built from Sri Toolkit with modified Kneser-Ney interpolation smoothing technique.", "Language models were built using the Sri language modeling Toolkit with modified Kneser-Ney smoothing."], "ms": ["Sistem ini menggunakan model bahasa Tri-Gram yang dibina dari Sri Toolkit dengan teknik penghalusan interpolasi Kneser-Ney yang diubahsuai.", "Model bahasa dibina menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We use Pre-Trained word vectors from glove.", "We utilized Pre-Trained global vectors trained on Tweets."], "ms": ["Kami menggunakan vektor perkataan pra-latihan dari sarung tangan.", "Kami menggunakan vektor global pra-latihan yang dilatih pada Tweets."]}, {"en": ["A pun is a form of Wordplay in which one sign (E.G ., a word or phrase) suggests two or more meanings by exploiting Polysemy, Homonymy, or Phonological similarity to another sign, for an intended humorous or Rhetorical effect (Aarons , 2017; Hempelmann and Miller , 2017).", "A pun is a form of Wordplay in which one Signifier (E.G ., a word or phrase) suggests two or more meanings by exploiting Polysemy, or Phonological similarity to another Signifier, for an intended humorous or Rhetorical effect."], "ms": ["A pun adalah bentuk Wordplay di mana satu tanda (E.G., perkataan atau frasa) mencadangkan dua atau lebih makna dengan mengeksploitasi Polysemy, Homonymy, atau persamaan Phonologi dengan tanda lain, untuk kesan humor atau Rhetorical yang dimaksudkan (Aarons, 2017; Hempelmann dan Miller, 2017).", "A pun adalah satu bentuk Wordplay di mana satu Signifier (E.G., perkataan atau frasa) mencadangkan dua atau lebih makna dengan mengeksploitasi Polysemy, atau persamaan Phonological dengan Signifier lain, untuk kesan humor atau Rhetorical yang dimaksudkan."]}, {"en": ["The embedded word vectors are trained over large collections of text using Variants of neural networks.", "These word vectors can be randomly Initialized, or be Pre-Trained from text corpus with learning Algorithms."], "ms": ["Vektor perkataan terbenam dilatih melalui koleksi teks yang besar menggunakan Variants rangkaian saraf.", "Vektor perkataan ini boleh diawal secara rawak, atau dipra-latihan dari korpus teks dengan pembelajaran Algoritma."]}, {"en": ["Our word Embeddings is Initialized with 100-Dimensional glove word Embeddings.", "Our approach to relation Embedding is based on a variant of the glove word Embedding model."], "ms": ["Perkataan Embeddings kami Dimulakan dengan perkataan sarung tangan 100-Dimensional Embeddings.", "Pendekatan kami untuk Embedding hubungan adalah berdasarkan varian model Embedding perkataan sarung tangan."]}, {"en": ["To do so, we utilized the popular latent Dirichlet allocation, topic modeling method.", "This task can be formulated as a topic modeling problem for which we chose to employ latent Dirichlet allocation."], "ms": ["Untuk berbuat demikian, kami menggunakan peruntukan Dirichlet laten yang popular, kaedah pemodelan topik.", "Tugas ini boleh dirumuskan sebagai masalah pemodelan topik yang mana kami memilih untuk menggunakan peruntukan Dirichlet laten."]}, {"en": ["All features were Log-Linearly combined and their weights were Optimized by performing minimum error rate training.", "All the weights of those features are tuned by using minimal error rate training."], "ms": ["Semua ciri-ciri adalah Log-Linearly digabungkan dan berat mereka Optimized dengan melaksanakan latihan kadar ralat minimum.", "Semua berat ciri-ciri tersebut ditala dengan menggunakan latihan kadar ralat minimum."]}, {"en": ["Our experimental results show that Ltagbased features can help improve the performance of SRL systems.", "We show that Ltag-Based features improve on the best known set of features used in current SRL."], "ms": ["Hasil eksperimen kami menunjukkan bahawa ciri berasaskan Ltag dapat membantu meningkatkan prestasi sistem SRL.", "Kami menunjukkan bahawa ciri-ciri berasaskan Ltag meningkatkan pada set ciri yang paling terkenal yang digunakan dalam SRL semasa."]}, {"en": ["We evaluated the translation quality using the Case-Insensitive Bleu-4 metric.", "We evaluated translation quality using Uncased BLEU and Ter."], "ms": ["Kami menilai kualiti terjemahan menggunakan metrik Case-Insensitive Bleu-4.", "Kami menilai kualiti terjemahan menggunakan Uncased BLEU dan Ter."]}, {"en": ["Traditionally, a language model is a probabilistic model which assigns a probability value to a sentence or a sequence of words.", "A language model is a probability distribution over strings P (s) that attempts to reflect the frequency with which each string s occurs as a sentence in natural text."], "ms": ["Secara tradisinya, model bahasa adalah model probabilistik yang memberikan nilai kebarangkalian kepada ayat atau urutan perkataan.", "Model bahasa adalah taburan kebarangkalian berbanding rentetan P (s) yang cuba mencerminkan kekerapan yang mana setiap rentetan s berlaku sebagai ayat dalam teks semula jadi."]}, {"en": ["To train the models we use the default stochastic gradient descent Classifier provided by Scikit-Learn.", "We use several classifiers including logistic regression, random forest and Adaboost implemented in Scikit-Learn."], "ms": ["Untuk melatih model, kami menggunakan Klasifier keturunan kecerunan stokastik lalai yang disediakan oleh Scikit-Learn.", "Kami menggunakan beberapa pengelas termasuk regresi logistik, hutan rawak dan Adaboost yang dilaksanakan di Scikit-Learn."]}, {"en": ["For Phrase-Based Smt translation, we used the Moses Decoder and its support training scripts.", "We used the PB Smt system in Moses 12 for je and Kj translation tasks."], "ms": ["Untuk terjemahan Smt Berasaskan Frasa, kami menggunakan Moses Decoder dan skrip latihan sokongannya.", "Kami menggunakan sistem PB Smt dalam Musa 12 untuk tugas terjemahan je dan Kj."]}, {"en": ["In addition, a 5-Gram LM with Kneser-Ney smoothing and interpolation was built using the Srilm Toolkit.", "The Srilm Toolkit was used to build the Trigram Mkn smoothed language model."], "ms": ["Selain itu, LM 5-Gram dengan smoothing dan interpolasi Kneser-Ney dibina menggunakan Srilm Toolkit.", "Srilm Toolkit digunakan untuk membina model bahasa licin Trigram Mkn."]}, {"en": ["Collobert et al employ a Cnn-Crf structure, which obtains competitive results to statistical models.", "In Collobert et al, the authors proposed a unified CNN architecture to tackle various Nlp problems traditionally handled with statistical approaches."], "ms": ["Collobert et al menggunakan struktur Cnn-Crf, yang memperoleh hasil yang kompetitif kepada model statistik.", "Di Collobert et al, penulis mencadangkan seni bina CNN yang bersatu untuk menangani pelbagai masalah Nlp yang secara tradisinya ditangani dengan pendekatan statistik."]}, {"en": ["We implemented our method in a Phrase-Based Smt system.", "We use the Moses package to train a Phrase-Based machine translation model."], "ms": ["Kami melaksanakan kaedah kami dalam sistem Smt Berasaskan Frasa.", "Kami menggunakan pakej Musa untuk melatih model terjemahan mesin berasaskan frasa."]}, {"en": ["Goldwater and Griffiths employ a Bayesian approach to Pos tagging and use sparse Dirichlet Priors to minimize model size.", "Similar to Goldwater and Griffiths and Johnson, Toutanova and Johnson also use Bayesian inference for Pos tagging."], "ms": ["Goldwater dan Griffiths menggunakan pendekatan Bayesian untuk penandaan Pos dan menggunakan Dirichlet Priors yang jarang untuk meminimumkan saiz model.", "Sama seperti Goldwater dan Griffiths dan Johnson, Toutanova dan Johnson juga menggunakan kesimpulan Bayesian untuk penandaan Pos."]}, {"en": ["We obtained Parse trees using the Stanford Parser, and used Jacana for word alignment.", "We obtained both phrase structures and dependency relations for every sentence using the Stanford Parser."], "ms": ["Kami memperoleh pokok Parse menggunakan Stanford Parser, dan menggunakan Jacana untuk penjajaran perkataan.", "Kami memperoleh kedua-dua struktur frasa dan hubungan kebergantungan untuk setiap ayat menggunakan Stanford Parser."]}, {"en": ["The language model was constructed using the Srilm Toolkit with interpolated Kneser-Ney discounting.", "The language model used was a 5-Gram with modified Kneserney smoothing, built with Srilm Toolkit."], "ms": ["Model bahasa dibina menggunakan Srilm Toolkit dengan diskaun Kneser-Ney yang saling berkaitan.", "Model bahasa yang digunakan ialah 5-Gram dengan smoothing Kneserney yang diubahsuai, dibina dengan Srilm Toolkit."]}, {"en": ["Named entity recognition (NER) is the task of identifying and typing phrases that contain the names of persons, organizations, locations, and so on.", "Named entity recognition (NER) is the task of detecting named entity mentions in text and assigning them to their corresponding type."], "ms": ["Pengiktirafan entiti yang dinamakan (NER) adalah tugas mengenal pasti dan menaip frasa yang mengandungi nama orang, organisasi, lokasi, dan sebagainya.", "Pengecaman entiti dinamakan (NER) adalah tugas mengesan sebutan entiti yang dinamakan dalam teks dan menugaskannya kepada jenis yang sepadan."]}, {"en": ["Popular topic modeling techniques include latent Dirichlet allocation and probabilistic latent semantic analysis.", "The most widely used topic modeling approach is the latent Dirichlet allocation which is based on latent semantic analysis and probabilistic latent semantic analysis."], "ms": ["Teknik pemodelan topik popular termasuk peruntukan Dirichlet laten dan analisis semantik laten probabilistik.", "Pendekatan pemodelan topik yang paling banyak digunakan adalah peruntukan Dirichlet laten yang berdasarkan analisis semantik laten dan analisis semantik laten probabilistik."]}, {"en": ["The language models were created using the Srilm Toolkit on the standard training sections of the Ccgbank, with Sentenceinitial words Uncapitalized.", "Target language models were trained on the English side of the training corpus using the Srilm Toolkit."], "ms": ["Model bahasa dicipta menggunakan Srilm Toolkit pada bahagian latihan standard Ccgbank, dengan kata-kata Sentenceinitial Uncapitalized.", "Model bahasa sasaran dilatih di sisi bahasa Inggeris korpus latihan menggunakan Srilm Toolkit."]}, {"en": ["We use 100-Dimension glove vectors which are Pre-Trained on a large Twitter corpus and Fine-Tuned during training.", "We use the Pre-Trained glove 50-Dimensional word Embeddings to represent words found in the glove Dataset."], "ms": ["Kami menggunakan vektor sarung tangan 100 dimensi yang Pra-Trained di korpus Twitter yang besar dan Fine-Tuned semasa latihan.", "Kami menggunakan sarung tangan Pra-Latih 50-Dimensional Embedding perkataan untuk mewakili perkataan yang terdapat dalam Dataset sarung tangan."]}, {"en": ["Semantic role labeling (SRL) has been defined as a Sentence-Level Natural-Language processing task in which semantic roles are assigned to the syntactic arguments of a Predicate (Cite-P-14-1-7).", "Semantic role labeling (SRL) is the task of automatically Annotating the Predicate-Argument structure in a sentence with semantic roles."], "ms": ["Pelabelan peranan semantik (SRL) telah ditakrifkan sebagai tugas pemprosesan Bahasa Semulajadi Tahap Sentence di mana peranan semantik ditugaskan kepada hujah sintaktik Predicate (Cite-P-14-1-7).", "Pelabelan peranan semantik (SRL) adalah tugas untuk secara automatik Menganotasi struktur Predicate-Argument dalam ayat dengan peranan semantik."]}, {"en": ["In our implementation, we train a Tri-Gram language model on each phone set using the Srilm Toolkit.", "We train a 5-Gram language model with the Xinhua portion of English Gigaword corpus and the English side of the training set using the Srilm Toolkit."], "ms": ["Dalam pelaksanaan kami, kami melatih model bahasa Tri-Gram pada setiap set telefon menggunakan Srilm Toolkit.", "Kami melatih model bahasa 5-Gram dengan bahagian Xinhua Gigaword corpus bahasa Inggeris dan bahagian bahasa Inggeris set latihan menggunakan Srilm Toolkit."]}, {"en": ["We use the glove word vector representations of dimension 300.", "We Initialize these word Embeddings with glove vectors."], "ms": ["Kami menggunakan perkataan sarung tangan perwakilan vektor dimensi 300.", "Kami Memulakan perkataan Embeddings ini dengan vektor sarung tangan."]}, {"en": ["Relation extraction is the task of recognizing and extracting relations between entities or concepts in texts.", "Relation extraction (re) has been defined as the task of identifying a given set of semantic Binary relations in text."], "ms": ["Pengekstrakan hubungan adalah tugas mengenali dan mengekstrak hubungan antara entiti atau konsep dalam teks.", "Pengekstrakan hubungan (re) telah ditakrifkan sebagai tugas mengenal pasti set hubungan semantik yang diberikan dalam teks."]}, {"en": ["Lexical simplification is a technique that substitutes a complex word or phrase in a sentence with a simpler synonym.", "Lexical simplification is the task to find and substitute a complex word or phrase in a sentence with its simpler synonymous expression."], "ms": ["Penyederhanaan leksikal adalah teknik yang menggantikan perkataan atau frasa yang kompleks dalam ayat dengan sinonim yang lebih mudah.", "Penyederhanaan leksikal adalah tugas untuk mencari dan menggantikan perkataan atau frasa yang kompleks dalam ayat dengan ungkapan sinonim yang lebih mudah."]}, {"en": ["Thus, Zesch and Gurevych Semi-Automatically created word pairs from Domain-Specific Corpora.", "Thus, Zesch and Gurevych used a Semi-Automatic process to create word pairs from Domain-Specific Corpora."], "ms": ["Oleh itu, Zesch dan Gurevych Semi-Automatik mencipta pasangan perkataan dari Domain-Specific Corpora.", "Oleh itu, Zesch dan Gurevych menggunakan proses Semi-Automatik untuk mencipta pasangan perkataan daripada Domain-Specific Corpora."]}, {"en": ["Crowdsourcing is a viable mechanism for creating training data for machine translation.", "Crowdsourcing is a promising new mechanism for collecting large volumes of Annotated data at low cost."], "ms": ["Crowdsourcing adalah mekanisme yang sesuai untuk membuat data latihan untuk terjemahan mesin.", "Crowdsourcing adalah mekanisme baru yang menjanjikan untuk mengumpul jumlah data Annotated yang besar dengan kos yang rendah."]}, {"en": ["We use the linear SVM Classifier from Scikit-Learn.", "For data preparation and processing we use Scikit-Learn."], "ms": ["Kami menggunakan Classifier SVM linear dari Scikit-Learn.", "Untuk penyediaan dan pemprosesan data, kami menggunakan Scikit-Learn."]}, {"en": ["Previous work showed that word clusters derived from an Unlabelled Dataset can improve the performance of many Nlp applications.", "Distributed representations for words and sentences have been shown to significantly boost the performance of a Nlp system."], "ms": ["Kerja sebelumnya menunjukkan bahawa kluster perkataan yang berasal dari Dataset Tidak Berlabel dapat meningkatkan prestasi banyak aplikasi Nlp.", "Perwakilan yang diedarkan untuk perkataan dan ayat telah ditunjukkan untuk meningkatkan prestasi sistem Nlp dengan ketara."]}, {"en": ["Word Embeddings are Initialized with glove 27B trained on Tweets and are Trainable parameters.", "The word Embeddings are Initialized with the publicly available word vectors trained through glove 5 and updated through back propagation."], "ms": ["Embedding Word Dimulakan dengan sarung tangan 27B yang dilatih pada Tweets dan parameter yang boleh dilatih.", "Perkataan Embeddings Dimulakan dengan vektor perkataan yang tersedia secara umum yang dilatih melalui sarung tangan 5 dan dikemas kini melalui penyebaran belakang."]}, {"en": ["We used 5-Gram models, estimated using the Sri language modeling Toolkit with modified Kneser-Ney smoothing.", "For the language model, we used Srilm with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model 5-Gram, dianggarkan menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai.", "Untuk model bahasa, kami menggunakan Srilm dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Soricut and Marcu address the task of Parsing discourse structures within the same sentence.", "Soricut and Marcu use a standard Bottomup chart Parsing algorithm to determine the discourse structure of sentences."], "ms": ["Soricut dan Marcu menangani tugas struktur wacana Parsing dalam ayat yang sama.", "Soricut dan Marcu menggunakan algoritma Parsing carta Bottomup standard untuk menentukan struktur wacana ayat."]}, {"en": ["We use the Cbow model for the bilingual word Embedding learning.", "We use Word2Vec tool for learning distributed word Embeddings."], "ms": ["Kami menggunakan model Cbow untuk pembelajaran Embedding perkataan dwibahasa.", "Kami menggunakan alat Word2Vec untuk pembelajaran Embedding perkataan yang diedarkan."]}, {"en": ["We implemented the different Aes models using Scikit-Learn.", "We use the Skll and Scikit-Learn Toolkits."], "ms": ["Kami melaksanakan model Aes yang berbeza menggunakan Scikit-Learn.", "Kami menggunakan Skll dan Scikit-Learn Toolkits."]}, {"en": ["Hierarchical Phrase-Based translation is one of the current promising approaches to statistical machine translation.", "Hierarchical Phrase-Based translation has emerged as one of the dominant current approaches to statistical machine translation."], "ms": ["Terjemahan Berasaskan Frasa Hierarki adalah salah satu pendekatan yang menjanjikan semasa untuk terjemahan mesin statistik.", "Terjemahan Berasaskan Frasa Hierarki telah muncul sebagai salah satu pendekatan semasa yang dominan untuk terjemahan mesin statistik."]}, {"en": ["The data come from the Conll-X and Conll 2007 shared tasks.", "We use five Datasets from the Conll-X shared task."], "ms": ["Data ini berasal dari tugas kongsi Conll-X dan Conll 2007.", "Kami menggunakan lima Dataset dari tugas dikongsi Conll-X."]}, {"en": ["Kim et al and Kulkarni et al computed the degree of meaning change by applying neural networks for word representation.", "Kulkarni et al used a synthetic task to evaluate how well diachronic Distributional models can detect semantic shift."], "ms": ["Kim et al dan Kulkarni et al mengira tahap makna perubahan dengan menggunakan rangkaian saraf untuk perwakilan perkataan.", "Kulkarni et al menggunakan tugas sintetik untuk menilai seberapa baik model diachronic Distributional dapat mengesan anjakan semantik."]}, {"en": ["The model parameters of word Embedding are Initialized using Word2Vec.", "The character Embeddings are computed using a method similar to Word2Vec."], "ms": ["Parameter model Embedding perkataan Diawalkan menggunakan Word2Vec.", "Embedding watak dikira menggunakan kaedah yang serupa dengan Word2Vec."]}, {"en": ["We use a random forest Classifier, as implemented in Scikit-Learn.", "We implement classification models using Keras and Scikit-Learn."], "ms": ["Kami menggunakan Classifier hutan rawak, seperti yang dilaksanakan dalam Scikit-Learn.", "Kami melaksanakan model klasifikasi menggunakan Keras dan Scikit-Learn."]}, {"en": ["Ccg is a strongly Lexicalized formalism, in which every word is associated with a syntactic category (similar to an elementary syntactic structure) indicating its Subcategorization potential.", "However, Ccg is a Binary branching grammar, and as such, cannot leave NP structure Underspecified."], "ms": ["Ccg adalah formalisme Leksikan yang kuat, di mana setiap perkataan dikaitkan dengan kategori sintaksis (serupa dengan struktur sintaksis asas) yang menunjukkan potensi Subkategorinya.", "Walau bagaimanapun, Ccg adalah tatabahasa bercabang binari, dan oleh itu, tidak boleh meninggalkan struktur NP Underspecified."]}, {"en": ["The Visargue framework provides a novel visual ANALYTICS Toolbox for exploratory and Confirmatory analyses of Multi-Party discourse data.", "Visargue system offers the first Web-Based, interactive visual ANALYTICS approach of Multi-Party discourse data."], "ms": ["Rangka kerja Visargue menyediakan kotak Alat ANALISIS visual novel untuk analisis penerokaan dan pengesahan data wacana Multi-Party.", "Sistem Visargue menawarkan pendekatan interaktif visual interaktif berasaskan Web pertama data wacana Multi-Party."]}, {"en": ["Seki et al proposed a probabilistic model for the Sub-Tasks of Anaphoric identification and antecedent identification with the help of a verb dictionary.", "Seki et al proposed a probabilistic model for zero pronoun detection and resolution that uses hand-crafted case frames."], "ms": ["Seki et al mencadangkan model probabilistik untuk Sub-Tasks pengenalan Anaphoric dan pengenalan antecedent dengan bantuan kamus kata kerja.", "Seki et al mencadangkan model probabilistik untuk pengesanan dan resolusi kata ganti sifar yang menggunakan bingkai kes buatan tangan."]}, {"en": ["Discourse Parsing is a challenging task and is crucial for discourse analysis.", "Discourse Parsing is a challenging natural language processing (Nlp) task that has utility for many other Nlp tasks such as summarization, opinion mining, etc . (Cite-P-17-3-3)."], "ms": ["Parsing wacana adalah tugas yang mencabar dan penting untuk analisis wacana.", "Parsing Wacana adalah tugas pemprosesan bahasa semula jadi (Nlp) yang mencabar yang mempunyai utiliti untuk banyak tugas Nlp lain seperti ringkasan, perlombongan pendapat, dan lain-lain (Cite-P-17-3-3)."]}, {"en": ["To generate these trees, we employ the Stanford Pos Tagger 8 and the stack version of the malt Parser.", "We use the Stanford Pos Tagger to obtain the Lemmatized Corpora for the Parss task."], "ms": ["Untuk menjana pokok-pokok ini, kami menggunakan Stanford Pos Tagger 8 dan versi timbunan Parser malt.", "Kami menggunakan Stanford Pos Tagger untuk mendapatkan Lemmatized Corpora untuk tugas Parss."]}, {"en": ["We used Kenlm with Srilm to train a 5-Gram language model based on all available target language training data.", "For language model, we used Sri language modeling Toolkit to train a 4-Gram model with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan Kenlm dengan Srilm untuk melatih model bahasa 5-Gram berdasarkan semua data latihan bahasa sasaran yang ada.", "Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model 4-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Relation extraction is a key step towards question answering systems by which vital structured data is acquired from underlying free text resources.", "Relation extraction is the task of finding relational facts in unstructured text and putting them into a structured (Tabularized) knowledge base."], "ms": ["Pengekstrakan hubungan adalah langkah utama ke arah sistem menjawab soalan di mana data berstruktur penting diperoleh dari sumber teks bebas yang mendasari.", "Pengekstrakan hubungan adalah tugas mencari fakta hubungan dalam teks yang tidak berstruktur dan memasukkannya ke dalam pangkalan pengetahuan berstruktur (Tabularized)."]}, {"en": ["Coreference resolution is the task of clustering a set of mentions in the text such that all mentions in the same cluster refer to the same entity.", "Coreference resolution is the task of partitioning the set of mentions of discourse Referents in a text into classes (or \u2018 chains \u2019) corresponding to those Referents (Cite-P-12-3-14)."], "ms": ["Resolusi spatial adalah tugas untuk mengelompokkan satu set sebutan dalam teks sedemikian rupa sehingga semua sebutan dalam kluster yang sama merujuk kepada entiti yang sama.", "Resolusi spatial adalah tugas pembahagian set sebutan rujukan wacana dalam teks ke dalam kelas (atau rantai ) yang sepadan dengan rujukan tersebut (Cite-P-12-3-14)."]}, {"en": ["The conventional domain adaptation method is fine tuning, in which an Out-Of-Domain model is further trained on Indomain data.", "The dominant approach for domain adaptation is training on large-scale Out-Of-Domain data and then Fine-Tuning on the In-Domain data."], "ms": ["Kaedah penyesuaian domain konvensional adalah penalaan yang baik, di mana model Out-Of-Domain dilatih lebih lanjut mengenai data Indomain.", "Pendekatan dominan untuk penyesuaian domain adalah latihan pada data Out-Of-Domain berskala besar dan kemudian Fine-Tuning pada data In-Domain."]}, {"en": ["In section 4, we develop a correct, complete and terminating extension of Earley's algorithm for the Patr-Ii formalism using the restriction notion.", "Of such an extension, we present a complete, correct, terminating extension of Earley' s algorithm that uses restriction."], "ms": ["Dalam seksyen 4, kami membangunkan lanjutan algoritma Earley yang betul, lengkap dan berakhir untuk formalisme Patr-Ii menggunakan tanggapan sekatan.", "Dari peluasan sedemikian, kami membentangkan lanjutan algoritma Earley yang lengkap, betul dan berakhir yang menggunakan sekatan."]}, {"en": ["We implemented linear models with the Scikit learn package.", "For Nb and SVM, we used their implementation available in Scikit-Learn."], "ms": ["Kami melaksanakan model linear dengan pakej pembelajaran Scikit.", "Untuk Nb dan SVM, kami menggunakan pelaksanaannya yang terdapat di Scikit-Learn."]}, {"en": ["In the evaluation, the Similarity-Model shows lower error rates than both Resnik\u00a1\u00afS Wordnet-Based model and the Em-Based clustering model.", "The Similarity-Based model showed error rates down to 0 . 16, far lower than both Em-Based clustering and Resnik \u00a1\u00af s Wordnet model."], "ms": ["Dalam penilaian, Similarity-Model menunjukkan kadar ralat yang lebih rendah daripada model berasaskan Wordnet Resnik dan model clustering berasaskan Em.", "Model berasaskan persamaan menunjukkan kadar ralat turun ke 0.16, jauh lebih rendah daripada kedua-dua clustering Em-Based dan model Wordnet Resnik."]}, {"en": ["Distributional semantic models build on the Distributional hypothesis which states that the meaning of a word can be modelled by observing the contexts in which it is used.", "Distributional models use statistics of word Cooccurrences to predict semantic similarity of words and phrases, based on the observation that semantically similar words occur in similar contexts."], "ms": ["Model semantik taburan membina hipotesis taburan yang menyatakan bahawa makna perkataan boleh dimodelkan dengan memerhatikan konteks di mana ia digunakan.", "Model pengedaran menggunakan statistik perkataan Cooccurrences untuk meramalkan persamaan semantik perkataan dan frasa, berdasarkan pemerhatian bahawa perkataan yang serupa secara semantik berlaku dalam konteks yang sama."]}, {"en": ["A 5-Gram language model with Kneser-Ney smoothing was trained with Srilm on Monolingual English data.", "A 4-Gram language model is trained on the Monolingual data by Srilm Toolkit."], "ms": ["Model bahasa 5-Gram dengan smoothing Kneser-Ney dilatih dengan Srilm pada data Bahasa Inggeris Monolingual.", "Model bahasa 4-Gram dilatih pada data Monolingual oleh Srilm Toolkit."]}, {"en": ["Semantic Parsing is the task of Transducing natural language (NL) utterances into formal meaning representations (Mrs), commonly represented as tree structures.", "Semantic Parsing is a Domain-Dependent process by nature, as its output is defined over a set of domain symbols."], "ms": ["Penghuraian Semantik adalah tugas Transducing bahasa semula jadi (NL) ucapan ke dalam perwakilan makna formal (Puan), biasanya diwakili sebagai struktur pokok.", "Penghuraian Semantik adalah proses Domain-Dependen secara semula jadi, kerana outputnya ditakrifkan melalui satu set simbol domain."]}, {"en": ["We employ the sentiment analyzer in Stanford Corenlp to do so.", "We use the Stanford Corenlp for obtaining Pos tags and Parse trees from our data."], "ms": ["Kami menggunakan penganalisis sentimen di Stanford Corenlp untuk berbuat demikian.", "Kami menggunakan Stanford Corenlp untuk mendapatkan tag Pos dan pokok Parse dari data kami."]}, {"en": ["Part-Of-Speech tagging is the problem of determining the syntactic part of speech of an occurrence of a word in context.", "Part-Of-Speech tagging is a key process for various tasks such as ` information extraction, Text-To-Speech synthesis, word sense Disambiguation and machine translation."], "ms": ["Penandaan Part-Of-Speech adalah masalah menentukan bahagian sintaksis ucapan kejadian perkataan dalam konteks.", "Penandaan Part-Of-Speech adalah proses utama untuk pelbagai tugas seperti `pengekstrak maklumat, sintesis Teks-Ke-Speech, Disambiguasi deria perkataan dan terjemahan mesin."]}, {"en": ["We define a conditional random field for this task.", "We use the Mallet implementation of conditional random fields."], "ms": ["Kami menentukan medan rawak bersyarat untuk tugas ini.", "Kami menggunakan pelaksanaan Mallet medan rawak bersyarat."]}, {"en": ["Rush et al proposed a sentence summarization framework based on a neural attention model using a supervised Sequence-To-Sequence neural machine translation model.", "In particular, rush et al proposed an approach for the abstractive summarization of sentences combining a neural language model with a Contextual Encoder."], "ms": ["Rush et al mencadangkan rangka kerja ringkasan ayat berdasarkan model perhatian neural menggunakan model terjemahan mesin neural Sequence-To-Sequence yang diselia.", "Khususnya, Rush et al mencadangkan pendekatan untuk ringkasan abstrak ayat yang menggabungkan model bahasa saraf dengan Pengekod Kontekstual."]}, {"en": ["Most previous works addressing the task of bilingual lexicon extraction from comparable Corpora are based on the standard approach.", "Most previous approaches that address bilingual lexicon extraction from comparable Corpora are based on the standard approach."], "ms": ["Kebanyakan kerja-kerja terdahulu yang menangani tugas pengekstrakan leksikon dwibahasa daripada Corpora setanding adalah berdasarkan pendekatan piawai.", "Kebanyakan pendekatan terdahulu yang menangani pengekstrakan leksikon dwibahasa daripada Corpora setanding adalah berdasarkan pendekatan piawai."]}, {"en": ["The mt performance is measured with the widely adopted BLEU and Ter Metrics.", "Performance is measured in terms of BLEU and Ter computed using the Multeval script."], "ms": ["Prestasi mt diukur dengan BLEU dan Ter Metrics yang diterima pakai secara meluas.", "Prestasi diukur dari segi BLEU dan Ter dikira menggunakan skrip Multeval."]}, {"en": ["Sentiment analysis is the task of identifying the polarity (positive, negative or neutral) of review.", "Sentiment analysis is a natural language processing task whose aim is to classify documents according to the opinion (polarity) they express on a given subject (Cite-P-13-8-14)."], "ms": ["Analisis kepekaan adalah tugas mengenal pasti polariti (positif, negatif atau neutral) kajian semula.", "Analisis sentimen adalah tugas pemprosesan bahasa semula jadi yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat (kepolaritian) yang mereka nyatakan pada subjek tertentu (Cite-P-13-8-14)."]}, {"en": ["Indeed, movies that fail the test tend to portray women as Less-Important and peripheral characters.", "In movies that fail the test, women are in fact portrayed as Less-Central and Less-Important characters."], "ms": ["Memang, filem yang gagal ujian cenderung menggambarkan wanita sebagai watak yang kurang penting dan periferal.", "Dalam filem yang gagal dalam ujian, wanita sebenarnya digambarkan sebagai watak Kurang Tengah dan Kurang Penting."]}, {"en": ["For the language model, we used Sri language modeling Toolkit to train a Trigram model with modified Kneser-Ney smoothing on the 31 , 149 English sentences.", "We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit."], "ms": ["Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Trigram dengan Kneser-Ney yang diubahsuai pada 31, 149 ayat bahasa Inggeris.", "Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit."]}, {"en": ["We measure translation performance by the BLEU and meteor scores with multiple translation references.", "We will show translation quality measured with the BLEU score as a function of the phrase table size."], "ms": ["Kami mengukur prestasi terjemahan oleh skor BLEU dan meteor dengan rujukan terjemahan berganda.", "Kami akan menunjukkan kualiti terjemahan yang diukur dengan skor BLEU sebagai fungsi saiz jadual frasa."]}, {"en": ["The Anaphor is a definite noun phrase and the referent is in focus, that is.", "If the Anaphor is a pronoun but no referent is found in the cache, it is then necessary to Operatingsearch memory."], "ms": ["Anafor adalah frasa kata nama yang pasti dan rujukan adalah dalam tumpuan, iaitu.", "Jika Anaphor adalah kata ganti tetapi tiada rujukan ditemui dalam cache, maka ia adalah perlu untuk ingatan Operatingsearch."]}, {"en": ["With reference to this system, we implement a Data-Driven Parser with a neural Classifier based on long short-term memory.", "In this work, we use a Nmt system featuring long short-term memory units -In both the Encoder and Decoder-And equipped with an attention mechanism."], "ms": ["Dengan merujuk kepada sistem ini, kami melaksanakan Penghurai Data-Driven dengan pengelasan neural berdasarkan ingatan jangka pendek yang panjang.", "Dalam kerja ini, kami menggunakan sistem Nmt yang memaparkan unit memori jangka pendek yang panjang -Dalam kedua-dua Pengekod dan Decoder-Dan dilengkapi dengan mekanisme perhatian."]}, {"en": ["Sentiment classification is a task of predicting sentiment polarity of text, which has attracted considerable interest in the Nlp field.", "Sentiment classification is a special task of text Categorization that aims to classify documents according to their opinion of, or sentiment toward a given subject (E.G ., if an opinion is supported or not) (Cite-P-11-1-2)."], "ms": ["Klasifikasi sentimen adalah tugas meramalkan polariti sentimen teks, yang telah menarik minat yang besar dalam bidang Nlp.", "Klasifikasi sentimen adalah tugas khas Categorization teks yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat mereka, atau sentimen terhadap subjek tertentu (E.G., jika pendapat disokong atau tidak) (Cite-P-11-1-2)."]}, {"en": ["Text Segmentation is the task of determining the positions at which topics change in a stream of text.", "Text Segmentation is the task of splitting text into segments by placing boundaries within it."], "ms": ["Segmentasi teks adalah tugas menentukan kedudukan di mana topik berubah dalam aliran teks.", "Segmentasi teks adalah tugas membahagikan teks ke segmen dengan meletakkan sempadan di dalamnya."]}, {"en": ["Bunescu and Mooney designed a kernel along the shortest dependency path between two entities by observing that the relation strongly relies on Sdps.", "Bunescu and Mooney show that using dependency trees to generate the input sequence to a model performs well in relation extraction tasks."], "ms": ["Bunescu dan Mooney merancang kernel di sepanjang laluan kebergantungan terpendek antara dua entiti dengan memerhatikan bahawa hubungan itu sangat bergantung pada Sdps.", "Bunescu dan Mooney menunjukkan bahawa menggunakan pokok dependensi untuk menghasilkan urutan input kepada model berfungsi dengan baik dalam tugas pengekstrakan hubungan."]}, {"en": ["We used Trigram language models with interpolated Kneser-Kney discounting trained using the Sri language modeling Toolkit.", "For the language model we use the corpus of 60,000 simple English Wikipedia articles 3 and build a 3-Gram language model with Kneser-Ney smoothing trained with Srilm."], "ms": ["Kami menggunakan model bahasa Trigram dengan diskaun Kneser-Kney yang diinterpolasi dilatih menggunakan Toolkit pemodelan bahasa Sri.", "Untuk model bahasa, kami menggunakan korpus 60,000 artikel Wikipedia Bahasa Inggeris mudah 3 dan membina model bahasa 3-Gram dengan smoothing Kneser-Ney dilatih dengan Srilm."]}, {"en": ["For parameter training we use conditional random fields as described in.", "We use conditional random fields for sequence labelling."], "ms": ["Untuk latihan parameter, kami menggunakan medan rawak bersyarat seperti yang diterangkan dalam.", "Kami menggunakan medan rawak bersyarat untuk pelabelan jujukan."]}, {"en": ["Relation extraction is the task of finding semantic relations between two entities from text.", "Relation extraction is a Subtask of information extraction that finds various predefined semantic relations, such as location, affiliation, rival, etc ., between pairs of entities in text."], "ms": ["Pengekstrakan hubungan adalah tugas mencari hubungan semantik antara dua entiti dari teks.", "Pengekstrakan hubungan adalah Subtugas pengekstrakan maklumat yang menemui pelbagai hubungan semantik yang telah ditentukan, seperti lokasi, gabungan, saingan, dll., Antara pasangan entiti dalam teks."]}, {"en": ["Sentence compression is the task of producing a shorter form of a single given sentence, so that the new form is grammatical and retains the most important information of the original one (Cite-P-15-3-1).", "Sentence compression is a Paraphrasing task where the goal is to generate sentences shorter than given while preserving the essential content."], "ms": ["Pemampatan ayat adalah tugas menghasilkan bentuk yang lebih pendek dari satu ayat yang diberikan, supaya bentuk baru adalah tatabahasa dan mengekalkan maklumat yang paling penting dari yang asal (Cite-P-15-3-1).", "Pemampatan ayat adalah tugas Paraphrasing di mana matlamatnya adalah untuk menghasilkan ayat yang lebih pendek daripada yang diberikan sambil mengekalkan kandungan penting."]}, {"en": ["Jiang and Zhai proposed an instance Re-Weighting framework that handles both the settings.", "Jiang and Zhai recently proposed an instance Re-Weighting framework to take domain shift into account."], "ms": ["Jiang dan Zhai mencadangkan rangka kerja Re-Weighting contoh yang menangani kedua-dua tetapan.", "Jiang dan Zhai baru-baru ini mencadangkan rangka kerja Re-Weighting untuk mengambil kira peralihan domain."]}, {"en": ["We train a 4-Gram language model on the Xinhua portion of English Gigaword corpus by Srilm Toolkit.", "We apply Sri language modeling Toolkit to train a 4-Gram language model with Kneser-Ney smoothing."], "ms": ["Kami melatih model bahasa 4-Gram di bahagian Xinhua Gigaword corpus bahasa Inggeris oleh Srilm Toolkit.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model bahasa 4-Gram dengan smoothing Kneser-Ney."]}, {"en": ["Coreference resolution is a field in which major progress has been made in the last decade.", "Coreference resolution is the process of finding discourse entities (Markables) referring to the same Real-World entity or concept."], "ms": ["Resolusi spatial adalah bidang di mana kemajuan besar telah dibuat dalam dekad yang lalu.", "Resolusi spatial adalah proses mencari entiti wacana (Markables) merujuk kepada entiti atau konsep Dunia Nyata yang sama."]}, {"en": ["Semantic role labeling (SRL) has been defined as a Sentence-Level Natural-Language processing task in which semantic roles are assigned to the syntactic arguments of a Predicate (Cite-P-14-1-7).", "Semantic role labeling (SRL) is a major Nlp task, providing a shallow Sentence-Level semantic analysis."], "ms": ["Pelabelan peranan semantik (SRL) telah ditakrifkan sebagai tugas pemprosesan Bahasa Semulajadi Tahap Sentence di mana peranan semantik ditugaskan kepada hujah sintaktik Predicate (Cite-P-14-1-7).", "Pelabelan peranan semantik (SRL) adalah tugas utama Nlp, menyediakan analisis semantik Tahap Sentence cetek."]}, {"en": ["Table 1 shows the performance for the test data measured by case sensitive BLEU.", "Table 1 presents the results from the automatic evaluation, in terms of BLEU and Nist test."], "ms": ["Jadual 1 menunjukkan prestasi untuk data ujian yang diukur oleh BLEU sensitif kes.", "Jadual 1 membentangkan keputusan daripada penilaian automatik, dari segi BLEU dan ujian Nist."]}, {"en": ["Moreover, Xing et al incorporated topic words into Seq2Seq Frameworks, where topic words are obtained from a Pre-Trained L-Da model.", "Xing et al presented topic aware response generation by incorporating topic words obtained from a Pre-Trained Lda model."], "ms": ["Selain itu, Xing et al memasukkan kata-kata topik ke dalam Rangka Kerja Seq2Seq, di mana kata-kata topik diperoleh daripada model L-Da Pra-Trained.", "Xing et al menyampaikan penjanaan respons sedar topik dengan memasukkan kata-kata topik yang diperolehi daripada model Lda Pra-Trained."]}, {"en": ["In all cases, we used the Implementations from the Scikitlearn machine learning library.", "We used SVM Classifier that implements Linearsvc from the Scikit-Learn library."], "ms": ["Dalam semua kes, kami menggunakan Pelaksanaan dari perpustakaan pembelajaran mesin Scikitlearn.", "Kami menggunakan SVM Classifier yang melaksanakan Linearsvc dari perpustakaan Scikit-Learn."]}, {"en": ["Then, we applied 32K Bpe operations, learned jointly over the source and target languages.", "We trained a Subword model using Bpe with 29,500 merge operations."], "ms": ["Kemudian, kami menggunakan operasi 32K Bpe, belajar bersama mengenai bahasa sumber dan sasaran.", "Kami melatih model Subword menggunakan Bpe dengan 29,500 operasi penggabungan."]}, {"en": ["Meanwhile, we propose a Hierarchical attention mechanism for the bilingual Lstm network.", "Besides, we propose a Hierarchical neural attention mechanism to capture the sentiment attention."], "ms": ["Sementara itu, kami mencadangkan mekanisme perhatian Hierarki untuk rangkaian Lstm dwibahasa.", "Selain itu, kami mencadangkan mekanisme perhatian saraf Hierarki untuk menangkap perhatian sentimen."]}, {"en": ["We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "For all the systems we train, we build N-Gram language model with modified Kneserney smoothing using Kenlm."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Untuk semua sistem yang kami latih, kami membina model bahasa N-Gram dengan smoothing Kneserney yang diubahsuai menggunakan Kenlm."]}, {"en": ["Sentiment analysis is a research area in the field of natural language processing.", "Sentiment analysis is a fundamental problem aiming to give a machine the ability to understand the emotions and opinions expressed in a written text."], "ms": ["Analisis kepekaan adalah bidang penyelidikan dalam bidang pemprosesan bahasa semula jadi.", "Analisis sentimen adalah masalah asas yang bertujuan untuk memberi mesin keupayaan untuk memahami emosi dan pendapat yang dinyatakan dalam teks bertulis."]}, {"en": ["Dependency Parsing is a basic technology for processing Japanese and has been the subject of much research.", "Dependency Parsing is a topic that has engendered increasing interest in recent years."], "ms": ["Dependency Parsing adalah teknologi asas untuk memproses bahasa Jepun dan telah menjadi subjek banyak penyelidikan.", "Penghuraian Dependensi adalah topik yang telah menimbulkan minat yang semakin meningkat dalam beberapa tahun kebelakangan ini."]}, {"en": ["Sentiment analysis (SA) is the task of analysing opinions, sentiments or emotions expressed towards entities such as products, services, organisations, issues, and the various attributes of these entities (Cite-P-9-3-3).", "Sentiment analysis (SA) is a fundamental problem aiming to allow machines to automatically extract subjectivity information from text (Cite-P-16-5-8), whether at the sentence or the document level (Cite-P-16-3-3)."], "ms": ["Analisis sentimen (SA) adalah tugas menganalisis pendapat, sentimen atau emosi yang dinyatakan terhadap entiti seperti produk, perkhidmatan, organisasi, isu, dan pelbagai atribut entiti ini (Cite-P-9-3-3).", "Analisis sentimen (SA) adalah masalah asas yang bertujuan untuk membolehkan mesin mengekstrak maklumat subjektiviti secara automatik dari teks (Cite-P-16-5-8), sama ada pada ayat atau tahap dokumen (Cite-P-16-3-3)."]}, {"en": ["Conditional random fields are Undirected graphical models of a conditional distribution.", "Conditional random fields are Undirected graphical models trained to maximize a conditional probability."], "ms": ["Medan rawak bersyarat adalah model grafik tidak diarahkan bagi taburan bersyarat.", "Medan rawak bersyarat adalah model grafik tidak diarahkan yang dilatih untuk memaksimumkan kebarangkalian bersyarat."]}, {"en": ["Translation performance was measured by Case-Insensitive BLEU.", "The translation quality is evaluated by Caseinsensitive Bleu-4 metric."], "ms": ["Prestasi terjemahan diukur oleh Case-Insensitive BLEU.", "Kualiti terjemahan dinilai oleh Caseinsensitive Bleu-4 metrik."]}, {"en": ["It can process raw text and data conforming to the format of the Conll-2012 shared task on Coreference resolution.", "All input and output must conform to the format of the Conll-2012 shared task on Coreference resolution."], "ms": ["Ia boleh memproses teks mentah dan data yang sesuai dengan format tugas bersama Conll-2012 pada resolusi Coreference.", "Semua input dan output mesti mematuhi format tugas bersama Conll-2012 pada resolusi Coreference."]}, {"en": ["We employ Srilm Toolkit to linearly Interpolate the target side of the training corpus with the WMT English corpus, optimizing towards the mt tuning set.", "For language model, we use a Trigram language model trained with the Srilm Toolkit on the English side of the training corpus."], "ms": ["Kami menggunakan Srilm Toolkit untuk secara linear Interpolasi sisi sasaran korpus latihan dengan korpus WMT English, mengoptimumkan ke arah set tuning mt.", "Untuk model bahasa, kami menggunakan model bahasa Trigram yang dilatih dengan Srilm Toolkit di sisi bahasa Inggeris korpus latihan."]}, {"en": ["All systems are evaluated using Case-Insensitive BLEU.", "The evaluation metric is the Case-Insensitive Bleu4."], "ms": ["Semua sistem dinilai menggunakan Case-Insensitive BLEU.", "Metrik penilaian ialah Case-Insensitive Bleu4."]}, {"en": ["Sentiment analysis is a fundamental problem aiming to give a machine the ability to understand the emotions and opinions expressed in a written text.", "Sentiment analysis is a natural language processing task whose aim is to classify documents according to the opinion (polarity) they express on a given subject (Cite-P-13-8-14)."], "ms": ["Analisis sentimen adalah masalah asas yang bertujuan untuk memberi mesin keupayaan untuk memahami emosi dan pendapat yang dinyatakan dalam teks bertulis.", "Analisis sentimen adalah tugas pemprosesan bahasa semula jadi yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat (kepolaritian) yang mereka nyatakan pada subjek tertentu (Cite-P-13-8-14)."]}, {"en": ["We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing.", "The language models were trained with Kneser-Ney Backoff smoothing using the Sri language modeling Toolkit ,."], "ms": ["Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Model bahasa dilatih dengan Kneser-Ney Backoff melicinkan menggunakan Toolkit pemodelan bahasa Sri,."]}, {"en": ["However, these conclusions contradict Yamashita claiming that information structure is not crucial for scrambling.", "This result is opposed to Yamashita stating that scrambling is unrelated to information structure."], "ms": ["Walau bagaimanapun, kesimpulan ini bercanggah dengan Yamashita yang mendakwa bahawa struktur maklumat tidak penting untuk berebut.", "Hasil ini bertentangan dengan Yamashita yang menyatakan bahawa berebut tidak berkaitan dengan struktur maklumat."]}, {"en": ["Firstly, we built a forward 5-Gram language model using the Srilm Toolkit with modified Kneser-Ney smoothing.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Pertama, kami membina model bahasa 5-Gram maju menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Shen et al proposed a String-To-Dependency model, which restricted the Target-Side of a rule by dependency structures.", "Shen et al propose the Well-Formed dependency structure to filter the Hierarchical rule table."], "ms": ["Shen et al mencadangkan model String-To-Dependency, yang mengehadkan Target-Side peraturan oleh struktur dependensi.", "Shen et al mencadangkan struktur dependensi Well-Formed untuk menapis jadual peraturan Hierarki."]}, {"en": ["We build all the classifiers using the L2-Regularized linear logistic regression from the Liblinear package.", "We use the Multi-Class logistic regression Classifier from the Liblinear package 2 for the prediction of edit scripts."], "ms": ["Kami membina semua pengelas menggunakan regresi logistik linear L2-Regularized dari pakej Liblinear.", "Kami menggunakan Klasifikasi regresi logistik Multi-Class dari pakej Liblinear 2 untuk ramalan skrip suntingan."]}, {"en": ["Then we use the standard minimum Error-Rate training to tune the feature weights to maximize the System\u6f5eS BLEU score.", "Then we perform minimum error rate training on validation set to give different features corresponding reasonable weights."], "ms": ["Kemudian kami menggunakan latihan Ralat-Rate minimum standard untuk menyesuaikan berat ciri untuk memaksimumkan skor SystemS BLEU.", "Kemudian kami melakukan latihan kadar ralat minimum pada set pengesahan untuk memberikan ciri-ciri yang berbeza yang sesuai dengan berat yang munasabah."]}, {"en": ["Supertagging is a widely used Speedup technique for Lexicalized grammar Parsing.", "Supertagging is the tagging process of assigning the correct elementary tree of Ltag, or the correct Supertag, to each word of an input sentence 1."], "ms": ["Supertagging adalah teknik Speedup yang digunakan secara meluas untuk Parsing tatabahasa Lexicalized.", "Supertagging adalah proses penandaan untuk menetapkan pokok asas Ltag yang betul, atau Supertag yang betul, kepada setiap perkataan ayat input 1."]}, {"en": ["For our Spanish experiments, we randomly sample 2 , 000 sentence pairs from the Spanish-English Europarl V5 parallel corpus.", "For our experiments, we use 40,000 sentences from Europarl for each language pair following the basic setup of Tiedemann."], "ms": ["Untuk eksperimen Sepanyol kami, kami secara rawak sampel 2, 000 pasangan ayat dari korpus selari Sepanyol-Inggeris V5.", "Untuk eksperimen kami, kami menggunakan 40,000 ayat dari Europarl untuk setiap pasangan bahasa mengikut persediaan asas Tiedemann."]}, {"en": ["Relation extraction (re) is the task of determining semantic relations between entities mentioned in text.", "Relation extraction is a fundamental step in many natural language processing applications such as learning Ontologies from texts (Cite-P-12-1-0) and question answering (Cite-P-12-3-6)."], "ms": ["Pengekstrakan hubungan (re) adalah tugas menentukan hubungan semantik antara entiti yang disebut dalam teks.", "Pengekstrakan hubungan adalah langkah asas dalam banyak aplikasi pemprosesan bahasa semula jadi seperti pembelajaran Ontologi dari teks (Cite-P-12-1-0) dan jawapan soalan (Cite-P-12-3-6)."]}, {"en": ["We used a 5-Gram language model trained on 126 million words of the Xinhua section of the English Gigaword corpus, estimated with Srilm.", "We use Srilm to train a 5-Gram language model on the Xinhua portion of the English Gigaword corpus 5th edition with modified Kneser-Ney discounting."], "ms": ["Kami menggunakan model bahasa 5-Gram yang dilatih pada 126 juta perkataan bahagian Xinhua dari korpus Gigaword Inggeris, dianggarkan dengan Srilm.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di bahagian Xinhua dari edisi ke-5 Gigaword corpus Inggeris dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["A 5-Gram language model with Kneser-Ney smoothing was trained with Srilm on Monolingual English data.", "The Target-Side language models were estimated using the Srilm Toolkit."], "ms": ["Model bahasa 5-Gram dengan smoothing Kneser-Ney dilatih dengan Srilm pada data Bahasa Inggeris Monolingual.", "Model bahasa Target-Side dianggarkan menggunakan Srilm Toolkit."]}, {"en": ["Ambiguity is a problem in any natural language processing system.", "Ambiguity is a common feature of Weps and Wsd."], "ms": ["Ambiguity adalah masalah dalam mana-mana sistem pemprosesan bahasa semulajadi.", "Ambiguity adalah ciri umum Weps dan Wsd."]}, {"en": ["All the feature weights and the weight for each probability factor are tuned on the development set with Minimumerror-Rate training.", "The Scaling factors are tuned with Mert with BLEU as optimization criterion on the development sets."], "ms": ["Semua berat ciri dan berat untuk setiap faktor kebarangkalian ditala pada set pembangunan dengan latihan Minimumerror-Rate.", "Faktor Skala diselaraskan dengan Mert dengan BLEU sebagai kriteria pengoptimuman pada set pembangunan."]}, {"en": ["Relation extraction is the task of detecting and characterizing semantic relations between entities from free text.", "Relation extraction is the task of finding relationships between two entities from text."], "ms": ["Pengekstrakan hubungan adalah tugas mengesan dan mencirikan hubungan semantik antara entiti dari teks percuma.", "Pengekstrakan hubungan adalah tugas mencari hubungan antara dua entiti dari teks."]}, {"en": ["Also, we compare our system with the Rulebased system proposed by Heilman and Smith.", "We use the simplified factual statement Extractor model 3 of Heilman and Smith."], "ms": ["Kami juga membandingkan sistem kami dengan sistem berasaskan peraturan yang dicadangkan oleh Heilman dan Smith.", "Kami menggunakan model Extractor pernyataan fakta yang dipermudahkan 3 Heilman dan Smith."]}, {"en": ["In this paper, we propose a novel forest Reranking algorithm for dependency Parsing.", "In the Reranking stage, we propose an exact 1-Best search algorithm."], "ms": ["Dalam makalah ini, kami mencadangkan algoritma Reranking hutan novel untuk penguraian dependensi.", "Dalam peringkat Reranking, kami mencadangkan algoritma carian 1-Best yang tepat."]}, {"en": ["We use Scikitlearn as machine learning library.", "We use the Scikit-Learn Toolkit as our underlying implementation."], "ms": ["Kami menggunakan Scikitlearn sebagai perpustakaan pembelajaran mesin.", "Kami menggunakan Scikit-Learn Toolkit sebagai pelaksanaan asas kami."]}, {"en": ["We used the Srilm Toolkit to generate the scores with no smoothing.", "We used the Sri language modeling Toolkit to train LMS on our training data for each Ilr level."], "ms": ["Kami menggunakan Srilm Toolkit untuk menghasilkan skor tanpa lancar.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih LMS pada data latihan kami untuk setiap peringkat Ilr."]}, {"en": ["We evaluated the translation quality using the Bleu-4 metric.", "For evaluation, we measured the end translation quality with Case-Sensitive BLEU."], "ms": ["Kami menilai kualiti terjemahan menggunakan metrik Bleu-4.", "Untuk penilaian, kami mengukur kualiti terjemahan akhir dengan Case-Sensitive BLEU."]}, {"en": ["Hence, this model is similar to the Skip-Gram model in word Embedding.", "This architecture is similar to the Cbow model of, where the center word is replaced by a label."], "ms": ["Oleh itu, model ini serupa dengan model Skip-Gram dalam Embedding perkataan.", "Seni bina ini serupa dengan model Cbow, di mana perkataan tengah digantikan dengan label."]}, {"en": ["We used Kenlm with Srilm to train a 5-Gram language model based on all available target language training data.", "We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus."], "ms": ["Kami menggunakan Kenlm dengan Srilm untuk melatih model bahasa 5-Gram berdasarkan semua data latihan bahasa sasaran yang ada.", "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side."]}, {"en": ["A Tri-Gram language model is estimated using the Srilm Toolkit.", "A 4-Gram language model was trained on the Monolingual data by the Srilm Toolkit."], "ms": ["Model bahasa Tri-Gram dianggarkan menggunakan Srilm Toolkit.", "Model bahasa 4-Gram dilatih pada data Monolingual oleh Srilm Toolkit."]}, {"en": ["Blitzer et al used structural correspondence learning to train a Classifier on source data with new features induced from target Unlabeled data.", "Blitzer et al , 2007) use structural correspondence learning to adapt the vocabulary of the various domains."], "ms": ["Blitzer et al menggunakan pembelajaran menyurat struktur untuk melatih Pengelas pada data sumber dengan ciri-ciri baru yang disebabkan daripada data Unlabeled sasaran.", "Blitzer et al, 2007) menggunakan pembelajaran korespondensi struktur untuk menyesuaikan perbendaharaan kata pelbagai domain."]}, {"en": ["Named entity recognition (NER) is a frequently needed technology in Nlp applications.", "Named entity recognition (NER) is a well-known problem in Nlp which feeds into many other related tasks such as information Retrieval (Ir) and machine translation (mt) and more recently social network discovery and opinion mining."], "ms": ["Pengecaman entiti yang dinamakan (NER) adalah teknologi yang sering diperlukan dalam aplikasi Nlp.", "Pengiktirafan entiti yang dinamakan (NER) adalah masalah yang terkenal di Nlp yang memakan banyak tugas lain yang berkaitan seperti pengambilan maklumat (Ir) dan terjemahan mesin (mt) dan penemuan rangkaian sosial dan perlombongan pendapat baru-baru ini."]}, {"en": ["We trained the statistical Phrase-Based systems using the Moses Toolkit with Mert tuning.", "We Preprocessed the corpus with Tokenization and True-Casing tools from the Moses Toolkit."], "ms": ["Kami melatih sistem berasaskan frasa statistik menggunakan Musa Toolkit dengan penalaan Mert.", "Kami memproses korpus dengan Tokenization dan alat True-Casing dari Musa Toolkit."]}, {"en": ["Our Cdsm feature is based on word vectors derived using a Skip-Gram model.", "We perform Pre-Training using the Skipgram Nn architecture available in the Word2Vec tool."], "ms": ["Ciri Cdsm kami adalah berdasarkan vektor perkataan yang diperolehi menggunakan model Skip-Gram.", "Kami melakukan Pra-Latihan menggunakan seni bina Skipgram Nn yang terdapat dalam alat Word2Vec."]}, {"en": ["We use a Bidirectional long short-term memory Rnn to Encode a sentence.", "We apply Bi-Directional long Shortterm memory networks to Encode an input utterance into a vector."], "ms": ["Kami menggunakan Rnn ingatan jangka pendek panjang Bidirectional untuk Mengenal pasti ayat.", "Kami menggunakan rangkaian memori jangka pendek panjang Bi-Directional untuk Mengenal pasti ucapan input ke dalam vektor."]}, {"en": ["We trained the Embedding vectors with the Word2Vec tool on the large Unlabeled corpus of clinical texts provided by the task organizers.", "For our experiments reported here, we obtained word vectors using the Word2Vec tool and the Text8 corpus."], "ms": ["Kami melatih vektor Embedding dengan alat Word2Vec pada korpus besar teks klinikal yang tidak berlabel yang disediakan oleh penganjur tugas.", "Untuk eksperimen kami yang dilaporkan di sini, kami memperoleh vektor perkataan menggunakan alat Word2Vec dan korpus Text8."]}, {"en": ["We use the Open-Source Moses Toolkit to build a Phrase-Based Smt system trained on mostly MSA data obtained from several LDC Corpora including some limited Da data.", "We use the Moses mt framework to build a standard statistical Phrase-Based mt model using our Old-Domain training data."], "ms": ["Kami menggunakan Open-Source Moses Toolkit untuk membina sistem Smt Berasaskan Frasa yang dilatih pada kebanyakan data MSA yang diperoleh dari beberapa LDC Corpora termasuk beberapa data Da terhad.", "Kami menggunakan kerangka mt Moses untuk membina model mt berasaskan frasa statistik standard menggunakan data latihan Old-Domain kami."]}, {"en": ["We used the Weka implementation of Na\u8302Ve Bayes for this baseline Nb system.", "Here too, we used the Weka implementation of the Na\u8302Ve Bayes model and the Svmlight implementation of the SVM."], "ms": ["Kami menggunakan pelaksanaan Weka NaVe Bayes untuk sistem Nb asas ini.", "Di sini juga, kami menggunakan pelaksanaan Weka model NaVe Bayes dan pelaksanaan Svmlight SVM."]}, {"en": ["We used the Penn Wall Street Journal Treebank as training and test data.", "We used the Penn Treebank Wall Street Journal corpus."], "ms": ["Kami menggunakan Penn Wall Street Journal Treebank sebagai data latihan dan ujian.", "Kami menggunakan Penn Treebank Wall Street Journal corpus."]}, {"en": ["Word sense Disambiguation (Wsd) is the Nlp task that consists in selecting the correct sense of a Polysemous word in a given context.", "Many words have multiple meanings, and the process of identifying the correct meaning, or sense of a word in context, is known as word sense Disambiguation (Wsd)."], "ms": ["Disambiguasi erti kata (Wsd) ialah tugas Nlp yang terdiri daripada memilih erti kata yang betul bagi perkataan Polisemous dalam konteks tertentu.", "Banyak perkataan mempunyai pelbagai makna, dan proses mengenal pasti makna yang betul, atau rasa perkataan dalam konteks, dikenali sebagai kata rasa Disambiguation (Wsd)."]}, {"en": ["All language models were trained using the Srilm Toolkit.", "The Srilm Toolkit was used to build this language model."], "ms": ["Semua model bahasa dilatih menggunakan Srilm Toolkit.", "Srilm Toolkit digunakan untuk membina model bahasa ini."]}, {"en": ["Word Segmentation is the first step of natural language processing for Japanese, Chinese and Thai because they do not delimit words by Whitespace.", "Word Segmentation is the first step prior to word alignment for building statistical machine translations (Smt) on language pairs without explicit word boundaries such as Chinese-English."], "ms": ["Segmentasi perkataan adalah langkah pertama pemprosesan bahasa semula jadi untuk bahasa Jepun, Cina dan Thai kerana mereka tidak mengehadkan perkataan oleh Whitespace.", "Segmentasi perkataan adalah langkah pertama sebelum penjajaran perkataan untuk membina terjemahan mesin statistik (Smt) pada pasangan bahasa tanpa sempadan perkataan yang jelas seperti Cina-Inggeris."]}, {"en": ["Meanwhile, we adopt glove Pre-Trained word Embeddings 5 to Initialize the representation of input tokens.", "We use the Pre-Trained glove 50-Dimensional word Embeddings to represent words found in the glove Dataset."], "ms": ["Sementara itu, kami menggunakan sarung tangan Embeddings perkataan Pra-Latih 5 untuk Memulakan perwakilan token input.", "Kami menggunakan sarung tangan Pra-Latih 50-Dimensional Embedding perkataan untuk mewakili perkataan yang terdapat dalam Dataset sarung tangan."]}, {"en": ["The input to net are the Pre-Trained glove word Embeddings of 300D trained on 840B tokens.", "We use 300D glove vectors trained on 840B tokens as the word Embedding input to the Lstm."], "ms": ["Input ke jaring adalah perkataan sarung tangan Pra-Trained Embeddings 300D yang dilatih pada token 840B.", "Kami menggunakan vektor sarung tangan 300D yang dilatih pada token 840B sebagai input Embedding perkataan ke Lstm."]}, {"en": ["In this paper, an Oov translation model is established based on the combination pattern of web mining and translation ranking.", "In this paper, the proposed model improves the Acquirement ability for Oov translation through web mining and solves the translation pair."], "ms": ["Dalam makalah ini, model terjemahan Oov ditubuhkan berdasarkan corak gabungan perlombongan web dan kedudukan terjemahan.", "Dalam makalah ini, model yang dicadangkan meningkatkan keupayaan Perolehan untuk terjemahan Oov melalui perlombongan web dan menyelesaikan pasangan terjemahan."]}, {"en": ["Like we used support vector machines via the Classifier Svmlight.", "As a Classifier, we chose support vector machines."], "ms": ["Seperti yang kita gunakan mesin vektor sokongan melalui Svmlight Classifier.", "Sebagai Classifier, kami memilih mesin vektor sokongan."]}, {"en": ["In a second baseline model, we also incorporate 300-Dimensional glove word Embeddings trained on Wikipedia and the Gigaword corpus.", "For the neural models, we use 100-Dimensional glove Embeddings, Pre-Trained on Wikipedia and Gigaword."], "ms": ["Dalam model asas kedua, kami juga menggabungkan Embedding perkataan sarung tangan 300 dimensi yang dilatih di Wikipedia dan Gigaword corpus.", "Untuk model neural, kami menggunakan Embedding sarung tangan 100-Dimensional, Pra-Trained di Wikipedia dan Gigaword."]}, {"en": ["Twitter is a famous social media platform capable of spreading breaking news, thus most of RUMOUR related research uses Twitter feed as a basis for research.", "Twitter is a well-known social network service that allows users to post short 140 character status update which is called \u201c Tweet \u201d."], "ms": ["Twitter adalah platform media sosial terkenal yang mampu menyebarkan berita terkini, oleh itu kebanyakan penyelidikan berkaitan RUMOUR menggunakan suapan Twitter sebagai asas untuk penyelidikan.", "Twitter adalah perkhidmatan rangkaian sosial yang terkenal yang membolehkan pengguna untuk menyiarkan kemas kini status 140 aksara pendek yang dipanggil \"Tweet\"."]}, {"en": ["We rely on the Stanford Parser, a Treebank-Trained statistical Parser, for Tokenization, Part-Of-Speech tagging, and Phrase-Structure Parsing.", "To extract Part-Of-Speech tags, phrase structure trees, and typed Dependencies, we use the Stanford Parser on both train and test sets."], "ms": ["Kami bergantung pada Stanford Parser, Parser statistik Treebank-Trained, untuk Tokenization, penandaan Part-Of-Speech, dan Parsing Frasa-Structure.", "Untuk mengekstrak tag Bahagian-Daripada-Pertuturan, pokok struktur frasa, dan Dependencies yang ditaip, kami menggunakan Stanford Parser pada kedua-dua set kereta api dan ujian."]}, {"en": ["For all experiments, we used a 4-Gram language model with modified Kneser-Ney smoothing which was trained with the Srilm Toolkit.", "The Targetside 4-Gram language model was estimated using the Srilm Toolkit and modified Kneser-Ney discounting with interpolation."], "ms": ["Untuk semua eksperimen, kami menggunakan model bahasa 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilatih dengan Srilm Toolkit.", "Model bahasa Targetside 4-Gram dianggarkan menggunakan Srilm Toolkit dan diskaun Kneser-Ney yang diubahsuai dengan interpolasi."]}, {"en": ["We use the Opensource Moses Toolkit to build a Phrase-Based Smt system.", "We develop translation models using the Phrase-Based Moses Smt system."], "ms": ["Kami menggunakan Opensource Moses Toolkit untuk membina sistem Smt Berasaskan Frasa.", "Kami membangunkan model terjemahan menggunakan sistem Moses Smt Berasaskan Frasa."]}, {"en": ["We used the support vector machine implementation from the Liblinear library on the test sets and report the results in Table 4.", "We train a linear support vector machine Classifier using the efficient Liblinear package."], "ms": ["Kami menggunakan pelaksanaan mesin vektor sokongan dari perpustakaan Liblinear pada set ujian dan melaporkan hasilnya dalam Jadual 4.", "Kami melatih Classifier mesin vektor sokongan linear menggunakan pakej Liblinear yang cekap."]}, {"en": ["We introduce a Discriminatively trained, globally normalized, Log-Linear variant of the lexical translation models proposed by Cite-P-17-1-6.", "In this paper, we introduce a Discriminatively trained, globally normalized Log-Linear model of lexical translation."], "ms": ["Kami memperkenalkan varian Log-Linear yang terlatih secara Discriminatively dari model terjemahan leksikal yang dicadangkan oleh Cite-P-17-1-6.", "Dalam makalah ini, kami memperkenalkan model terjemahan leksikal Log-Linear yang terlatih secara global."]}, {"en": ["This model uses Multilingual word Embeddings trained using Fasttext and aligned using muse.", "This baseline uses Pre-Trained word Embeddings using Word2Vec Cbow and Fasttext."], "ms": ["Model ini menggunakan Embedding perkataan Multilingual yang dilatih menggunakan Fasttext dan diselaraskan menggunakan muse.", "Garis dasar ini menggunakan Embedding kata Pra-Latihan menggunakan Word2Vec Cbow dan Fasttext."]}, {"en": ["We used the Srilm Toolkit to train a 4-Gram language model on the English side of the training corpus.", "We use Srilm for training a Trigram language model on the English side of the training corpus."], "ms": ["Kami menggunakan Srilm Toolkit untuk melatih model bahasa 4-Gram di sisi bahasa Inggeris korpus latihan.", "Kami menggunakan Srilm untuk melatih model bahasa Trigram di sisi bahasa Inggeris korpus latihan."]}, {"en": ["Our work is inspired by Cite-P-31-3-9 who also use Freebase as distant supervision source.", "We follow Cite-P-31-3-9, use Freebase as source of distant supervision, and employ Wikipedia as source of Unlabelled text \u00a1\u00aa."], "ms": ["Kerja kami diilhamkan oleh Cite-P-31-3-9 yang juga menggunakan Freebase sebagai sumber pengawasan jauh.", "Kami mengikuti Cite-P-31-3-9, menggunakan Freebase sebagai sumber pengawasan jauh, dan menggunakan Wikipedia sebagai sumber teks Tidak Berlabel a."]}, {"en": ["Coreference resolution is the task of identifying all mentions which refer to the same entity in a document.", "Coreference resolution is the problem of identifying which noun phrases (NPS, or mentions) refer to the same Real-World entity in a text or dialogue."], "ms": ["Resolusi spatial adalah tugas untuk mengenal pasti semua sebutan yang merujuk kepada entiti yang sama dalam dokumen.", "Resolusi spatial adalah masalah mengenal pasti frasa kata nama (NPS, atau sebutan) yang merujuk kepada entiti Dunia Nyata yang sama dalam teks atau dialog."]}, {"en": ["We use Stanford Log-Linear Partof-Speech Tagger to produce Pos tags for the English side.", "We use the Stanford Part-Of-Speech Tagger and Chunker to identify noun and verb phrases in the sentences."], "ms": ["Kami menggunakan Stanford Log-Linear Partof-Speech Tagger untuk menghasilkan tag Pos untuk bahagian Inggeris.", "Kami menggunakan Stanford Part-Of-Speech Tagger dan Chunker untuk mengenal pasti kata nama dan frasa kata kerja dalam ayat."]}, {"en": ["For English, we convert the Ptb constituency trees to Dependencies using the Stanford dependency framework.", "We use the Stanford dependency Parser with the collapsed representation so that preposition nodes become edges."], "ms": ["Untuk bahasa Inggeris, kami menukar pokok konstituen Ptb ke Dependencies menggunakan kerangka dependensi Stanford.", "Kami menggunakan Stanford dependency Parser dengan perwakilan runtuh supaya nod preposisi menjadi tepi."]}, {"en": ["The well-known Phrasebased translation model has significantly advanced the progress of Smt by extending translation units from single words to phrases.", "During the last few years, Smt systems have evolved from the original Word-Based approach to Phrase-Based translation systems."], "ms": ["Model terjemahan berasaskan frasa yang terkenal telah memajukan kemajuan Smt dengan memanjangkan unit terjemahan dari perkataan tunggal ke frasa.", "Selama beberapa tahun terakhir, sistem Smt telah berkembang dari pendekatan Word-Based yang asli untuk sistem terjemahan Berfiksyen."]}, {"en": ["Many words have multiple meanings, and the process of identifying the correct meaning, or sense of a word in context, is known as word sense Disambiguation (Wsd).", "Word sense Disambiguation (Wsd) is a natural language processing (Nlp) task in which the correct meaning (sense) of a word in a given context is to be determined."], "ms": ["Banyak perkataan mempunyai pelbagai makna, dan proses mengenal pasti makna yang betul, atau rasa perkataan dalam konteks, dikenali sebagai kata rasa Disambiguation (Wsd).", "Disambiguasi erti kata (Wsd) ialah tugas pemprosesan bahasa semula jadi (Nlp) di mana makna (rasa) yang betul perkataan dalam konteks tertentu perlu ditentukan."]}, {"en": ["To that end, we use the state-of-the-art phrase based statistical machine translation system Moses.", "Our system is based on the Phrase-Based part of the statistical machine translation system Moses."], "ms": ["Untuk itu, kita menggunakan sistem terjemahan mesin statistik berasaskan frasa Musa.", "Sistem kami adalah berdasarkan bahagian berasaskan frasa sistem terjemahan mesin statistik Moses."]}, {"en": ["For English, we convert the Ptb constituency trees to Dependencies using the Stanford dependency framework.", "Since the English Treebanks are in constituency format, we used the Stanfordconverter to convert the Parse trees to Dependencies and ignored the arc labels."], "ms": ["Untuk bahasa Inggeris, kami menukar pokok konstituen Ptb ke Dependencies menggunakan kerangka dependensi Stanford.", "Oleh kerana Treebanks Inggeris berada dalam format konstituen, kami menggunakan Stanfordconverter untuk menukar pokok Parse ke Dependencies dan mengabaikan label arka."]}, {"en": ["The translation performance was measured using the BLEU and the Nist Mt-Eval Metrics, and word error rate.", "Translation performances are measured with Case-Insensitive Bleu4 score."], "ms": ["Prestasi terjemahan diukur menggunakan BLEU dan Nist Mt-Eval Metrics, dan kadar ralat perkataan.", "Persembahan terjemahan diukur dengan skor Case-Insensitive Bleu4."]}, {"en": ["We use the collapsed tree formalism of the Stanford dependency Parser.", "As for EJ translation, we use the Stanford Parser to obtain English abstraction trees."], "ms": ["Kami menggunakan formalisme pokok runtuh dari Stanford dependency Parser.", "Bagi terjemahan EJ, kami menggunakan Stanford Parser untuk mendapatkan pokok abstraksi bahasa Inggeris."]}, {"en": ["The composite kernel consists of two individual kernels: an entity kernel that allows for Entity-Related features and a Convolution Parse tree kernel that models syntactic information of relation examples.", "The composite kernel consists of an entity kernel and a Convolution Parse tree kernel."], "ms": ["Kernel komposit terdiri daripada dua kernel individu: kernel entiti yang membolehkan ciri-ciri Berkaitan Entiti dan kernel pokok Convolution Parse yang memodelkan maklumat sintaksis contoh hubungan.", "Kernel komposit terdiri daripada kernel entiti dan kernel pokok Convolution Parse."]}, {"en": ["We used the Dataset made available by the workshop on statistical machine translation to train a German-English Phrase-Based system using the Moses Toolkit in a standard setup.", "We experimented using the standard Phrase-Based statistical machine translation system as implemented in the Moses Toolkit."], "ms": ["Kami menggunakan Dataset yang disediakan oleh bengkel terjemahan mesin statistik untuk melatih sistem Berasaskan Frasa Jerman-Inggeris menggunakan Musa Toolkit dalam persediaan standard.", "Kami bereksperimen menggunakan sistem terjemahan mesin statistik berasaskan frasa standard seperti yang dilaksanakan dalam Musa Toolkit."]}, {"en": ["Morpa is a fully implemented Parser developed for use in a Text-To-Speech conversion system.", "Morpa is a morphological Parser developed for use in the Text-To-Speech conversion system."], "ms": ["Morpa adalah Parser yang dilaksanakan sepenuhnya yang dibangunkan untuk digunakan dalam sistem penukaran Teks-Ke-Pertuturan.", "Morpa adalah Parser morfologi yang dibangunkan untuk digunakan dalam sistem penukaran Teks-Ke-Pertuturan."]}, {"en": ["Semantic role labeling (SRL) is the process of assigning semantic roles to strings of words in a sentence according to their relationship to the semantic Predicates expressed in the sentence.", "Semantic role labeling (SRL) is the process of producing such a MARKUP."], "ms": ["Pelabelan peranan semantik (SRL) adalah proses menetapkan peranan semantik kepada rentetan perkataan dalam ayat mengikut hubungan mereka dengan semantik Predicates yang dinyatakan dalam ayat.", "Pelabelan peranan semantik (SRL) adalah proses menghasilkan MARKUP sedemikian."]}, {"en": ["Further, we apply a 4-Gram language model trained with the Srilm Toolkit on the target side of the training corpus.", "Gram language models are trained over the Target-Side of the training data, using Srilm with modified Kneser-Ney discounting."], "ms": ["Selanjutnya, kami menerapkan model bahasa 4-Gram yang dilatih dengan Srilm Toolkit di sisi target korpus pelatihan.", "Model bahasa gram dilatih melalui Target-Side data latihan, menggunakan Srilm dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["We use the open source Moses Phrase-Based mt system to test the impact of the Preprocessing technique on translation quality.", "For Phrase-Based Smt translation, we used the Moses Decoder and its support training scripts."], "ms": ["Kami menggunakan sistem mt berasaskan frasa Moses sumber terbuka untuk menguji kesan teknik pemprosesan pada kualiti terjemahan.", "Untuk terjemahan Smt Berasaskan Frasa, kami menggunakan Moses Decoder dan skrip latihan sokongannya."]}, {"en": ["In this paper, we focus on how to integrate Glosses into a unified neural Wsd system.", "In this paper, we integrate the context and Glosses of the target word into a unified framework."], "ms": ["Dalam makalah ini, kita memberi tumpuan kepada cara mengintegrasikan Glosses ke dalam sistem Wsd neural yang bersatu.", "Dalam makalah ini, kami mengintegrasikan konteks dan Glosses kata sasaran ke dalam kerangka bersatu."]}, {"en": ["We use the Word2Vec Cbow model with a window size of 5 and a minimum frequency of 5 to generate 200-Dimensional vectors.", "We use distributed word vectors trained on the Wikipedia corpus using the Word2Vec algorithm."], "ms": ["Kami menggunakan model Word2Vec Cbow dengan saiz tetingkap 5 dan frekuensi minimum 5 untuk menghasilkan vektor 200-Dimensional.", "Kami menggunakan vektor perkataan diedarkan yang dilatih pada korpus Wikipedia menggunakan algoritma Word2Vec."]}, {"en": ["Phrase-Based statistical machine translation models have achieved significant improvements in translation accuracy over the original IBM Word-Based model.", "Phrase-Based approaches to statistical machine translation have recently achieved impressive results, leading to significant improvements in accuracy over the original IBM models."], "ms": ["Model terjemahan mesin statistik berasaskan frasa telah mencapai peningkatan yang ketara dalam ketepatan terjemahan berbanding model IBM Word-Based asal.", "Pendekatan berasaskan frasa untuk terjemahan mesin statistik baru-baru ini telah mencapai hasil yang mengagumkan, yang membawa kepada peningkatan ketepatan yang ketara berbanding model IBM asal."]}, {"en": ["Wikipedia is a constantly evolving source of detailed information that could facilitate intelligent machines \u2014 if they are able to leverage its power.", "Wikipedia, as it is a popular choice due to its large and ever expanding coverage and its ability to keep up with world events on a timely basis."], "ms": ["Wikipedia adalah sumber maklumat terperinci yang sentiasa berkembang yang boleh memudahkan mesin pintar - jika mereka dapat memanfaatkan kuasanya.", "Wikipedia, kerana ia adalah pilihan yang popular kerana liputannya yang besar dan meluas dan keupayaannya untuk bersaing dengan peristiwa dunia tepat pada masanya."]}, {"en": ["Maximum phrase length is set to 10 words and the parameters in the Log-Linear model are tuned by Mert.", "The weights for the language model and the grammar, are tuned towards BLEU using Mert."], "ms": ["Panjang frasa maksimum ditetapkan kepada 10 perkataan dan parameter dalam model Log-Linear ditala oleh Mert.", "Berat untuk model bahasa dan tatabahasa, ditala ke arah BLEU menggunakan Mert."]}, {"en": ["We implemented our method in a Phrase-Based Smt system.", "Our Phrase-Based mt system is trained by Moses with standard parameters settings."], "ms": ["Kami melaksanakan kaedah kami dalam sistem Smt Berasaskan Frasa.", "Sistem mt Berasaskan Frasa kami dilatih oleh Musa dengan tetapan parameter standard."]}, {"en": ["Following Lample et al, the Character-Based representation is constructed with a Bi-Lstm.", "Following Lample et al, the Character-Based representation is computed with a Bi-Lstm whose parameters are defined by users."], "ms": ["Berikutan Lample et al, perwakilan Berasaskan Watak dibina dengan Bi-Lstm.", "Berikutan Lample et al, perwakilan Berasaskan Ciri dikira dengan Bi-Lstm yang parameternya ditakrifkan oleh pengguna."]}, {"en": ["The experiments were conducted with the Scikit-Learn tool kit.", "These models were implemented using the package Scikit-Learn."], "ms": ["Eksperimen dijalankan dengan kit alat Scikit-Learn.", "Model-model ini dilaksanakan menggunakan pakej Scikit-Learn."]}, {"en": ["Discourse Parsing is the task of identifying the presence and the type of the discourse relations between discourse units.", "Discourse Parsing is the process of discovering the latent relational structure of a long form piece of text and remains a significant open challenge."], "ms": ["Parsing Wacana adalah tugas mengenal pasti kehadiran dan jenis hubungan wacana antara unit wacana.", "Parsing Wacana adalah proses menemui struktur hubungan terpendam sekeping teks bentuk panjang dan kekal sebagai cabaran terbuka yang penting."]}, {"en": ["We build all the classifiers using the L2-Regularized linear logistic regression from the Liblinear package.", "We use Liblinear logistic regression Module to classify Document-Level Embeddings."], "ms": ["Kami membina semua pengelas menggunakan regresi logistik linear L2-Regularized dari pakej Liblinear.", "Kami menggunakan Modul regresi logistik Liblinear untuk mengklasifikasikan Embedding Tahap Dokumen."]}, {"en": ["A 4-Grams language model is trained by the Srilm Toolkit.", "The models are built using the Sri language modeling Toolkit."], "ms": ["Model bahasa 4-Gram dilatih oleh Srilm Toolkit.", "Model-model ini dibina menggunakan Toolkit pemodelan bahasa Sri."]}, {"en": ["Then, we trained word Embeddings using Word2Vec.", "We used 300 dimensional Skip-Gram word Embeddings Pre-Trained on Pubmed."], "ms": ["Kemudian, kami melatih Embedding perkataan menggunakan Word2Vec.", "Kami menggunakan 300 dimensi Skip-Gram perkataan Embeddings Pra-Trained di Pubmed."]}, {"en": ["Phonetic translation across these pairs is called Transliteration.", "Transliteration is the task of converting a word from one writing script to another, usually based on the phonetics of the original word."], "ms": ["Terjemahan fonetik merentasi pasangan ini dipanggil Transliterasi.", "Transliterasi adalah tugas menukar perkataan dari satu skrip penulisan ke yang lain, biasanya berdasarkan fonetik perkataan asal."]}, {"en": ["Relation extraction is the task of detecting and classifying relationships between two entities from text.", "Relation extraction (re) is a task of identifying typed relations between known entity mentions in a sentence."], "ms": ["Pengekstrakan hubungan adalah tugas mengesan dan mengklasifikasikan hubungan antara dua entiti dari teks.", "Pengekstrakan hubungan (re) adalah tugas untuk mengenal pasti hubungan yang ditaip antara sebutan entiti yang diketahui dalam ayat."]}, {"en": ["Lda is a Generative model that learns a set of latent topics for a document collection.", "Lda is a probabilistic Generative model that can be used to uncover the underlying semantic structure of a document collection."], "ms": ["Lda adalah model Generatif yang mempelajari satu set topik laten untuk koleksi dokumen.", "Lda adalah model Generatif probabilistik yang boleh digunakan untuk mengungkap struktur semantik yang mendasari koleksi dokumen."]}, {"en": ["Pang and Lee use a Graph-Based technique to identify and analyze only subjective parts of texts.", "Pang and Lee attempted to improve the performance of an SVM Classifier by identifying and removing objective sentences from the texts."], "ms": ["Pang dan Lee menggunakan teknik Berasaskan Grafik untuk mengenal pasti dan menganalisis hanya bahagian subjektif teks.", "Pang dan Lee cuba meningkatkan prestasi Classifier SVM dengan mengenal pasti dan mengeluarkan ayat objektif daripada teks."]}, {"en": ["Exact Non-Projective Parsing with such a 2-Order model is intractable.", "Unfortunately, the Non-Projective Parsing problem is known to be Np-Hard for all but the simplest models."], "ms": ["Penghuraian Non-Projektif Tepat dengan model 2-Order sedemikian tidak dapat ditolak.", "Malangnya, masalah Penghuraian Bukan Projektif dikenali sebagai Np-Hard untuk semua tetapi model paling mudah."]}, {"en": ["Previous works on stance detection have focused on congressional debates, Company-Internal discussions, and debates in Online forums.", "Previous work has focused on congressional debates, Company-Internal discussions, and debates in Online forums."], "ms": ["Kerja-kerja terdahulu mengenai pengesanan pendirian telah memberi tumpuan kepada perdebatan kongres, perbincangan Syarikat-Internal, dan perdebatan dalam forum Online.", "Kerja sebelumnya telah memberi tumpuan kepada perdebatan kongres, perbincangan Syarikat-Internal, dan perdebatan dalam forum Online."]}, {"en": ["The model parameters are trained using minimum Error-Rate training.", "The feature weights \u4f4d M are tuned with minimum error rate training."], "ms": ["Parameter model dilatih menggunakan latihan Ralat-Rate minimum.", "Berat ciri M diselaraskan dengan latihan kadar ralat minimum."]}, {"en": ["We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "We used the Srilm Toolkit to create 5-Gram language models with interpolated modified Kneser-Ney discounting."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Kami menggunakan Srilm Toolkit untuk mencipta model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["We work with the Phrase-Based Smt framework as the baseline system.", "We use the Moses Phrase-Based mt system with standard features."], "ms": ["Kami bekerjasama dengan kerangka Smt Berasaskan Frasa sebagai sistem asas.", "Kami menggunakan sistem mt berasaskan frasa Moses dengan ciri standard."]}, {"en": ["We use a standard maximum entropy Classifier implemented as part of Mallet.", "We use the Mallet implementation of a maximum entropy Classifier to construct our models."], "ms": ["Kami menggunakan Classifier entropi maksimum standard yang dilaksanakan sebagai sebahagian daripada Mallet.", "Kami menggunakan pelaksanaan Mallet Classifier entropi maksimum untuk membina model kami."]}, {"en": ["A 5-Gram language model built using Kenlm was used for decoding.", "Language models were trained with the Kenlm Toolkit."], "ms": ["Model bahasa 5-Gram yang dibina menggunakan Kenlm digunakan untuk penyahkodan.", "Model bahasa dilatih dengan Kenlm Toolkit."]}, {"en": ["Coreference resolution is a challenging task, that involves identification and clustering of noun phrases mentions that refer to the same Real-World entity.", "Coreference resolution is the task of partitioning the set of mentions of discourse Referents in a text into classes (or \u2018 chains \u2019) corresponding to those Referents (Cite-P-12-3-14)."], "ms": ["Resolusi spatial adalah tugas yang mencabar, yang melibatkan pengenalan dan pengelompokan frasa kata nama yang menyebut yang merujuk kepada entiti Dunia Nyata yang sama.", "Resolusi spatial adalah tugas pembahagian set sebutan rujukan wacana dalam teks ke dalam kelas (atau rantai ) yang sepadan dengan rujukan tersebut (Cite-P-12-3-14)."]}, {"en": ["We Initialize these word Embeddings with glove vectors.", "For word Embeddings, we consider Word2Vec and glove."], "ms": ["Kami Memulakan perkataan Embeddings ini dengan vektor sarung tangan.", "Untuk perkataan Embeddings, kami menganggap Word2Vec dan sarung tangan."]}, {"en": ["We tried the models with glove and with randomly Initialized, Learnable word Embeddings.", "For word Embeddings, we used popular Pre-Trained word vectors from glove."], "ms": ["Kami mencuba model dengan sarung tangan dan dengan Embedding kata yang Dimulakan dan Dipelajari secara rawak.", "Untuk Embedding perkataan, kami menggunakan vektor perkataan Pra-Latih yang popular dari sarung tangan."]}, {"en": ["We also used support vector machines and conditional random fields.", "We trained Linear-Chain conditional random fields as the baseline."], "ms": ["Kami juga menggunakan mesin vektor sokongan dan medan rawak bersyarat.", "Kami melatih medan rawak bersyarat Linear-Chain sebagai garis dasar."]}, {"en": ["We measure the translation quality with automatic Metrics including BLEU and Ter.", "We use Case-Sensitive Bleu-4 to measure the quality of translation result."], "ms": ["Kami mengukur kualiti terjemahan dengan Metrik automatik termasuk BLEU dan Ter.", "Kami menggunakan Case-Sensitive Bleu-4 untuk mengukur kualiti hasil terjemahan."]}, {"en": ["We used the SVM implementation provided within Scikit-Learn.", "We used the implementation of random forest in Scikitlearn as the Classifier."], "ms": ["Kami menggunakan pelaksanaan SVM yang disediakan dalam Scikit-Learn.", "Kami menggunakan pelaksanaan hutan rawak di Scikitlearn sebagai Pengelas."]}, {"en": ["In this paper, we have presented an Fdt-Based model training approach to Smt.", "In this paper, we present an approach that Leverages structured knowledge contained in Fdts."], "ms": ["Dalam makalah ini, kami telah membentangkan pendekatan latihan model berasaskan Fdt kepada Smt.", "Dalam makalah ini, kami membentangkan pendekatan bahawa pengetahuan berstruktur Leverages terkandung dalam Fdts."]}, {"en": ["Non-Interactive Algorithms do not use human labels during the learning process.", "For sampling nodes, Non-Interactive active learning Algorithms exclude expert Annotators \u2019 human labels."], "ms": ["Algoritma bukan interaktif tidak menggunakan label manusia semasa proses pembelajaran.", "Untuk nod persampelan, Algoritma pembelajaran aktif Non-Interaktif mengecualikan pakar Annotator label manusia."]}, {"en": ["We split each document into sentences using the sentence Tokenizer of the Nltk Toolkit.", "For Wordnet, we employ the Basictokenizer built in Bert to Tokenize text, and look up Synsets for each word using Nltk."], "ms": ["Kami membahagikan setiap dokumen kepada ayat menggunakan Tokenizer ayat Nltk Toolkit.", "Untuk Wordnet, kami menggunakan Basictokenizer yang dibina dalam teks Bert to Tokenize, dan cari Synset untuk setiap perkataan menggunakan Nltk."]}, {"en": ["For the Tree-Based system, we applied a 4-Gram language model with Kneserney smoothing using Srilm Toolkit trained on the whole Monolingual corpus.", "For this language model, we built a Trigram language model with Kneser-Ney smoothing using Srilm from the same automatically Segmented corpus."], "ms": ["Untuk sistem Berasaskan Pokok, kami menggunakan model bahasa 4-Gram dengan smoothing Kneserney menggunakan Srilm Toolkit yang dilatih pada keseluruhan korpus Monolingual.", "Untuk model bahasa ini, kami membina model bahasa Trigram dengan smoothing Kneser-Ney menggunakan Srilm dari korpus Segmen yang sama secara automatik."]}, {"en": ["Semantic Parsing is the problem of mapping natural language strings into meaning representations.", "Semantic Parsing is the task of mapping a natural language (NL) sentence into a completely formal meaning representation (Mr) or logical form."], "ms": ["Penghuraian Semantik adalah masalah pemetaan rentetan bahasa semula jadi ke dalam perwakilan makna.", "Penghuraian Semantik adalah tugas pemetaan ayat bahasa semula jadi (NL) ke dalam perwakilan makna formal sepenuhnya (Mr) atau bentuk logik."]}, {"en": ["Furthermore, we train a 5-Gram language model using the Sri language Toolkit.", "The language models are 4-Grams with modified Kneser-Ney smoothing which have been trained with the Srilm Toolkit."], "ms": ["Tambahan pula, kami melatih model bahasa 5-Gram menggunakan Toolkit bahasa Sri.", "Model bahasa adalah 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang telah dilatih dengan Srilm Toolkit."]}, {"en": ["Barzilay and Mckeown extract paraphrases from a Monolingual parallel corpus, containing multiple translations of the same source.", "Barzilay and Mckeown extracted both Single-And Multiple-Word paraphrases from a Sentence-Aligned corpus for use in Multi-Document summarization."], "ms": ["Barzilay dan Mckeown mengekstrak parafrasa dari korpus selari Monolingual, yang mengandungi pelbagai terjemahan sumber yang sama.", "Barzilay dan Mckeown mengekstrak kedua-dua frasa Single-And Multiple-Word dari korpus Sentence-Aligned untuk digunakan dalam ringkasan Multi-Document."]}, {"en": ["Lei et al employ three-way Tensors to obtain a Low-Dimensional input representation Optimized for Parsing performance.", "Lei et al also use Low-Rank Tensor learning in the context of dependency Parsing, where like in our case Dependencies are represented by Conjunctive feature spaces."], "ms": ["Lei et al menggunakan Tensor tiga hala untuk mendapatkan perwakilan input Rendah Dimensi Optimized untuk prestasi Parsing.", "Lei et al juga menggunakan pembelajaran Tensor Rendah dalam konteks Penghuraian dependensi, di mana seperti dalam kes kami Dependensi diwakili oleh ruang ciri Konjungtif."]}, {"en": ["We evaluated translation quality based on the Caseinsensitive automatic evaluation score Bleu-4.", "In addition to these two key indicators, we evaluated the translation quality using an automatic measure, namely BLEU score."], "ms": ["Kami menilai kualiti terjemahan berdasarkan skor penilaian automatik Caseinsensitive Bleu-4.", "Selain dua indikator utama ini, kami menilai kualiti terjemahan menggunakan ukuran automatik, iaitu skor BLEU."]}, {"en": ["Ccgs are a Linguistically-Motivated formalism for modeling a wide range of language phenomena.", "Ccg is a linguistically motivated Categorial formalism for modeling a wide range of language phenomena."], "ms": ["Ccgs adalah formalisme yang bermotivasi linguistik untuk memodelkan pelbagai fenomena bahasa.", "Ccg adalah formalisme Categorial yang bermotivasi linguistik untuk memodelkan pelbagai fenomena bahasa."]}, {"en": ["Sentence compression is the task of producing a shorter form of a single given sentence, so that the new form is grammatical and retains the most important information of the original one (Cite-P-15-3-1).", "Sentence compression is the task of compressing long, Verbose sentences into short, concise ones."], "ms": ["Pemampatan ayat adalah tugas menghasilkan bentuk yang lebih pendek dari satu ayat yang diberikan, supaya bentuk baru adalah tatabahasa dan mengekalkan maklumat yang paling penting dari yang asal (Cite-P-15-3-1).", "Pemampatan ayat adalah tugas memampatkan ayat panjang, ayat Verbose menjadi pendek, ringkas."]}, {"en": ["We utilize minimum error rate training to optimize feature weights of the Paraphrasing model according to Ndcg.", "To optimize the system towards a maximal BLEU or Nist score, we use minimum error rate training as described in."], "ms": ["Kami menggunakan latihan kadar ralat minimum untuk mengoptimumkan berat ciri model Paraphrasing mengikut Ndcg.", "Untuk mengoptimumkan sistem ke arah skor BLEU atau Nist maksimum, kami menggunakan latihan kadar ralat minimum seperti yang dijelaskan dalam."]}, {"en": ["We extract translation rules from a Hypergraph for the Hierarchical Phrase-Based system.", "For the Hierarchical Phrase-Based model we used the default Moses rule extraction settings, which are taken from Chiang."], "ms": ["Kami mengekstrak peraturan terjemahan dari Hypergraph untuk sistem Berasaskan Frasa Hierarki.", "Untuk model Hierarki Berasaskan Frasa, kami menggunakan tetapan pengekstrakan peraturan Musa lalai, yang diambil dari Chiang."]}, {"en": ["The parameter weights are Optimized with minimum error rate training.", "The Log-Linear feature weights are tuned with minimum error rate training on BLEU."], "ms": ["Berat parameter dioptimumkan dengan latihan kadar ralat minimum.", "Berat ciri Log-Linear ditala dengan latihan kadar ralat minimum pada BLEU."]}, {"en": ["Wikipedia is a large, Multilingual, highly structured, Multi-Domain encyclopedia, providing an increasingly large wealth of knowledge.", "Wikipedia is a Massively Multilingual resource that currently hosts 295 languages and contains naturally Annotated Markups 2 and rich informational structures through Crowdsourcing for 35 million articles in 3 billion words."], "ms": ["Wikipedia adalah ensiklopedia Multi-Domain yang besar, berbilang bahasa, sangat berstruktur, yang menyediakan kekayaan pengetahuan yang semakin besar.", "Wikipedia adalah sumber Multilingual Massively yang kini menjadi tuan rumah 295 bahasa dan mengandungi Markup Annotated 2 secara semula jadi dan struktur maklumat yang kaya melalui Crowdsourcing untuk 35 juta artikel dalam 3 bilion perkataan."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit.", "We used the Srilm Toolkit to build Unpruned 5-Gram models using interpolated modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit.", "Kami menggunakan Srilm Toolkit untuk membina model 5-Gram Unpruned menggunakan smoothing Kneser-Ney yang diubahsuai secara interpolated."]}, {"en": ["Mikolov et al further proposed continuous Bagof-Words and Skip-Gram models, which use a simple Single-Layer architecture based on inner product between two word vectors.", "In the work of Mikolov et al, they introduced two new architectures for estimating continuous representations of words using Log-Linear models, called continuous Bag-Of-Word and continuous Skip-Gram."], "ms": ["Mikolov et al further proposed continuous Bagof-Words and Skip-Gram models, which use a simple Single-Layer architecture based on inner product between two word vectors.", "Dalam karya Mikolov et al, mereka memperkenalkan dua seni bina baru untuk menganggarkan perwakilan perkataan yang berterusan menggunakan model Log-Linear, yang dipanggil Bag-Of-Word yang berterusan dan Skip-Gram yang berterusan."]}, {"en": ["Each translation model is tuned using Mert to maximize BLEU.", "The Log-Linear feature weights are tuned with minimum error rate training on BLEU."], "ms": ["Setiap model terjemahan ditala menggunakan Mert untuk memaksimumkan BLEU.", "Berat ciri Log-Linear ditala dengan latihan kadar ralat minimum pada BLEU."]}, {"en": ["We present the text to the Encoder as a sequence of Word2Vec word Embeddings from a Word2Vec model trained on the Hrwac corpus.", "In this run, we use a sentence vector derived from word Embeddings obtained from Word2Vec."], "ms": ["Kami membentangkan teks kepada Encoder sebagai urutan Embedding perkataan Word2Vec dari model Word2Vec yang dilatih pada korpus Hrwac.", "Dalam larian ini, kami menggunakan vektor ayat yang berasal dari perkataan Embeddings yang diperoleh dari Word2Vec."]}, {"en": ["In our work, we use latent Dirichlet allocation to identify the Sub-Topics in the given body of texts.", "To measure the importance of the generated questions, we use Lda to identify the important Sub-Topics from the given body of texts."], "ms": ["Dalam kerja kami, kami menggunakan peruntukan Dirichlet laten untuk mengenal pasti Sub-Topik dalam badan teks yang diberikan.", "Untuk mengukur kepentingan soalan yang dihasilkan, kami menggunakan Lda untuk mengenal pasti Sub-Topik penting dari badan teks yang diberikan."]}, {"en": ["Plda is an extension of Lda which is an Unsupervised machine learning method that models topics of a document collection.", "Lda is a topic model that generates topics based on word frequency from a set of documents."], "ms": ["Plda adalah lanjutan Lda yang merupakan kaedah pembelajaran mesin yang tidak diawasi yang memodelkan topik koleksi dokumen.", "Lda adalah model topik yang menghasilkan topik berdasarkan frekuensi perkataan dari satu set dokumen."]}, {"en": ["In our implementation, we train a Tri-Gram language model on each phone set using the Srilm Toolkit.", "For the fluency and Grammaticality features, we train 4-Gram LMS using the development Dataset with the Sri Toolkit."], "ms": ["Dalam pelaksanaan kami, kami melatih model bahasa Tri-Gram pada setiap set telefon menggunakan Srilm Toolkit.", "Untuk kefasihan dan ciri Grammaticality, kami melatih LMS 4-Gram menggunakan Dataset pembangunan dengan Sri Toolkit."]}, {"en": ["We Initialize these word Embeddings with glove vectors.", "We use the glove vectors of 300 dimension to represent the input words."], "ms": ["Kami Memulakan perkataan Embeddings ini dengan vektor sarung tangan.", "Kami menggunakan vektor sarung tangan 300 dimensi untuk mewakili perkataan input."]}, {"en": ["Davidov et al describe a technique that transforms Hashtags and Smileys in Tweets into sentiments.", "Davidov et al utilize Hashtags and Smileys to build a Largescale Annotated Tweet Dataset automatically."], "ms": ["Davidov et al menggambarkan teknik yang mengubah Hashtags dan Smileys dalam Tweets menjadi sentimen.", "Davidov et al menggunakan Hashtags dan Smileys untuk membina Dataset Tweet Beranotasi Besar secara automatik."]}, {"en": ["Negation is a grammatical category which comprises various kinds of devices to reverse the truth value of a proposition (Cite-P-18-3-8).", "Negation is a linguistic phenomenon present in all languages (Cite-P-12-3-6, Cite-P-12-1-5)."], "ms": ["Negasi adalah kategori tatabahasa yang terdiri daripada pelbagai jenis peranti untuk membalikkan nilai kebenaran cadangan (Cite-P-18-3-8).", "Negasi adalah fenomena linguistik yang terdapat dalam semua bahasa (Cite-P-12-3-6, Cite-P-12-1-5)."]}, {"en": ["The word Embeddings are Pre-Trained by Skip-Gram.", "The Embeddings were trained over the English Wikipedia using Word2Vec."], "ms": ["Perkataan Embeddings adalah Pra-Trained oleh Skip-Gram.", "Embeddings dilatih melalui Wikipedia Bahasa Inggeris menggunakan Word2Vec."]}, {"en": ["The log linear weights for the baseline systems are Optimized using Mert provided in the Moses Toolkit.", "The feature weights are tuned to optimize BLEU using the minimum error rate training algorithm."], "ms": ["Berat linier log bagi sistem garis dasar dioptimumkan menggunakan Mert yang disediakan dalam Moses Toolkit.", "Berat ciri ditala untuk mengoptimumkan BLEU menggunakan algoritma latihan kadar ralat minimum."]}, {"en": ["Shallow semantic representations, bearing a more compact information, could prevent the Sparseness of deep structural approaches.", "Shallow semantic representations can prevent the Sparseness of deep structural approaches and the weakness of Cosine similarity based models."], "ms": ["Perwakilan semantik yang lembut, yang mengandungi maklumat yang lebih padat, dapat mencegah Keparahan pendekatan struktur yang mendalam.", "Perwakilan semantik yang lembut boleh menghalang Keparahan pendekatan struktur yang mendalam dan kelemahan model berasaskan persamaan Cosine."]}, {"en": ["We trained one logistic regression Classifier for each emotion class using the Liblinear package.", "We used the Annotation and features available for the training set, to train the attribute detectors using a linear SVM Classifier."], "ms": ["Kami melatih satu Classifier regresi logistik untuk setiap kelas emosi menggunakan pakej Liblinear.", "Kami menggunakan Annotasi dan ciri yang tersedia untuk set latihan, untuk melatih pengesan atribut menggunakan Classifier SVM linear."]}, {"en": ["The language model was constructed using the Srilm Toolkit with interpolated Kneser-Ney discounting.", "The Srilm language Modelling Toolkit was used with interpolated Kneser-Ney discounting."], "ms": ["Model bahasa dibina menggunakan Srilm Toolkit dengan diskaun Kneser-Ney yang saling berkaitan.", "Alat Pemodelan bahasa Srilm digunakan dengan diskaun Kneser-Ney yang saling berkaitan."]}, {"en": ["The feature weights for each system were tuned on development SETS using the Moses implementation of minimum error rate training.", "Parameter tuning was carried out using both K-Best Mira and minimum error rate training on a Held-Out development set."], "ms": ["Berat ciri bagi setiap sistem ditala pada pembangunan SETS menggunakan pelaksanaan Musa latihan kadar ralat minimum.", "Penalaan parameter dijalankan menggunakan kedua-dua K-Best Mira dan latihan kadar ralat minimum pada set pembangunan Held-Out."]}, {"en": ["The translation quality is evaluated by Case-Insensitive Bleu-4.", "Translation quality is measured in Truecase with BLEU on the Mt08 test sets."], "ms": ["Kualiti terjemahan dinilai oleh Case-Insensitive Bleu-4.", "Kualiti terjemahan diukur dalam Truecase dengan BLEU pada set ujian Mt08."]}, {"en": ["In particular, we show that there are two distinct ways of representing the Parse forest.", "We have shown that there are two distinct ways of representing the Parses of a tag."], "ms": ["Khususnya, kami menunjukkan bahawa terdapat dua cara yang berbeza untuk mewakili hutan Parse.", "Kami telah menunjukkan bahawa terdapat dua cara yang berbeza untuk mewakili Parses tag."]}, {"en": ["Coreference resolution is the task of automatically grouping references to the same Real-World entity in a document into a set.", "Coreference resolution is the problem of identifying which noun phrases (NPS, or mentions) refer to the same Real-World entity in a text or dialogue."], "ms": ["Resolusi spatial adalah tugas untuk mengumpulkan rujukan secara automatik ke entiti Dunia Nyata yang sama dalam dokumen ke dalam satu set.", "Resolusi spatial adalah masalah mengenal pasti frasa kata nama (NPS, atau sebutan) yang merujuk kepada entiti Dunia Nyata yang sama dalam teks atau dialog."]}, {"en": ["We use state-of-the-art word Embedding methods, namely continuous bag of words and global vectors.", "We use word vectors produced by the Cbow Approach-Continuous Bagof-Words."], "ms": ["Kami menggunakan kaedah Embedding perkataan canggih, iaitu beg kata berterusan dan vektor global.", "Kami menggunakan vektor perkataan yang dihasilkan oleh Pendekatan Cbow-Continuous Bagof-Words."]}, {"en": ["A 4-Grams language model is trained by the Srilm Toolkit.", "Our 5-Gram language model was trained by Srilm Toolkit."], "ms": ["Model bahasa 4-Gram dilatih oleh Srilm Toolkit.", "Model bahasa 5-Gram kami dilatih oleh Srilm Toolkit."]}, {"en": ["Convolutional neural networks have obtained good results in text classification, which usually consist of Convolutional and pooling layers.", "Convolutional neural networks are useful in many Nlp tasks, such as language modeling, semantic role labeling and semantic Parsing."], "ms": ["Rangkaian saraf konvolutional telah memperoleh hasil yang baik dalam pengelasan teks, yang biasanya terdiri daripada lapisan konvolutional dan penyatuan.", "Rangkaian saraf konvolutional berguna dalam banyak tugas Nlp, seperti pemodelan bahasa, pelabelan peranan semantik dan penguraian semantik."]}, {"en": ["In this run, we use a sentence vector derived from word Embeddings obtained from Word2Vec.", "Next we consider the Context-Predicting vectors available as part of the Word2Vec 6 project."], "ms": ["Dalam larian ini, kami menggunakan vektor ayat yang berasal dari perkataan Embeddings yang diperoleh dari Word2Vec.", "Seterusnya kita mempertimbangkan vektor Ramalan Konteks yang tersedia sebagai sebahagian daripada projek Word2Vec 6."]}, {"en": ["A pun is a form of Wordplay in which a word suggests two or more meanings by exploiting Polysemy, Homonymy, or Phonological similarity to another word, for an intended humorous or Rhetorical effect (Cite-P-15-3-1).", "A pun is a form of Wordplay, which is often Profiled by exploiting Polysemy of a word or by replacing a Phonetically similar sounding word for an intended humorous effect."], "ms": ["A pun adalah bentuk Wordplay di mana perkataan mencadangkan dua atau lebih makna dengan mengeksploitasi Polysemy, Homonymy, atau persamaan Phonologi dengan perkataan lain, untuk kesan humor atau Rhetorical yang dimaksudkan (Cite-P-15-3-1).", "A pun adalah satu bentuk Wordplay, yang sering Diprofilkan dengan mengeksploitasi Polysemy perkataan atau dengan menggantikan perkataan yang serupa Phonetically untuk kesan lucu yang dimaksudkan."]}, {"en": ["Semantic Parsing is the problem of translating human language into computer language, and therefore is at the heart of natural language understanding.", "Semantic Parsing is the task of mapping natural language utterances to machine interpretable meaning representations."], "ms": ["Penghuraian Semantik adalah masalah menterjemahkan bahasa manusia ke dalam bahasa komputer, dan oleh itu adalah di tengah-tengah pemahaman bahasa semula jadi.", "Penghuraian Semantik adalah tugas pemetaan ucapan bahasa semula jadi kepada perwakilan makna yang boleh ditafsirkan mesin."]}, {"en": ["We implemented linear models with the Scikit learn package.", "We use the Scikit-Learn Toolkit as our underlying implementation."], "ms": ["Kami melaksanakan model linear dengan pakej pembelajaran Scikit.", "Kami menggunakan Scikit-Learn Toolkit sebagai pelaksanaan asas kami."]}, {"en": ["Automatic alignment can be performed using different Algorithms such as the em algorithm or using an Hmm Aligner.", "Automatic alignment can be performed using different Algorithms such as em or Hmm-Based alignment."], "ms": ["Jajaran automatik boleh dilakukan menggunakan Algoritma yang berbeza seperti algoritma em atau menggunakan Hmm Aligner.", "Jajaran automatik boleh dilakukan menggunakan Algoritma yang berbeza seperti em atau Jajaran berasaskan Hmm."]}, {"en": ["Faruqui et al apply Post-Processing steps to existing word Embeddings in order to bring them more in accordance with semantic Lexicons such as Ppdb and Framenet.", "Faruqui et al proposed a related approach that performs a Post-Processing of word Embeddings on the basis of lexical relations from the same resources."], "ms": ["Faruqui et al menerapkan langkah-langkah pasca pemprosesan untuk Embeddings perkataan yang sedia ada untuk membawa mereka lebih sesuai dengan Leksikon semantik seperti Ppdb dan Framenet.", "Faruqui et al mencadangkan pendekatan yang berkaitan yang melakukan Post-Processing perkataan Embeddings berdasarkan hubungan leksikal dari sumber yang sama."]}, {"en": ["We make use of the recently published word Embeddings trained on Google news.", "We are using word Embeddings trained on Google news corpus for our experiments."], "ms": ["Kami menggunakan perkataan Embeddings yang baru diterbitkan yang dilatih di berita Google.", "Kami menggunakan perkataan Embeddings yang dilatih pada korpus berita Google untuk eksperimen kami."]}, {"en": ["Within this Subpart of our ensemble model, we used a SVM model from the Scikit-Learn library.", "For training the model, we use the linear kernel SVM implemented in the Scikit-Learn Toolkit."], "ms": ["Dalam Subpart model ensemble kami, kami menggunakan model SVM dari perpustakaan Scikit-Learn.", "Untuk melatih model, kami menggunakan SVM kernel linear yang dilaksanakan dalam Scikit-Learn Toolkit."]}, {"en": ["Similarity is a fundamental concept in theories of knowledge and behavior.", "Similarity is the intrinsic ability of humans and some animals to balance Commonalities and differences when comparing objects that are not identical."], "ms": ["Kesamaan adalah konsep asas dalam teori pengetahuan dan tingkah laku.", "Kesamaan adalah keupayaan intrinsik manusia dan sesetengah haiwan untuk mengimbangi Kesamaan dan perbezaan apabila membandingkan objek yang tidak sama."]}, {"en": ["Morphologically, Arabic is a Non-Concatenative language.", "Arabic is a Morphologically rich language, in which a word carries not only inflections but also Clitics, such as pronouns, conjunctions, and Prepositions."], "ms": ["Secara morfologi, bahasa Arab merupakan bahasa Non-Koncatenatif.", "Bahasa Arab adalah bahasa yang kaya dengan Morfologi, di mana perkataan membawa bukan sahaja perubahan tetapi juga Clitics, seperti kata ganti, simpul, dan Praposisi."]}, {"en": ["Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-3-0) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B).", "Sentiment analysis is the task of identifying the polarity (positive, negative or neutral) of review."], "ms": ["Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-3-0) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B).", "Analisis kepekaan adalah tugas mengenal pasti polariti (positif, negatif atau neutral) kajian semula."]}, {"en": ["Sentiment classification is a well studied problem (Cite-P-13-3-6, Cite-P-13-1-14, Cite-P-13-3-3) and in many domains users explicitly provide ratings for each aspect making automated means unnecessary.", "Sentiment classification is a hot research topic in natural language processing field, and has many applications in both academic and industrial areas (Cite-P-17-1-16, Cite-P-17-1-12, Cite-P-17-3-4, Cite-P-17-3-3)."], "ms": ["Klasifikasi kepekaan adalah masalah yang dikaji dengan baik (Cite-P-13-3-6, Cite-P-13-1-14, Cite-P-13-3-3) dan dalam banyak domain pengguna secara eksplisit memberikan penilaian untuk setiap aspek membuat cara automatik tidak perlu.", "Klasifikasi sentimen adalah topik penyelidikan panas dalam bidang pemprosesan bahasa semula jadi, dan mempunyai banyak aplikasi dalam bidang akademik dan perindustrian (Cite-P-17-1-16, Cite-P-17-1-12, Cite-P-17-3-4, Cite-P-17-3-3)."]}, {"en": ["Text Segmentation can be defined as the automatic identification of boundaries between distinct textual units (segments) in a textual document.", "Text Segmentation is the task of splitting text into segments by placing boundaries within it."], "ms": ["Segmentasi teks boleh ditakrifkan sebagai pengenalan automatik sempadan antara unit teks yang berbeza (segmen) dalam dokumen teks.", "Segmentasi teks adalah tugas membahagikan teks ke segmen dengan meletakkan sempadan di dalamnya."]}, {"en": ["Gao et al do a pioneer work by describing a Transformation-Based converter to transfer a certain word Segmentation result to another Annotation guideline.", "Gao et al described a Transformationbased converter to transfer a certain Annotationstyle word Segmentation result to another style."], "ms": ["Gao et al melakukan kerja perintis dengan menggambarkan penukar Berasaskan Transformasi untuk memindahkan hasil Segmentasi perkataan tertentu ke garis panduan Annotasi lain.", "Gao et al menggambarkan penukar berasaskan Transformasi untuk memindahkan hasil Segmentasi perkataan gaya Annotasi tertentu kepada gaya lain."]}, {"en": ["Importantly, word Embeddings have been effectively used for several Nlp tasks, such as named entity recognition, machine translation and Part-Of-Speech tagging.", "These word representations are used in various natural language processing tasks such as Part-Of-Speech tagging, Chunking, named entity recognition, and semantic role labeling."], "ms": ["Yang penting, perkataan Embeddings telah digunakan dengan berkesan untuk beberapa tugas Nlp, seperti pengiktirafan entiti dinamakan, terjemahan mesin dan penandaan Part-Of-Speech.", "Perwakilan perkataan ini digunakan dalam pelbagai tugas pemprosesan bahasa semula jadi seperti penandaan Part-Of-Speech, Chunking, pengiktirafan entiti yang dinamakan, dan pelabelan peranan semantik."]}, {"en": ["These word Embeddings are learned in advance using a continuous Skip-Gram model, or other continuous word representation learning methods.", "The word vectors are learned using a Skip-Gram model with negative sampling, implemented in the Word2Vec Toolkit."], "ms": ["Embedding perkataan ini dipelajari terlebih dahulu menggunakan model Skip-Gram yang berterusan, atau kaedah pembelajaran perwakilan perkataan yang berterusan.", "Vektor perkataan dipelajari menggunakan model Skip-Gram dengan persampelan negatif, yang dilaksanakan dalam Word2Vec Toolkit."]}, {"en": ["This model shows a significant improvement over the state-of-the-art Hierarchical Phrase-Based system.", "The Hierarchical Phrase-Based model is capable of capturing rich translation knowledge with the synchronous Context-Free grammar."], "ms": ["Model ini menunjukkan peningkatan yang ketara berbanding sistem Berasaskan Frasa Hierarki canggih.", "Model Berasaskan Frasa Hierarki mampu menangkap pengetahuan terjemahan yang kaya dengan tatabahasa Context-Free yang diselaraskan."]}, {"en": ["We trained the statistical Phrase-Based systems using the Moses Toolkit with Mert tuning.", "We use the Moses Smt Toolkit to test the augmented Datasets."], "ms": ["Kami melatih sistem berasaskan frasa statistik menggunakan Musa Toolkit dengan penalaan Mert.", "Kami menggunakan Musa Smt Toolkit untuk menguji Dataset yang ditambah."]}, {"en": ["We train a 5-Gram language model with the Xinhua portion of English Gigaword corpus and the English side of the training set using the Srilm Toolkit.", "We use Srilm to train a 5-Gram language model on the Xinhua portion of the English Gigaword corpus 5th edition with modified Kneser-Ney discounting."], "ms": ["Kami melatih model bahasa 5-Gram dengan bahagian Xinhua Gigaword corpus bahasa Inggeris dan bahagian bahasa Inggeris set latihan menggunakan Srilm Toolkit.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di bahagian Xinhua dari edisi ke-5 Gigaword corpus Inggeris dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Relation extraction is the task of finding semantic relations between two entities from text.", "Relation extraction is a key step towards question answering systems by which vital structured data is acquired from underlying free text resources."], "ms": ["Pengekstrakan hubungan adalah tugas mencari hubungan semantik antara dua entiti dari teks.", "Pengekstrakan hubungan adalah langkah utama ke arah sistem menjawab soalan di mana data berstruktur penting diperoleh dari sumber teks bebas yang mendasari."]}, {"en": ["We used the Moses Toolkit to build an English-Hindi statistical machine translation system.", "We translated each German sentence using the Moses statistical machine translation Toolkit."], "ms": ["Kami menggunakan Musa Toolkit untuk membina sistem terjemahan mesin statistik Inggeris-Hindi.", "Kami menterjemahkan setiap ayat Jerman menggunakan Toolkit terjemahan mesin statistik Moses."]}, {"en": ["Heilman et al continued using language modeling to predict Readability for first and second language texts.", "Heilman et al extended this approach and worked towards retrieving relevant reading materials for language learners in the reap 3 project."], "ms": ["Heilman et al terus menggunakan pemodelan bahasa untuk meramalkan Kebolehbacaan untuk teks bahasa pertama dan kedua.", "Heilman et al melanjutkan pendekatan ini dan berusaha untuk mengambil bahan bacaan yang relevan untuk pelajar bahasa dalam projek reap 3."]}, {"en": ["Word Embedding approaches like Word2Vec or glove are powerful tools for the semantic analysis of natural language.", "Word Embeddings are Low-Dimensional vector representations of words such as Word2Vec that recently gained much attention in various semantic tasks."], "ms": ["Pendekatan Embedding Word seperti Word2Vec atau sarung tangan adalah alat yang kuat untuk analisis semantik bahasa semula jadi.", "Embeddings Word adalah perwakilan vektor rendah dimensi perkataan seperti Word2Vec yang baru-baru ini mendapat banyak perhatian dalam pelbagai tugas semantik."]}, {"en": ["We use the Moses mt framework to build a standard statistical Phrase-Based mt model using our Old-Domain training data.", "For our baseline we use the Moses software to train a phrase based machine translation model."], "ms": ["Kami menggunakan kerangka mt Moses untuk membina model mt berasaskan frasa statistik standard menggunakan data latihan Old-Domain kami.", "Untuk asas kami, kami menggunakan perisian Moses untuk melatih model terjemahan mesin berasaskan frasa."]}, {"en": ["For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided.", "For the language model, we used Sri language modeling Toolkit to train a Trigram model with modified Kneser-Ney smoothing on the 31 , 149 English sentences."], "ms": ["Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan.", "Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Trigram dengan Kneser-Ney yang diubahsuai pada 31, 149 ayat bahasa Inggeris."]}, {"en": ["Additionally, we compile the model using the Adamax Optimizer.", "We use Binary Crossentropy loss and the Adam Optimizer for training the Nil-Detection models."], "ms": ["Kami juga menyusun model menggunakan Adamax Optimizer.", "Kami menggunakan kehilangan Crossentropy Binary dan Adam Optimizer untuk melatih model Nil-Detection."]}, {"en": ["Al-Onaizan and Knight proposed a Spelling-Based model which directly maps English letter sequences into Arabic letter sequences.", "A Spelling-Based model that directly maps English letter sequences into Arabic letters was developed by Al-Onaizan and knight."], "ms": ["Al-Onaizan dan Knight mencadangkan model berasaskan Ejaan yang secara langsung memetakan urutan huruf Inggeris ke dalam urutan huruf Arab.", "Model berasaskan Ejaan yang memetakan secara langsung urutan huruf Inggeris ke dalam huruf Arab telah dibangunkan oleh Al-Onaizan dan kesatria."]}, {"en": ["Our Nmt is based on an Encoderdecoder with attention design, using Bidirectional Lstm layers for Encoding and unidirectional layers for decoding.", "We use the Seq2Seq attention architecture with 2 Lstm layers for both Encoder and Decoder, and 512 hidden nodes in each layer."], "ms": ["Nmt kami adalah berdasarkan Encoderdecoder dengan reka bentuk perhatian, menggunakan lapisan Lstm Bidirectional untuk Pengekodan dan lapisan unidirectional untuk penyahkodan.", "Kami menggunakan seni bina perhatian Seq2Seq dengan lapisan 2 Lstm untuk Encoder dan Decoder, dan 512 nod tersembunyi di setiap lapisan."]}, {"en": ["Twitter is a popular Microblogging service, which, among other things, is used for knowledge sharing among friends and peers.", "Twitter is a rich resource for information about everyday events \u2013 people post their Tweets to Twitter publicly in real-time as they conduct their activities throughout the day, resulting in a significant amount of mundane information about common events."], "ms": ["Twitter adalah perkhidmatan Microblogging yang popular, yang antara lain digunakan untuk perkongsian pengetahuan di kalangan rakan dan rakan sebaya.", "Twitter adalah sumber yang kaya untuk maklumat mengenai peristiwa sehari-hari - orang menghantar Tweet mereka ke Twitter secara terbuka dalam masa nyata kerana mereka menjalankan aktiviti mereka sepanjang hari, menghasilkan sejumlah besar maklumat biasa mengenai peristiwa biasa."]}, {"en": ["Moreover, since event Coreference resolution is a complex task that involves exploring a rich set of linguistic features, Annotating a large corpus with event Coreference information for a new language or domain of interest requires a substantial amount of manual effort.", "Event Coreference resolution is the task of determining which event mentions in a text refer to the same Real-World event."], "ms": ["Selain itu, kerana resolusi Coreference acara adalah tugas yang kompleks yang melibatkan meneroka satu set ciri linguistik yang kaya, Menganotasi korpus besar dengan maklumat Coreference acara untuk bahasa atau domain minat baru memerlukan sejumlah besar usaha manual.", "Resolusi Resolusi Peristiwa ialah tugas menentukan sebutan peristiwa mana dalam teks merujuk kepada peristiwa Dunia Nyata yang sama."]}, {"en": ["For the language model, we used Sri language modeling Toolkit to train a Trigram model with modified Kneser-Ney smoothing on the 31 , 149 English sentences.", "We use Sri language modeling Toolkit to train a 5-Gram language model on the English sentences of Fbis corpus."], "ms": ["Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Trigram dengan Kneser-Ney yang diubahsuai pada 31, 149 ayat bahasa Inggeris.", "Kami menggunakan Sri bahasa pemodelan Toolkit untuk melatih model bahasa 5-Gram pada ayat bahasa Inggeris Fbis corpus."]}, {"en": ["The Srilm Toolkit was used to build the 5-Gram language model.", "Srilm Toolkit is used to build these language models."], "ms": ["Srilm Toolkit digunakan untuk membina model bahasa 5-Gram.", "Srilm Toolkit digunakan untuk membina model bahasa ini."]}, {"en": ["Finally, we conduct paired Bootstrap sampling to test the significance in BLEU scores differences.", "We test the statistical significance of differences between various mt systems using the Bootstrap Resampling method."], "ms": ["Akhirnya, kami menjalankan pensampelan Bootstrap berpasangan untuk menguji kepentingan perbezaan skor BLEU.", "Kami menguji kepentingan statistik perbezaan antara pelbagai sistem mt menggunakan kaedah Bootstrap Resampling."]}, {"en": ["The most commonly used word Embeddings were Word2Vec and glove.", "The Word2Vec is among the most widely used word Embedding models today."], "ms": ["Perkataan Embeddings yang paling biasa digunakan ialah Word2Vec dan sarung tangan.", "Word2Vec adalah antara model Embedding perkataan yang paling banyak digunakan hari ini."]}, {"en": ["We use Stanford Corenlp for Pos tagging and Lemmatization.", "We use the sentiment pipeline of Stanford Corenlp to obtain this feature."], "ms": ["Kami menggunakan Stanford Corenlp untuk penandaan Pos dan Lemmatization.", "Kami menggunakan saluran sentimen Stanford Corenlp untuk mendapatkan ciri ini."]}, {"en": ["We obtain word clusters from Word2Vec K-Means word clustering tool.", "An interesting implementation to get the word Embeddings is the Word2Vec model which is used here."], "ms": ["Kami mendapat kluster perkataan dari alat k-Means perkataan Word2Vec K-Means.", "Pelaksanaan yang menarik untuk mendapatkan perkataan Embeddings adalah model Word2Vec yang digunakan di sini."]}, {"en": ["The language model was a 5-Gram model with Kneser-Ney smoothing trained on the Monolingual news corpus with Irstlm.", "The target language model is built on the target side of the parallel data with Kneser-Ney smoothing using the Irstlm tool."], "ms": ["Model bahasa adalah model 5-Gram dengan smoothing Kneser-Ney dilatih pada korpus berita Monolingual dengan Irstlm.", "Model bahasa sasaran dibina di sisi sasaran data selari dengan smoothing Kneser-Ney menggunakan alat Irstlm."]}, {"en": ["A 5-Gram language model with Kneser-Ney smoothing is trained using S-Rilm on the target language.", "We use a Fourgram language model with modified Kneser-Ney smoothing as implemented in the Srilm Toolkit."], "ms": ["Model bahasa 5-Gram dengan smoothing Kneser-Ney dilatih menggunakan S-Rilm pada bahasa sasaran.", "Kami menggunakan model bahasa Fourgram dengan smoothing Kneser-Ney yang diubahsuai seperti yang dilaksanakan dalam Srilm Toolkit."]}, {"en": ["Our word Embeddings is Initialized with 100-Dimensional glove word Embeddings.", "For the classification task, we use Pre-Trained glove Embedding vectors as lexical features."], "ms": ["Perkataan Embeddings kami Dimulakan dengan perkataan sarung tangan 100-Dimensional Embeddings.", "Untuk tugas pengelasan, kami menggunakan vektor Embedding sarung tangan Pra-Latih sebagai ciri leksikal."]}, {"en": ["Our Phrase-Based mt system is trained by Moses with standard parameters settings.", "Our baseline system was a vanilla Phrase-Based system built with Moses using default settings."], "ms": ["Sistem mt Berasaskan Frasa kami dilatih oleh Musa dengan tetapan parameter standard.", "Sistem asas kami adalah sistem berasaskan frasa vanila yang dibina dengan Musa menggunakan tetapan lalai."]}, {"en": ["Central to our approach is a new Type-Based sampling algorithm for Hierarchical Pitman-Yor models in which we track fractional table counts.", "Central to our approach is the intuition that word meaning is represented as a probability distribution over a set of latent senses and is modulated by context."], "ms": ["Pusat pendekatan kami adalah algoritma persampelan Berasaskan Jenis baru untuk model Pitman-Yor Hierarki di mana kami mengesan kiraan jadual pecahan.", "Pusat pendekatan kami adalah intuisi bahawa makna perkataan diwakili sebagai pengagihan kebarangkalian atas satu set deria laten dan dimodulasi mengikut konteks."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of determining the correct meaning or sense of a word in context.", "Word sense Disambiguation (Wsd) is formally defined as the task of Computationally identifying senses of a word in a context."], "ms": ["Kemusykilan kata Kemusykilan perkataan (Wsd) ialah tugas menentukan makna atau rasa yang betul sesuatu perkataan dalam konteks.", "Disambiguasi erti kata (Wsd) secara rasmi ditakrifkan sebagai tugas Mengenal pasti deria perkataan secara komputasi dalam konteks."]}, {"en": ["Recent efforts in statistical machine translation have seen promising improvements in output quality, especially the Phrase-Based models and Syntax-Based models.", "Recent years have witnessed the success of various statistical machine translation models using different levels of linguistic Knowledgephrase, Hiero, and Syntax-Based."], "ms": ["Usaha terkini dalam terjemahan mesin statistik telah menyaksikan peningkatan yang menjanjikan dalam kualiti output, terutamanya model Berasaskan Frasa dan model Berasaskan Sintaks.", "Tahun-tahun kebelakangan ini telah menyaksikan kejayaan pelbagai model terjemahan mesin statistik menggunakan tahap linguistik Knowledgephrase, Hiero, dan Syntax-Based yang berbeza."]}, {"en": ["Our neural machine translation systems are trained using a modified version of Opennmt-Py.", "We use an Nmt-Small model from the Opennmt framework for the neural translation."], "ms": ["Sistem terjemahan mesin saraf kami dilatih menggunakan versi Opennmt-Py yang diubahsuai.", "Kami menggunakan model Nmt-Small dari kerangka Opennmt untuk terjemahan neural."]}, {"en": ["For all classifiers, we used the Scikit-Learn implementation.", "We implement classification models using Keras and Scikit-Learn."], "ms": ["Untuk semua pengelas, kami menggunakan pelaksanaan Scikit-Learn.", "Kami melaksanakan model klasifikasi menggunakan Keras dan Scikit-Learn."]}, {"en": ["Kalchbrenner et al show that a CNN for modeling sentences can achieve competitive results in polarity classification.", "Kalchbrenner et al proposed a dynamic Convolution neural network with multiple layers of Convolution and K-Max pooling to model a sentence."], "ms": ["Kalchbrenner et al menunjukkan bahawa CNN untuk pemodelan ayat dapat mencapai hasil yang kompetitif dalam klasifikasi polarity.", "Kalchbrenner et al mencadangkan rangkaian neural Convolution dinamik dengan pelbagai lapisan Convolution dan K-Max pooling untuk memodelkan ayat."]}, {"en": ["Weights are Optimized by the Gradient-Based Adagrad algorithm with a Mini-Batch.", "For each gradient step, the step size is calculated using Adagrad."], "ms": ["Berat dioptimumkan oleh algoritma Adagrad Berasaskan Gradien dengan Mini-Batch.", "Bagi setiap langkah kecerunan, saiz langkah dikira menggunakan Adagrad."]}, {"en": ["Semantic role labeling (SRL) is the task of identifying the arguments of lexical Predicates in a sentence and labeling them with semantic roles (Cite-P-13-3-3, Cite-P-13-3-11).", "Semantic role labeling (SRL) is the task of labeling the Predicate-Argument structures of sentences with semantic frames and their roles (Cite-P-18-1-2, Cite-P-18-1-19)."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas mengenal pasti hujah-hujah Predikasi leksikal dalam ayat dan melabelkannya dengan peranan semantik (Cite-P-13-3-3, Cite-P-13-3-11).", "Pelabelan peranan semantik (SRL) adalah tugas melabel struktur Predicate-Argument ayat dengan bingkai semantik dan peranannya (Cite-P-18-1-2, Cite-P-18-1-19)."]}, {"en": ["The decoding weights were Optimized with minimum error rate training.", "The Smt weighting parameters were tuned by Mert using the development data."], "ms": ["Berat penyahkodan dioptimumkan dengan latihan kadar ralat minimum.", "Parameter pemberat Smt ditala oleh Mert menggunakan data pembangunan."]}, {"en": ["Named entity recognition (NER) is a fundamental task in text mining and natural language understanding.", "Named entity recognition (NER) is the task of identifying and typing phrases that contain the names of persons, organizations, locations, and so on."], "ms": ["Pengecaman entiti yang dinamakan (NER) adalah tugas asas dalam perlombongan teks dan pemahaman bahasa semula jadi.", "Pengiktirafan entiti yang dinamakan (NER) adalah tugas mengenal pasti dan menaip frasa yang mengandungi nama orang, organisasi, lokasi, dan sebagainya."]}, {"en": ["Inversion Transduction grammar is a synchronous grammar for synchronous Parsing of source and target language sentences.", "The inversion Transduction grammar of Wu is a type of Context-Free grammar for generating two languages Synchronously."], "ms": ["Tatabahasa Transduksi ialah tatabahasa serenjang untuk tatabahasa serenjang Penghuraian ayat bahasa sumber dan sasaran.", "Tatabahasa Transduksi Wu adalah sejenis tatabahasa Bebas Konteks untuk menghasilkan dua bahasa secara Synchronously."]}, {"en": ["We use the glove vectors of 300 dimension to represent the input words.", "We use 300D glove vectors trained on 840B tokens as the word Embedding input to the Lstm."], "ms": ["Kami menggunakan vektor sarung tangan 300 dimensi untuk mewakili perkataan input.", "Kami menggunakan vektor sarung tangan 300D yang dilatih pada token 840B sebagai input Embedding perkataan ke Lstm."]}, {"en": ["Conditional random fields are Undirected graphical models represented as factor graphs.", "Conditional random fields are Undirected graphical models that are conditionally trained."], "ms": ["Medan rawak bersyarat ialah model grafik tidak diarahkan yang diwakili sebagai graf faktor.", "Medan rawak bersyarat adalah model grafik tidak diarahkan yang dilatih secara bersyarat."]}, {"en": ["Relation classification is the task of identifying the semantic relation present between a given pair of entities in a piece of text.", "Relation classification is a crucial ingredient in numerous information extraction systems seeking to mine structured facts from text."], "ms": ["Pengelasan hubungan adalah tugas mengenal pasti hubungan semantik yang terdapat di antara sepasang entiti tertentu dalam sekeping teks.", "Klasifikasi hubungan adalah bahan penting dalam banyak sistem pengekstrakan maklumat yang ingin menambang fakta berstruktur dari teks."]}, {"en": ["We employ the Pretrained word vector, glove, to obtain the fixed word Embedding of each word.", "We use glove word Embeddings, an Unsupervised learning algorithm for obtaining vector representations of words."], "ms": ["Kami menggunakan vektor perkataan Pretrained, sarung tangan, untuk mendapatkan perkataan tetap Embedding setiap perkataan.", "Kami menggunakan perkataan sarung tangan Embeddings, algoritma pembelajaran yang tidak diawasi untuk mendapatkan perwakilan vektor perkataan."]}, {"en": ["Our method of morphological analysis comprises a Morpheme lexicon.", "This study is called morphological analysis."], "ms": ["Kaedah analisis morfologi kami terdiri daripada leksikon Morpheme.", "Kajian ini dipanggil analisis morfologi."]}, {"en": ["We train the parameters of the stages separately using Adagrad with the Perceptron loss function.", "We train our neural model with stochastic gradient descent and use Adagrad to update the parameters."], "ms": ["Kami melatih parameter peringkat secara berasingan menggunakan Adagrad dengan fungsi kehilangan Perceptron.", "Kami melatih model saraf kami dengan keturunan kecerunan stokastik dan menggunakan Adagrad untuk mengemas kini parameter."]}, {"en": ["Transliteration is often defined as phonetic translation (Cite-P-21-3-2).", "Transliteration is the task of converting a word from one writing script to another, usually based on the phonetics of the original word."], "ms": ["Transliterasi sering ditakrifkan sebagai terjemahan fonetik (Cite-P-21-3-2).", "Transliterasi adalah tugas menukar perkataan dari satu skrip penulisan ke yang lain, biasanya berdasarkan fonetik perkataan asal."]}, {"en": ["We use a conditional random field sequence model, which allows for globally optimal training and decoding.", "In our experiments we use a publicly available implementation of conditional random fields."], "ms": ["Kami menggunakan model urutan medan rawak bersyarat, yang membolehkan latihan dan penyahkodan optimum di seluruh dunia.", "Dalam eksperimen kami, kami menggunakan pelaksanaan medan rawak bersyarat yang tersedia secara terbuka."]}, {"en": ["Socher et al used recursive neural networks to model sentences for different tasks, including paraphrase detection and sentence classification.", "Socher et al later introduced the recursive neural network architecture for supervised learning tasks such as syntactic Parsing and sentiment analysis."], "ms": ["Socher et al menggunakan rangkaian neural rekursif untuk memodelkan ayat untuk tugas yang berbeza, termasuk pengesanan parafrasa dan pengelasan ayat.", "Socher et al kemudian memperkenalkan seni bina rangkaian saraf rekursif untuk tugas pembelajaran yang diawasi seperti Parsing sintaksis dan analisis sentimen."]}, {"en": ["Sentiment analysis is a collection of methods and Algorithms used to infer and measure affection expressed by a writer.", "One of the first challenges in sentiment analysis is the vast lexical diversity of subjective language."], "ms": ["Analisis sentimen adalah koleksi kaedah dan Algoritma yang digunakan untuk menyimpulkan dan mengukur kasih sayang yang dinyatakan oleh seorang penulis.", "Salah satu cabaran pertama dalam analisis sentimen adalah kepelbagaian leksikal bahasa subjektif yang luas."]}, {"en": ["For this purpose, we used phrase tables learned by the standard statistical mt Toolkit Moses.", "We used the Moses Toolkit for performing statistical machine translation."], "ms": ["Untuk tujuan ini, kami menggunakan jadual frasa yang dipelajari oleh statistik standard mt Toolkit Moses.", "Kami menggunakan Musa Toolkit untuk melaksanakan terjemahan mesin statistik."]}, {"en": ["Twitter is a popular Microblogging service, which, among other things, is used for knowledge sharing among friends and peers.", "Twitter is a popular Microblogging service which provides real-time information on events happening across the world."], "ms": ["Twitter adalah perkhidmatan Microblogging yang popular, yang antara lain digunakan untuk perkongsian pengetahuan di kalangan rakan dan rakan sebaya.", "Twitter adalah perkhidmatan Microblogging yang popular yang menyediakan maklumat masa nyata mengenai peristiwa yang berlaku di seluruh dunia."]}, {"en": ["Finally, based on recent results in text classification, we also experiment with a neural network approach which uses a Long-Short term memory network.", "We further investigated the usefulness of using Lexicons using a recurrent neural network with Bidirectional long short-term memory."], "ms": ["Akhirnya, berdasarkan keputusan terkini dalam klasifikasi teks, kami juga bereksperimen dengan pendekatan rangkaian saraf yang menggunakan rangkaian memori jangka pendek.", "Kami menyiasat kegunaan menggunakan Lexicons menggunakan rangkaian neural berulang dengan ingatan jangka pendek panjang Bidirectional."]}, {"en": ["The 5-Gram Kneser-Ney smoothed language models were trained by Srilm, with Kenlm used at Runtime.", "The language models are 4-Grams with modified Kneser-Ney smoothing which have been trained with the Srilm Toolkit."], "ms": ["Model bahasa 5-Gram Kneser-Ney yang dilicinkan dilatih oleh Srilm, dengan Kenlm digunakan di Runtime.", "Model bahasa adalah 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang telah dilatih dengan Srilm Toolkit."]}, {"en": ["Collobert et al propose a Multi-Task learning framework with Dnn for various Nlp tasks, including Part-Of-Speech tagging, Chunking, named entity recognition, and semantic role labelling.", "Collobert and Weston and Collobert et al employed a deep learning framework for Multi-Task learning including Part-Of-Speech tagging, Chunking, Namedentity recognition, language Modelling and semantic Role-Labeling."], "ms": ["Collobert et al mencadangkan rangka kerja pembelajaran Multi-Task dengan Dnn untuk pelbagai tugas Nlp, termasuk penandaan Part-Of-Speech, Chunking, pengiktirafan entiti yang dinamakan, dan pelabelan peranan semantik.", "Collobert dan Weston dan Collobert et al menggunakan kerangka pembelajaran mendalam untuk pembelajaran Multi-Task termasuk penandaan Part-Of-Speech, Chunking, pengiktirafan Namedentity, Pemodelan bahasa dan Penyeragaman Peranan semantik."]}, {"en": ["We employ Srilm Toolkit to linearly Interpolate the target side of the training corpus with the WMT English corpus, optimizing towards the mt tuning set.", "We use Srilm to train a 5-Gram language model on the target side of our training corpus with modified Kneser-Ney discounting."], "ms": ["Kami menggunakan Srilm Toolkit untuk secara linear Interpolasi sisi sasaran korpus latihan dengan korpus WMT English, mengoptimumkan ke arah set tuning mt.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di sisi sasaran korpus latihan kami dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Negation is a complex phenomenon present in all human languages, allowing for the uniquely human capacities of denial, contradiction, misrepresentation, lying, and irony (Cite-P-18-3-7).", "Negation is a linguistic phenomenon present in all languages (Cite-P-12-3-6, Cite-P-12-1-5)."], "ms": ["Negasi adalah fenomena kompleks yang terdapat dalam semua bahasa manusia, yang membolehkan keupayaan manusia yang unik untuk menafikan, bercanggah, salah nyata, berbohong, dan ironi (Cite-P-18-3-7).", "Negasi adalah fenomena linguistik yang terdapat dalam semua bahasa (Cite-P-12-3-6, Cite-P-12-1-5)."]}, {"en": ["Xing et al presented topic aware response generation by incorporating topic words obtained from a Pre-Trained Lda model.", "Moreover, Xing et al incorporated topic words into Seq2Seq Frameworks, where topic words are obtained from a Pre-Trained L-Da model."], "ms": ["Xing et al menyampaikan penjanaan respons sedar topik dengan memasukkan kata-kata topik yang diperolehi daripada model Lda Pra-Trained.", "Selain itu, Xing et al memasukkan kata-kata topik ke dalam Rangka Kerja Seq2Seq, di mana kata-kata topik diperoleh daripada model L-Da Pra-Trained."]}, {"en": ["This system is a basic Encoderdecoder with an attention mechanism.", "It is a Sequence-Tosequence neural system with attention."], "ms": ["Sistem ini adalah Encoderdecoder asas dengan mekanisme perhatian.", "Ia merupakan sistem saraf jujukan-jujukan dengan perhatian."]}, {"en": ["Table 1 shows the performance for the test data measured by case sensitive BLEU.", "Table 4 shows the BLEU scores of the output descriptions."], "ms": ["Jadual 1 menunjukkan prestasi untuk data ujian yang diukur oleh BLEU sensitif kes.", "Jadual 4 menunjukkan skor BLEU bagi keterangan output."]}, {"en": ["Luong and Manning also propose an hybrid Word-Character model to handle the rare word problem.", "Luong and Manning proposed a hybrid scheme that Consults Character-Level information whenever the model encounters an Oov word."], "ms": ["Luong dan Manning juga mencadangkan model Word-Character hibrid untuk menangani masalah perkataan yang jarang berlaku.", "Luong dan Manning mencadangkan skim hibrid yang menghasilkan maklumat Aras-Kadar apabila model itu menemui perkataan Oov."]}, {"en": ["In all submitted systems, we use the Phrase-Based Moses Decoder.", "Our baseline system is an standard Phrase-Based Smt system built with Moses."], "ms": ["Dalam semua sistem yang dikemukakan, kami menggunakan Decoder Musa Berasaskan Frasa.", "Sistem asas kami adalah sistem Smt Berasaskan Frasa standard yang dibina dengan Musa."]}, {"en": ["Language models used modified Kneserney smoothing estimated using Kenlm.", "Language modeling is trained using Kenlm using 5-Grams, with modified Kneser-Ney smoothing."], "ms": ["Model bahasa menggunakan Kneserney smoothing diubahsuai dianggarkan menggunakan Kenlm.", "Pemodelan bahasa dilatih menggunakan Kenlm menggunakan 5-Gram, dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Neural machine translation using sequence to sequence architectures has become the dominant approach to automatic machine translation.", "Neural machine translation has recently become the dominant approach to machine translation."], "ms": ["Terjemahan mesin saraf menggunakan jujukan kepada seni bina jujukan telah menjadi pendekatan dominan untuk terjemahan mesin automatik.", "Terjemahan mesin saraf baru-baru ini menjadi pendekatan dominan untuk terjemahan mesin."]}, {"en": ["We used Srilm to build a 4-Gram language model with interpolated Kneser-Ney discounting.", "We use a Fourgram language model with modified Kneser-Ney smoothing as implemented in the Srilm Toolkit."], "ms": ["Kami menggunakan Srilm untuk membina model bahasa 4-Gram dengan diskaun Kneser-Ney yang saling berkaitan.", "Kami menggunakan model bahasa Fourgram dengan smoothing Kneser-Ney yang diubahsuai seperti yang dilaksanakan dalam Srilm Toolkit."]}, {"en": ["Relation extraction is the task of detecting and characterizing semantic relations between entities from free text.", "Relation extraction is the task of recognizing and extracting relations between entities or concepts in texts."], "ms": ["Pengekstrakan hubungan adalah tugas mengesan dan mencirikan hubungan semantik antara entiti dari teks percuma.", "Pengekstrakan hubungan adalah tugas mengenali dan mengekstrak hubungan antara entiti atau konsep dalam teks."]}, {"en": ["Wordnet is a general English thesaurus which Additionally covers biological terms.", "Unfortunately, Wordnet is a fine-grained resource, which Encodes possibly subtle sense Distictions."], "ms": ["Wordnet adalah a thesaurus bahasa Inggeris umum yang juga merangkumi istilah biologi.", "Malangnya, Wordnet adalah sumber halus, yang Mengkodkan Distictions rasa halus."]}, {"en": ["For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided.", "We trained Kneser-Ney discounted 5-Gram language models on each available corpus using the Srilm Toolkit."], "ms": ["Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan.", "Kami melatih model bahasa 5-Gram Kneser-Ney didiskaun pada setiap korpus yang tersedia menggunakan Srilm Toolkit."]}, {"en": ["We use the Word2Vec framework in the Gensim implementation to generate the Embedding spaces.", "The model parameters of word Embedding are Initialized using Word2Vec."], "ms": ["Kami menggunakan kerangka Word2Vec dalam pelaksanaan Gensim untuk menghasilkan ruang Embedding.", "Parameter model Embedding perkataan Diawalkan menggunakan Word2Vec."]}, {"en": ["Previous work consistently reported that the Wordbased translation models yielded better performance than the traditional methods for question Retrieval.", "Translation model has been extensively employed in question search and has been shown to outperform the traditional Ir methods significantly."], "ms": ["Kerja sebelumnya secara konsisten melaporkan bahawa model terjemahan berasaskan perkataan menghasilkan prestasi yang lebih baik daripada kaedah tradisional untuk pengambilan soalan.", "Model terjemahan telah digunakan secara meluas dalam pencarian soalan dan telah ditunjukkan untuk mengatasi kaedah Ir tradisional dengan ketara."]}, {"en": ["Tanev and Magnini proposed a Weaklysupervised method that requires as training data a list of terms without context for each category under consideration.", "Tanev and Magnini proposed a weakly supervised method that requires as training data a list of terms without context for each class under consideration."], "ms": ["Tanev dan Magnini mencadangkan kaedah Weaklysupervised yang memerlukan sebagai data latihan senarai istilah tanpa konteks untuk setiap kategori yang dipertimbangkan.", "Tanev dan Magnini mencadangkan kaedah yang diselia lemah yang memerlukan sebagai data latihan senarai istilah tanpa konteks untuk setiap kelas yang dipertimbangkan."]}, {"en": ["We created 5-Gram language models for every domain using Srilm with improved Kneserney smoothing on the target side of the training parallel Corpora.", "We trained a Trigram language model on the Chinese side, with the Srilm Toolkit, using the modified Kneser-Ney smoothing option."], "ms": ["Kami mencipta model bahasa 5-Gram untuk setiap domain menggunakan Srilm dengan lancar Kneserney yang lebih baik di sisi sasaran latihan selari Corpora.", "Kami melatih model bahasa Trigram di sisi Cina, dengan Srilm Toolkit, menggunakan pilihan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["It has been shown that word Embeddings are able to capture to certain semantic and syntactic aspects of words.", "It has previously been shown that word Embeddings represent the Contextualised lexical Semantics of words."], "ms": ["Telah ditunjukkan bahawa perkataan Embeddings dapat menangkap aspek semantik dan sintaktik tertentu dari kata-kata.", "Sebelum ini telah ditunjukkan bahawa perkataan Embeddings mewakili Semantik leksikal Kontekstual perkataan."]}, {"en": ["We use 300 dimension Word2Vec word Embeddings for the experiments.", "We use word Embeddings of dimension 100 Pretrained using Word2Vec on the training Dataset."], "ms": ["Kami menggunakan 300 dimensi perkataan Embeddings Word2Vec untuk eksperimen.", "Kami menggunakan perkataan Embeddings dimensi 100 Pretrained menggunakan Word2Vec pada Dataset latihan."]}, {"en": ["To do this, we relied on a neural network with a long short-term memory layer, which is Fed from the word Embeddings.", "Taking the sequence of the word representation as input, our flat NER layer enables capturing context representation by a long short-term memory layer."], "ms": ["Untuk melakukan ini, kami bergantung pada rangkaian saraf dengan lapisan memori jangka pendek yang panjang, yang merupakan Fed dari perkataan Embeddings.", "Mengambil urutan perwakilan perkataan sebagai input, lapisan NER rata kami membolehkan menangkap perwakilan konteks oleh lapisan memori jangka pendek yang panjang."]}, {"en": ["Lexical simplification is the task of modifying the lexical content of complex sentences in order to make them simpler.", "Lexical simplification is a Subtask of the more general text simplification task which attempts at reducing the cognitive complexity of a text so that it can be (better) understood by a larger audience."], "ms": ["Penyederhanaan leksikal adalah tugas mengubah suai kandungan leksikal ayat kompleks untuk menjadikannya lebih mudah.", "Penyederhanaan leksikal adalah Subtugas tugas penyederhanaan teks yang lebih umum yang cuba mengurangkan kerumitan kognitif teks supaya ia dapat difahami oleh khalayak yang lebih besar."]}, {"en": ["We exploit the Svm-Light-Tk Toolkit for kernel computation.", "We used the SVM light package with a linear kernel."], "ms": ["Kami menggunakan Svm-Light-Tk Toolkit untuk pengiraan kernel.", "Kami menggunakan pakej cahaya SVM dengan kernel linear."]}, {"en": ["An effective solution for these problems is the long short-term memory architecture.", "This problem can be alleviated by Long-Short term memory units."], "ms": ["Penyelesaian yang berkesan untuk masalah ini adalah seni bina memori jangka pendek yang panjang.", "Masalah ini boleh dikurangkan oleh unit memori jangka pendek."]}, {"en": ["We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing.", "We use Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting."], "ms": ["Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Dependency Parsing is a core task in Nlp, and it is widely used by many applications such as information extraction, question answering, and machine translation.", "However, dependency Parsing, which is a popular choice for Japanese, can incorporate only shallow syntactic information, I.E ., Pos tags, compared with the richer syntactic Phrasal categories in constituency Parsing."], "ms": ["Dependency Parsing adalah tugas teras dalam Nlp, dan ia digunakan secara meluas oleh banyak aplikasi seperti pengekstrakan maklumat, jawapan soalan, dan terjemahan mesin.", "Walau bagaimanapun, Parsing dependensi, yang merupakan pilihan popular untuk Jepun, hanya boleh menggabungkan maklumat sintaktik cetek, I.E., tag Pos, berbanding dengan kategori Phrasal sintaksis yang lebih kaya dalam Parsing konstituen."]}, {"en": ["For part of speech tagging and dependency Parsing of the text, we used the Toolset from Stanford Corenlp.", "Here we use Stanford Corenlp Toolkit to deal with the Co-Reference problem."], "ms": ["Untuk sebahagian daripada penandaan ucapan dan kebergantungan Penghuraian teks, kami menggunakan Toolset dari Stanford Corenlp.", "Di sini kita menggunakan Stanford Corenlp Toolkit untuk menangani masalah Rujukan Bersama."]}, {"en": ["We use minimal error rate training to maximize BLEU on the complete development data.", "We perform the Mert training to tune the optimal feature weights on the development set."], "ms": ["Kami menggunakan latihan kadar ralat minimum untuk memaksimumkan BLEU pada data pembangunan lengkap.", "Kami melaksanakan latihan Mert untuk menyesuaikan berat ciri optimum pada set pembangunan."]}, {"en": ["We trained Kneser-Ney discounted 5-Gram language models on each available corpus using the Srilm Toolkit.", "We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit."], "ms": ["Kami melatih model bahasa 5-Gram Kneser-Ney didiskaun pada setiap korpus yang tersedia menggunakan Srilm Toolkit.", "Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit."]}, {"en": ["In addition to that we use Pre-Trained Embeddings, by training Word2Vec Skip-Gram model on Wikipedia texts.", "We adopt Pretrained Embeddings for word forms with the provided training data by Word2Vec."], "ms": ["Di samping itu, kami menggunakan Embedding Pra-Latih, dengan melatih model Skip-Gram Word2Vec pada teks Wikipedia.", "Kami menggunakan Embedding Pretrained untuk bentuk perkataan dengan data latihan yang disediakan oleh Word2Vec."]}, {"en": ["Our model is a first order linear chain conditional random field.", "In our experiments we use a publicly available implementation of conditional random fields."], "ms": ["Model kami adalah medan rawak bersyarat rantai linear pesanan pertama.", "Dalam eksperimen kami, kami menggunakan pelaksanaan medan rawak bersyarat yang tersedia secara terbuka."]}, {"en": ["Sun and Xu enhanced the Segmentation results by Interpolating the Statistics-Based features derived from Unlabeled data to a Crfs model.", "Sun and Xu enhanced a CWS model by Interpolating statistical features of Unlabeled data into the Crfs model."], "ms": ["Sun dan Xu meningkatkan hasil Segmentasi dengan Interpolasi ciri-ciri Berasaskan Statistik yang diperolehi daripada data Unlabeled kepada model Crfs.", "Sun dan Xu meningkatkan model CWS dengan Interpolating ciri statistik data Unlabeled ke dalam model Crfs."]}, {"en": ["We use the Adam Optimizer and Mini-Batch gradient to solve this optimization problem.", "We use a Minibatch stochastic gradient descent algorithm together with the Adam Optimizer."], "ms": ["Kami menggunakan Adam Optimizer dan Mini-Batch gradient untuk menyelesaikan masalah pengoptimuman ini.", "Kami menggunakan algoritma keturunan kecerunan stokastik Minibatch bersama dengan Adam Optimizer."]}, {"en": ["Coreference resolution is the task of clustering a set of mentions in the text such that all mentions in the same cluster refer to the same entity.", "Coreference resolution is the problem of identifying which noun phrases (NPS, or mentions) refer to the same Real-World entity in a text or dialogue."], "ms": ["Resolusi spatial adalah tugas untuk mengelompokkan satu set sebutan dalam teks sedemikian rupa sehingga semua sebutan dalam kluster yang sama merujuk kepada entiti yang sama.", "Resolusi spatial adalah masalah mengenal pasti frasa kata nama (NPS, atau sebutan) yang merujuk kepada entiti Dunia Nyata yang sama dalam teks atau dialog."]}, {"en": ["For the Feature-Based system we used logistic regression Classifier from the Scikit-Learn library.", "We used the logistic regression implemented in the Scikit-Learn library with the default settings."], "ms": ["Untuk sistem Berasaskan Ciri kami menggunakan Klasifikasi regresi logistik dari perpustakaan Scikit-Learn.", "Kami menggunakan regresi logistik yang dilaksanakan dalam perpustakaan Scikit-Learn dengan tetapan lalai."]}, {"en": ["In this paper, we proposed a sentiment aligned topic model (Satm) for product aspect rating prediction.", "In this paper, we propose a Sentiment-Aligned topic model (Satm) for product aspect rating prediction."], "ms": ["Dalam makalah ini, kami mencadangkan model topik yang diselaraskan sentimen (Satm) untuk ramalan penilaian aspek produk.", "Dalam makalah ini, kami mencadangkan model topik Sentiment-Aligned (Satm) untuk ramalan penilaian aspek produk."]}, {"en": ["Results are reported on two standard Metrics, Nist and BLEU, on Lower-Cased data.", "Results were evaluated with both BLEU and Nist Metrics."], "ms": ["Keputusan dilaporkan pada dua metrik standard, Nist dan BLEU, pada data Lower-Cased.", "Keputusan telah dinilai dengan kedua-dua BLEU dan Nist Metrics."]}, {"en": ["Coreference resolution is a set partitioning problem in which each resulting partition refers to an entity.", "Coreference resolution is the task of clustering a sequence of textual entity mentions into a set of maximal Non-Overlapping clusters, such that mentions in a cluster refer to the same discourse entity."], "ms": ["Resolusi spatial adalah masalah pembahagian yang ditetapkan di mana setiap partition yang dihasilkan merujuk kepada entiti.", "Resolusi spatial adalah tugas untuk mengelompokkan urutan sebutan entiti teks ke dalam satu set kluster Non-Overlapping maksima, seperti sebutan dalam kluster merujuk kepada entiti wacana yang sama."]}, {"en": ["For all classifiers, we used the Scikit-Learn implementation.", "We used the implementation of the Scikit-Learn 2 Module."], "ms": ["Untuk semua pengelas, kami menggunakan pelaksanaan Scikit-Learn.", "Kami menggunakan pelaksanaan Modul Scikit-Learn 2."]}, {"en": ["We used the Srilm Toolkit to create 5-Gram language models with interpolated modified Kneser-Ney discounting.", "For language model, we used Sri language modeling Toolkit to train a 4-Gram model with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan Srilm Toolkit untuk mencipta model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai.", "Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model 4-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We use Srilm for training a Trigram language model on the English side of the training corpus.", "For this purpose, we use the Moses Toolkit for training translation models and decoding, as well as Srilm 2 to build the language models."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa Trigram di sisi bahasa Inggeris korpus latihan.", "Untuk tujuan ini, kami menggunakan Musa Toolkit untuk melatih model terjemahan dan penyahkodan, serta Srilm 2 untuk membina model bahasa."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of determining the correct meaning or sense of a word in context.", "Word sense Disambiguation (Wsd) is a problem of finding the relevant clues in a surrounding context."], "ms": ["Kemusykilan kata Kemusykilan perkataan (Wsd) ialah tugas menentukan makna atau rasa yang betul sesuatu perkataan dalam konteks.", "Disambiguasi erti kata (Wsd) adalah masalah mencari petunjuk yang berkaitan dalam konteks persekitaran."]}, {"en": ["Word alignment is a key component in most statistical machine translation systems.", "Word alignment is a critical first step for building statistical machine translation systems."], "ms": ["Penjajahan perkataan merupakan komponen utama dalam kebanyakan sistem terjemahan mesin statistik.", "Penjajahan perkataan adalah langkah pertama yang kritikal untuk membina sistem terjemahan mesin statistik."]}, {"en": ["Stemming is a popular way to reduce the size of a vocabulary in natural language tasks by Conflating words with related meanings.", "Stemming is a Heuristic approach to reducing Form-Related Sparsity issues."], "ms": ["Stemming adalah cara yang popular untuk mengurangkan saiz perbendaharaan kata dalam tugas bahasa semula jadi dengan mengkonklamirkan perkataan dengan makna yang berkaitan.", "Stemming adalah pendekatan Heuristik untuk mengurangkan masalah Sparsity Berkaitan Bentuk."]}, {"en": ["Relation extraction is the task of recognizing and extracting relations between entities or concepts in texts.", "Relation extraction is the task of predicting attributes and relations for entities in a sentence (Zelenko et al . , 2003; Bunescu and Mooney , 2005; Guodong et al . , 2005)."], "ms": ["Pengekstrakan hubungan adalah tugas mengenali dan mengekstrak hubungan antara entiti atau konsep dalam teks.", "Pengekstrakan hubungan adalah tugas meramalkan atribut dan hubungan untuk entiti dalam ayat (Zelenko et al., 2003; Bunescu dan Mooney, 2005; Guodong et al., 2005)."]}, {"en": ["We use the Adam Optimizer for the Gradient-Based optimization.", "We apply the Adam algorithm for optimization, where the parameters of Adam are set as in."], "ms": ["Kami menggunakan Adam Optimizer untuk pengoptimuman berasaskan Gradien.", "Kami menggunakan algoritma Adam untuk pengoptimuman, di mana parameter Adam ditetapkan sebagai dalam."]}, {"en": ["We estimated 5-Gram language models using the Sri Toolkit with modified Kneser-Ney smoothing.", "We used the Srilm Toolkit to create 5-Gram language models with interpolated modified Kneser-Ney discounting."], "ms": ["Kami menganggarkan model bahasa 5-Gram menggunakan Sri Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm Toolkit untuk mencipta model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Luong and Manning proposed a hybrid scheme that Consults Character-Level information whenever the model encounters an Oov word.", "Luong and Manning have proposed a hybrid Nmt model flexibly switching from the Word-Based to the Character-Based model."], "ms": ["Luong dan Manning mencadangkan skim hibrid yang menghasilkan maklumat Aras-Kadar apabila model itu menemui perkataan Oov.", "Luong dan Manning telah mencadangkan model Nmt hibrid secara fleksibel beralih dari model Berasaskan Perkataan ke Model Berasaskan Watak."]}, {"en": ["Table 1 shows the evaluation of all the systems in terms of BLEU score with the best score highlighted.", "Table 1 shows the performance for the test data measured by case sensitive BLEU."], "ms": ["Jadual 1 menunjukkan penilaian semua sistem dari segi skor BLEU dengan skor terbaik yang diserlahkan.", "Jadual 1 menunjukkan prestasi untuk data ujian yang diukur oleh BLEU sensitif kes."]}, {"en": ["We used the Penn Treebank WSJ corpus to perform empirical experiments on the proposed Parsing models.", "We used the Penn Treebank WSJ corpus to perform the empirical evaluation of the considered approaches."], "ms": ["Kami menggunakan korpus WSJ Penn Treebank untuk melakukan eksperimen empirikal mengenai model Parsing yang dicadangkan.", "Kami menggunakan korpus Penn Treebank WSJ untuk melakukan penilaian empirikal pendekatan yang dipertimbangkan."]}, {"en": ["For this purpose, we used phrase tables learned by the standard statistical mt Toolkit Moses.", "For training the translation model and for decoding we used the Moses Toolkit."], "ms": ["Untuk tujuan ini, kami menggunakan jadual frasa yang dipelajari oleh statistik standard mt Toolkit Moses.", "Untuk melatih model terjemahan dan untuk penyahkodan, kami menggunakan Musa Toolkit."]}, {"en": ["In this paper, we propose a new model that is capable of recognizing overlapping mentions.", "Our model appears to be able to do well also on recognizing Non-Overlapping mentions."], "ms": ["Dalam makalah ini, kami mencadangkan model baru yang mampu mengenali sebutan bertindih.", "Model kami nampaknya dapat melakukannya dengan baik juga untuk mengenali sebutan Non-Overlapping."]}, {"en": ["Bilingual Lexicons are fundamental resources in Multilingual natural language processing tasks such as machine translation, Cross-Language information Retrieval or Computerassisted translation.", "Bilingual Lexicons serve as an indispensable source of knowledge for various Cross-Lingual tasks such as Cross-Lingual information Retrieval or statistical machine translation."], "ms": ["Leksikon dwibahasa adalah sumber asas dalam tugas pemprosesan bahasa semula jadi Multilingual seperti terjemahan mesin, Pengambilan maklumat Cross-Language atau terjemahan Computerassisted.", "Leksikon dwibahasa berfungsi sebagai sumber pengetahuan yang sangat diperlukan untuk pelbagai tugas Cross-Lingual seperti Retrieval maklumat Cross-Lingual atau terjemahan mesin statistik."]}, {"en": ["For our purpose we use Word2Vec Embeddings trained on a Google news Dataset and find the Pairwise Cosine distances for all words.", "We use a popular Word2Vec neural language model to learn the word Embeddings on an Unsupervised Tweet corpus."], "ms": ["Untuk tujuan kami, kami menggunakan Embeddings Word2Vec yang dilatih pada Dataset berita Google dan mencari jarak Pairwise Cosine untuk semua perkataan.", "Kami menggunakan model bahasa saraf Word2Vec yang popular untuk mempelajari perkataan Embeddings pada korpus Tweet Tidak diawasi."]}, {"en": ["Hassan and Menezes proposed an approach based on the random walk algorithm on a Contextual similarity Bipartite graph, constructed from N-Gram sequences on a large Unlabeled text corpus.", "Hassan and Menezes proposed an approach for Normalizing social media text which used random walk framework on a Contextual similarity Bipartite graph constructed from N-Grams sequences, which they interpolated with edit distance."], "ms": ["Hassan dan Menezes mencadangkan pendekatan berdasarkan algoritma berjalan rawak pada grafik Bipartite persamaan Kontekstual, dibina dari urutan N-Gram pada korpus teks Unlabeled yang besar.", "Hassan dan Menezes mencadangkan pendekatan untuk menormalkan teks media sosial yang menggunakan rangka kerja berjalan rawak pada grafik Bipartite persamaan Konteks yang dibina dari urutan N-Grams, yang mereka interpolasi dengan jarak suntingan."]}, {"en": ["The model weights of all systems have been tuned with standard minimum error rate training on a Concatenation of the Newstest2011 and Newstest2012 sets.", "The weights of the different feature functions were tuned by means of minimum Error-Rate training executed on the Europarl development corpus."], "ms": ["Berat model semua sistem telah ditala dengan latihan kadar ralat minimum standard pada set Concatenation of the Newstest2011 dan Newstest2012.", "Berat fungsi ciri yang berbeza ditala dengan latihan Ralat-Rate minimum yang dilaksanakan pada korpus pembangunan Europarl."]}, {"en": ["For this reason, we used glove vectors to extract the vector representation of words.", "We use glove word Embeddings, an Unsupervised learning algorithm for obtaining vector representations of words."], "ms": ["Atas sebab ini, kami menggunakan vektor sarung tangan untuk mengekstrak perwakilan vektor perkataan.", "Kami menggunakan perkataan sarung tangan Embeddings, algoritma pembelajaran yang tidak diawasi untuk mendapatkan perwakilan vektor perkataan."]}, {"en": ["The quality of translations is evaluated by the case insensitive Nist Bleu-4 metric.", "The translation quality is evaluated by Case-Insensitive Bleu-4."], "ms": ["Kualiti terjemahan dinilai oleh kes yang tidak sensitif Nist Bleu-4 metrik.", "Kualiti terjemahan dinilai oleh Case-Insensitive Bleu-4."]}, {"en": ["Bengio et al presented a neural network language model where word Embeddings are simultaneously learned along with a language model.", "Bengio et al propose a Feedforward neural network to train a Word-Level language model with a limited N-Gram history."], "ms": ["Bengio et al mempersembahkan model bahasa rangkaian saraf di mana perkataan Embeddings dipelajari serentak bersama dengan model bahasa.", "Bengio et al mencadangkan rangkaian neural Feedforward untuk melatih model bahasa Word-Level dengan sejarah N-Gram yang terhad."]}, {"en": ["The evaluation method is the case insensitive IBM Bleu-4.", "The evaluation metric is Casesensitive Bleu-4."], "ms": ["Kaedah penilaian adalah kes IBM Bleu-4 yang tidak sensitif.", "Metrik penilaian ialah Casesensitive Bleu-4."]}, {"en": ["Li and Yarowsky proposed an Unsupervised method for extracting the Mappings from Chinese abbreviations and their Full-Forms.", "Li and Yarowsky proposed an Unsupervised method extracting the relation between a Full-Form phrase and its abbreviation from Monolingual Corpora."], "ms": ["Li dan Yarowsky mencadangkan kaedah Unsupervised untuk mengekstrak Mappings dari singkatan Cina dan Full-Forms mereka.", "Li dan Yarowsky mencadangkan kaedah Unsupervised yang mengekstrak hubungan antara frasa Full-Form dan singkatannya dari Monolingual Corpora."]}, {"en": ["Evaluation is done using the BLEU metric with four references.", "The weights are Optimized over the BLEU metric."], "ms": ["Penilaian dilakukan menggunakan metrik BLEU dengan empat rujukan.", "Berat dioptimumkan berbanding metrik BLEU."]}, {"en": ["Dependency Parsing is the task of predicting the most probable dependency structure for a given sentence.", "Dependency Parsing is a topic that has engendered increasing interest in recent years."], "ms": ["Penghuraian dependensi adalah tugas meramalkan struktur dependensi yang paling mungkin untuk ayat tertentu.", "Penghuraian Dependensi adalah topik yang telah menimbulkan minat yang semakin meningkat dalam beberapa tahun kebelakangan ini."]}, {"en": ["We build a 9-Gram LM using Srilm Toolkit with modified Kneser-Ney smoothing.", "We use a Fourgram language model with modified Kneser-Ney smoothing as implemented in the Srilm Toolkit."], "ms": ["Kami membina LM 9-Gram menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan model bahasa Fourgram dengan smoothing Kneser-Ney yang diubahsuai seperti yang dilaksanakan dalam Srilm Toolkit."]}, {"en": ["Transition-Based methods have become a popular approach in Multilingual dependency Parsing because of their speed and performance.", "Transition-Based and Graph-Based models have attracted the most attention of dependency Parsing in recent years."], "ms": ["Kaedah Berasaskan Peralihan telah menjadi pendekatan yang popular dalam Penghuraian dependensi Multilingual kerana kelajuan dan prestasi mereka.", "Model berasaskan peralihan dan berasaskan grafik telah menarik perhatian yang paling banyak Parsing kebergantungan dalam beberapa tahun kebelakangan ini."]}, {"en": ["Recently, large Corpora have been manually Annotated with semantic roles in Framenet and Propbank.", "There are hand-crafted semantic frames in the Lexicons of Framenet and Propbank."], "ms": ["Baru-baru ini, Corpora besar telah secara manual Annotated dengan peranan semantik dalam Framenet dan Propbank.", "Terdapat rangka semantik buatan tangan dalam Lexicons Framenet dan Propbank."]}, {"en": ["Thus, we train a 4-Gram language model based on Kneser-Ney smoothing method using Sri Toolkit and Interpolate it with the best Rnnlms by different weights.", "For the language model we use the corpus of 60,000 simple English Wikipedia articles 3 and build a 3-Gram language model with Kneser-Ney smoothing trained with Srilm."], "ms": ["Oleh itu, kami melatih model bahasa 4-Gram berdasarkan kaedah smoothing Kneser-Ney menggunakan Sri Toolkit dan Interpolasi dengan Rnnlms terbaik dengan berat yang berbeza.", "Untuk model bahasa, kami menggunakan korpus 60,000 artikel Wikipedia Bahasa Inggeris mudah 3 dan membina model bahasa 3-Gram dengan smoothing Kneser-Ney dilatih dengan Srilm."]}, {"en": ["Richman and Schone use article classification knowledge from English Wikipedia to produce Ne-Annotated Corpora in other languages.", "Richman and Schone used English Linguis-Tic tools and cross language links in Wikipedia to automatically Annotate text in different languages."], "ms": ["Richman dan Schone menggunakan pengetahuan klasifikasi artikel dari Wikipedia Bahasa Inggeris untuk menghasilkan Ne-Annotated Corpora dalam bahasa lain.", "Richman dan Schone menggunakan alat bahasa Inggeris Linguis-Tic dan pautan bahasa silang dalam Wikipedia untuk Annotate teks secara automatik dalam bahasa yang berbeza."]}, {"en": ["We use Moses, an open source Toolkit for training different systems.", "We employ Moses, an Open-Source Toolkit for our experiment."], "ms": ["Kami menggunakan Musa, alat sumber terbuka untuk melatih sistem yang berbeza.", "Kami menggunakan Musa, alat sumber terbuka untuk eksperimen kami."]}, {"en": ["We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing.", "The language models used were 7-Gram Srilm with Kneser-Ney smoothing and linear interpolation."], "ms": ["Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Model bahasa yang digunakan ialah Srilm 7-Gram dengan smoothing Kneser-Ney dan interpolasi linear."]}, {"en": ["For the Cluster- based method, we use Word2Vec 2 which provides the word vectors trained on the Google news corpus.", "On all Datasets and models, we use 300-Dimensional word vectors Pre-Trained on Google news."], "ms": ["Untuk kaedah berasaskan Cluster, kami menggunakan Word2Vec 2 yang menyediakan vektor perkataan yang dilatih pada korpus berita Google.", "Pada semua Dataset dan model, kami menggunakan 300-Dimensional vektor perkataan Pra-Trained pada berita Google."]}, {"en": ["Part-Of-Speech (Pos) tagging is a fundamental Nlp task, used by a wide variety of applications.", "Part-Of-Speech (Pos) tagging is a fundamental task in natural language processing."], "ms": ["Tag Part-Of-Speech (Pos) adalah tugas asas Nlp, yang digunakan oleh pelbagai aplikasi.", "Penandaan Part-Of-Speech (Pos) adalah tugas asas dalam pemprosesan bahasa semula jadi."]}, {"en": ["We use Srilm for N-Gram language model training and Hmm decoding.", "We build an Open-Vocabulary language model with Kneser-Ney smoothing using the Srilm Toolkit."], "ms": ["Kami menggunakan Srilm untuk latihan model bahasa N-Gram dan penyahkodan Hmm.", "Kami membina model bahasa Open-Vocabulary dengan smoothing Kneser-Ney menggunakan Srilm Toolkit."]}, {"en": ["The Trigram language model is implemented in the Srilm Toolkit.", "Language models were built using the Srilm Toolkit 16."], "ms": ["Model bahasa Trigram dilaksanakan dalam Srilm Toolkit.", "Model bahasa dibina menggunakan Srilm Toolkit 16."]}, {"en": ["The continuous Bag-Of-Words approach described by Mikolov et al is learned by predicting the word vector based on the context vectors.", "The Cbow model introduced in Mikolov et al learns vector representations using a neural network architecture by trying to predict a target word given the words surrounding it."], "ms": ["Pendekatan Bag-Of-Words yang berterusan yang diterangkan oleh Mikolov et al dipelajari dengan meramalkan perkataan vektor berdasarkan vektor konteks.", "Model Cbow yang diperkenalkan dalam Mikolov et al mempelajari perwakilan vektor menggunakan seni bina rangkaian saraf dengan cuba meramalkan perkataan sasaran yang diberikan perkataan di sekelilingnya."]}, {"en": ["High quality word Embeddings have been proven helpful in many Nlp tasks.", "Word Embeddings have proven to be effective models of semantic representation of words in various Nlp tasks."], "ms": ["Embedding perkataan berkualiti tinggi telah terbukti berguna dalam banyak tugas Nlp.", "Embedding Word telah terbukti menjadi model berkesan perwakilan semantik perkataan dalam pelbagai tugas Nlp."]}, {"en": ["We use the Scikit-Learn machine learning library to implement the entire pipeline.", "We implement classification models using Keras and Scikit-Learn."], "ms": ["Kami menggunakan perpustakaan pembelajaran mesin Scikit-Learn untuk melaksanakan keseluruhan saluran paip.", "Kami melaksanakan model klasifikasi menggunakan Keras dan Scikit-Learn."]}, {"en": ["In addition, a 5-Gram LM with Kneser-Ney smoothing and interpolation was built using the Srilm Toolkit.", "The language model used was a 5-Gram with modified Kneserney smoothing, built with Srilm Toolkit."], "ms": ["Selain itu, LM 5-Gram dengan smoothing dan interpolasi Kneser-Ney dibina menggunakan Srilm Toolkit.", "Model bahasa yang digunakan ialah 5-Gram dengan smoothing Kneserney yang diubahsuai, dibina dengan Srilm Toolkit."]}, {"en": ["For the language model, we used Sri language modeling Toolkit to train a Trigram model with modified Kneser-Ney smoothing on the 31 , 149 English sentences.", "To calculate language model features, we train traditional N-Gram language models with Ngram lengths of four and five using the Srilm Toolkit."], "ms": ["Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Trigram dengan Kneser-Ney yang diubahsuai pada 31, 149 ayat bahasa Inggeris.", "Untuk mengira ciri model bahasa, kami melatih model bahasa tradisional N-Gram dengan panjang Ngram empat dan lima menggunakan Srilm Toolkit."]}, {"en": ["Neural machine translation is currently the State-Of-The art paradigm for machine translation.", "Neural machine translation has recently gained popularity in solving the machine translation problem."], "ms": ["Terjemahan mesin saraf kini merupakan paradigma seni State-Of-The untuk terjemahan mesin.", "Terjemahan mesin saraf baru-baru ini mendapat populariti dalam menyelesaikan masalah terjemahan mesin."]}, {"en": ["We use Scikitlearn as machine learning library.", "For training our system Classifier, we have used Scikit-Learn."], "ms": ["Kami menggunakan Scikitlearn sebagai perpustakaan pembelajaran mesin.", "Untuk melatih Classifier sistem kami, kami telah menggunakan Scikit-Learn."]}, {"en": ["We used Moses with the default configuration for Phrase-Based translation.", "We used the Phrasebased translation system in Moses 5 as a baseline Smt system."], "ms": ["Kami menggunakan Musa dengan konfigurasi lalai untuk terjemahan Berasaskan Frasa.", "Kami menggunakan sistem terjemahan berasaskan frasa dalam Musa 5 sebagai sistem Smt asas."]}, {"en": ["Event extraction is a particularly challenging type of information extraction (Ie).", "Thus, event extraction is a difficult task and requires substantial training data."], "ms": ["Pengekstrakan peristiwa adalah jenis pengekstrakan maklumat yang sangat mencabar (Ie).", "Oleh itu, pengekstrakan peristiwa adalah tugas yang sukar dan memerlukan data latihan yang besar."]}, {"en": ["Riedel et al proposed to use Multi-Instance learning to tolerate noise in the Positively-Labeled data.", "Riedel et al , 2010) made the At-Least-Once assumption that led the distant supervision for relation extraction to Multi-Instance learning."], "ms": ["Riedel et al mencadangkan untuk menggunakan pembelajaran Multi-Instance untuk bertolak ansur dengan bunyi dalam data Positively-Labeled.", "Riedel et al, 2010) membuat andaian At-Least-Once yang mengetuai pengawasan jauh untuk pengekstrakan hubungan ke pembelajaran Multi-Instance."]}, {"en": ["Aspect extraction is a task to abstract the common properties of objects from Corpora discussing them, such as reviews of products.", "Aspect extraction is a key task of opinion mining (Cite-P-15-1-14)."], "ms": ["Pengekstrakan aspek adalah tugas untuk menghuraikan sifat umum objek dari Corpora yang membincangkan mereka, seperti ulasan produk.", "Pengekstrakan aspek adalah tugas utama perlombongan pendapat (Cite-P-15-1-14)."]}, {"en": ["Word alignment is the task of identifying corresponding words in sentence pairs.", "Word alignment, which can be defined as an object for indicating the corresponding words in a parallel text, was first introduced as an intermediate result of statistical translation models (Cite-P-13-1-2)."], "ms": ["Jajaran perkataan adalah tugas mengenal pasti perkataan yang sepadan dalam pasangan ayat.", "Penjajahan perkataan, yang boleh ditakrifkan sebagai objek untuk menunjukkan perkataan yang sepadan dalam teks selari, pertama kali diperkenalkan sebagai hasil perantaraan model terjemahan statistik (Cite-P-13-1-2)."]}, {"en": ["We use glove word Embeddings, which are 50-Dimension word vectors trained with a crawled large corpus with 840 billion tokens.", "For the neural models, we use 100-Dimensional glove Embeddings, Pre-Trained on Wikipedia and Gigaword."], "ms": ["Kami menggunakan Embedding kata sarung tangan, yang merupakan vektor perkataan 50 dimensi yang dilatih dengan korpus besar yang merangkak dengan 840 bilion token.", "Untuk model neural, kami menggunakan Embedding sarung tangan 100-Dimensional, Pra-Trained di Wikipedia dan Gigaword."]}, {"en": ["We use the 200-Dimensional global vectors, Pre-Trained on 2 billion Tweets, covering over 27-Billion tokens.", "We use the Pre-Trained glove 50-Dimensional word Embeddings to represent words found in the glove Dataset."], "ms": ["Kami menggunakan 200-Dimensional global vektor, Pra-Trained pada 2 bilion Tweet, yang meliputi lebih daripada 27-Billion token.", "Kami menggunakan sarung tangan Pra-Latih 50-Dimensional Embedding perkataan untuk mewakili perkataan yang terdapat dalam Dataset sarung tangan."]}, {"en": ["Many words have multiple meanings, and the process of identifying the correct meaning, or sense of a word in context, is known as word sense Disambiguation (Wsd).", "Word sense Disambiguation (Wsd) is the task of determining the meaning of an ambiguous word in its context."], "ms": ["Banyak perkataan mempunyai pelbagai makna, dan proses mengenal pasti makna yang betul, atau rasa perkataan dalam konteks, dikenali sebagai kata rasa Disambiguation (Wsd).", "Kemusykilan erti kata Kemusykilan (Wsd) ialah tugas menentukan makna perkataan yang samar-samar dalam konteksnya."]}, {"en": ["Coreference resolution is the task of identifying all mentions which refer to the same entity in a document.", "Coreference resolution is the task of grouping mentions to entities."], "ms": ["Resolusi spatial adalah tugas untuk mengenal pasti semua sebutan yang merujuk kepada entiti yang sama dalam dokumen.", "Resolusi spatial adalah tugas untuk mengumpulkan sebutan kepada entiti."]}, {"en": ["For all classifiers, we used the Scikit-Learn implementation.", "In all cases, we used the Implementations from the Scikitlearn machine learning library."], "ms": ["Untuk semua pengelas, kami menggunakan pelaksanaan Scikit-Learn.", "Dalam semua kes, kami menggunakan Pelaksanaan dari perpustakaan pembelajaran mesin Scikitlearn."]}, {"en": ["We also use a 4-Gram language model trained using Srilm with Kneser-Ney smoothing.", "We use Srilm for training a Trigram language model on the English side of the training data."], "ms": ["Kami juga menggunakan model bahasa 4-Gram yang dilatih menggunakan Srilm dengan smoothing Kneser-Ney.", "Kami menggunakan Srilm untuk melatih model bahasa Trigram di sisi bahasa Inggeris data latihan."]}, {"en": ["A Trigram model was built on 20 million words of General Newswire text, using the Srilm Toolkit.", "The Srilm Toolkit was used to build the Trigram Mkn smoothed language model."], "ms": ["Model Trigram dibina pada 20 juta perkataan teks General Newswire, menggunakan Srilm Toolkit.", "Srilm Toolkit digunakan untuk membina model bahasa licin Trigram Mkn."]}, {"en": ["We learn our word Embeddings by using Word2Vec 3 on Unlabeled review data.", "We use Word2Vec as the vector representation of the words in Tweets."], "ms": ["Kami mempelajari perkataan Embeddings kami dengan menggunakan Word2Vec 3 pada data ulasan yang tidak berlabel.", "Kami menggunakan Word2Vec sebagai perwakilan vektor perkataan dalam Tweets."]}, {"en": ["Cussens and Pulman describe a symbolic approach which employs Inductive logic programming and Barg and Walther and Fouvry follow a Unification-Based approach.", "Cussens and Pulman used a symbolic approach employing Inductive logic programming, while Erbach, Barg and Walther and Fouvry followed a Unificationbased approach."], "ms": ["Cussens dan Pulman menerangkan pendekatan simbolik yang menggunakan pengaturcaraan logik Induktif dan Barg dan Walther dan Fouvry mengikuti pendekatan Berasaskan Penyatuan.", "Cussens dan Pulman menggunakan pendekatan simbolik menggunakan pengaturcaraan logik Induktif, manakala Erbach, Barg dan Walther dan Fouvry mengikuti pendekatan berasaskan Unification."]}, {"en": ["We use a Pbsmt model built with the Moses Smt Toolkit.", "Our baseline is a Phrase-Based mt system trained using the Moses Toolkit."], "ms": ["Kami menggunakan model Pbsmt yang dibina dengan Musa Smt Toolkit.", "Asas kami adalah sistem mt berasaskan frasa yang dilatih menggunakan Musa Toolkit."]}, {"en": ["Relation extraction (re) is the task of assigning a semantic relationship between a pair of arguments.", "Relation extraction (re) is a task of identifying typed relations between known entity mentions in a sentence."], "ms": ["Pengekstrakan hubungan (re) adalah tugas untuk menetapkan hubungan semantik antara sepasang hujah.", "Pengekstrakan hubungan (re) adalah tugas untuk mengenal pasti hubungan yang ditaip antara sebutan entiti yang diketahui dalam ayat."]}, {"en": ["Coreference resolution is a task aimed at identifying phrases (mentions) referring to the same entity.", "Coreference resolution is the task of determining which mentions in a text refer to the same entity."], "ms": ["Resolusi spatial adalah tugas yang bertujuan untuk mengenal pasti frasa (mention) yang merujuk kepada entiti yang sama.", "Resolusi spatial adalah tugas menentukan sebutan mana dalam teks merujuk kepada entiti yang sama."]}, {"en": ["In the early part of the last decade, Phrase-Based machine translation emerged as the preeminent design of statistical mt systems.", "In recent years, Phrase-Based systems for statistical machine translation have delivered state-of-the-art performance on standard translation tasks."], "ms": ["Pada awal dekad yang lalu, terjemahan mesin berasaskan frasa muncul sebagai reka bentuk utama sistem statistik mt.", "Dalam tahun-tahun kebelakangan ini, sistem berasaskan frasa untuk terjemahan mesin statistik telah menyampaikan prestasi canggih pada tugas terjemahan standard."]}, {"en": ["We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing.", "The Srilm language Modelling Toolkit was used with interpolated Kneser-Ney discounting."], "ms": ["Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Alat Pemodelan bahasa Srilm digunakan dengan diskaun Kneser-Ney yang saling berkaitan."]}, {"en": ["Coreference resolution is the process of linking together multiple referring expressions of a given entity in the world.", "Coreference resolution is the task of determining which mentions in a text are used to refer to the same Real-World entity."], "ms": ["Resolusi spatial adalah proses menghubungkan pelbagai ungkapan merujuk entiti tertentu di dunia.", "Resolusi spatial adalah tugas menentukan sebutan mana dalam teks yang digunakan untuk merujuk kepada entiti Dunia Nyata yang sama."]}, {"en": ["In the second stage, we use this assumption that a word and its translation tend to appear in similar context across languages.", "The approach relies on the assumption that the term and its translation appear in similar contexts."], "ms": ["Pada peringkat kedua, kita menggunakan andaian ini bahawa perkataan dan terjemahannya cenderung muncul dalam konteks yang sama di seluruh bahasa.", "Pendekatan ini bergantung kepada andaian bahawa istilah dan terjemahannya muncul dalam konteks yang sama."]}, {"en": ["We use the Word2Vec vectors with 300 dimensions, Pre-Trained on 100 billion words of Google news.", "We utilize the Google news Dataset created by Mikolov et al, which consists of 300-Dimensional vectors for 3 million words and phrases."], "ms": ["Kami menggunakan vektor Word2Vec dengan 300 dimensi, Pra-Trained pada 100 bilion perkataan berita Google.", "Kami menggunakan Dataset berita Google yang dicipta oleh Mikolov et al, yang terdiri daripada vektor 300-Dimensional untuk 3 juta perkataan dan frasa."]}, {"en": ["Dependency Parsing is a simpler task than constituent Parsing, since dependency trees do not have extra Non-Terminal nodes and there is no need for a grammar to generate them.", "Dependency Parsing consists of finding the structure of a sentence as expressed by a set of directed links (Dependencies) between words."], "ms": ["Parsing Dependensi adalah tugas yang lebih mudah daripada Parsing konstituen, kerana pokok dependensi tidak mempunyai nod Bukan Terma tambahan dan tidak perlu tatabahasa untuk menghasilkannya.", "Penghuraian Dependensi terdiri daripada mencari struktur ayat seperti yang dinyatakan oleh satu set pautan terarah (Bergantung) antara perkataan."]}, {"en": ["For the Feature-Based system we used logistic regression Classifier from the Scikit-Learn library.", "We use logistic regression with L2 Regularization, implemented using the Scikit-Learn Toolkit."], "ms": ["Untuk sistem Berasaskan Ciri kami menggunakan Klasifikasi regresi logistik dari perpustakaan Scikit-Learn.", "Kami menggunakan regresi logistik dengan L2 Regularization, dilaksanakan menggunakan Scikit-Learn Toolkit."]}, {"en": ["We train our acoustic models by Kaldi speech recognition Toolkit.", "We use Kaldi speech recognition Toolkit to train our acoustic models."], "ms": ["Kami melatih model akustik kami oleh Kaldi Speech Pengecaman Toolkit.", "Kami menggunakan Kaldi Speech Toolkit untuk melatih model akustik kami."]}, {"en": ["Coreference resolution is a challenging task, that involves identification and clustering of noun phrases mentions that refer to the same Real-World entity.", "Coreference resolution is the process of determining whether two expressions in natural language refer to the same entity in the world."], "ms": ["Resolusi spatial adalah tugas yang mencabar, yang melibatkan pengenalan dan pengelompokan frasa kata nama yang menyebut yang merujuk kepada entiti Dunia Nyata yang sama.", "Resolusi spatial adalah proses menentukan sama ada dua ungkapan dalam bahasa semula jadi merujuk kepada entiti yang sama di dunia."]}, {"en": ["Zeng et al propose the use of position feature for improving the performance of CNN in relation classification.", "Zeng et al exploit a Convolutional neural network to extract lexical and sentence level features for relation classification."], "ms": ["Zeng et al mencadangkan penggunaan ciri kedudukan untuk meningkatkan prestasi CNN dalam pengelasan hubungan.", "Zeng et al mengeksploitasi rangkaian saraf Konvolutional untuk mengekstrak ciri-ciri tahap leksikal dan ayat untuk pengelasan hubungan."]}, {"en": ["A more Linguistically-Informed approach to N-Gram models is the factored language model approach of Bilmes and Kirchhoff.", "Bilmes and Kirchhoff proposed a more general framework for N-Gram language Modelling."], "ms": ["Pendekatan yang lebih Linguistik-Informasi kepada model N-Gram adalah pendekatan model bahasa yang difaktorkan Bilmes dan Kirchhoff.", "Bilmes dan Kirchhoff mencadangkan rangka kerja yang lebih umum untuk Pemodelan bahasa N-Gram."]}, {"en": ["Word alignment is a critical first step for building statistical machine translation systems.", "Word alignment is the task of identifying word Correspondences between parallel sentence pairs."], "ms": ["Penjajahan perkataan adalah langkah pertama yang kritikal untuk membina sistem terjemahan mesin statistik.", "Penjajahan perkataan adalah tugas mengenal pasti perkataan Correspondences antara pasangan ayat selari."]}, {"en": ["We use Word2Vec to train the word Embeddings.", "For feature building, we use Word2Vec Pre-Trained word Embeddings."], "ms": ["Kami menggunakan Word2Vec untuk melatih perkataan Embeddings.", "Untuk bangunan ciri, kami menggunakan Embedding kata Pra-Latihan Word2Vec."]}, {"en": ["We used Svm-Light-Tk, which enables the use of the partial tree kernel.", "We built a linear SVM Classifier using SVM light package."], "ms": ["Kami menggunakan Svm-Light-Tk, yang membolehkan penggunaan kernel pokok separa.", "Kami membina Classifier SVM linear menggunakan pakej cahaya SVM."]}, {"en": ["In all cases, we used the Implementations from the Scikitlearn machine learning library.", "We used Implementations from Scikitlearn, and the parameters of both classifiers were tuned on the development set using grid search."], "ms": ["Dalam semua kes, kami menggunakan Pelaksanaan dari perpustakaan pembelajaran mesin Scikitlearn.", "Kami menggunakan Pelaksanaan dari Scikitlearn, dan parameter kedua-dua pengelas ditala pada set pembangunan menggunakan carian grid."]}, {"en": ["Coreference resolution is a task aimed at identifying phrases (mentions) referring to the same entity.", "Coreference resolution is a challenging task, that involves identification and clustering of noun phrases mentions that refer to the same Real-World entity."], "ms": ["Resolusi spatial adalah tugas yang bertujuan untuk mengenal pasti frasa (mention) yang merujuk kepada entiti yang sama.", "Resolusi spatial adalah tugas yang mencabar, yang melibatkan pengenalan dan pengelompokan frasa kata nama yang menyebut yang merujuk kepada entiti Dunia Nyata yang sama."]}, {"en": ["Translation results are evaluated using the Word-Based BLEU score.", "The translation quality is evaluated by Case-Insensitive Bleu-4."], "ms": ["Hasil terjemahan dinilai menggunakan skor BLEU berasaskan perkataan.", "Kualiti terjemahan dinilai oleh Case-Insensitive Bleu-4."]}, {"en": ["In this paper we proposed a new Parsing algorithm based on a branch and bound framework.", "In this paper, we propose a novel branch and bound (B & B) algorithm for efficient Parsing."], "ms": ["Dalam makalah ini kami mencadangkan algoritma Penghuraian baru berdasarkan kerangka cabang dan terikat.", "Dalam makalah ini, kami mencadangkan algoritma cawangan dan terikat (B & B) novel untuk Penguraian yang cekap."]}, {"en": ["In this paper, we propose a novel method that is based on text distortion to compress Topic-Related information.", "In this paper, we present a novel method that enhances authorship Attribution effectiveness."], "ms": ["Dalam makalah ini, kami mencadangkan kaedah novel yang berdasarkan gangguan teks untuk memampatkan maklumat Berkaitan Topik.", "Dalam makalah ini, kami membentangkan kaedah novel yang meningkatkan keberkesanan Atribusi pengarang."]}, {"en": ["We implement an In-Domain language model using the Sri language modeling Toolkit.", "We used the Sri language modeling Toolkit for this purpose."], "ms": ["Kami melaksanakan model bahasa In-Domain menggunakan Toolkit pemodelan bahasa Sri.", "Kami menggunakan alat pemodelan bahasa Sri untuk tujuan ini."]}, {"en": ["Mikolov et al showed that meaningful syntactic and semantic Regularities can be captured in Pre-Trained word Embedding.", "More recently, Mikolov et al showed that word vectors could be added or subtracted to isolate certain semantic and syntactic features."], "ms": ["Mikolov et al menunjukkan bahawa sintaksis dan semantik yang bermaknaRegularities boleh ditangkap dalam perkataan Pra-Trained Embedding.", "Baru-baru ini, Mikolov et al menunjukkan bahawa vektor perkataan boleh ditambah atau dikurangkan untuk mengasingkan ciri semantik dan sintaktik tertentu."]}, {"en": ["For Word-Level Embedding E W, we utilize Pre-Trained , 300-Dimensional Embedding vectors from glove 6B.", "We use the glove algorithm to obtain 300-Dimensional word Embeddings from a Union of these Corpora."], "ms": ["Untuk Embedding Word-Level E W, kami menggunakan vektor Embedding Pra-Trained, 300-Dimensional dari sarung tangan 6B.", "Kami menggunakan algoritma sarung tangan untuk mendapatkan Embedding perkataan 300-Dimensional dari Kesatuan Corpora ini."]}, {"en": ["The release of the Penn discourse Treebank has advanced the development of English discourse relation recognition.", "Much current work in discourse Parsing focuses on the labelling of discourse relations, using data from the Penn discourse Treebank."], "ms": ["Pembebasan wacana Penn Treebank telah memajukan pembangunan pengiktirafan hubungan wacana bahasa Inggeris.", "Banyak kerja semasa dalam wacana Parsing memberi tumpuan kepada pelabelan hubungan wacana, menggunakan data dari Penn discourse Treebank."]}, {"en": ["We used 100 dimensional glove Embeddings for this purpose.", "We use Pre-Trained 100 dimensional glove word Embeddings."], "ms": ["Kami menggunakan 100 dimensi sarung tangan Embeddings untuk tujuan ini.", "Kami menggunakan perkataan sarung tangan 100 dimensi Pra-Trained Embeddings."]}, {"en": ["A 4-Grams language model is trained by the Srilm Toolkit.", "Ngram features have been generated with the Srilm Toolkit."], "ms": ["Model bahasa 4-Gram dilatih oleh Srilm Toolkit.", "Ciri-ciri Ngram telah dihasilkan dengan Srilm Toolkit."]}, {"en": ["Barman et al addressed the problem of language identification on Bengali-Hindi-English Facebook comments.", "Barman et al , 2014) addressed the problem of language identification on Bengali-Hindi-English Facebook comments."], "ms": ["Barman et al membahas masalah identifikasi bahasa di komentar Facebook Bengali-Hindi-Inggeris.", "Barman et al, 2014) membahas masalah identifikasi bahasa di komentar Facebook Bengali-Hindi-Inggeris."]}, {"en": ["The Anaphor is a definite noun phrase and the referent is in focus, that is.", "If the Anaphor is a definite noun phrase and the referent is in focus (I.E . in the cache), Anaphora resolution will be hindered."], "ms": ["Anafor adalah frasa kata nama yang pasti dan rujukan adalah dalam tumpuan, iaitu.", "Jika Anafora adalah frasa kata nama yang pasti dan rujukan adalah dalam tumpuan (I.E. dalam cache), resolusi Anaphora akan dihalang."]}, {"en": ["For evaluation, we use the Dataset from the Semeval-2007 lexical substitution task.", "To do this we examine the Dataset created for the English lexical substitution task in Semeval."], "ms": ["Untuk penilaian, kami menggunakan Dataset dari tugas penggantian leksikal Semeval-2007.", "Untuk melakukan ini, kami mengkaji Dataset yang dicipta untuk tugas penggantian leksikal Inggeris di Semeval."]}, {"en": ["The target language model was a Trigram language model with modified Kneser-Ney smoothing trained on the English side of the Bitext using the Srilm Tookit.", "The language models in this experiment were Trigram models with Good-Turing smoothing built using Srilm."], "ms": ["Model bahasa sasaran adalah model bahasa Trigram dengan smoothing Kneser-Ney yang diubahsuai dilatih di sisi bahasa Inggeris Bitext menggunakan Srilm Tookit.", "Model bahasa dalam eksperimen ini adalah model Trigram dengan smoothing Good-Turing yang dibina menggunakan Srilm."]}, {"en": ["Incometo select the most fluent path, we train a 5-Gram language model with the Srilm Toolkit on the English Gigaword corpus.", "We use Srilm train a 5-Gram language model on the Xinhua portion of the English Gigaword corpus 5th edition with modified Kneser-Ney discounting."], "ms": ["Incometo memilih laluan yang paling fasih, kami melatih model bahasa 5-Gram dengan Srilm Toolkit pada corpus Gigaword Inggeris.", "Kami menggunakan Srilm melatih model bahasa 5-Gram di bahagian Xinhua dari edisi ke-5 Gigaword corpus Inggeris dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["In the experiments reported here we use support vector machines through the SVM light package.", "For support vector learning, we use Svm-Light and Svm-Multiclass."], "ms": ["Dalam eksperimen yang dilaporkan di sini kami menggunakan mesin vektor sokongan melalui pakej cahaya SVM.", "Untuk pembelajaran vektor sokongan, kami menggunakan Svm-Light dan Svm-Multiclass."]}, {"en": ["We used the Phrase-Based model Moses for the experiments with all the standard settings, including a Lexicalized reordering model, and a 5-Gram language model.", "For all Baselines we used the Phrase-Based statistical machine translation system Moses, with the default model features, weighted in a Log-Linear framework."], "ms": ["Kami menggunakan model Berasaskan Frasa Musa untuk eksperimen dengan semua tetapan standard, termasuk model penyusunan semula Lexicalized, dan model bahasa 5-Gram.", "Untuk semua Baselines kami menggunakan sistem terjemahan mesin statistik Berfiksyen Musa, dengan ciri model lalai, ditimbang dalam kerangka Log-Linear."]}, {"en": ["Semantic Parsing is the task of translating text to a formal meaning representation such as logical forms or structured queries.", "Semantic Parsing is the task of mapping natural language sentences to a formal representation of meaning."], "ms": ["Penghuraian Semantik adalah tugas menterjemahkan teks kepada perwakilan makna formal seperti bentuk logik atau pertanyaan berstruktur.", "Penghuraian Semantik adalah tugas pemetaan ayat bahasa semula jadi kepada perwakilan makna formal."]}, {"en": ["We use the Moses software package 5 to train a Pbmt model.", "The Smt systems were built using the Moses Toolkit."], "ms": ["Kami menggunakan pakej perisian Musa 5 untuk melatih model Pbmt.", "Sistem Smt dibina menggunakan Musa Toolkit."]}, {"en": ["More recently, neural networks have become prominent in word representation learning.", "Recently, the field has been influenced by the success of neural language models."], "ms": ["Baru-baru ini, rangkaian saraf telah menjadi terkenal dalam pembelajaran perwakilan perkataan.", "Baru-baru ini, bidang ini telah dipengaruhi oleh kejayaan model bahasa saraf."]}, {"en": ["A pun is the exploitation of the various meanings of a word or words with phonetic similarity but different meanings.", "Pun is a way of using the characteristics of the language to cause a word, a sentence or a discourse to involve two or more different meanings."], "ms": ["A pun adalah eksploitasi pelbagai makna perkataan atau perkataan dengan persamaan fonetik tetapi makna yang berbeza.", "Pun adalah cara menggunakan ciri-ciri bahasa untuk menyebabkan perkataan, ayat atau wacana melibatkan dua atau lebih makna yang berbeza."]}, {"en": ["Furthermore, we train a 5-Gram language model using the Sri language Toolkit.", "A 4-Gram language model is trained on the Monolingual data by Srilm Toolkit."], "ms": ["Tambahan pula, kami melatih model bahasa 5-Gram menggunakan Toolkit bahasa Sri.", "Model bahasa 4-Gram dilatih pada data Monolingual oleh Srilm Toolkit."]}, {"en": ["We train the model using the Adam Optimizer with the default hyper parameters.", "We use the Adam Optimizer with its default parameters and a Mini-Batch size of 32."], "ms": ["Kami melatih model menggunakan Adam Optimizer dengan parameter hiper lalai.", "Kami menggunakan Adam Optimizer dengan parameter lalai dan saiz Mini-Batch 32."]}, {"en": ["Therefore, word Segmentation is a crucial first step for many Chinese language processing tasks such as syntactic Parsing, information Retrieval and machine translation.", "Word Segmentation is the first step prior to word alignment for building statistical machine translations (Smt) on language pairs without explicit word boundaries such as Chinese-English."], "ms": ["Oleh itu, Segmentasi perkataan adalah langkah pertama yang penting untuk banyak tugas pemprosesan bahasa Cina seperti Penghuraian sintaktik, Pengambilan maklumat dan terjemahan mesin.", "Segmentasi perkataan adalah langkah pertama sebelum penjajaran perkataan untuk membina terjemahan mesin statistik (Smt) pada pasangan bahasa tanpa sempadan perkataan yang jelas seperti Cina-Inggeris."]}, {"en": ["We measure the translation quality using a single reference BLEU.", "We measure machine translation performance using the BLEU metric."], "ms": ["Kami mengukur kualiti terjemahan menggunakan rujukan tunggal BLEU.", "Kami mengukur prestasi terjemahan mesin menggunakan metrik BLEU."]}, {"en": ["For the classification task, we use Pre-Trained glove Embedding vectors as lexical features.", "We use Pre-Trained 50 dimensional glove vectors 4 for word Embeddings Initialization."], "ms": ["Untuk tugas pengelasan, kami menggunakan vektor Embedding sarung tangan Pra-Latih sebagai ciri leksikal.", "Kami menggunakan vektor sarung tangan 50 dimensi Pra-Trained 4 untuk Pengawalan Embeddings perkataan."]}, {"en": ["We report decoding speed and BLEU score, as measured by Sacrebleu.", "We also report the results using BLEU and Ter Metrics."], "ms": ["Kami melaporkan kelajuan penyahkodan dan skor BLEU, seperti yang diukur oleh Sacrebleu.", "Kami juga melaporkan hasil menggunakan BLEU dan Ter Metrics."]}, {"en": ["We calculate Cosine similarity using Pretrained glove word vectors 7 to find similar words to the seed word.", "We employ the glove and Node2Vec to generate the Pre-Trained word Embedding, obtaining two distinct Embedding for each word."], "ms": ["Kami mengira persamaan Kosinus menggunakan vektor perkataan sarung tangan Pretrained 7 untuk mencari perkataan yang sama dengan perkataan benih.", "Kami menggunakan sarung tangan dan Node2Vec untuk menghasilkan Embedding perkataan Pra-Latih, memperoleh dua Embedding yang berbeza untuk setiap perkataan."]}, {"en": ["We also used Pre-Trained word Embeddings, including glove and 300D Fasttext vectors.", "The English data representation was done using Tokenizer 6 and glove Pretrained word vectors."], "ms": ["Kami juga menggunakan Embedding perkataan Pra-Latih, termasuk sarung tangan dan vektor Fasttext 300D.", "Perwakilan data bahasa Inggeris dilakukan menggunakan Tokenizer 6 dan sarung tangan vektor perkataan Pretrained."]}, {"en": ["For this, we utilize the publicly available glove 1 word Embeddings, specifically ones trained on the common crawl Dataset.", "To tackle this issue, we leverage Pretrained word Embeddings, specifically the 300 dimension glove Embeddings trained on 42B tokens of external text Corpora."], "ms": ["Untuk ini, kami menggunakan sarung tangan 1 perkataan Embeddings yang tersedia secara terbuka, khususnya yang dilatih pada Dataset merangkak biasa.", "Untuk menangani isu ini, kami memanfaatkan Embedding perkataan Pretrained, khususnya Embedding sarung tangan dimensi 300 yang dilatih pada token 42B teks luaran Corpora."]}, {"en": ["Coreference resolution is a set partitioning problem in which each resulting partition refers to an entity.", "Coreference resolution is the task of grouping mentions to entities."], "ms": ["Resolusi spatial adalah masalah pembahagian yang ditetapkan di mana setiap partition yang dihasilkan merujuk kepada entiti.", "Resolusi spatial adalah tugas untuk mengumpulkan sebutan kepada entiti."]}, {"en": ["Finally, we construct new Subtree-Based features for Parsing Algorithms.", "To train the Parsing models, while we use Subtree-Based features."], "ms": ["Akhirnya, kami membina ciri-ciri baru Subtree-Based untuk Algoritma Penghuraian.", "Untuk melatih model Parsing, semasa kami menggunakan ciri-ciri Subtree-Based."]}, {"en": ["The language model was constructed using the Srilm Toolkit with interpolated Kneser-Ney discounting.", "The English side of the parallel corpus is trained into a language model using Srilm."], "ms": ["Model bahasa dibina menggunakan Srilm Toolkit dengan diskaun Kneser-Ney yang saling berkaitan.", "Bahagian Inggeris korpus selari dilatih menjadi model bahasa menggunakan Srilm."]}, {"en": ["Lda is a Generative model that learns a set of latent topics for a document collection.", "Jtt is an Lda-Style model that is trained jointly on source and target documents linked by browsing transitions."], "ms": ["Lda adalah model Generatif yang mempelajari satu set topik laten untuk koleksi dokumen.", "Jtt adalah model Lda-Style yang dilatih bersama pada dokumen sumber dan sasaran yang dihubungkan dengan peralihan pelayaran."]}, {"en": ["We use the cube pruning method to approximately intersect the translation forest with the language model.", "We use the Earley algorithm with Cube-Pruning for the String-To-Amr Parsing."], "ms": ["Kami menggunakan kaedah pemangkasan kiub untuk kira-kira bersilang hutan terjemahan dengan model bahasa.", "Kami menggunakan algoritma Earley dengan Cube-Pruning untuk String-To-Amr Parsing."]}, {"en": ["We used an in-house implementation of the Hierarchical Phrase-Based Decoder as described in Chiang.", "We have implemented a Hierarchical Phrase-Based Smt model similar to Chiang."], "ms": ["Kami menggunakan pelaksanaan dalaman Decoder Berasaskan Frasa Hierarki seperti yang dijelaskan di Chiang.", "Kami telah melaksanakan model Smt Berasaskan Frasa Hierarki yang serupa dengan Chiang."]}, {"en": ["Descriptions are transformed into a vector by adding the corresponding Word2Vec Embeddings.", "The model parameters of word Embedding are Initialized using Word2Vec."], "ms": ["Penerangan diubah menjadi vektor dengan menambah Embedding Word2Vec yang sepadan.", "Parameter model Embedding perkataan Diawalkan menggunakan Word2Vec."]}, {"en": ["Our empirical results on three Nlp tasks show that incorporating and exploiting more information from the target domain through instance weighting is effective.", "Our results also show that incorporating and exploiting more information from the target domain is much more useful for improving performance than excluding misleading training."], "ms": ["Hasil empirikal kami pada tiga tugas Nlp menunjukkan bahawa menggabungkan dan mengeksploitasi lebih banyak maklumat dari domain sasaran melalui pengimbangan contoh adalah berkesan.", "Hasil kami juga menunjukkan bahawa menggabungkan dan mengeksploitasi lebih banyak maklumat dari domain sasaran jauh lebih berguna untuk meningkatkan prestasi daripada mengecualikan latihan yang mengelirukan."]}, {"en": ["These supervised learning methods are implemented in Scikit-Learn Toolkit.", "These models were implemented using the package Scikit-Learn."], "ms": ["Kaedah pembelajaran yang diselia ini dilaksanakan dalam Scikit-Learn Toolkit.", "Model-model ini dilaksanakan menggunakan pakej Scikit-Learn."]}, {"en": ["The language models were interpolated Kneser-Ney discounted Trigram models, all constructed using the Srilm Toolkit.", "The language models used were 7-Gram Srilm with Kneser-Ney smoothing and linear interpolation."], "ms": ["Model bahasa adalah model Trigram diskaun Kneser-Ney yang diinterpolasi, semuanya dibina menggunakan Srilm Toolkit.", "Model bahasa yang digunakan ialah Srilm 7-Gram dengan smoothing Kneser-Ney dan interpolasi linear."]}, {"en": ["We use Pre-Trained 100 dimensional glove word Embeddings.", "We used 300-Dimensional Pre-Trained glove word Embeddings."], "ms": ["Kami menggunakan perkataan sarung tangan 100 dimensi Pra-Trained Embeddings.", "Kami menggunakan perkataan sarung tangan Pra-Latihan 300 Dimensional Embeddings."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit.", "The system used a Tri-Gram language model built from Sri Toolkit with modified Kneser-Ney interpolation smoothing technique."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit.", "Sistem ini menggunakan model bahasa Tri-Gram yang dibina dari Sri Toolkit dengan teknik penghalusan interpolasi Kneser-Ney yang diubahsuai."]}, {"en": ["Word alignment is the task of identifying Translational relations between words in parallel Corpora, in which a word at one language is usually translated into several words at the other language (fertility model) (Cite-P-18-1-0).", "Word alignment is a critical component in training statistical machine translation systems and has received a significant amount of research, for example, (Cite-P-17-1-0, Cite-P-17-1-8, Cite-P-17-1-4), including work Leveraging syntactic Parse trees, E.G ., (Cite-P-17-1-1, Cite-P-17-1-2, Cite-P-17-1-3)."], "ms": ["Penjajahan perkataan adalah tugas mengenal pasti hubungan Translasional antara perkataan dalam Corpora selari, di mana perkataan pada satu bahasa biasanya diterjemahkan ke dalam beberapa perkataan pada bahasa lain (model kesuburan) (Cite-P-18-1-0).", "Penjajaran perkataan adalah komponen kritikal dalam melatih sistem terjemahan mesin statistik dan telah menerima sejumlah besar penyelidikan, contohnya, (Cite-P-17-1-0, Cite-P-17-1-8, Cite-P-17-1-4), termasuk kerja Leveraging syntactic Parse pokok, E.G., (Cite-P-17-1-1, Cite-P-17-1-2, Cite-P-17-1-3)."]}, {"en": ["We created 5-Gram language models for every domain using Srilm with improved Kneserney smoothing on the target side of the training parallel Corpora.", "In particular, we created standard Trigram language models from the written training data without making use of concurrent perceptual context information using Srilm."], "ms": ["Kami mencipta model bahasa 5-Gram untuk setiap domain menggunakan Srilm dengan lancar Kneserney yang lebih baik di sisi sasaran latihan selari Corpora.", "Khususnya, kami mencipta model bahasa Trigram standard dari data latihan bertulis tanpa menggunakan maklumat konteks persepsi serentak menggunakan Srilm."]}, {"en": ["The Srilm Toolkit was used for training the language models using Kneser-Ney smoothing.", "The language model used was a 5-Gram with modified Kneserney smoothing, built with Srilm Toolkit."], "ms": ["Srilm Toolkit digunakan untuk melatih model bahasa menggunakan smoothing Kneser-Ney.", "Model bahasa yang digunakan ialah 5-Gram dengan smoothing Kneserney yang diubahsuai, dibina dengan Srilm Toolkit."]}, {"en": ["For the Fst representation, we used the the Opengrm-Ngram language modeling Toolkit and used an N-Gram order of 4, with Kneser-Ney smoothing.", "For each target language, we used the Srilm Toolkit to estimate separate 4-Gram LMS with Kneser-Ney smoothing, for each of the Corpora listed in tables 3 , 4 and 5."], "ms": ["Untuk perwakilan Fst, kami menggunakan Toolkit pemodelan bahasa Opengrm-Ngram dan menggunakan urutan N-Gram 4, dengan smoothing Kneser-Ney.", "Untuk setiap bahasa sasaran, kami menggunakan Srilm Toolkit untuk menganggarkan LMS 4-Gram berasingan dengan smoothing Kneser-Ney, untuk setiap Corpora yang disenaraikan dalam jadual 3, 4 dan 5."]}, {"en": ["Turney and Littman determined the polarity of sentiment words by estimating the Point-Wise mutual information between sentiment words and a set of seed words with strong polarity.", "Turney and Littman determined the semantic orientation of a target word t by comparing its association with two seed sets of manually Crafted target words."], "ms": ["Turney dan Littman menentukan polariti kata sentimen dengan menganggarkan maklumat bersama Point-Wise antara kata sentimen dan satu set kata benih dengan polariti yang kuat.", "Turney dan Littman menentukan orientasi semantik perkataan sasaran t dengan membandingkan persatuannya dengan dua set benih perkataan sasaran yang dibuat secara manual."]}, {"en": ["Table 4 shows end-to-end translation BLEU score results.", "Table 5 shows the BLEU and per scores obtained by each system."], "ms": ["Jadual 4 menunjukkan hasil skor BLEU terjemahan hujung ke hujung.", "Jadual 5 menunjukkan BLEU dan setiap skor yang diperolehi oleh setiap sistem."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit.", "The language models used were 7-Gram Srilm with Kneser-Ney smoothing and linear interpolation."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit.", "Model bahasa yang digunakan ialah Srilm 7-Gram dengan smoothing Kneser-Ney dan interpolasi linear."]}, {"en": ["Translation performance was measured by Case-Insensitive BLEU.", "The translation quality is evaluated by Case-Insensitive Bleu-4 metric."], "ms": ["Prestasi terjemahan diukur oleh Case-Insensitive BLEU.", "Kualiti terjemahan dinilai oleh metrik Case-Insensitive Bleu-4."]}, {"en": ["Among these models, neural Variants of the conditional random fields model are especially popular.", "Notable Discriminative approaches are conditional random fields and structural SVM."], "ms": ["Di antara model-model ini, Varian neural model medan rawak bersyarat amat popular.", "Pendekatan Diskriminatif yang ketara adalah medan rawak bersyarat dan SVM struktur."]}, {"en": ["We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["The evaluation metric for the overall translation quality is Caseinsensitive Bleu4.", "Translation performances are measured with Case-Insensitive Bleu4 score."], "ms": ["Metrik penilaian untuk kualiti terjemahan keseluruhan adalah Caseinsensitive Bleu4.", "Persembahan terjemahan diukur dengan skor Case-Insensitive Bleu4."]}, {"en": ["We follow the standard machine translation procedure of evaluation, measuring BLEU for every system.", "We evaluate our models using the standard BLEU metric 2 on the Detokenized translations of the test set."], "ms": ["Kami mengikuti prosedur terjemahan mesin standard penilaian, mengukur BLEU untuk setiap sistem.", "Kami menilai model kami menggunakan metrik BLEU standard 2 pada terjemahan Detokenized set ujian."]}, {"en": ["The BLEU score measures the precision of N-Grams with respect to a reference translation with a penalty for short translations.", "The BLEU score measures the agreement between a hypothesis E I 1 generated by the mt system and a reference Translation\u951a\u8126 1."], "ms": ["Skor BLEU mengukur ketepatan N-Gram berkenaan dengan terjemahan rujukan dengan penalti untuk terjemahan pendek.", "Skor BLEU mengukur perjanjian antara hipotesis E I 1 yang dihasilkan oleh sistem mt dan rujukan Terjemahan 1."]}, {"en": ["We perform named entity tagging using the Stanford Four-Class named entity Tagger.", "We extract the named entities from the web pages using the Stanford named entity Recognizer."], "ms": ["Kami melakukan penandaan entiti bernama menggunakan Tagger entiti bernama Stanford Four-Class.", "Kami mengekstrak entiti yang dinamakan dari laman web menggunakan Stanford entiti bernama Recognizer."]}, {"en": ["We use Pre-Trained glove vector for Initialization of word Embeddings.", "For the classification task, we use Pre-Trained glove Embedding vectors as lexical features."], "ms": ["Kami menggunakan vektor sarung tangan pra-latihan untuk Permulaan Embedding perkataan.", "Untuk tugas pengelasan, kami menggunakan vektor Embedding sarung tangan Pra-Latih sebagai ciri leksikal."]}, {"en": ["Sentiment analysis is the task in natural language processing (Nlp) that deals with classifying opinions according to the polarity of the sentiment they Express.", "Sentiment analysis is the task of identifying the polarity (positive, negative or neutral) of review."], "ms": ["Analisis sentimen adalah tugas dalam pemprosesan bahasa semula jadi (Nlp) yang berkaitan dengan mengklasifikasikan pendapat mengikut polariti sentimen yang mereka Express.", "Analisis kepekaan adalah tugas mengenal pasti polariti (positif, negatif atau neutral) kajian semula."]}, {"en": ["In this paper, we propose a Paraphrasing model to address the task of system combination for machine translation.", "In this paper, we propose another Phrase-Level combination approach \u2013 a Paraphrasing model."], "ms": ["Dalam makalah ini, kami mencadangkan model Paraphrasing untuk menangani tugas gabungan sistem untuk terjemahan mesin.", "Dalam makalah ini, kami mencadangkan pendekatan gabungan Phrase-Level yang lain - model Paraphrasing."]}, {"en": ["We use Srilm to train a 5-Gram language model on the target side of our training corpus with modified Kneser-Ney discounting.", "We train a 4-Gram language model on the Xinhua portion of the Gigaword corpus using the Sri language Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di sisi sasaran korpus latihan kami dengan diskaun Kneser-Ney yang diubahsuai.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword menggunakan Toolkit bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["For Cos, we used the Cbow model 6 of Word2Vec.", "The word Embeddings were obtained using Word2Vec 2 tool."], "ms": ["Untuk Cos, kami menggunakan model Cbow 6 dari Word2Vec.", "Perkataan Embeddings diperolehi menggunakan alat Word2Vec 2."]}, {"en": ["Our 5-Gram language model was trained by Srilm Toolkit.", "We built a 5-Gram language model from it with the Sri language modeling Toolkit."], "ms": ["Model bahasa 5-Gram kami dilatih oleh Srilm Toolkit.", "Kami membina model bahasa 5-Gram dari situ dengan Toolkit pemodelan bahasa Sri."]}, {"en": ["Stance detection is the task of automatically determining from text whether the author of the text is in favor of, against, or neutral towards a proposition or target.", "Stance detection is the task of assigning stance labels to a piece of text with respect to a topic, I.E . whether a piece of text is in favour of \u201c abortion \u201d, neutral, or against."], "ms": ["Pengesanan santun adalah tugas menentukan secara automatik dari teks sama ada pengarang teks memihak kepada, menentang, atau neutral terhadap cadangan atau sasaran.", "Pengesanan santun adalah tugas untuk memberikan label pendirian kepada sekeping teks berkenaan dengan topik, I.E. sama ada sekeping teks memihak kepada pengguguran, neutral, atau menentang."]}, {"en": ["Semantic Parsing is the task of mapping natural language sentences to complete formal meaning representations.", "Semantic Parsing is the task of translating natural language utterances into a Machine-Interpretable meaning representation (Mr)."], "ms": ["Penghuraian Semantik adalah tugas pemetaan ayat bahasa semula jadi untuk melengkapkan perwakilan makna formal.", "Penghuraian Semantik adalah tugas menterjemahkan ucapan bahasa semula jadi ke dalam perwakilan makna Mesin-Terpretasi (Mr)."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Language models were estimated using the Sri language modeling Toolkit with modified Kneser-Ney smoothing.", "Language modeling is trained using Kenlm using 5-Grams, with modified Kneser-Ney smoothing."], "ms": ["Model bahasa dianggarkan menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai.", "Pemodelan bahasa dilatih menggunakan Kenlm menggunakan 5-Gram, dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We use a standard Lstm-Based Bidirectional Encoder-Decoder architecture with global attention.", "We use an Attention-Augmented architecture with a Bi-Directional Lstm as Encoder."], "ms": ["Kami menggunakan seni bina Encoder-Decoder Bidirectional berasaskan Lstm standard dengan perhatian global.", "Kami menggunakan seni bina Attention-Augmented dengan Lstm Bi-Directional sebagai Pengekod."]}, {"en": ["A 4-Grams language model is trained by the Srilm Toolkit.", "Language models are built using the Sri-Lm Toolkit."], "ms": ["Model bahasa 4-Gram dilatih oleh Srilm Toolkit.", "Model bahasa dibina menggunakan Sri-Lm Toolkit."]}, {"en": ["The language model was a Kneser-Ney interpolated Trigram model generated using the Srilm Toolkit.", "Language models were estimated using the Sri language modeling Toolkit with modified Kneser-Ney smoothing."], "ms": ["Model bahasa adalah model Trigram interpolasi Kneser-Ney yang dihasilkan menggunakan Srilm Toolkit.", "Model bahasa dianggarkan menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We Initialize the Embedding weights by the Pre-Trained word Embeddings with 200 dimensional vectors.", "We run Skip-Gram model on training Dataset, and use the obtained word vector to Initialize the word Embedding part of model input."], "ms": ["Kami Memulakan berat Embedding oleh perkataan Pra-Trained Embeddings dengan 200 vektor dimensi.", "Kami menjalankan model Skip-Gram pada Dataset latihan, dan menggunakan vektor perkataan yang diperoleh untuk Memulakan bahagian Embedding perkataan input model."]}, {"en": ["Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-1-14) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B).", "Sentiment analysis is a research area where does a computational analysis of people \u2019 s feelings or beliefs expressed in texts such as emotions, opinions, attitudes, appraisals, etc . (Cite-P-12-1-3)."], "ms": ["Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-1-14) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B).", "Analisis sentimen adalah bidang penyelidikan di mana analisis pengiraan perasaan atau kepercayaan orang yang dinyatakan dalam teks seperti emosi, pendapat, sikap, penilaian, dan lain-lain (Cite-P-12-1-3)."]}, {"en": ["The language model is a Trigram model with modified Kneser-Ney discounting and interpolation.", "The language model Pis implemented as an N-Gram model using the Srilm-Toolkit with Kneser-Ney smoothing."], "ms": ["Model bahasa adalah model Trigram dengan diskaun Kneser-Ney yang diubahsuai dan interpolasi.", "Model bahasa Pis dilaksanakan sebagai model N-Gram menggunakan Srilm-Toolkit dengan smoothing Kneser-Ney."]}, {"en": ["A Pseudo-Word is the Concatenation of two words (E.G . House/Car).", "A Pseudoword is a composite comprised of two or more words chosen at random; the individual occurrences of the original words within a text are replaced by their Conflation."], "ms": ["Pseudo-Word ialah konklusi dua perkataan (E.G. House/Car).", "Pseudoword adalah komposit yang terdiri daripada dua atau lebih perkataan yang dipilih secara rawak; kejadian individu perkataan asal dalam teks digantikan oleh Conflation mereka."]}, {"en": ["For classification, we use a maximum entropy model, from the logistic regression package in Weka, with all default parameter settings.", "In all cases, we use a support vector machine approach to training the model, using the Smo implementation found in Weka, using a linear polynomial kernel and default settings."], "ms": ["Untuk pengelasan, kami menggunakan model entropi maksimum, dari pakej regresi logistik di Weka, dengan semua tetapan parameter lalai.", "Dalam semua kes, kami menggunakan pendekatan mesin vektor sokongan untuk melatih model, menggunakan pelaksanaan Smo yang terdapat di Weka, menggunakan kernel polinomial linear dan tetapan lalai."]}, {"en": ["Lei et al proposed to learn features by representing the Cross-Products of some primitive units with Low-Rank Tensors for dependency Parsing.", "Lei et al introduce a syntactic dependency Parser using a Low-Rank Tensor component for scoring dependency edges."], "ms": ["Lei et al mencadangkan untuk mempelajari ciri-ciri dengan mewakili Cross-Products beberapa unit primitif dengan Tensor Rendah Berkuda untuk Penghuraian dependensi.", "Lei et al memperkenalkan Parser dependensi sintaktik menggunakan komponen Tensor Bertumit Rendah untuk menjaringkan tepi dependensi."]}, {"en": ["The idea of extracting features for Nlp using Convolutional Dnn was previously explored by Collobert et al, in the context of Pos tagging, Chunking, named entity recognition and semantic role labeling.", "Passing additional information to a neural network via Word-Attached features was first introduced by Collobert et al as a way to add linguistic Annotation for various Nlp tasks using Feed-Forward and Convolutional networks."], "ms": ["Idea mengekstrak ciri-ciri untuk Nlp menggunakan Convolutional Dnn sebelum ini diterokai oleh Collobert et al, dalam konteks penandaan Pos, Chunking, pengiktirafan entiti dinamakan dan pelabelan peranan semantik.", "Melepaskan maklumat tambahan ke rangkaian saraf melalui ciri-ciri Word-Attached mula diperkenalkan oleh Collobert et al sebagai cara untuk menambah Annotasi linguistik untuk pelbagai tugas Nlp menggunakan rangkaian Feed-Forward dan Convolutional."]}, {"en": ["The Srilm Toolkit was used to build the 5-Gram language model.", "A 4-Gram language model was trained on the Monolingual data by the Srilm Toolkit."], "ms": ["Srilm Toolkit digunakan untuk membina model bahasa 5-Gram.", "Model bahasa 4-Gram dilatih pada data Monolingual oleh Srilm Toolkit."]}, {"en": ["We estimated 5-Gram language models using the Sri Toolkit with modified Kneser-Ney smoothing.", "We used the Srilm Toolkit and Kneser-Ney discounting for estimating 5-Grams LMS."], "ms": ["Kami menganggarkan model bahasa 5-Gram menggunakan Sri Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm Toolkit dan Kneser-Ney diskaun untuk menganggarkan 5-Grams LMS."]}, {"en": ["Coreference resolution is the task of determining when two textual mentions name the same individual.", "Coreference resolution is a fundamental component of natural language processing (Nlp) and has been widely applied in other Nlp tasks (Cite-P-15-3-9)."], "ms": ["Resolusi spatial adalah tugas menentukan apabila dua sebutan teks menamakan individu yang sama.", "Resolusi spatial adalah komponen asas pemprosesan bahasa semula jadi (Nlp) dan telah digunakan secara meluas dalam tugas Nlp lain (Cite-P-15-3-9)."]}, {"en": ["We used Srilm to build a 4-Gram language model with interpolated Kneser-Ney discounting.", "We used Srilm to build a 4-Gram language model with Kneser-Ney discounting."], "ms": ["Kami menggunakan Srilm untuk membina model bahasa 4-Gram dengan diskaun Kneser-Ney yang saling berkaitan.", "Kami menggunakan Srilm untuk membina model bahasa 4-Gram dengan diskaun Kneser-Ney."]}, {"en": ["Ji and Grishman extended the one sense per discourse idea to multiple Topically related documents and propagate consistent event arguments across sentences and documents.", "Later, Ji and Grishman employed a Rule-Based approach to propagate consistent triggers and arguments across Topic-Related documents."], "ms": ["Ji dan Grishman melanjutkan satu pengertian setiap idea wacana kepada pelbagai dokumen yang berkaitan secara topikal dan menyebarkan hujah peristiwa yang konsisten merentasi ayat dan dokumen.", "Kemudian, Ji dan Grishman menggunakan pendekatan Berasaskan Peraturan untuk menyebarkan pencetus dan hujah yang konsisten merentasi dokumen Berkaitan Topik."]}, {"en": ["Relation extraction is the task of finding relations between entities in text, which is useful for several tasks such as information extraction, summarization, and question answering (Cite-P-14-3-7).", "Relation extraction is the task of detecting and classifying relationships between two entities from text."], "ms": ["Pengekstrakan hubungan adalah tugas mencari hubungan antara entiti dalam teks, yang berguna untuk beberapa tugas seperti pengekstrakan maklumat, ringkasan, dan jawapan soalan (Cite-P-14-3-7).", "Pengekstrakan hubungan adalah tugas mengesan dan mengklasifikasikan hubungan antara dua entiti dari teks."]}, {"en": ["The attention strategies have been widely used in machine translation and question answering.", "Such models have been very frequently used in Question-Answering tasks and Lee et al, machine translation, and many other Nlp applications."], "ms": ["Strategi perhatian telah digunakan secara meluas dalam terjemahan mesin dan menjawab soalan.", "Model sedemikian telah digunakan dengan kerap dalam tugas-tugas Question-Answering dan Lee et al, terjemahan mesin, dan banyak aplikasi Nlp yang lain."]}, {"en": ["Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-1-14) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B).", "Sentiment analysis is a recent attempt to deal with evaluative aspects of text."], "ms": ["Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-1-14) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B).", "Analisis sentimen adalah percubaan baru-baru ini untuk menangani aspek penilaian teks."]}, {"en": ["Coreference resolution is the task of partitioning a set of entity mentions in a text, where each partition corresponds to some entity in an underlying discourse model.", "Coreference resolution is the process of linking multiple mentions that refer to the same entity."], "ms": ["Resolusi spatial adalah tugas pembahagian satu set sebutan entiti dalam teks, di mana setiap partition sepadan dengan beberapa entiti dalam model wacana yang mendasari.", "Resolusi spatial adalah proses menghubungkan pelbagai sebutan yang merujuk kepada entiti yang sama."]}, {"en": ["Among them, Twitter is the most popular service by far due to its ease for real-time sharing of information.", "Twitter is a social platform which contains rich textual content."], "ms": ["Antaranya, Twitter adalah perkhidmatan yang paling popular setakat ini kerana kemudahannya untuk perkongsian maklumat masa nyata.", "Twitter adalah platform sosial yang mengandungi kandungan teks yang kaya."]}, {"en": ["Coreference resolution is the task of clustering a set of mentions in the text such that all mentions in the same cluster refer to the same entity.", "Coreference resolution is the process of linking together multiple referring expressions of a given entity in the world."], "ms": ["Resolusi spatial adalah tugas untuk mengelompokkan satu set sebutan dalam teks sedemikian rupa sehingga semua sebutan dalam kluster yang sama merujuk kepada entiti yang sama.", "Resolusi spatial adalah proses menghubungkan pelbagai ungkapan merujuk entiti tertentu di dunia."]}, {"en": ["Sentence compression is the task of producing a shorter form of a single given sentence, so that the new form is grammatical and retains the most important information of the original one.", "Sentence compression is a Paraphrasing task aimed at generating sentences shorter than the given ones, while preserving the essential content."], "ms": ["Pemampatan ayat adalah tugas menghasilkan bentuk yang lebih pendek dari satu ayat yang diberikan, supaya bentuk baru adalah tatabahasa dan mengekalkan maklumat yang paling penting dari yang asal.", "Pemampatan ayat adalah tugas Paraphrasing yang bertujuan menghasilkan ayat yang lebih pendek daripada yang diberikan, sambil mengekalkan kandungan penting."]}, {"en": ["We train Skip-Gram word Embeddings with the Word2Vec Toolkit 1 on a large amount of Twitter text data.", "And we Pretrain the Chinese word Embeddings on a huge Unlabeled data, the Chinese Wikipedia corpus, with Word2Vec Toolkit."], "ms": ["Kami melatih Embedding perkataan Skip-Gram dengan Word2Vec Toolkit 1 pada sejumlah besar data teks Twitter.", "Dan kami Pretrain perkataan Cina Embeddings pada data Unlabeled yang besar, korpus Wikipedia Cina, dengan Word2Vec Toolkit."]}, {"en": ["This baseline has been previously used as a point of comparison by other Unsupervised semantic role induction systems and shown difficult to outperform.", "Despite being relatively simple, this baseline has been previously used as a point of comparison by other Unsupervised semantic role labeling systems and shown difficult to outperform."], "ms": ["Garis dasar ini sebelum ini digunakan sebagai titik perbandingan oleh sistem induksi peranan semantik yang tidak diawasi yang lain dan terbukti sukar untuk mengatasi.", "Walaupun agak mudah, garis dasar ini sebelum ini digunakan sebagai titik perbandingan oleh sistem pelabelan peranan semantik yang tidak diawasi dan terbukti sukar untuk mengatasi."]}, {"en": ["The Conll 2008-2009 shared tasks introduced a variant where semantic Dependencies are Annotated rather than Phrasal arguments.", "Systems that jointly Annotate syntactic and semantic Dependencies were introduced in the past Conll-2008 shared task."], "ms": ["Conll 2008-2009 berkongsi tugas memperkenalkan varian di mana Dependensi semantik dianotasi dan bukannya argumen Phrasal.", "Sistem yang bersama-sama Annotate syntactic dan semantik Dependencies diperkenalkan pada tugas bersama Conll-2008 yang lalu."]}, {"en": ["Unfortunately, Wordnet is a fine-grained resource, Encoding sense distinctions that are often difficult to recognize even for human Annotators (Cite-P-15-1-6).", "Unfortunately, Wordnet is a fine-grained resource, Encoding sense distinctions that are difficult to recognize even for human Annotators (Cite-P-13-1-2)."], "ms": ["Malangnya, Wordnet adalah sumber halus, perbezaan rasa pengekodan yang sering sukar dikenali walaupun untuk Annotator manusia (Cite-P-15-1-6).", "Malangnya, Wordnet adalah sumber halus, perbezaan rasa pengekodan yang sukar dikenali walaupun untuk Annotator manusia (Cite-P-13-1-2)."]}, {"en": ["More recently, neural networks have become prominent in word representation learning.", "Neural models, with various neural architectures, have recently achieved great success."], "ms": ["Baru-baru ini, rangkaian saraf telah menjadi terkenal dalam pembelajaran perwakilan perkataan.", "Model saraf, dengan pelbagai seni bina saraf, baru-baru ini mencapai kejayaan besar."]}, {"en": ["We use the logistic regression implementation of Liblinear wrapped by the Scikit-Learn library.", "We applied Liblinear via its Scikitlearn python interface to train the logistic regression model with L2 Regularization."], "ms": ["Kami menggunakan pelaksanaan regresi logistik Liblinear yang dibungkus oleh perpustakaan Scikit-Learn.", "Kami menggunakan Liblinear melalui antara muka python Scikitlearn untuk melatih model regresi logistik dengan L2 Regularization."]}, {"en": ["Following, we minimize the objective by the diagonal variant of Adagrad with Minibatchs.", "Parameter optimization is performed with the diagonal variant of Adagrad with Minibatchs."], "ms": ["Seterusnya, kami meminimumkan objektif oleh varian pepenjuru Adagrad dengan Minibatchs.", "Pengoptimuman parameter dilakukan dengan varian pepenjuru Adagrad dengan Minibatchs."]}, {"en": ["Word sense Disambiguation (Wsd) is a problem of finding the relevant clues in a surrounding context.", "Word sense Disambiguation (Wsd) is a natural language processing (Nlp) task in which the correct meaning (sense) of a word in a given context is to be determined."], "ms": ["Disambiguasi erti kata (Wsd) adalah masalah mencari petunjuk yang berkaitan dalam konteks persekitaran.", "Disambiguasi erti kata (Wsd) ialah tugas pemprosesan bahasa semula jadi (Nlp) di mana makna (rasa) yang betul perkataan dalam konteks tertentu perlu ditentukan."]}, {"en": ["The Log-Linear parameter weights are tuned with Mert on the development set.", "The model weights are automatically tuned using minimum error rate training."], "ms": ["Berat parameter Log-Linear ditala dengan Mert pada set pembangunan.", "Berat model ditala secara automatik menggunakan latihan kadar ralat minimum."]}, {"en": ["Monolingual word Embeddings have facilitated advances in many natural language processing tasks, such as natural language understanding, sentiment analysis, and dependency Parsing.", "Convolutional neural networks are useful in many Nlp tasks, such as language modeling, semantic role labeling and semantic Parsing."], "ms": ["Embedding kata monolingual telah memudahkan kemajuan dalam banyak tugas pemprosesan bahasa semula jadi, seperti pemahaman bahasa semula jadi, analisis sentimen, dan penghuraian kebergantungan.", "Rangkaian saraf konvolutional berguna dalam banyak tugas Nlp, seperti pemodelan bahasa, pelabelan peranan semantik dan penguraian semantik."]}, {"en": ["Faruqui et al apply Post-Processing steps to existing word Embeddings in order to bring them more in accordance with semantic Lexicons such as Ppdb and Framenet.", "Faruqui et al demonstrated that Embeddings learned without supervision can be Retro-Fitted to better conform to some semantic lexicon."], "ms": ["Faruqui et al menerapkan langkah-langkah pasca pemprosesan untuk Embeddings perkataan yang sedia ada untuk membawa mereka lebih sesuai dengan Leksikon semantik seperti Ppdb dan Framenet.", "Faruqui et al menunjukkan bahawa Embeddings yang dipelajari tanpa pengawasan boleh Dilihat semula untuk menyesuaikan diri dengan beberapa leksikon semantik."]}, {"en": ["We use the Moses Toolkit to train our Phrase-Based Smt models.", "We use an in-house implementation of a Pbsmt system similar to Moses."], "ms": ["Kami menggunakan Musa Toolkit untuk melatih model Smt Berasaskan Frasa kami.", "Kita menggunakan pelaksanaan dalaman sistem Pbsmt yang serupa dengan Musa."]}, {"en": ["We use 5-Gram models with modified Kneser-Ney smoothing and interpolated Back-Off.", "In this and our other N-Gram models, we used Kneser-Ney smoothing."], "ms": ["Kami menggunakan model 5-Gram dengan Kneser-Ney yang diubahsuai dan Back-Off yang saling berkaitan.", "Dalam model N-Gram kami yang lain, kami menggunakan smoothing Kneser-Ney."]}, {"en": ["In this paper, we propose a novel and effective approach to sentiment analysis on product reviews.", "In this paper, we propose a novel Hl-Sot approach to labeling a product \u2019 s attributes and their associated sentiments in product reviews."], "ms": ["Dalam makalah ini, kami mencadangkan pendekatan baru dan berkesan untuk analisis sentimen mengenai ulasan produk.", "Dalam kertas kerja ini, kami mencadangkan pendekatan Hl-Sot novel untuk melabelkan atribut produk dan sentimen yang berkaitan dalam ulasan produk."]}, {"en": ["Also called deep learning, such approaches have recently been applied in a number of Nlp tasks.", "This is motivated by the fact that Multi-Task learning has shown to be beneficial in several Nlp tasks."], "ms": ["Juga dikenali sebagai pembelajaran mendalam, pendekatan sedemikian baru-baru ini telah digunakan dalam beberapa tugas Nlp.", "Ini didorong oleh fakta bahawa pembelajaran Multi-Task telah terbukti bermanfaat dalam beberapa tugas Nlp."]}, {"en": ["We implement the Pbsmt system with the Moses Toolkit.", "In this work we use the Open-Source Toolkit Moses."], "ms": ["Kita melaksanakan sistem Pbsmt dengan Musa Toolkit.", "Dalam kerja ini kita menggunakan Musa Alat Sumber Terbuka."]}, {"en": ["A 5-Gram language model was created with the Sri language modeling Toolkit and trained using the Gigaword corpus and English sentences from the parallel data.", "The Pre-Processed Monolingual sentences will be used by Srilm or Berkeleylm to train a N-Gram language model."], "ms": ["Model bahasa 5-Gram dicipta dengan Toolkit pemodelan bahasa Sri dan dilatih menggunakan Gigaword corpus dan ayat bahasa Inggeris dari data selari.", "Kalimat Monolingual Pra-Proses akan digunakan oleh Srilm atau Berkeleylm untuk melatih model bahasa N-Gram."]}, {"en": ["Coreference resolution is the task of identifying all mentions which refer to the same entity in a document.", "Coreference resolution is the process of linking together multiple referring expressions of a given entity in the world."], "ms": ["Resolusi spatial adalah tugas untuk mengenal pasti semua sebutan yang merujuk kepada entiti yang sama dalam dokumen.", "Resolusi spatial adalah proses menghubungkan pelbagai ungkapan merujuk entiti tertentu di dunia."]}, {"en": ["The language models were interpolated Kneser-Ney discounted Trigram models, all constructed using the Srilm Toolkit.", "N-Gram features were based on language models of order 5, built with the Srilm Toolkit on Monolingual training material from the Europarl and the news Corpora."], "ms": ["Model bahasa adalah model Trigram diskaun Kneser-Ney yang diinterpolasi, semuanya dibina menggunakan Srilm Toolkit.", "Ciri-ciri N-Gram adalah berdasarkan model bahasa order 5, dibina dengan Srilm Toolkit pada bahan latihan Monolingual dari Europarl dan berita Corpora."]}, {"en": ["We observe that satirical cues are often reflected in certain paragraphs rather than the whole document.", "At the document level, we find satirical news generally contain paragraphs which are more complex than true news."], "ms": ["Kami memerhatikan bahawa isyarat sindiran sering ditunjukkan dalam perenggan tertentu dan bukannya keseluruhan dokumen.", "Di peringkat dokumen, kami mendapati berita sindiran umumnya mengandungi perenggan yang lebih kompleks daripada berita sebenar."]}, {"en": ["We report decoding speed and BLEU score, as measured by Sacrebleu.", "We report BLEU and Ter on Tokenized output, as computed by Multeval."], "ms": ["Kami melaporkan kelajuan penyahkodan dan skor BLEU, seperti yang diukur oleh Sacrebleu.", "Kami melaporkan output BLEU dan Ter on Tokenized, seperti yang dikira oleh Multeval."]}, {"en": ["Automatic evaluation results are shown in Table 1, using Bleu-4.", "Table 4 shows the BLEU scores of the output descriptions."], "ms": ["Keputusan penilaian automatik ditunjukkan dalam Jadual 1, menggunakan Bleu-4.", "Jadual 4 menunjukkan skor BLEU bagi keterangan output."]}, {"en": ["Li et al presented a structured Perceptron model to detect triggers and arguments jointly.", "Li et al recently proposed a joint detection method to detect both triggers and arguments using a structured Perceptron model."], "ms": ["Li et al membentangkan model Perceptron berstruktur untuk mengesan pencetus dan hujah bersama.", "Li et al baru-baru ini mencadangkan kaedah pengesanan bersama untuk mengesan kedua-dua pencetus dan hujah menggunakan model Perceptron berstruktur."]}, {"en": ["Korhonen et al used Verb-Frame pairs to cluster verbs relying on the information bottleneck.", "Korhonen et al performed a clustering experiment with highly Polysemous verbs."], "ms": ["Korhonen et al menggunakan pasangan Verb-Frame untuk mengelompokkan kata kerja bergantung kepada keterbatasan maklumat.", "Korhonen et al melakukan eksperimen clustering dengan kata kerja yang sangat Polisemous."]}, {"en": ["For the classifiers we use the Scikit-Learn machine learning Toolkit.", "We use Scikit learn python machine learning library for implementing these models."], "ms": ["Untuk pengelas, kami menggunakan alat pembelajaran mesin Scikit-Learn.", "Kami menggunakan perpustakaan pembelajaran mesin Scikit belajar python untuk melaksanakan model-model ini."]}, {"en": ["Here, we choose the Skip-Gram model and Continuous-Bag-Of-Words model for comparison with the Lbl model.", "We use word vectors produced by the Cbow Approach-Continuous Bagof-Words."], "ms": ["Di sini, kami memilih model Skip-Gram dan model Continuous-Bag-Of-Words untuk perbandingan dengan model Lbl.", "Kami menggunakan vektor perkataan yang dihasilkan oleh Pendekatan Cbow-Continuous Bagof-Words."]}, {"en": ["We apply Sri language modeling Toolkit to train a 4-Gram language model with Kneser-Ney smoothing.", "The probabilistic language model is constructed on Google web 1T 5-Gram corpus by using the Srilm Toolkit."], "ms": ["Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model bahasa 4-Gram dengan smoothing Kneser-Ney.", "Model bahasa probabilistik dibina di Google web 1T 5-Gram corpus dengan menggunakan Srilm Toolkit."]}, {"en": ["Therefore, word Segmentation is a preliminary and important Preprocess for Chinese language processing.", "Word Segmentation is the first step prior to word alignment for building statistical machine translations (Smt) on language pairs without explicit word boundaries such as Chinese-English."], "ms": ["Oleh itu, Segmentasi perkataan adalah praproses awal dan penting untuk pemprosesan bahasa Cina.", "Segmentasi perkataan adalah langkah pertama sebelum penjajaran perkataan untuk membina terjemahan mesin statistik (Smt) pada pasangan bahasa tanpa sempadan perkataan yang jelas seperti Cina-Inggeris."]}, {"en": ["Coreference resolution is the task of determining when two textual mentions name the same individual.", "Coreference resolution is the task of automatically grouping references to the same Real-World entity in a document into a set."], "ms": ["Resolusi spatial adalah tugas menentukan apabila dua sebutan teks menamakan individu yang sama.", "Resolusi spatial adalah tugas untuk mengumpulkan rujukan secara automatik ke entiti Dunia Nyata yang sama dalam dokumen ke dalam satu set."]}, {"en": ["For the Feature-Based system we used logistic regression Classifier from the Scikit-Learn library.", "We use the logistic regression implementation of Liblinear wrapped by the Scikit-Learn library."], "ms": ["Untuk sistem Berasaskan Ciri kami menggunakan Klasifikasi regresi logistik dari perpustakaan Scikit-Learn.", "Kami menggunakan pelaksanaan regresi logistik Liblinear yang dibungkus oleh perpustakaan Scikit-Learn."]}, {"en": ["The benchmark model for topic Modelling is latent Dirichlet allocation, a latent variable model of documents.", "Lda is a probabilistic model that can be used to model and discover underlying topic structures of documents."], "ms": ["Model penanda aras bagi pemodelan topik adalah peruntukan Dirichlet terpendam, model pembolehubah terpendam dokumen.", "Lda adalah model probabilistik yang boleh digunakan untuk memodelkan dan menemui struktur topik dokumen yang mendasari."]}, {"en": ["For English, we convert the Ptb constituency trees to Dependencies using the Stanford dependency framework.", "We compute the syntactic features only for pairs of event mentions from the same sentence, using the Stanford dependency Parser."], "ms": ["Untuk bahasa Inggeris, kami menukar pokok konstituen Ptb ke Dependencies menggunakan kerangka dependensi Stanford.", "Kami mengira ciri sintaksis hanya untuk pasangan sebutan peristiwa dari ayat yang sama, menggunakan Stanford dependency Parser."]}, {"en": ["Gram language models are trained over the Target-Side of the training data, using Srilm with modified Kneser-Ney discounting.", "We use Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting."], "ms": ["Model bahasa gram dilatih melalui Target-Side data latihan, menggunakan Srilm dengan diskaun Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["These results demonstrate that this model benefits greatly from the inclusion of long-range Dependencies.", "Performance of a simple baseline model can be improved significantly if long-range Dependencies are also captured."], "ms": ["Hasil ini menunjukkan bahawa model ini mendapat banyak manfaat daripada kemasukan Dependensi jarak jauh.", "Prestasi model asas mudah boleh ditingkatkan dengan ketara jika Dependensi jarak jauh juga ditangkap."]}, {"en": ["In this paper, we propose a Broad-Coverage Normalization system for the social media language without using the human Annotations.", "In this paper, we propose a Broad-Coverage Normalization system by integrating three human perspectives, including the enhanced letter."], "ms": ["Dalam makalah ini, kami mencadangkan sistem Normalisasi Broad-Coverage untuk bahasa media sosial tanpa menggunakan Anotasi manusia.", "Dalam makalah ini, kami mengusulkan sistem Normalisasi Perkeranian Luas dengan mengintegrasikan tiga perspektif manusia, termasuk huruf yang ditingkatkan."]}, {"en": ["Hiero is a Hierarchical Phrase-Based statistical mt framework that Generalizes Phrase-Based models by permitting phrases with gaps.", "An Hierarchical Phrase-Based model is a powerful method to cover any format of translation pairs by using synchronous context free grammar."], "ms": ["Hiero adalah kerangka mt statistik Berasaskan Frasa Hierarki yang Menggeneralisasikan model Berasaskan Frasa dengan membenarkan frasa dengan jurang.", "Model Berasaskan Frasa Hierarki adalah kaedah yang kuat untuk merangkumi sebarang format pasangan terjemahan dengan menggunakan tatabahasa bebas konteks yang diselaraskan."]}, {"en": ["For the mix one, we also train word Embeddings of dimension 50 using glove.", "We represent input words using Pre-Trained glove Wikipedia 6B word Embeddings."], "ms": ["Untuk campuran satu, kami juga melatih perkataan Embeddings dimensi 50 menggunakan sarung tangan.", "Kami mewakili perkataan input menggunakan sarung tangan Pra-Trained Wikipedia 6B Embedding perkataan."]}, {"en": ["Simulating the approach reported by, we trained a support vector machine for regression with Rbf kernel using Scikit-Learn with the set of features.", "We trained a support vector machine with Rbf kernel per temporal span using Scikit-Learn and tuned SVM parameters using 5-Fold Crossvalidation with the training set."], "ms": ["Mensimulasikan pendekatan yang dilaporkan oleh, kami melatih mesin vektor sokongan untuk regresi dengan kernel Rbf menggunakan Scikit-Learn dengan set ciri.", "Kami melatih mesin vektor sokongan dengan kernel Rbf per span temporal menggunakan Scikit-Learn dan parameter SVM yang ditala menggunakan 5-Fold Crossvalidation dengan set latihan."]}, {"en": ["Semantic Parsing is the task of translating natural language utterances into a Machine-Interpretable meaning representation.", "Semantic Parsing is a Domain-Dependent process by nature, as its output is defined over a set of domain symbols."], "ms": ["Penghuraian Semantik adalah tugas menterjemahkan ucapan bahasa semula jadi ke dalam perwakilan makna Mesin-Terpretasi.", "Penghuraian Semantik adalah proses Domain-Dependen secara semula jadi, kerana outputnya ditakrifkan melalui satu set simbol domain."]}, {"en": ["Dependency Parsing is a valuable form of syntactic processing for Nlp applications due to its transparent Lexicalized representation and robustness with respect to flexible word order languages.", "Dependency Parsing consists of finding the structure of a sentence as expressed by a set of directed links (Dependencies) between words."], "ms": ["Penghuraian Dependensi adalah satu bentuk pemprosesan sintaktik yang berharga untuk aplikasi Nlp kerana perwakilan Lexicalized telus dan keteguhan berkenaan dengan bahasa pesanan perkataan yang fleksibel.", "Penghuraian Dependensi terdiri daripada mencari struktur ayat seperti yang dinyatakan oleh satu set pautan terarah (Bergantung) antara perkataan."]}, {"en": ["Coreference resolution is the process of linking together multiple expressions of a given entity.", "Coreference resolution is the task of grouping mentions to entities."], "ms": ["Resolusi spatial adalah proses menghubungkan pelbagai ungkapan entiti tertentu.", "Resolusi spatial adalah tugas untuk mengumpulkan sebutan kepada entiti."]}, {"en": ["We obtained Parse trees using the Stanford Parser, and used Jacana for word alignment.", "As a further test, we ran the Stanford Parser on the queries to generate syntactic Parse trees."], "ms": ["Kami memperoleh pokok Parse menggunakan Stanford Parser, dan menggunakan Jacana untuk penjajaran perkataan.", "Sebagai ujian lanjut, kami menjalankan Stanford Parser pada pertanyaan untuk menghasilkan pokok Parse sintaktik."]}, {"en": ["We use Byte-Pair-Encoding to achieve Openvocabulary translation with a fixed vocabulary of Subword symbols.", "We use a shared Subword vocabulary by applying Byte-Pair Encoding to the data for all Variants Concatenated."], "ms": ["Kami menggunakan Byte-Pair-Encoding untuk mencapai terjemahan Openvocabulary dengan perbendaharaan kata tetap simbol Subword.", "Kami menggunakan perbendaharaan kata Subword bersama dengan menggunakan Byte-Pair Encoding ke data untuk semua Variants Concatenated."]}, {"en": ["We use a Minibatch stochastic gradient descent algorithm together with an Adagrad Optimizer.", "We use the Adaptive gradients method for weight updates and averaging of the weight vector."], "ms": ["Kami menggunakan algoritma keturunan kecerunan stokastik Minibatch bersama dengan Adagrad Optimizer.", "Kami menggunakan kaedah gradien Adaptif untuk kemas kini berat badan dan purata vektor berat."]}, {"en": ["We use BLEU, Rouge, and meteor scores as automatic evaluation Metrics.", "We use BLEU 2, Ter 3 and meteor 4, which are the Most-Widely used mt evaluation Metrics."], "ms": ["Kami menggunakan skor BLEU, Rouge, dan meteor sebagai Metrik penilaian automatik.", "Kami menggunakan BLEU 2, Ter 3 dan meteor 4, yang merupakan Metrik Penilaian Mt yang paling banyak digunakan."]}, {"en": ["The word vectors of vocabulary words are trained from a large corpus using the glove Toolkit.", "The word representations are generated based on the Co-Occurrence count modeling using Stanford glove tool."], "ms": ["Vektor perkataan perbendaharaan kata dilatih dari korpus besar menggunakan alat sarung tangan.", "Perwakilan perkataan dihasilkan berdasarkan pemodelan kiraan Co-Occurrence menggunakan alat sarung tangan Stanford."]}, {"en": ["The weights of the different feature functions were Optimised by means of minimum error rate training.", "The model weights are automatically tuned using minimum error rate training."], "ms": ["Berat fungsi ciri yang berbeza telah dioptimumkan melalui latihan kadar ralat minimum.", "Berat model ditala secara automatik menggunakan latihan kadar ralat minimum."]}, {"en": ["We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "We used the Srilm Toolkit to create 5-Gram language models with interpolated modified Kneser-Ney discounting."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Kami menggunakan Srilm Toolkit untuk mencipta model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Twitter consists of a massive number of posts on a wide range of subjects, making it very interesting to extract information and sentiments from them.", "Twitter is a communication platform which combines SMS, instant messages and social networks."], "ms": ["Twitter terdiri daripada sejumlah besar jawatan pada pelbagai subjek, menjadikannya sangat menarik untuk mengekstrak maklumat dan sentimen dari mereka.", "Twitter adalah platform komunikasi yang menggabungkan SMS, mesej segera dan rangkaian sosial."]}, {"en": ["We use Word2Vec from as the Pretrained word Embeddings.", "Then, we trained word Embeddings using Word2Vec."], "ms": ["Kami menggunakan Word2Vec sebagai Embedding perkataan yang disekat.", "Kemudian, kami melatih Embedding perkataan menggunakan Word2Vec."]}, {"en": ["Zens and Ney show that Itg constraints allow a higher flexibility in word ordering for longer sentences than the conventional IBM model.", "Although the Itg constraint allows more flexible reordering during decoding, Zens and Ney showed that the IBM constraint results in higher BLEU scores."], "ms": ["Zens dan Ney menunjukkan bahawa kekangan Itg membenarkan fleksibiliti yang lebih tinggi dalam susunan perkataan untuk ayat yang lebih panjang daripada model IBM konvensional.", "Walaupun kekangan Itg membolehkan penyusunan semula yang lebih fleksibel semasa penyahkodan, Zens dan Ney menunjukkan bahawa kekangan IBM menghasilkan skor BLEU yang lebih tinggi."]}, {"en": ["Coreference resolution is a well known clustering task in natural language processing.", "Coreference resolution is the problem of partitioning a sequence of noun phrases (or mentions), as they occur in a natural language text, into a set of Referential entities."], "ms": ["Resolusi spatial adalah tugas clustering yang terkenal dalam pemprosesan bahasa semula jadi.", "Resolusi spatial adalah masalah pembahagian urutan frasa kata nama (atau sebutan), kerana ia berlaku dalam teks bahasa semula jadi, ke dalam satu set entiti rujukan."]}, {"en": ["For Annotation tasks, snow et al showed that Crowdsourced Annotations are similar to traditional Annotations made by experts.", "Snow et al demonstrated that Annotations by Crowdworkers have almost identical quality with those by experts in various Nlp tasks."], "ms": ["Untuk tugas Annotasi, salji et al menunjukkan bahawa Annotasi Crowdsourced serupa dengan Annotasi tradisional yang dibuat oleh pakar.", "Snow et al menunjukkan bahawa Annotasi oleh Crowdworkers mempunyai kualiti yang hampir sama dengan yang dilakukan oleh pakar dalam pelbagai tugas Nlp."]}, {"en": ["Semantic Parsing is the problem of deriving a structured meaning representation from a natural language utterance.", "Semantic Parsing is the mapping of text to a meaning representation."], "ms": ["Penghuraian Semantik adalah masalah memperoleh perwakilan makna berstruktur dari ucapan bahasa semula jadi.", "Penghuraian Semantik adalah pemetaan teks kepada perwakilan makna."]}, {"en": ["We employ the Pretrained word vector, glove, to obtain the fixed word Embedding of each word.", "We employ the glove and Node2Vec to generate the Pre-Trained word Embedding, obtaining two distinct Embedding for each word."], "ms": ["Kami menggunakan vektor perkataan Pretrained, sarung tangan, untuk mendapatkan perkataan tetap Embedding setiap perkataan.", "Kami menggunakan sarung tangan dan Node2Vec untuk menghasilkan Embedding perkataan Pra-Latih, memperoleh dua Embedding yang berbeza untuk setiap perkataan."]}, {"en": ["He and Parket attempted to find bursts, periods of elevated occurrence of events as a dynamic phenomenon instead of focusing on arrival rates.", "He et al proposed a method to find bursts, periods of elevated occurrence of events as a dynamic phenomenon instead of focusing on arrival rates."], "ms": ["Dia dan Parket cuba mencari pecah, tempoh kejadian yang tinggi sebagai fenomena dinamik dan bukannya memberi tumpuan kepada kadar ketibaan.", "Beliau mencadangkan kaedah untuk mencari pecah, tempoh kejadian yang tinggi sebagai fenomena dinamik dan bukannya memberi tumpuan kepada kadar ketibaan."]}, {"en": ["Sentiment analysis is a natural language processing task whose aim is to classify documents according to the opinion (polarity) they express on a given subject (Cite-P-13-8-14).", "Sentiment analysis is a research area where does a computational analysis of people \u2019 s feelings or beliefs expressed in texts such as emotions, opinions, attitudes, appraisals, etc . (Cite-P-12-1-3)."], "ms": ["Analisis sentimen adalah tugas pemprosesan bahasa semula jadi yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat (kepolaritian) yang mereka nyatakan pada subjek tertentu (Cite-P-13-8-14).", "Analisis sentimen adalah bidang penyelidikan di mana analisis pengiraan perasaan atau kepercayaan orang yang dinyatakan dalam teks seperti emosi, pendapat, sikap, penilaian, dan lain-lain (Cite-P-12-1-3)."]}, {"en": ["Phrase-Based translation systems prove to be the Stateof-The-Art as they have delivered translation performance in recent machine translation evaluations.", "The state-of-the-art techniques of statistical machine translation demonstrate good performance on translation of languages with relatively similar word orders."], "ms": ["Sistem terjemahan berasaskan frasa terbukti menjadi Stateof-The-Art kerana mereka telah menyampaikan prestasi terjemahan dalam penilaian terjemahan mesin baru-baru ini.", "Teknik canggih terjemahan mesin statistik menunjukkan prestasi yang baik pada terjemahan bahasa dengan pesanan perkataan yang agak serupa."]}, {"en": ["We use minimum error rate training with Nbest list size 100 to optimize the feature weights for maximum development BLEU.", "Minimum error rate training under BLEU criterion is used to estimate 20 feature function weights over the larger development set."], "ms": ["Kami menggunakan latihan kadar ralat minimum dengan saiz senarai Nbest 100 untuk mengoptimumkan berat ciri untuk pembangunan maksimum BLEU.", "Latihan kadar ralat minimum di bawah kriteria BLEU digunakan untuk menganggarkan 20 berat fungsi ciri berbanding set pembangunan yang lebih besar."]}, {"en": ["We Initialize the word Embeddings for our deep learning architecture with the 100-Dimensional glove vectors.", "We train randomly Initialized word Embeddings of size 500 for the dialog model and use 300 Dimentional glove Embeddings for Reranking classifiers."], "ms": ["Kami Memulakan perkataan Embeddings untuk seni bina pembelajaran mendalam kami dengan vektor sarung tangan 100 dimensi.", "Kami melatih Embedding perkataan yang diawalkan secara rawak saiz 500 untuk model dialog dan menggunakan 300 Embedding sarung tangan Dimentional untuk pengelas Reranking."]}, {"en": ["The standard minimum error rate training algorithm was used for tuning.", "The minimum error rate training was used to tune the feature weights."], "ms": ["Algoritma latihan kadar ralat minimum standard digunakan untuk penalaan.", "Latihan kadar ralat minimum digunakan untuk menyesuaikan berat ciri."]}, {"en": ["We train the word Embeddings through using the training and developing sets of each Dataset with Word2Vec tool.", "We use word Embeddings of dimension 100 Pretrained using Word2Vec on the training Dataset."], "ms": ["Kami melatih perkataan Embeddings melalui menggunakan latihan dan membangunkan set setiap Dataset dengan alat Word2Vec.", "Kami menggunakan perkataan Embeddings dimensi 100 Pretrained menggunakan Word2Vec pada Dataset latihan."]}, {"en": ["We estimated 5-Gram language models using the Sri Toolkit with modified Kneser-Ney smoothing.", "We use Srilm for N-Gram language model training and Hmm decoding."], "ms": ["Kami menganggarkan model bahasa 5-Gram menggunakan Sri Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm untuk latihan model bahasa N-Gram dan penyahkodan Hmm."]}, {"en": ["The target Fourgram language model was built with the English part of training data using the Sri language modeling Toolkit.", "A modified Kn model, termed P, was estimated on the training set count files and applied to the test set using Srilm, the Sri language modeling Toolkit."], "ms": ["Model bahasa Fourgram sasaran dibina dengan bahagian bahasa Inggeris data latihan menggunakan Toolkit pemodelan bahasa Sri.", "Model Kn yang diubahsuai, termed P, dianggarkan pada fail kiraan set latihan dan digunakan pada set ujian menggunakan Srilm, alat pemodelan bahasa Sri."]}, {"en": ["For Dmcnn, following the settings of previous work, we use the Pre-Trained word Embeddings learned by Skip-Gram as the initial word Embeddings.", "For all the experiments below, we utilize the Pretrained word Embeddings Word2Vec from Mikolov et al to Initialize the word Embedding table."], "ms": ["Untuk Dmcnn, mengikuti tetapan kerja sebelumnya, kami menggunakan Embedding perkataan Pra-Latih yang dipelajari oleh Skip-Gram sebagai Embedding perkataan awal.", "Untuk semua eksperimen di bawah, kami menggunakan perkataan Pretrained Embeddings Word2Vec dari Mikolov et al untuk Memulakan jadual Embedding perkataan."]}, {"en": ["We extract the named entities from the web pages using the Stanford named entity Recognizer.", "We use the Stanford named entity Recognizer to identify named entities in s and T."], "ms": ["Kami mengekstrak entiti yang dinamakan dari laman web menggunakan Stanford entiti bernama Recognizer.", "Kami menggunakan Stanford dinamakan entiti Pengiktirafan untuk mengenal pasti entiti dinamakan dalam s dan T."]}, {"en": ["We used a standard Pbmt system built using Moses Toolkit.", "We used Moses, a Phrase-Based Smt Toolkit, for training the translation model."], "ms": ["Kami menggunakan sistem Pbmt standard yang dibina menggunakan Musa Toolkit.", "Kami menggunakan Musa, Alat Alat Smt Berasaskan Frasa, untuk melatih model terjemahan."]}, {"en": ["Semantic role labeling (SRL) is the process of assigning semantic roles to strings of words in a sentence according to their relationship to the semantic Predicates expressed in the sentence.", "Semantic role labeling (SRL) is defined as the task to recognize arguments for a given Predicate and assign semantic role labels to them."], "ms": ["Pelabelan peranan semantik (SRL) adalah proses menetapkan peranan semantik kepada rentetan perkataan dalam ayat mengikut hubungan mereka dengan semantik Predicates yang dinyatakan dalam ayat.", "Pelabelan peranan semantik (SRL) ditakrifkan sebagai tugas untuk mengenali hujah untuk Predicate tertentu dan memberikan label peranan semantik kepada mereka."]}, {"en": ["Coreference resolution is the process of linking together multiple expressions of a given entity.", "Coreference resolution is the task of determining whether two or more noun phrases refer to the same entity in a text."], "ms": ["Resolusi spatial adalah proses menghubungkan pelbagai ungkapan entiti tertentu.", "Resolusi spatial adalah tugas menentukan sama ada dua atau lebih frasa kata nama merujuk kepada entiti yang sama dalam teks."]}, {"en": ["We use the glove Pre-Trained word Embeddings for the vectors of the content words.", "We use Pre-Trained glove vector for Initialization of word Embeddings."], "ms": ["Kami menggunakan sarung tangan Embeddings perkataan Pra-Latih untuk vektor perkataan kandungan.", "Kami menggunakan vektor sarung tangan pra-latihan untuk Permulaan Embedding perkataan."]}, {"en": ["We used the Moses Decoder, with default settings, to obtain the translations.", "For decoding, we used Moses with the default options."], "ms": ["Kami telah menggunakan Musa sebagai khalifah untuk menyembah berhala.", "Kami menggunakan Musa dengan pilihan lalai."]}, {"en": ["Taxonomies are useful tools for content Organisation, navigation, and Retrieval, providing valuable input for semantically intensive tasks such as question answering and textual Entailment.", "Taxonomies are widely used for knowledge standardization, knowledge sharing, and Inferencing in natural language processing tasks."], "ms": ["Taksonomi adalah alat yang berguna untuk Organisasi kandungan, navigasi, dan Pengambilan, menyediakan input berharga untuk tugas intensif secara semantikal seperti jawapan soalan dan Entailment teks.", "Taksonomi digunakan secara meluas untuk standardisasi pengetahuan, perkongsian pengetahuan, dan kesimpulan dalam tugas pemprosesan bahasa semula jadi."]}, {"en": ["Mihalcea et al use both Corpusbased and Knowledge-Based measures of the semantic similarity between words.", "Mihalcea et al defines a measure of text semantic similarity and evaluates it in an Unsupervised paraphrase detector on this data set."], "ms": ["Mihalcea et al menggunakan kedua-dua langkah berasaskan Corpus dan berasaskan pengetahuan persamaan semantik antara perkataan.", "Mihalcea et al mentakrifkan ukuran persamaan semantik teks dan menilainya dalam pengesan parafrasa yang tidak diawasi pada set data ini."]}, {"en": ["Our baseline system is based on a Hierarchical Phrase-Based translation model, which can formally be described as a synchronous Context-Free grammar.", "Hiero is a Hierarchical system that expresses its translation model as a synchronous Context-Free grammar."], "ms": ["Sistem asas kami adalah berdasarkan model terjemahan Berasaskan Frasa Hierarki, yang secara rasmi boleh digambarkan sebagai tatabahasa Bebas Konteks yang diselaraskan.", "Hiero adalah sistem Hierarki yang menyatakan model terjemahannya sebagai tatabahasa Bebas Konteks yang diselaraskan."]}, {"en": ["Nenkova et al noted that the Entrainment score between dialogue partners is higher than the Entrainment score between Non-Partners in dialogue.", "Nenkova et al proposed a score to evaluate the lexical Entrainment in highly frequent words, and found that the score has high correlation with task success and engagement."], "ms": ["Nenkova et al menyatakan bahawa skor Entrainment antara rakan dialog lebih tinggi daripada skor Entrainment antara Non-Partners dalam dialog.", "Nenkova et al mencadangkan skor untuk menilai lexical Entrainment dalam perkataan yang sangat kerap, dan mendapati bahawa skor mempunyai korelasi yang tinggi dengan kejayaan tugas dan penglibatan."]}, {"en": ["For the Word-Embedding based Classifier, we use the glove Pre-Trained word Embeddings.", "For word Embeddings, we used popular Pre-Trained word vectors from glove."], "ms": ["Untuk Klasifier berasaskan Word-Embedding, kami menggunakan Embedding perkataan Pra-Trained sarung tangan.", "Untuk Embedding perkataan, kami menggunakan vektor perkataan Pra-Latih yang popular dari sarung tangan."]}, {"en": ["We apply the rules to each sentence with its dependency tree structure acquired from the Stanford Parser.", "The rules are extracted from the trees generated by the Stanford dependency Parser for the candidate sentences of our Corpora."], "ms": ["Kami menggunakan peraturan untuk setiap ayat dengan struktur pokok dependensi yang diperoleh daripada Stanford Parser.", "Peraturan diekstrak dari pokok yang dihasilkan oleh Stanford dependency Parser untuk ayat calon Corpora kami."]}, {"en": ["We feed our features to a Multinomial naive Bayes Classifier in Scikit-Learn.", "We implemented the different Aes models using Scikit-Learn."], "ms": ["Kami memberi ciri-ciri kami kepada Multinomial naive Bayes Classifier dalam Scikit-Learn.", "Kami melaksanakan model Aes yang berbeza menggunakan Scikit-Learn."]}, {"en": ["Coreference resolution is the task of identifying all mentions which refer to the same entity in a document.", "Coreference resolution is a set partitioning problem in which each resulting partition refers to an entity."], "ms": ["Resolusi spatial adalah tugas untuk mengenal pasti semua sebutan yang merujuk kepada entiti yang sama dalam dokumen.", "Resolusi spatial adalah masalah pembahagian yang ditetapkan di mana setiap partition yang dihasilkan merujuk kepada entiti."]}, {"en": ["Word sense Disambiguation (Wsd) is a difficult natural language processing task which requires that for every content word (noun, adjective, verb or adverb) the appropriate meaning is automatically selected from the available sense inventory 1.", "Word sense Disambiguation (Wsd) is the task of automatically determining the correct sense for a target word given the context in which it occurs."], "ms": ["Disambiguasi erti kata (Wsd) adalah tugas pemprosesan bahasa semula jadi yang sukar yang memerlukan bahawa untuk setiap perkataan kandungan (kata nama, kata sifat, kata kerja atau kata kerja) makna yang sesuai dipilih secara automatik dari inventori rasa yang ada 1.", "Disambiguasi erti kata (Wsd) adalah tugas menentukan secara automatik pengertian yang betul untuk perkataan sasaran yang diberikan konteks di mana ia berlaku."]}, {"en": ["In 2003, Bengio et al proposed a neural network architecture to train language models which produced word Embeddings in the neural network.", "Bengio et al presented a neural network language model where word Embeddings are simultaneously learned along with a language model."], "ms": ["Pada tahun 2003, Bengio et al mencadangkan seni bina rangkaian saraf untuk melatih model bahasa yang menghasilkan perkataan Embeddings dalam rangkaian saraf.", "Bengio et al mempersembahkan model bahasa rangkaian saraf di mana perkataan Embeddings dipelajari serentak bersama dengan model bahasa."]}, {"en": ["A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit.", "The system used a Tri-Gram language model built from Sri Toolkit with modified Kneser-Ney interpolation smoothing technique."], "ms": ["Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit.", "Sistem ini menggunakan model bahasa Tri-Gram yang dibina dari Sri Toolkit dengan teknik penghalusan interpolasi Kneser-Ney yang diubahsuai."]}, {"en": ["For training and evaluating the Itsg Parser, we employ the Penn WSJ Treebank.", "For evaluating the effectiveness of our approach, we perform language modeling over Penn Treebak Dataset."], "ms": ["Untuk melatih dan menilai Parser Itsg, kami menggunakan Penn WSJ Treebank.", "Untuk menilai keberkesanan pendekatan kami, kami melaksanakan pemodelan bahasa melalui Penn Treebak Dataset."]}, {"en": ["We Initialize the Embedding weights by the Pre-Trained word Embeddings with 200 dimensional vectors.", "We employ the glove and Node2Vec to generate the Pre-Trained word Embedding, obtaining two distinct Embedding for each word."], "ms": ["Kami Memulakan berat Embedding oleh perkataan Pra-Trained Embeddings dengan 200 vektor dimensi.", "Kami menggunakan sarung tangan dan Node2Vec untuk menghasilkan Embedding perkataan Pra-Latih, memperoleh dua Embedding yang berbeza untuk setiap perkataan."]}, {"en": ["Many words have multiple meanings, and the process of identifying the correct meaning, or sense of a word in context, is known as word sense Disambiguation (Wsd).", "Word sense Disambiguation (Wsd) is the task of assigning sense tags to ambiguous lexical items (Lis) in a text."], "ms": ["Banyak perkataan mempunyai pelbagai makna, dan proses mengenal pasti makna yang betul, atau rasa perkataan dalam konteks, dikenali sebagai kata rasa Disambiguation (Wsd).", "Disambiguasi kata (Wsd) adalah tugas untuk menetapkan tag deria kepada item leksikal samar (Lis) dalam teks."]}, {"en": ["A 4-Gram language model was trained on the Monolingual data by the Srilm Toolkit.", "A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit."], "ms": ["Model bahasa 4-Gram dilatih pada data Monolingual oleh Srilm Toolkit.", "Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit."]}, {"en": ["The log linear weights for the baseline systems are Optimized using Mert provided in the Moses Toolkit.", "The Log-Linear parameter weights are tuned with Mert on a development set to produce the baseline system."], "ms": ["Berat linier log bagi sistem garis dasar dioptimumkan menggunakan Mert yang disediakan dalam Moses Toolkit.", "Berat parameter Log-Linear ditala dengan Mert pada set pembangunan untuk menghasilkan sistem asas."]}, {"en": ["Semantic role labeling (SRL) is a task of automatically identifying semantic relations between Predicate and its related arguments in the sentence.", "Semantic role labeling (SRL) is the task of identifying semantic arguments of Predicates in text."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas untuk mengenal pasti hubungan semantik secara automatik antara Predicate dan hujah-hujah yang berkaitan dalam ayat.", "Pelabelan peranan semantik (SRL) adalah tugas mengenal pasti hujah semantik Predicates dalam teks."]}, {"en": ["As a Classifier, we employ support vector machines as implemented in SVM light.", "Regarding SVM we used linear kernels implemented in Svm-Light."], "ms": ["Sebagai Classifier, kami menggunakan mesin vektor sokongan seperti yang dilaksanakan dalam cahaya SVM.", "Mengenai SVM kami menggunakan kernel linear yang dilaksanakan dalam Svm-Light."]}, {"en": ["The continuous Bag-Of-Words approach described by Mikolov et al is learned by predicting the word vector based on the context vectors.", "We use a Count-Based Distributional Semantics model and the continuous Bag-Of-Words model to learn word vectors."], "ms": ["Pendekatan Bag-Of-Words yang berterusan yang diterangkan oleh Mikolov et al dipelajari dengan meramalkan perkataan vektor berdasarkan vektor konteks.", "Kami menggunakan model Semantik Pengedaran Berasaskan Count dan model Bag-Of-Words yang berterusan untuk mempelajari vektor perkataan."]}, {"en": ["For the image labels, we use the representation of the last layer of the Vgg neural network.", "We extract the 4096-Dimension Full-Connected layer of 19-Layer Vggnet as the vector representation of images."], "ms": ["Untuk label imej, kami menggunakan perwakilan lapisan terakhir rangkaian saraf Vgg.", "Kami mengekstrak lapisan 4096-Dimension Full-Connected 19-Layer Vggnet sebagai perwakilan vektor imej."]}, {"en": ["Pitler et al demonstrated that features developed to capture word polarity, verb classes and orientation, as well as some lexical features are strong indicator of the type of discourse relation.", "Pitler et al use several linguistically informed features, including polarity tags, Levin verb classes and length of verb phrases."], "ms": ["Pitler et al menunjukkan bahawa ciri-ciri yang dibangunkan untuk menangkap polariti perkataan, kelas kata kerja dan orientasi, serta beberapa ciri leksikal adalah penunjuk kuat jenis hubungan wacana.", "Pitler et al menggunakan beberapa ciri-ciri yang dimaklumkan linguistik, termasuk tag polarity, kelas kata kerja Levin dan panjang frasa kata kerja."]}, {"en": ["Twitter is a popular Microblogging service which provides real-time information on events happening across the world.", "Twitter 1 is a Microblogging service, which according to latest statistics, has 284 million active users , 77% outside the us that generate 500 million Tweets a day in 35 different languages."], "ms": ["Twitter adalah perkhidmatan Microblogging yang popular yang menyediakan maklumat masa nyata mengenai peristiwa yang berlaku di seluruh dunia.", "Twitter 1 adalah perkhidmatan Microblogging, yang menurut statistik terkini, mempunyai 284 juta pengguna aktif, 77% di luar AS yang menjana 500 juta Tweet sehari dalam 35 bahasa yang berbeza."]}, {"en": ["The Phrase-Based translation systems rely on language model and Lexicalized reordering model to capture lexical Dependencies that span phrase boundaries.", "Phrases are extracted using standard Phrase-Based Heuristics and used to build a translation table and Lexicalized reordering model."], "ms": ["Sistem terjemahan Berfiksyen-Berasaskan bergantung kepada model bahasa dan model penyusunan semula Lexicalized untuk menangkap Dependensi leksikal yang merangkumi sempadan frasa.", "Frasa diekstrak menggunakan Heuristik Berasaskan Frasa standard dan digunakan untuk membina jadual terjemahan dan model penyusunan semula Lexicalized."]}, {"en": ["For example, Turian et al have improved the performance of Chunking and named entity recognition by using word Embedding also as one of the features in their Crf model.", "For example, Turian et al used word Embeddings as input features for several Nlp systems, including a traditional Chunking system based on conditional random fields."], "ms": ["Sebagai contoh, Turian et al telah meningkatkan prestasi Chunking dan pengiktirafan entiti yang dinamakan dengan menggunakan perkataan Embedding juga sebagai salah satu ciri dalam model Crf mereka.", "Sebagai contoh, Turian et al menggunakan perkataan Embeddings sebagai ciri input untuk beberapa sistem Nlp, termasuk sistem Chunking tradisional berdasarkan medan rawak bersyarat."]}, {"en": ["To measure the translation quality, we use the BLEU score and the Nist score.", "We used the BLEU score to evaluate the translation accuracy with and without the Normalization."], "ms": ["Untuk mengukur kualiti terjemahan, kami menggunakan skor BLEU dan skor Nist.", "Kami menggunakan skor BLEU untuk menilai ketepatan terjemahan dengan dan tanpa Normalisasi."]}, {"en": ["For the language model, we used Sri language modeling Toolkit to train a Trigram model with modified Kneser-Ney smoothing on the 31 , 149 English sentences.", "We train a Trigram language model with modified Kneser-Ney smoothing from the training Dataset using the Srilm Toolkit, and use the same language model for all three systems."], "ms": ["Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Trigram dengan Kneser-Ney yang diubahsuai pada 31, 149 ayat bahasa Inggeris.", "Kami melatih model bahasa Trigram dengan Kneser-Ney yang diubahsuai dari Dataset latihan menggunakan Srilm Toolkit, dan menggunakan model bahasa yang sama untuk ketiga-tiga sistem."]}, {"en": ["The Log-Linear feature weights are tuned with minimum error rate training on BLEU.", "The weights for these features are Optimized using Mert."], "ms": ["Berat ciri Log-Linear ditala dengan latihan kadar ralat minimum pada BLEU.", "Berat untuk ciri-ciri ini dioptimumkan menggunakan Mert."]}, {"en": ["We used a Phrase-Based Smt model as implemented in the Moses Toolkit.", "We used Moses, a state-of-the-art Phrase-Based Smt model, in decoding."], "ms": ["Kami menggunakan model Smt Berasaskan Frasa seperti yang dilaksanakan dalam Musa Toolkit.", "Kami menggunakan Musa, model Smt Berasaskan Frasa canggih, dalam penyahkodan."]}, {"en": ["We apply the 3-Phase learning procedure proposed by where we first create word Embeddings based on the Skip-Gram model.", "We use a popular Word2Vec neural language model to learn the word Embeddings on an Unsupervised Tweet corpus."], "ms": ["Kami menggunakan prosedur pembelajaran 3-Phase yang dicadangkan oleh mana kami mula-mula membuat Embedding perkataan berdasarkan model Skip-Gram.", "Kami menggunakan model bahasa saraf Word2Vec yang popular untuk mempelajari perkataan Embeddings pada korpus Tweet Tidak diawasi."]}, {"en": ["Semantic Parsing is the task of Transducing natural language (NL) utterances into formal meaning representations (Mrs), commonly represented as tree structures.", "Semantic Parsing is the task of translating text to a formal meaning representation such as logical forms or structured queries."], "ms": ["Penghuraian Semantik adalah tugas Transducing bahasa semula jadi (NL) ucapan ke dalam perwakilan makna formal (Puan), biasanya diwakili sebagai struktur pokok.", "Penghuraian Semantik adalah tugas menterjemahkan teks kepada perwakilan makna formal seperti bentuk logik atau pertanyaan berstruktur."]}, {"en": ["Dependency Parses are obtained from the Stanford Parser.", "Dependency relations have been extracted running the Stanford Parser."], "ms": ["Parsi Dependensi diperolehi daripada Stanford Parser.", "Hubungan kebergantungan telah diekstrak menjalankan Stanford Parser."]}, {"en": ["We use our reordering model for N-Best Re-Ranking and optimize BLEU using minimum error rate training.", "We use minimum error rate training with Nbest list size 100 to optimize the feature weights for maximum development BLEU."], "ms": ["Kami menggunakan model penyusunan semula kami untuk N-Best Re-Ranking dan mengoptimumkan BLEU menggunakan latihan kadar ralat minimum.", "Kami menggunakan latihan kadar ralat minimum dengan saiz senarai Nbest 100 untuk mengoptimumkan berat ciri untuk pembangunan maksimum BLEU."]}, {"en": ["This paper describes a simple Pattern-Matching algorithm for Post-Processing the output of such Parsers to add a wide variety of empty nodes to its Parse trees.", "This paper described a simple Pattern-Matching algorithm for restoring empty nodes in Parse trees that do not contain them, and appropriately."], "ms": ["Kertas ini menerangkan algoritma Pemadaman Pola mudah untuk Post-Processing output Parsers sedemikian untuk menambah pelbagai nod kosong pada pokok Parsenya.", "Kertas ini menerangkan algoritma Pemadam Pola mudah untuk memulihkan nod kosong di pokok Parse yang tidak mengandunginya, dan sesuai."]}, {"en": ["Translation quality is measured by Case-Insensitive BLEU on Newstest13 using one reference translation.", "The translation quality is evaluated by Case-Insensitive BLEU and Ter metric."], "ms": ["Kualiti terjemahan diukur oleh Case-Insensitive BLEU pada Newstest13 menggunakan satu terjemahan rujukan.", "Kualiti terjemahan dinilai oleh Case-Insensitive BLEU dan Ter metrik."]}, {"en": ["For tuning the feature weights, we applied Batch-Mira with -Safe-Hope.", "We use the K-Best batch Mira to tune mt systems."], "ms": ["Untuk menyesuaikan berat ciri, kami menggunakan Batch-Mira dengan -Safe-Hope.", "Kami menggunakan batch K-Best Mira untuk menala sistem mt."]}, {"en": ["The translation quality is evaluated by Case-Insensitive Bleu-4.", "The evaluation metric is Casesensitive Bleu-4."], "ms": ["Kualiti terjemahan dinilai oleh Case-Insensitive Bleu-4.", "Metrik penilaian ialah Casesensitive Bleu-4."]}, {"en": ["Ji and Grishman extended the one sense per discourse idea to multiple Topically related documents and propagate consistent event arguments across sentences and documents.", "Ji and Grishman extended the scope from a single document to a cluster of Topic-Related documents and employed a Rule-Based approach to propagate consistent trigger classification and event arguments across sentences and documents."], "ms": ["Ji dan Grishman melanjutkan satu pengertian setiap idea wacana kepada pelbagai dokumen yang berkaitan secara topikal dan menyebarkan hujah peristiwa yang konsisten merentasi ayat dan dokumen.", "Ji dan Grishman memperluaskan skop dari satu dokumen kepada sekumpulan dokumen berkaitan topik dan menggunakan pendekatan berasaskan peraturan untuk menyebarkan klasifikasi pencetus dan hujah peristiwa yang konsisten merentasi ayat dan dokumen."]}, {"en": ["Much current work in discourse Parsing focuses on the labelling of discourse relations, using data from the Penn discourse Treebank.", "Previous work on the relation between Dms and DRS is mostly based on Corpora Annotated with DRS, most notably the Penn discourse Treebank for English."], "ms": ["Banyak kerja semasa dalam wacana Parsing memberi tumpuan kepada pelabelan hubungan wacana, menggunakan data dari Penn discourse Treebank.", "Kerja-kerja terdahulu mengenai hubungan antara Dms dan DRS kebanyakannya berdasarkan Corpora Annotated dengan DRS, terutamanya Penn discourse Treebank untuk bahasa Inggeris."]}, {"en": ["We use the glove Pre-Trained word Embeddings for the vectors of the content words.", "To keep consistent, we Initialize the Embedding weight with Pre-Trained word Embeddings."], "ms": ["Kami menggunakan sarung tangan Embeddings perkataan Pra-Latih untuk vektor perkataan kandungan.", "Untuk memastikan konsisten, kami Memulakan berat Embedding dengan Embedding perkataan Pra-Trained."]}, {"en": ["We use Liblinear logistic regression Module to classify Document-Level Embeddings.", "We use the wrapper of the Scikit learn python library over the Liblinear logistic regression implementation."], "ms": ["Kami menggunakan Modul regresi logistik Liblinear untuk mengklasifikasikan Embedding Tahap Dokumen.", "Kami menggunakan pembungkus perpustakaan python belajar Scikit melalui pelaksanaan regresi logistik Liblinear."]}, {"en": ["The Conll Dataset is taken form the Wall Street Journal portion of the Penn Treebank corpus.", "Pdtb is drawn from Wall Street Journal articles with overlapping Annotations with the Penn Treebank."], "ms": ["The Conll Dataset diambil bentuk bahagian Wall Street Journal dari Penn Treebank corpus.", "Pdtb diambil dari artikel Wall Street Journal dengan Annotasi bertindih dengan Penn Treebank."]}, {"en": ["Semantic Parsing is the task of converting natural language utterances into their complete formal meaning representations which are Executable for some application.", "Semantic Parsing is the task of converting natural language utterances into formal representations of their meaning."], "ms": ["Penghuraian Semantik adalah tugas menukar ucapan bahasa semula jadi menjadi perwakilan makna formal lengkap mereka yang boleh dilaksanakan untuk beberapa aplikasi.", "Penghuraian Semantik adalah tugas menukarkan ucapan bahasa semula jadi kepada perwakilan formal makna mereka."]}, {"en": ["In addition, we build another word alignment model for L1 and L2 using the small L1-L2 bilingual corpus.", "With this induced model, we perform word alignment between languages L1 and L2."], "ms": ["Di samping itu, kami membina model penjajaran perkataan lain untuk L1 dan L2 menggunakan korpus dwibahasa L1-L2 kecil.", "Dengan model yang disebabkan ini, kami melakukan penjajaran perkataan antara bahasa L1 dan L2."]}, {"en": ["In Clark and Curran we describe efficient methods for performing the calculations using packed charts.", "In Clark and Curran we investigate several Log-Linear Parsing models for Ccg."], "ms": ["Di Clark dan Curran kami menerangkan kaedah yang cekap untuk melaksanakan pengiraan menggunakan carta yang dibungkus.", "Di Clark dan Curran kami menyiasat beberapa model Log-Linear Parsing untuk Ccg."]}, {"en": ["This task focuses only on the Hypernym-Hyponym relation extraction from a list of terms collected from various domains and languages.", "This task specifically focuses on the identification of Hypernym-Hyponym relation among terms in four different languages."], "ms": ["Tugas ini hanya memberi tumpuan kepada pengekstrakan hubungan Hypernym-Hyponym dari senarai istilah yang dikumpulkan dari pelbagai domain dan bahasa.", "Tugas ini secara khusus memberi tumpuan kepada pengenalan hubungan Hypernym-Hyponym antara istilah dalam empat bahasa yang berbeza."]}, {"en": ["For the Word-Embedding based Classifier, we use the glove Pre-Trained word Embeddings.", "We Initialize the Embedding layer using Embeddings from dedicated word Embedding techniques Word2Vec and glove."], "ms": ["Untuk Klasifier berasaskan Word-Embedding, kami menggunakan Embedding perkataan Pra-Trained sarung tangan.", "Kami Memulakan lapisan Embedding menggunakan Embeddings dari teknik Embedding perkataan khusus Word2Vec dan sarung tangan."]}, {"en": ["Many words have multiple meanings, and the process of identifying the correct meaning, or sense of a word in context, is known as word sense Disambiguation (Wsd).", "Word sense Disambiguation (Wsd) is the task of automatically determining the correct sense for a target word given the context in which it occurs."], "ms": ["Banyak perkataan mempunyai pelbagai makna, dan proses mengenal pasti makna yang betul, atau rasa perkataan dalam konteks, dikenali sebagai kata rasa Disambiguation (Wsd).", "Disambiguasi erti kata (Wsd) adalah tugas menentukan secara automatik pengertian yang betul untuk perkataan sasaran yang diberikan konteks di mana ia berlaku."]}, {"en": ["Document summarization is a task to generate a fluent, condensed summary for a document, and keep important information.", "As we know, document summarization is a very useful means for people to quickly read and Browse news articles in the big data era."], "ms": ["Ringkasan dokumen adalah tugas untuk menghasilkan ringkasan yang fasih, ringkasan untuk dokumen, dan menyimpan maklumat penting.", "Seperti yang kita ketahui, ringkasan dokumen adalah cara yang sangat berguna bagi orang ramai untuk membaca dan menyemak imbas artikel berita dengan cepat dalam era data besar."]}, {"en": ["For the language model, we used Sri language modeling Toolkit to train a Trigram model with modified Kneser-Ney smoothing on the 31 , 149 English sentences.", "We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit."], "ms": ["Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Trigram dengan Kneser-Ney yang diubahsuai pada 31, 149 ayat bahasa Inggeris.", "Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit."]}, {"en": ["The core machinery of our system is driven by a latent Dirichlet allocation topic model.", "We used latent Dirichlet allocation to construct our topics."], "ms": ["Jentera teras sistem kami didorong oleh model topik peruntukan Dirichlet laten.", "Kami menggunakan peruntukan Dirichlet laten untuk membina topik kami."]}, {"en": ["Relation extraction (re) is the task of extracting instances of semantic relations between entities in unstructured data such as natural language text.", "Relation extraction is the key component for building relation knowledge graphs, and it is of crucial significance to natural language processing applications such as structured search, sentiment analysis, question answering, and summarization."], "ms": ["Pengekstrakan hubungan (re) adalah tugas mengekstrak contoh hubungan semantik antara entiti dalam data yang tidak tersusun seperti teks bahasa semula jadi.", "Pengekstrakan hubungan adalah komponen utama untuk membina graf pengetahuan hubungan, dan ia sangat penting untuk aplikasi pemprosesan bahasa semula jadi seperti carian berstruktur, analisis sentimen, jawapan soalan, dan ringkasan."]}, {"en": ["Word sense Disambiguation (Wsd) is a fundamental task and Long-Standing challenge in natural language processing (Nlp).", "Word sense Disambiguation (Wsd) is the problem of assigning a sense to an ambiguous word, using its context."], "ms": ["Disambiguasi erti kata (Wsd) adalah tugas asas dan cabaran Long-Standing dalam pemprosesan bahasa semula jadi (Nlp).", "Kemusykilan erti kata Kemusykilan (Wsd) ialah masalah untuk memberikan rasa kepada perkataan yang samar-samar, menggunakan konteksnya."]}, {"en": ["The evaluations were performed with Scikit-Learn using the Skll Toolkit 6 that makes it easy to run batch Scikit-Learn experiments.", "The experiment was set up and run using the Scikit-Learn machine learning library for python."], "ms": ["Penilaian dilakukan dengan Scikit-Learn menggunakan Skll Toolkit 6 yang memudahkan menjalankan eksperimen Scikit-Learn batch.", "Eksperimen ini telah ditubuhkan dan dijalankan menggunakan perpustakaan pembelajaran mesin Scikit-Learn untuk python."]}, {"en": ["We used the target side of the parallel corpus and the Srilm Toolkit to train a 5-Gram language model.", "We built a 5-Gram language model on the English side of Europarl and used the Kneser-Ney smoothing method and Srilm as the language model Toolkit."], "ms": ["Kami menggunakan sisi sasaran korpus selari dan Srilm Toolkit untuk melatih model bahasa 5-Gram.", "Kami membina model bahasa 5-Gram di sisi bahasa Inggeris Europarl dan menggunakan kaedah smoothing Kneser-Ney dan Srilm sebagai model bahasa Toolkit."]}, {"en": ["Grammar induction is the task of learning a grammar from a set of Unannotated sentences.", "Grammar induction is the task of learning grammatical structure from plain text without human supervision."], "ms": ["Induksi tatabahasa adalah tugas mempelajari tatabahasa dari satu set ayat yang tidak diberi nama.", "Induksi tatabahasa adalah tugas pembelajaran struktur tatabahasa dari teks biasa tanpa pengawasan manusia."]}, {"en": ["Coreference resolution is the task of determining when two textual mentions name the same individual.", "Coreference resolution is the problem of identifying which noun phrases (NPS, or mentions) refer to the same Real-World entity in a text or dialogue."], "ms": ["Resolusi spatial adalah tugas menentukan apabila dua sebutan teks menamakan individu yang sama.", "Resolusi spatial adalah masalah mengenal pasti frasa kata nama (NPS, atau sebutan) yang merujuk kepada entiti Dunia Nyata yang sama dalam teks atau dialog."]}, {"en": ["Furthermore, we train a 5-Gram language model using the Sri language Toolkit.", "For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided."], "ms": ["Tambahan pula, kami melatih model bahasa 5-Gram menggunakan Toolkit bahasa Sri.", "Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan."]}, {"en": ["We use 300-Dimensional vectors that were trained and provided by Word2Vec tool using a part of the Google news Dataset 4.", "In this research, we use the Pre-Trained Google news Dataset 2 by Word2Vec Algorithms."], "ms": ["Kami menggunakan vektor 300 dimensi yang dilatih dan disediakan oleh alat Word2Vec menggunakan sebahagian daripada Dataset berita Google 4.", "Dalam penyelidikan ini, kami menggunakan Dataset berita Google Pra-Trained 2 oleh Algoritma Word2Vec."]}, {"en": ["We used the Srilm Toolkit to create 5-Gram language models with interpolated modified Kneser-Ney discounting.", "For all data sets, we trained a 5-Gram language model using the Sri language modeling Toolkit."], "ms": ["Kami menggunakan Srilm Toolkit untuk mencipta model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai.", "Untuk semua set data, kami melatih model bahasa 5-Gram menggunakan Toolkit pemodelan bahasa Sri."]}, {"en": ["Furthermore, we train a 5-Gram language model using the Sri language Toolkit.", "We use a Fourgram language model with modified Kneser-Ney smoothing as implemented in the Srilm Toolkit."], "ms": ["Tambahan pula, kami melatih model bahasa 5-Gram menggunakan Toolkit bahasa Sri.", "Kami menggunakan model bahasa Fourgram dengan smoothing Kneser-Ney yang diubahsuai seperti yang dilaksanakan dalam Srilm Toolkit."]}, {"en": ["We report decoding speed and BLEU score, as measured by Sacrebleu.", "We report BLEU scores computed using Sacrebleu."], "ms": ["Kami melaporkan kelajuan penyahkodan dan skor BLEU, seperti yang diukur oleh Sacrebleu.", "Kami melaporkan skor BLEU yang dikira menggunakan Sacrebleu."]}, {"en": ["Social media is a rich source of rumours and corresponding community reactions.", "Social media is a valuable source for studying Health-Related behaviors (Cite-P-11-1-8)."], "ms": ["Media sosial adalah sumber khabar angin yang kaya dan reaksi masyarakat yang sepadan.", "Media sosial adalah sumber yang berharga untuk mengkaji tingkah laku berkaitan kesihatan (Cite-P-11-1-8)."]}, {"en": ["Transliteration is often defined as phonetic translation (Cite-P-21-3-2).", "Phonetic translation across these pairs is called Transliteration."], "ms": ["Transliterasi sering ditakrifkan sebagai terjemahan fonetik (Cite-P-21-3-2).", "Terjemahan fonetik merentasi pasangan ini dipanggil Transliterasi."]}, {"en": ["These features were Optimized using minimum Error-Rate training and the same weights were then used in Docent.", "The feature weights are tuned to optimize BLEU using the minimum error rate training algorithm."], "ms": ["Ciri-ciri ini telah dioptimumkan menggunakan latihan Ralat-Rate minimum dan berat yang sama kemudian digunakan dalam Docent.", "Berat ciri ditala untuk mengoptimumkan BLEU menggunakan algoritma latihan kadar ralat minimum."]}, {"en": ["Dependency Parsing is the task of predicting the most probable dependency structure for a given sentence.", "Therefore, dependency Parsing is a potential \u201c sweet spot \u201d that deserves investigation."], "ms": ["Penghuraian dependensi adalah tugas meramalkan struktur dependensi yang paling mungkin untuk ayat tertentu.", "Oleh itu, Parsing dependensi adalah potensi tempat manis yang layak disiasat."]}, {"en": ["Word Embeddings are critical for high-performance neural networks in Nlp tasks.", "High quality word Embeddings have been proven helpful in many Nlp tasks."], "ms": ["Embedding Word sangat penting untuk rangkaian neural berprestasi tinggi dalam tugas Nlp.", "Embedding perkataan berkualiti tinggi telah terbukti berguna dalam banyak tugas Nlp."]}, {"en": ["In this paper we present a new, publicly available corpus for Context-Dependent semantic Parsing.", "In this paper we presented a new corpus for Context-Dependent semantic Parsing."], "ms": ["Dalam makalah ini kami membentangkan korpus baru yang tersedia untuk umum untuk Penghuraian semantik Konteks-Dependen.", "Dalam kertas ini kami membentangkan korpus baru untuk Penghuraian semantik Konteks-Bergantung."]}, {"en": ["Semantic Parsing is the task of translating natural language utterances into a Machine-Interpretable meaning representation.", "Semantic Parsing is the problem of mapping natural language strings into meaning representations."], "ms": ["Penghuraian Semantik adalah tugas menterjemahkan ucapan bahasa semula jadi ke dalam perwakilan makna Mesin-Terpretasi.", "Penghuraian Semantik adalah masalah pemetaan rentetan bahasa semula jadi ke dalam perwakilan makna."]}, {"en": ["As our supervised classification algorithm, we use a linear SVM Classifier from Liblinear, with its default parameter settings.", "For all machine learning results, we train a logistic regression Classifier implemented in Scikitlearn with L2 Regularization and the Liblinear Solver."], "ms": ["Sebagai algoritma pengelasan yang diselia, kami menggunakan Pengelas SVM linear dari Liblinear, dengan tetapan parameter lalainya.", "Untuk semua hasil pembelajaran mesin, kami melatih Classifier regresi logistik yang dilaksanakan di Scikitlearn dengan L2 Regularization dan Liblinear Solver."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of assigning sense tags to ambiguous lexical items (Lis) in a text.", "Word sense Disambiguation (Wsd) is the task of determining the correct meaning or sense of a word in context."], "ms": ["Disambiguasi kata (Wsd) adalah tugas untuk menetapkan tag deria kepada item leksikal samar (Lis) dalam teks.", "Kemusykilan kata Kemusykilan perkataan (Wsd) ialah tugas menentukan makna atau rasa yang betul sesuatu perkataan dalam konteks."]}, {"en": ["We compute the Interannotator agreement in terms of the BLEU score.", "We measure machine translation performance using the BLEU metric."], "ms": ["Kami mengira perjanjian Interannotator dari segi skor BLEU.", "Kami mengukur prestasi terjemahan mesin menggunakan metrik BLEU."]}, {"en": ["We applied Liblinear via its Scikitlearn python interface to train the logistic regression model with L2 Regularization.", "We trained the classifiers for relation extraction using L1-Regularized logistic regression with default parameters using the Liblinear package."], "ms": ["Kami menggunakan Liblinear melalui antara muka python Scikitlearn untuk melatih model regresi logistik dengan L2 Regularization.", "Kami melatih pengelas untuk pengekstrakan hubungan menggunakan regresi logistik L1-Regularized dengan parameter lalai menggunakan pakej Liblinear."]}, {"en": ["The decoding weights were Optimized with minimum error rate training.", "The Smt weighting parameters were tuned by Mert in the development data."], "ms": ["Berat penyahkodan dioptimumkan dengan latihan kadar ralat minimum.", "Parameter pemberat Smt ditala oleh Mert dalam data pembangunan."]}, {"en": ["The earliest approach in used edit distance based multiple string alignment to build the confusion networks.", "The first application of machine translation system combination used a consensus decoding strategy relying on a confusion network."], "ms": ["Pendekatan terawal dalam penjajaran rentetan berbilang berasaskan jarak suntingan yang digunakan untuk membina rangkaian kekeliruan.", "Aplikasi pertama gabungan sistem terjemahan mesin menggunakan strategi penyahkodan konsensus bergantung pada rangkaian kekeliruan."]}, {"en": ["We build all the classifiers using the L2-Regularized linear logistic regression from the Liblinear package.", "We used an L2-Regularized L2-Loss linear SVM to learn the attribute predictions."], "ms": ["Kami membina semua pengelas menggunakan regresi logistik linear L2-Regularized dari pakej Liblinear.", "Kami menggunakan SVM linear L2-Loss L2-Regularized untuk mempelajari ramalan atribut."]}, {"en": ["Word sense Disambiguation (Wsd) is the Nlp task that consists in selecting the correct sense of a Polysemous word in a given context.", "Word sense Disambiguation (Wsd) is a key task in computational lexical Semantics, inasmuch as it addresses the lexical ambiguity of text by making explicit the meaning of words occurring in a given context (Cite-P-18-3-10)."], "ms": ["Disambiguasi erti kata (Wsd) ialah tugas Nlp yang terdiri daripada memilih erti kata yang betul bagi perkataan Polisemous dalam konteks tertentu.", "Disambiguation Word Sense Disambiguation (Wsd) adalah tugas utama dalam Semantik leksikal komputasi, seperti menangani kekaburan leksikal teks dengan membuat makna kata yang eksplisit yang berlaku dalam konteks tertentu (Cite-P-18-3-10)."]}, {"en": ["A notable component of our extension is that we introduce a training algorithm for learning a hidden unit Crf of Maaten et al from partially labeled sequences.", "We extend the Perceptron training method of Maaten et al to train a Hucrf from partially labeled sequences."], "ms": ["Komponen penting dalam peluasan kami ialah kami memperkenalkan algoritma latihan untuk mempelajari unit tersembunyi Crf Maaten et al dari urutan berlabel sebahagiannya.", "Kami memperluaskan kaedah latihan Perceptron Maaten et al untuk melatih Hucrf dari urutan berlabel sebahagiannya."]}, {"en": ["Coreference resolution is the process of linking together multiple expressions of a given entity.", "Coreference resolution is the task of determining which mentions in a text refer to the same entity."], "ms": ["Resolusi spatial adalah proses menghubungkan pelbagai ungkapan entiti tertentu.", "Resolusi spatial adalah tugas menentukan sebutan mana dalam teks merujuk kepada entiti yang sama."]}, {"en": ["Semantic Parsing is the task of converting a sentence into a representation of its meaning, usually in a logical form grounded in the symbols of some fixed Ontology or relational Database (Cite-P-21-3-3, Cite-P-21-3-4, Cite-P-21-1-11).", "Semantic Parsing is the task of mapping natural language to a formal meaning representation."], "ms": ["Penghuraian Semantik adalah tugas menukar ayat menjadi perwakilan maknanya, biasanya dalam bentuk logik yang didasarkan pada simbol beberapa Ontologi tetap atau Pangkalan Data hubungan (Cite-P-21-3-3, Cite-P-21-3-4, Cite-P-21-1-11).", "Penghuraian Semantik adalah tugas pemetaan bahasa semula jadi kepada perwakilan makna formal."]}, {"en": ["We trained a 4-Gram language model on this data with Kneser-Ney discounting using Srilm.", "For probabilities, we trained 5-Gram language models using Srilm."], "ms": ["Kami melatih model bahasa 4-Gram pada data ini dengan diskaun Kneser-Ney menggunakan Srilm.", "Untuk kebarangkalian, kami melatih model bahasa 5-Gram menggunakan Srilm."]}, {"en": ["We have used the Srilm with Kneser-Ney smoothing for training a language model for the first stage of decoding.", "We have used the Srilm with Kneser-Ney smoothing for training a language model of order five and Mert for tuning the model with development data."], "ms": ["Kami telah menggunakan Srilm dengan smoothing Kneser-Ney untuk melatih model bahasa untuk peringkat pertama penyahkodan.", "Kami telah menggunakan Srilm dengan Kneser-Ney smoothing untuk melatih model bahasa urutan lima dan Mert untuk menyesuaikan model dengan data pembangunan."]}, {"en": ["Word sense Disambiguation (Wsd) is a task to identify the intended sense of a word based on its context.", "Word sense Disambiguation (Wsd) is a difficult natural language processing task which requires that for every content word (noun, adjective, verb or adverb) the appropriate meaning is automatically selected from the available sense inventory 1."], "ms": ["Disambiguasi erti kata (Wsd) adalah tugas untuk mengenal pasti pengertian perkataan yang dimaksudkan berdasarkan konteksnya.", "Disambiguasi erti kata (Wsd) adalah tugas pemprosesan bahasa semula jadi yang sukar yang memerlukan bahawa untuk setiap perkataan kandungan (kata nama, kata sifat, kata kerja atau kata kerja) makna yang sesuai dipilih secara automatik dari inventori rasa yang ada 1."]}, {"en": ["In order to reduce the source vocabulary size translation, the German text was Preprocessed by splitting German compound words with the Frequencybased method described in.", "Additionally, for En-De, compound splitting of the German side of the corpus was performed using a frequency based method described in."], "ms": ["Untuk mengurangkan terjemahan saiz perbendaharaan kata sumber, teks Jerman telah diproses dengan membahagikan perkataan kompaun Jerman dengan kaedah berasaskan Frekuensi yang diterangkan dalam.", "Selain itu, untuk En-De, pembahagian sebatian sisi Jerman korpus dilakukan menggunakan kaedah berasaskan frekuensi yang dijelaskan dalam."]}, {"en": ["In this paper, we proposed a way to extend the size of the target vocabulary for neural machine translation.", "In this paper, we propose a method based on importance sampling that allows us to use a very large target vocabulary."], "ms": ["Dalam makalah ini, kami mencadangkan cara untuk memperluas saiz perbendaharaan kata sasaran untuk terjemahan mesin saraf.", "Dalam kertas kerja ini, kami mencadangkan kaedah berdasarkan persampelan penting yang membolehkan kita menggunakan perbendaharaan kata sasaran yang sangat besar."]}, {"en": ["We apply our model to the English portion of the Conll 2012 shared task data, which is derived from the Ontonotes corpus.", "We experiment with a machine learning strategy to model Multilingual Coreference for the Conll-2012 shared task."], "ms": ["Kami menggunakan model kami untuk bahagian Bahasa Inggeris dari Data tugas bersama Conll 2012, yang berasal dari Ontonotes corpus.", "Kami bereksperimen dengan strategi pembelajaran mesin untuk memodelkan Multilingual Coreference untuk tugas bersama Conll-2012."]}, {"en": ["We used Moses, a Phrase-Based Smt Toolkit, for training the translation model.", "We evaluated the reordering approach within the Moses Phrase-Based Smt system."], "ms": ["Kami menggunakan Musa, Alat Alat Smt Berasaskan Frasa, untuk melatih model terjemahan.", "Kami menilai pendekatan penyusunan semula dalam sistem Smt Berasaskan Frasa Musa."]}, {"en": ["Distributed word representations have been shown to improve the accuracy of NER systems.", "Word Embeddings have proven to be effective models of semantic representation of words in various Nlp tasks."], "ms": ["Perwakilan perkataan yang diedarkan telah ditunjukkan untuk meningkatkan ketepatan sistem NER.", "Embedding Word telah terbukti menjadi model berkesan perwakilan semantik perkataan dalam pelbagai tugas Nlp."]}, {"en": ["We used the Srilm Toolkit and Kneser-Ney discounting for estimating 5-Grams LMS.", "For probabilities, we trained 5-Gram language models using Srilm."], "ms": ["Kami menggunakan Srilm Toolkit dan Kneser-Ney diskaun untuk menganggarkan 5-Grams LMS.", "Untuk kebarangkalian, kami melatih model bahasa 5-Gram menggunakan Srilm."]}, {"en": ["Event Coreference resolution is the task of determining which event mentions expressed in language refer to the same Real-World event instances.", "Event Coreference resolution is the task of identifying event mentions and clustering them such that each cluster represents a unique real world event."], "ms": ["Resolusi Resolusi Peristiwa ialah tugas menentukan sebutan peristiwa yang dinyatakan dalam bahasa merujuk kepada contoh peristiwa Dunia Nyata yang sama.", "Resolusi Coreference peristiwa adalah tugas mengenal pasti sebutan peristiwa dan mengelompokkannya sehingga setiap kluster mewakili peristiwa dunia nyata yang unik."]}, {"en": ["To do this we examine the Dataset created for the English lexical substitution task in Semeval.", "In practical terms, we will use a paraphrase ranking task derived from the Semeval 2007 lexical substitution task."], "ms": ["Untuk melakukan ini, kami mengkaji Dataset yang dicipta untuk tugas penggantian leksikal Inggeris di Semeval.", "Dari segi praktikal, kami akan menggunakan tugas ranking parafrasa yang berasal dari tugas penggantian leksikal Semeval 2007."]}, {"en": ["Word Embeddings have shown promising results in Nlp tasks, such as named entity recognition, sentiment analysis or Parsing.", "Word Embeddings have also been effectively employed in several tasks such as named entity recognition, adjectival scales and text classification."], "ms": ["Embeddings Word telah menunjukkan hasil yang menjanjikan dalam tugas Nlp, seperti pengiktirafan entiti bernama, analisis sentimen atau Penghuraian.", "Embeddings Word juga telah digunakan dengan berkesan dalam beberapa tugas seperti pengiktirafan entiti dinamakan, skala adjektif dan pengelasan teks."]}, {"en": ["We evaluated the translation quality of the system using the BLEU metric.", "For the automatic evaluation, we used the BLEU metric from IBM."], "ms": ["Kami menilai kualiti terjemahan sistem menggunakan metrik BLEU.", "Untuk penilaian automatik, kami menggunakan metrik BLEU dari IBM."]}, {"en": ["We used the Svd implementation provided in the Scikit-Learn Toolkit.", "We use the Scikit-Learn machine learning library to implement the entire pipeline."], "ms": ["Kami menggunakan pelaksanaan Svd yang disediakan dalam Scikit-Learn Toolkit.", "Kami menggunakan perpustakaan pembelajaran mesin Scikit-Learn untuk melaksanakan keseluruhan saluran paip."]}, {"en": ["Due to the success of word Embeddings in word similarity judgment tasks, this work also makes use of global vector word Embeddings.", "This approach relies on word Embeddings for the computation of semantic relatedness with Word2Vec."], "ms": ["Oleh kerana kejayaan perkataan Embeddings dalam tugas penghakiman kesamaan perkataan, kerja ini juga menggunakan perkataan vektor global Embeddings.", "Pendekatan ini bergantung pada Embedding perkataan untuk pengiraan hubungan semantik dengan Word2Vec."]}, {"en": ["Case-Insensitive Bleu-4 is our evaluation metric.", "The evaluation metric is Casesensitive Bleu-4."], "ms": ["Bleu-4 adalah metrik penilaian kami.", "Metrik penilaian ialah Casesensitive Bleu-4."]}, {"en": ["Qiu et al propose double propagation to expand opinion targets and opinion words lists in a Bootstrapping way.", "Qiu et al proposed double propagation to collectively extract aspect terms and opinion words based on information propagation over a dependency graph."], "ms": ["Qiu et al mencadangkan penyebaran berganda untuk memperluaskan sasaran pendapat dan senarai kata pendapat dengan cara Bootstrapping.", "Qiu et al mencadangkan penyebaran berganda secara kolektif untuk mengekstrak istilah aspek dan kata pendapat berdasarkan penyebaran maklumat melalui graf kebergantungan."]}, {"en": ["We experimentally evaluate the Heldout perplexity of models trained with our various importance sampling distributions.", "We experimentally evaluate the effectiveness of multiple importance sampling distributions."], "ms": ["Kami secara eksperimen menilai kebingungan Heldout model yang dilatih dengan pelbagai pengedaran persampelan kepentingan kami.", "Kami secara eksperimen menilai keberkesanan pelbagai pengedaran persampelan kepentingan."]}, {"en": ["As the Encoder for text we consider Convolutional neural networks, Gated recurrent units, and long short-term memory networks.", "The basic building blocks of our models are recurrent neural networks with long short-term memory units."], "ms": ["Sebagai Pengekod untuk teks, kami menganggap rangkaian saraf konvolutional, unit berulang yang digabungkan, dan rangkaian memori jangka pendek yang panjang.", "Blok bangunan asas model kami adalah rangkaian saraf berulang dengan unit memori jangka pendek yang panjang."]}, {"en": ["For this model, we use a Binary logistic regression Classifier implemented in the Lib-Linear package, coupled with the Ovo scheme.", "For the machine learning component of our system we use the L2-Regularised logistic regression implementation of the Liblinear 3 software library."], "ms": ["Untuk model ini, kami menggunakan Pengkelasan regresi logistik binari yang dilaksanakan dalam pakej Lib-Linear, ditambah dengan skema Ovo.", "Untuk komponen pembelajaran mesin sistem kami, kami menggunakan pelaksanaan regresi logistik L2-Regularized perpustakaan perisian Liblinear 3."]}, {"en": ["For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided.", "We trained a 5-Gram language model on the English side of each training corpus using the Sri language modeling Toolkit."], "ms": ["Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan.", "Kami melatih model bahasa 5-Gram di sisi bahasa Inggeris setiap korpus latihan menggunakan Toolkit pemodelan bahasa Sri."]}, {"en": ["The Srilm Toolkit was used to build this language model.", "The Srilm Toolkit was used to build the Trigram Mkn smoothed language model."], "ms": ["Srilm Toolkit digunakan untuk membina model bahasa ini.", "Srilm Toolkit digunakan untuk membina model bahasa licin Trigram Mkn."]}, {"en": ["Relation extraction is a core task in information extraction and natural language understanding.", "Relation extraction is the task of finding relations between entities in text, which is useful for several tasks such as information extraction, summarization, and question answering (Cite-P-14-3-7)."], "ms": ["Pengekstrakan hubungan adalah tugas utama dalam pengekstrakan maklumat dan pemahaman bahasa semula jadi.", "Pengekstrakan hubungan adalah tugas mencari hubungan antara entiti dalam teks, yang berguna untuk beberapa tugas seperti pengekstrakan maklumat, ringkasan, dan jawapan soalan (Cite-P-14-3-7)."]}, {"en": ["Results are reported using Case-Insensitive BLEU with a single reference.", "Translation performances are measured with Case-Insensitive Bleu4 score."], "ms": ["Keputusan dilaporkan menggunakan Case-Insensitive BLEU dengan rujukan tunggal.", "Persembahan terjemahan diukur dengan skor Case-Insensitive Bleu4."]}, {"en": ["In this work we study the use of semantic frames for Modelling argumentation in speakers \u2019 discourse.", "In this paper, we study the impact of persuasive argumentation in political debates."], "ms": ["Dalam kerja ini kita mengkaji penggunaan bingkai semantik untuk hujah pemodelan dalam wacana penutur.", "Dalam makalah ini, kita mengkaji kesan hujah persuasif dalam perdebatan politik."]}, {"en": ["We set the feature weights by optimizing the BLEU score directly using minimum error rate training on the development set.", "We then learn Reranking weights using minimum error rate training on the development set for this combined list, using only these two features."], "ms": ["Kami menetapkan berat ciri dengan mengoptimumkan skor BLEU secara langsung menggunakan latihan kadar ralat minimum pada set pembangunan.", "Kami kemudian belajar Reranking berat menggunakan latihan kadar ralat minimum pada set pembangunan untuk senarai gabungan ini, menggunakan hanya dua ciri ini."]}, {"en": ["Based on the Distributional hypothesis, we train a Skip-Gram model to learn the Distributional representations of words in a large corpus.", "Based on hypothesis 1, we learn Sense-Based Embeddings from a large data set, using the continuous Skip-Gram model."], "ms": ["Berdasarkan hipotesis Pengagihan, kami melatih model Skip-Gram untuk mempelajari perwakilan Pengagihan perkataan dalam korpus besar.", "Berdasarkan hipotesis 1, kita belajar Embeddings berasaskan Sense dari set data yang besar, menggunakan model Skip-Gram yang berterusan."]}, {"en": ["Named entity recognition (NER) is a frequently needed technology in Nlp applications.", "Named entity recognition (NER) is a challenging learning problem."], "ms": ["Pengecaman entiti yang dinamakan (NER) adalah teknologi yang sering diperlukan dalam aplikasi Nlp.", "Pengecaman entiti yang dinamakan (NER) adalah masalah pembelajaran yang mencabar."]}, {"en": ["Examples of such Schemas include Freebase and Yago2.", "Examples are Yago, Dbpedia, and Freebase."], "ms": ["Contoh Schemas seperti itu termasuk Freebase dan Yago2.", "Contohnya Yago, Dbpedia, dan Freebase."]}, {"en": ["Ner is the task of identifying names in text and assigning them a type (E.G . person, location, Organisation, miscellaneous).", "Ner is a task to identify names in texts and to assign names with particular types (Cite-P-12-3-17, Cite-P-12-3-19, Cite-P-12-3-18, Cite-P-12-3-2)."], "ms": ["Ner adalah tugas mengenal pasti nama dalam teks dan memberikan mereka jenis (E.G. orang, lokasi, Organisasi, pelbagai).", "Ner adalah tugas untuk mengenal pasti nama dalam teks dan untuk menetapkan nama dengan jenis tertentu (Cite-P-12-3-17, Cite-P-12-3-19, Cite-P-12-3-18, Cite-P-12-3-2)."]}, {"en": ["The Targetside 4-Gram language model was estimated using the Srilm Toolkit and modified Kneser-Ney discounting with interpolation.", "The target language model was a Trigram language model with modified Kneser-Ney smoothing trained on the English side of the Bitext using the Srilm Tookit."], "ms": ["Model bahasa Targetside 4-Gram dianggarkan menggunakan Srilm Toolkit dan diskaun Kneser-Ney yang diubahsuai dengan interpolasi.", "Model bahasa sasaran adalah model bahasa Trigram dengan smoothing Kneser-Ney yang diubahsuai dilatih di sisi bahasa Inggeris Bitext menggunakan Srilm Tookit."]}, {"en": ["Within this Subpart of our ensemble model, we used a SVM model from the Scikit-Learn library.", "We used the Scikit-Learn implementation of Svrs and the Skll Toolkit."], "ms": ["Dalam Subpart model ensemble kami, kami menggunakan model SVM dari perpustakaan Scikit-Learn.", "Kami menggunakan pelaksanaan Scikit-Learn Svrs dan Skll Toolkit."]}, {"en": ["We use Moses, an open source Toolkit for training different systems.", "We use the Moses Smt Toolkit to test the augmented Datasets."], "ms": ["Kami menggunakan Musa, alat sumber terbuka untuk melatih sistem yang berbeza.", "Kami menggunakan Musa Smt Toolkit untuk menguji Dataset yang ditambah."]}, {"en": ["Semi-Supervised learning is a broader area of machine learning, focusing on improving the learning process by usage of Unlabeled data in conjunction with labeled data.", "Semi-Supervised learning is a type of machine learning where one has access to a small amount of labeled data and a large amount of Unlabeled data."], "ms": ["Pembelajaran separa diawasi adalah bidang pembelajaran mesin yang lebih luas, dengan fokus untuk meningkatkan proses pembelajaran dengan penggunaan data yang tidak berlabel bersama dengan data yang dilabel.", "Semi-Supervised pembelajaran adalah sejenis pembelajaran mesin di mana seseorang mempunyai akses kepada sejumlah kecil data berlabel dan sejumlah besar data Unlabeled."]}, {"en": ["Semantic role labeling (SRL) is a task of automatically identifying semantic relations between Predicate and its related arguments in the sentence.", "Semantic role labeling (SRL) is the process of producing such a MARKUP."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas untuk mengenal pasti hubungan semantik secara automatik antara Predicate dan hujah-hujah yang berkaitan dalam ayat.", "Pelabelan peranan semantik (SRL) adalah proses menghasilkan MARKUP sedemikian."]}, {"en": ["We use a random forest Classifier, as implemented in Scikit-Learn.", "We use the SVM implementation from Scikit-Learn, which in turn is based on Libsvm."], "ms": ["Kami menggunakan Classifier hutan rawak, seperti yang dilaksanakan dalam Scikit-Learn.", "Kami menggunakan pelaksanaan SVM dari Scikit-Learn, yang seterusnya berdasarkan Libsvm."]}, {"en": ["We use Srilm for training a Trigram language model on the English side of the training data.", "We apply Sri language modeling Toolkit to train a 4-Gram language model with Kneser-Ney smoothing."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa Trigram di sisi bahasa Inggeris data latihan.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model bahasa 4-Gram dengan smoothing Kneser-Ney."]}, {"en": ["We also use a 4-Gram language model trained using Srilm with Kneser-Ney smoothing.", "The probabilistic language model is constructed on Google web 1T 5-Gram corpus by using the Srilm Toolkit."], "ms": ["Kami juga menggunakan model bahasa 4-Gram yang dilatih menggunakan Srilm dengan smoothing Kneser-Ney.", "Model bahasa probabilistik dibina di Google web 1T 5-Gram corpus dengan menggunakan Srilm Toolkit."]}, {"en": ["Barzilay and Mckeown identify Multi-Word paraphrases from a Sentence-Aligned corpus of Monolingual parallel texts.", "Barzilay and Mckeown and Callisonburch et al extracted paraphrases from Monolingual parallel corpus where multiple translations were present for the same source."], "ms": ["Barzilay dan Mckeown mengenal pasti parafrasa Multi-Word dari korpus Sentence-Aligned teks selari Monolingual.", "Barzilay dan Mckeown dan Callisonburch et al mengekstrak parafrasa dari korpus selari Monolingual di mana pelbagai terjemahan hadir untuk sumber yang sama."]}, {"en": ["We have proposed adversarial stability training to improve the robustness of Nmt models.", "Training approach can improve the robustness of Nmt models."], "ms": ["Kami telah mencadangkan latihan kestabilan adversarial untuk meningkatkan kekukuhan model Nmt.", "Pendekatan latihan boleh meningkatkan kekukuhan model Nmt."]}, {"en": ["For the language model, we used Sri language modeling Toolkit to train a Trigram model with modified Kneser-Ney smoothing on the 31 , 149 English sentences.", "For this language model, we built a Trigram language model with Kneser-Ney smoothing using Srilm from the same automatically Segmented corpus."], "ms": ["Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Trigram dengan Kneser-Ney yang diubahsuai pada 31, 149 ayat bahasa Inggeris.", "Untuk model bahasa ini, kami membina model bahasa Trigram dengan smoothing Kneser-Ney menggunakan Srilm dari korpus Segmen yang sama secara automatik."]}, {"en": ["We use Liblinear 9 to solve the Lr and SVM classification problems.", "We train a linear support vector machine Classifier using the efficient Liblinear package."], "ms": ["Kami menggunakan Liblinear 9 untuk menyelesaikan masalah klasifikasi Lr dan SVM.", "Kami melatih Classifier mesin vektor sokongan linear menggunakan pakej Liblinear yang cekap."]}, {"en": ["We used the Scikit-Learn implementation of Svrs and the Skll Toolkit.", "We used the implementation of the Scikit-Learn 2 Module."], "ms": ["Kami menggunakan pelaksanaan Scikit-Learn Svrs dan Skll Toolkit.", "Kami menggunakan pelaksanaan Modul Scikit-Learn 2."]}, {"en": ["To measure the translation quality, we use the BLEU score and the Nist score.", "In order to measure translation quality, we use BLEU 7 and Ter scores."], "ms": ["Untuk mengukur kualiti terjemahan, kami menggunakan skor BLEU dan skor Nist.", "Untuk mengukur kualiti terjemahan, kami menggunakan skor BLEU 7 dan Ter."]}, {"en": ["We use the Stanford Parser with Stanford Dependencies.", "Our Holing system uses collapsed Stanford Parser Dependencies as context features."], "ms": ["Kami menggunakan Stanford Parser dengan Dependensi Stanford.", "Sistem Holing kami menggunakan Dependensi Parser Stanford yang runtuh sebagai ciri konteks."]}, {"en": ["Kondrak and Dorr present a large number of Language-Independent distance measures in order to predict whether two drug names are Confusable or not.", "Kondrak and Dorr reported that a simple average of several orthographic similarity measures outperformed all the measures on the task of the identification of Cognates for drug names."], "ms": ["Kondrak dan Dorr membentangkan sejumlah besar langkah jarak bahasa bebas untuk meramalkan sama ada dua nama dadah adalah mengelirukan atau tidak.", "Kondrak dan Dorr melaporkan bahawa purata sederhana beberapa langkah persamaan ortografi mengatasi semua langkah-langkah pada tugas pengenalan Cognates untuk nama-nama dadah."]}, {"en": ["We use a Cws-Oriented model modified from the Skip-Gram model to derive word Embeddings.", "We begin by computing the similarity between words using word Embeddings."], "ms": ["Kami menggunakan model Berorientasi Cws yang diubahsuai dari model Skip-Gram untuk memperoleh perkataan Embeddings.", "Kita mulakan dengan mengira persamaan antara perkataan menggunakan Embeddings perkataan."]}, {"en": ["Wikipedia is a constantly evolving source of detailed information that could facilitate intelligent machines \u2014 if they are able to leverage its power.", "Wikipedia is a resource of choice exploited in many Nlp applications, yet we are not aware of recent attempts to adapt Coreference resolution to this resource."], "ms": ["Wikipedia adalah sumber maklumat terperinci yang sentiasa berkembang yang boleh memudahkan mesin pintar - jika mereka dapat memanfaatkan kuasanya.", "Wikipedia adalah sumber pilihan yang dieksploitasi dalam banyak aplikasi Nlp, namun kami tidak menyedari percubaan baru-baru ini untuk menyesuaikan resolusi Coreference dengan sumber ini."]}, {"en": ["For training the translation model and for decoding we used the Moses Toolkit.", "We used the Moses Toolkit for performing statistical machine translation."], "ms": ["Untuk melatih model terjemahan dan untuk penyahkodan, kami menggunakan Musa Toolkit.", "Kami menggunakan Musa Toolkit untuk melaksanakan terjemahan mesin statistik."]}, {"en": ["The Pre-Processed Monolingual sentences will be used by Srilm or Berkeleylm to train a N-Gram language model.", "The N-Gram models are created using the Srilm Toolkit with Good-Turning smoothing for both the Chinese and English data."], "ms": ["Kalimat Monolingual Pra-Proses akan digunakan oleh Srilm atau Berkeleylm untuk melatih model bahasa N-Gram.", "Model N-Gram dicipta menggunakan Srilm Toolkit dengan smoothing Good-Turning untuk kedua-dua data Cina dan Inggeris."]}, {"en": ["Sentiment classification is the task of identifying the sentiment polarity of a given text.", "Sentiment classification is the task of classifying an opinion document as expressing a positive or negative sentiment."], "ms": ["Klasifikasi sentimen adalah tugas mengenal pasti polariti sentimen teks tertentu.", "Klasifikasi sentimen adalah tugas mengklasifikasikan dokumen pendapat sebagai menyatakan sentimen positif atau negatif."]}, {"en": ["Relation extraction is the task of detecting and characterizing semantic relations between entities from free text.", "Relation extraction (re) is the process of generating structured relation knowledge from unstructured natural language texts."], "ms": ["Pengekstrakan hubungan adalah tugas mengesan dan mencirikan hubungan semantik antara entiti dari teks percuma.", "Pengekstrakan hubungan (re) adalah proses menghasilkan pengetahuan hubungan berstruktur dari teks bahasa semula jadi yang tidak berstruktur."]}, {"en": ["Our model is a structured conditional random field.", "As a Classifier, we choose a first-order conditional random field model."], "ms": ["Model kami adalah medan rawak bersyarat berstruktur.", "Sebagai Pengelas, kami memilih model medan rawak bersyarat pesanan pertama."]}, {"en": ["For our logistic regression Classifier we use the implementation included in the Scikit-Learn Toolkit 2.", "We implement logistic regression with Scikit-Learn and use the Lbfgs Solver."], "ms": ["Untuk pengelasan regresi logistik kami, kami menggunakan pelaksanaan yang termasuk dalam Scikit-Learn Toolkit 2.", "Kami melaksanakan regresi logistik dengan Scikit-Learn dan menggunakan Lbfgs Solver."]}, {"en": ["Semantic role labeling (SRL) is the process of extracting simple event structures, I.E ., \u201c who \u201d did \u201c what \u201d to \u201c whom \u201d, \u201c when \u201d and \u201c where \u201d.", "Semantic role labeling (SRL) is defined as the task to recognize arguments for a given Predicate and assign semantic role labels to them."], "ms": ["Pelabelan peranan semantik (SRL) adalah proses mengekstrak struktur peristiwa mudah, I.E., dan siapa yang melakukan apa yang anda lakukan kepada siapa, dan apabila anda dan di mana anda berada.", "Pelabelan peranan semantik (SRL) ditakrifkan sebagai tugas untuk mengenali hujah untuk Predicate tertentu dan memberikan label peranan semantik kepada mereka."]}, {"en": ["We use Pre-Trained 100 dimensional glove word Embeddings.", "We use the glove Pre-Trained word Embeddings for the vectors of the content words."], "ms": ["Kami menggunakan perkataan sarung tangan 100 dimensi Pra-Trained Embeddings.", "Kami menggunakan sarung tangan Embeddings perkataan Pra-Latih untuk vektor perkataan kandungan."]}, {"en": ["Luong et al train a recursive neural network for morphological composition, and show its effectiveness on word similarity task.", "Luong et al segment words using Morfessor, and use recursive neural networks to build word Embeddings from Morph Embeddings."], "ms": ["Luong et al melatih rangkaian saraf rekursif untuk komposisi morfologi, dan menunjukkan keberkesanannya pada tugas kesamaan perkataan.", "Kata-kata segmen Luong et al menggunakan Morfessor, dan menggunakan rangkaian neural rekursif untuk membina Embedding perkataan dari Embedding Morph."]}, {"en": ["We use the Word2Vec Skip-Gram model to train our word Embeddings.", "Then, we trained word Embeddings using Word2Vec."], "ms": ["Kami menggunakan model Skip-Gram Word2Vec untuk melatih Embedding perkataan kami.", "Kemudian, kami melatih Embedding perkataan menggunakan Word2Vec."]}, {"en": ["Word Embedding approaches like Word2Vec or glove are powerful tools for the semantic analysis of natural language.", "Word Embeddings such as Word2Vec and glove have been widely recognized for their ability to capture linguistic Regularities."], "ms": ["Pendekatan Embedding Word seperti Word2Vec atau sarung tangan adalah alat yang kuat untuk analisis semantik bahasa semula jadi.", "Embedding perkataan seperti Word2Vec dan sarung tangan telah diiktiraf secara meluas kerana keupayaan mereka untuk menangkap Kebiasaan linguistik."]}, {"en": ["Semantic role labeling (SRL) is the task of identifying semantic arguments of Predicates in text.", "Semantic role labeling (SRL) is the process of producing such a MARKUP."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas mengenal pasti hujah semantik Predicates dalam teks.", "Pelabelan peranan semantik (SRL) adalah proses menghasilkan MARKUP sedemikian."]}, {"en": ["We perform minimum error rate training to tune various feature weights.", "We Optimized each system separately using minimum error rate training."], "ms": ["Kami melakukan latihan kadar ralat minimum untuk menyesuaikan pelbagai berat ciri.", "Kami mengoptimumkan setiap sistem secara berasingan menggunakan latihan kadar ralat minimum."]}, {"en": ["The Message-Level Embeddings are generated using Doc2Vec.", "Sentence vectors were generated using Doc2Vec."], "ms": ["Embedding Tahap Mesej dihasilkan menggunakan Doc2Vec.", "Vektor kederaan dihasilkan menggunakan Doc2Vec."]}, {"en": ["Domain adaptation is a challenge for supervised Nlp systems because of expensive and time-consuming manual Annotated resources.", "Domain adaptation is a common concern when optimizing empirical Nlp applications."], "ms": ["Penyesuaian domain adalah cabaran untuk sistem Nlp yang diawasi kerana sumber Annotated manual yang mahal dan memakan masa.", "Penyesuaian domain adalah kebimbangan umum apabila mengoptimumkan aplikasi Nlp empirikal."]}, {"en": ["We employ conditional random fields to predict the sentiment label for each segment.", "We use Crf to learn the Correlations between the current label and its neighbors."], "ms": ["Kami menggunakan medan rawak bersyarat untuk meramalkan label sentimen untuk setiap segmen.", "Kami menggunakan Crf untuk mempelajari Hubungan antara label semasa dan jirannya."]}, {"en": ["The target Fourgram language model was built with the English part of training data using the Sri language modeling Toolkit.", "Additionally, a Back-Off 2-Gram model with Goodturing discounting and no lexical classes was built from the same training data, using the Srilm Toolkit."], "ms": ["Model bahasa Fourgram sasaran dibina dengan bahagian bahasa Inggeris data latihan menggunakan Toolkit pemodelan bahasa Sri.", "Selain itu, model Back-Off 2-Gram dengan diskaun Goodturing dan tiada kelas leksikal dibina daripada data latihan yang sama, menggunakan Srilm Toolkit."]}, {"en": ["We use the Word2Vec vectors with 300 dimensions, Pre-Trained on 100 billion words of Google news.", "In this research, we use the Pre-Trained Google news Dataset 2 by Word2Vec Algorithms."], "ms": ["Kami menggunakan vektor Word2Vec dengan 300 dimensi, Pra-Trained pada 100 bilion perkataan berita Google.", "Dalam penyelidikan ini, kami menggunakan Dataset berita Google Pra-Trained 2 oleh Algoritma Word2Vec."]}, {"en": ["We use both logistic regression with elastic net Regularisation and support vector machines with a linear kernel.", "We apply linear regression with elastic net Regularization and support vector regression with an Rbf kernel for comparison."], "ms": ["Kami menggunakan kedua-dua regresi logistik dengan Regularisasi jaring elastik dan mesin vektor sokongan dengan kernel linear.", "Kami menggunakan regresi linear dengan Regularisasi jaring elastik dan menyokong regresi vektor dengan kernel Rbf untuk perbandingan."]}, {"en": ["The language model was constructed using the Srilm Toolkit with interpolated Kneser-Ney discounting.", "We have used the Srilm with Kneser-Ney smoothing for training a language model for the first stage of decoding."], "ms": ["Model bahasa dibina menggunakan Srilm Toolkit dengan diskaun Kneser-Ney yang saling berkaitan.", "Kami telah menggunakan Srilm dengan smoothing Kneser-Ney untuk melatih model bahasa untuk peringkat pertama penyahkodan."]}, {"en": ["We use the Stanford dependency Parser to Parse the statement and identify the path connecting the content words in the Parse tree.", "We Parse the corpus using the Stanford dependency Parser and extract the main verb of each segment."], "ms": ["Kami menggunakan Stanford dependency Parser untuk Parse pernyataan dan mengenal pasti laluan yang menghubungkan kata-kata kandungan dalam pokok Parse.", "Kami menghuraikan korpus menggunakan Stanford dependency Parser dan mengekstrak kata kerja utama setiap segmen."]}, {"en": ["For all experiments, we used a 4-Gram language model with modified Kneser-Ney smoothing which was trained with the Srilm Toolkit.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Untuk semua eksperimen, kami menggunakan model bahasa 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilatih dengan Srilm Toolkit.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["First, we train a vector space representations of words using Word2Vec on Chinese Wikipedia.", "We use distributed word vectors trained on the Wikipedia corpus using the Word2Vec algorithm."], "ms": ["Pertama, kita melatih perwakilan ruang vektor perkataan menggunakan Word2Vec di Wikipedia Cina.", "Kami menggunakan vektor perkataan diedarkan yang dilatih pada korpus Wikipedia menggunakan algoritma Word2Vec."]}, {"en": ["For the classification task, we use Pre-Trained glove Embedding vectors as lexical features.", "For all models, we use the 300-Dimensional glove word Embeddings."], "ms": ["Untuk tugas pengelasan, kami menggunakan vektor Embedding sarung tangan Pra-Latih sebagai ciri leksikal.", "Untuk semua model, kami menggunakan perkataan sarung tangan 300 dimensi Embeddings."]}, {"en": ["In this paper, we aim to generate a more meaningful and informative reply when answering a given question.", "In this paper, we explore an implicit Content-Introducing method for Generative Short-Text conversation."], "ms": ["Dalam makalah ini, kami bertujuan untuk menghasilkan jawapan yang lebih bermakna dan bermaklumat apabila menjawab soalan tertentu.", "Dalam makalah ini, kami meneroka kaedah Pengenalan Kandungan tersirat untuk perbualan Generatif Pendek."]}, {"en": ["Language modeling is a fundamental task in natural language processing and is routinely employed in a wide range of applications, such as speech recognition, machine translation, etc \u2019.", "Language modeling is a fundamental task, used for example to predict the next word or character in a text sequence given the context."], "ms": ["Pemodelan bahasa adalah tugas asas dalam pemprosesan bahasa semula jadi dan secara rutin digunakan dalam pelbagai aplikasi, seperti pengiktirafan pertuturan, terjemahan mesin, dan lain-lain.", "Pemodelan bahasa adalah tugas asas, digunakan sebagai contoh untuk meramalkan perkataan atau watak seterusnya dalam urutan teks yang diberikan konteks."]}, {"en": ["Long short-term memory was introduced by Hochreiter and Schmidhuber to overcome the issue of vanishing gradients in the vanilla recurrent neural networks.", "Long short-term memory network was proposed by to specifically address this issue of learning Longterm Dependencies."], "ms": ["Ingatan jangka pendek yang panjang diperkenalkan oleh Hochreiter dan Schmidhuber untuk mengatasi masalah kecerunan yang hilang dalam rangkaian neural berulang vanila.", "Rangkaian memori jangka pendek yang panjang dicadangkan oleh untuk menangani secara khusus isu pembelajaran ini Dependensi Jangka Panjang."]}, {"en": ["We Optimise the feature weights of the model with minimum error rate training against the BLEU evaluation metric.", "To set the weights, \u4f4d M, we performed minimum error rate training on the development set using BLEU as the objective function."], "ms": ["Kami Mengoptimumkan berat ciri model dengan latihan kadar ralat minimum terhadap metrik penilaian BLEU.", "Untuk menetapkan berat, M, kami melakukan latihan kadar ralat minimum pada set pembangunan menggunakan BLEU sebagai fungsi objektif."]}, {"en": ["The language models were built using Srilm Toolkits.", "The Target-Side language models were estimated using the Srilm Toolkit."], "ms": ["Model bahasa dibina menggunakan Srilm Toolkits.", "Model bahasa Target-Side dianggarkan menggunakan Srilm Toolkit."]}, {"en": ["For the fluency and Grammaticality features, we train 4-Gram LMS using the development Dataset with the Sri Toolkit.", "To calculate language model features, we train traditional N-Gram language models with Ngram lengths of four and five using the Srilm Toolkit."], "ms": ["Untuk kefasihan dan ciri Grammaticality, kami melatih LMS 4-Gram menggunakan Dataset pembangunan dengan Sri Toolkit.", "Untuk mengira ciri model bahasa, kami melatih model bahasa tradisional N-Gram dengan panjang Ngram empat dan lima menggunakan Srilm Toolkit."]}, {"en": ["Luong et al learn word representations based on Morphemes that are obtained from an external morphological Segmentation system.", "Luong et al utilized the Morpheme segments produced by Morfessor and constructed Morpheme trees for words to learn Morphologically-Aware word Embeddings by the recursive neural network."], "ms": ["Luong et al mempelajari perwakilan perkataan berdasarkan Morphemes yang diperolehi daripada sistem Segmentasi morfologi luaran.", "Luong et al menggunakan segmen Morpheme yang dihasilkan oleh Morfessor dan membina pokok Morpheme untuk perkataan untuk mempelajari Embedding perkataan Morphologically-Aware oleh rangkaian saraf rekursif."]}, {"en": ["We adapted the Moses Phrase-Based Decoder to translate word Lattices.", "We trained the statistical Phrase-Based systems using the Moses Toolkit with Mert tuning."], "ms": ["Kami mengadaptasi Decoder Berasaskan Frasa Musa untuk menterjemahkan perkataan Lattices.", "Kami melatih sistem berasaskan frasa statistik menggunakan Musa Toolkit dengan penalaan Mert."]}, {"en": ["Semantic role labeling (SRL) is a task of automatically identifying semantic relations between Predicate and its related arguments in the sentence.", "Semantic role labeling (SRL) is the task of labeling Predicate-Argument structure in sentences with shallow semantic information."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas untuk mengenal pasti hubungan semantik secara automatik antara Predicate dan hujah-hujah yang berkaitan dalam ayat.", "Pelabelan peranan semantik (SRL) adalah tugas pelabelan struktur Predicate-Argument dalam ayat dengan maklumat semantik cetek."]}, {"en": ["Phonetic translation across these pairs is called Transliteration.", "Transliteration is the task of converting a word from one alphabetic script to another."], "ms": ["Terjemahan fonetik merentasi pasangan ini dipanggil Transliterasi.", "Transliterasi adalah tugas menukar perkataan dari satu skrip abjad ke yang lain."]}, {"en": ["Evaluation is done using the BLEU metric with four references.", "Evaluation SETS are translated using the Cdec Decoder and evaluated with the BLEU metric."], "ms": ["Penilaian dilakukan menggunakan metrik BLEU dengan empat rujukan.", "Penilaian SETS diterjemahkan menggunakan Cdec Decoder dan dinilai dengan metrik BLEU."]}, {"en": ["Coreference resolution is the task of determining which mentions in a text refer to the same entity.", "Although Coreference resolution is a Subproblem of natural language understanding, Coreference resolution evaluation Metrics have predominately been discussed in terms of abstract entities and hypothetical system errors."], "ms": ["Resolusi spatial adalah tugas menentukan sebutan mana dalam teks merujuk kepada entiti yang sama.", "Walaupun resolusi Coreference adalah Submasalah pemahaman bahasa semula jadi, Metrik penilaian resolusi Coreference telah banyak dibincangkan dari segi entiti abstrak dan kesilapan sistem hipotesis."]}, {"en": ["Keyphrase extraction is the problem of automatically extracting important phrases or concepts (I.E ., the essence) of a document.", "Keyphrase extraction is a fundamental task in natural language processing that facilitates mapping of documents to a set of representative phrases."], "ms": ["Pengekstrakan Keyphrase adalah masalah mengekstrak frasa atau konsep penting secara automatik (I.E., intipati) dokumen.", "Pengekstrakan Keyphrase adalah tugas asas dalam pemprosesan bahasa semula jadi yang memudahkan pemetaan dokumen ke satu set frasa perwakilan."]}, {"en": ["Traditional semantic space models represent meaning on the basis of word Co-Occurrence statistics in large text Corpora.", "Distributional semantic models induce large-scale Vector-Based lexical semantic representations from statistical patterns of word usage."], "ms": ["Model ruang semantik tradisional mewakili makna berdasarkan statistik perkataan Co-Occurrence dalam teks besar Corpora.", "Model semantik pengagihan mendorong perwakilan semantik leksikal Berasaskan Vektor berskala besar daripada corak statistik penggunaan perkataan."]}, {"en": ["Relation extraction (re) is the task of identifying instances of relations, such as nationality (person, country) or place of birth (person, location), in passages of natural text.", "Relation extraction (re) is a task of identifying typed relations between known entity mentions in a sentence."], "ms": ["Pengekstrakan hubungan (re) adalah tugas mengenal pasti contoh hubungan, seperti kewarganegaraan (orang, negara) atau tempat kelahiran (orang, lokasi), dalam petikan teks semula jadi.", "Pengekstrakan hubungan (re) adalah tugas untuk mengenal pasti hubungan yang ditaip antara sebutan entiti yang diketahui dalam ayat."]}, {"en": ["Part-Of-Speech (Pos) tagging is a fundamental Natural-Language-Processing problem, and Pos tags are used as input to many important applications.", "Part-Of-Speech (Pos) tagging is a crucial task for natural language processing (Nlp) tasks, providing basic information about syntax."], "ms": ["Tag Part-Of-Speech (Pos) adalah masalah pemprosesan bahasa semula jadi asas, dan tag Pos digunakan sebagai input kepada banyak aplikasi penting.", "Penandaan Part-Of-Speech (Pos) adalah tugas penting untuk tugas pemprosesan bahasa semula jadi (Nlp), memberikan maklumat asas mengenai sintaks."]}, {"en": ["A 4-Grams language model is trained by the Srilm Toolkit.", "The Srilm Toolkit was used to build the 5-Gram language model."], "ms": ["Model bahasa 4-Gram dilatih oleh Srilm Toolkit.", "Srilm Toolkit digunakan untuk membina model bahasa 5-Gram."]}, {"en": ["We used Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting ,.", "We estimated 5-Gram language models using the Sri Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai interpolated.", "Kami menganggarkan model bahasa 5-Gram menggunakan Sri Toolkit dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["In our Wok, we have used the Stanford Log-Linear Part-Of-Speech to do Pos tagging.", "We use Stanford Part-Of-Speech Tagger to automatically detect nouns from text."], "ms": ["Dalam Wok kami, kami telah menggunakan Stanford Log-Linear Part-Of-Speech untuk melakukan penandaan Pos.", "Kami menggunakan Stanford Part-Of-Speech Tagger untuk mengesan kata nama secara automatik dari teks."]}, {"en": ["The parameter weights are Optimized with minimum error rate training.", "Feature weights are tuned using minimum error rate training on the 455 provided references."], "ms": ["Berat parameter dioptimumkan dengan latihan kadar ralat minimum.", "Berat ciri ditala menggunakan latihan kadar ralat minimum pada 455 rujukan yang disediakan."]}, {"en": ["Semantic role labeling (SRL) is a task of automatically identifying semantic relations between Predicate and its related arguments in the sentence.", "Semantic role labeling (SRL) is a form of shallow semantic Parsing whose goal is to discover the Predicate-Argument structure of each Predicate in a given input sentence."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas untuk mengenal pasti hubungan semantik secara automatik antara Predicate dan hujah-hujah yang berkaitan dalam ayat.", "Pelabelan peranan semantik (SRL) adalah satu bentuk Parsing semantik cetek yang matlamatnya adalah untuk menemui struktur Predicate-Argument setiap Predicate dalam ayat input yang diberikan."]}, {"en": ["Coreference resolution is the problem of partitioning a sequence of noun phrases (or mentions), as they occur in a natural language text, into a set of Referential entities.", "Coreference resolution is the problem of identifying which mentions (I.E ., noun phrases) refer to which Real-World entities."], "ms": ["Resolusi spatial adalah masalah pembahagian urutan frasa kata nama (atau sebutan), kerana ia berlaku dalam teks bahasa semula jadi, ke dalam satu set entiti rujukan.", "Resolusi spatial adalah masalah mengenal pasti sebutan mana (I.E., frasa kata nama) merujuk kepada entiti Dunia Nyata mana."]}, {"en": ["We measure the translation quality with IBM BLEU up to 4 grams, using 2 reference translations, Bleur2N4.", "We measure the overall translation quality using 4-Gram BLEU, which is computed on Tokenized and Lowercased data for all systems."], "ms": ["Kami mengukur kualiti terjemahan dengan IBM BLEU sehingga 4 gram, menggunakan 2 terjemahan rujukan, Bleur2N4.", "Kami mengukur kualiti terjemahan keseluruhan menggunakan 4-Gram BLEU, yang dikira pada data Tokenized dan Lowercased untuk semua sistem."]}, {"en": ["1a Bunsetsu is a common unit when syntactic structures in Japanese are discussed.", "1 Bunsetsu is a linguistic unit in Japanese that roughly corresponds to a basic phrase in English."], "ms": ["1a Bunsetsu adalah unit biasa apabila struktur sintaksis dalam bahasa Jepun dibincangkan.", "Bunsetsu adalah unit linguistik dalam bahasa Jepun yang secara kasarnya sesuai dengan frasa asas dalam bahasa Inggeris."]}, {"en": ["We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing.", "We train a 4-Gram language model on the Xinhua portion of the Gigaword corpus using the Sri language Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword menggunakan Toolkit bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Relation extraction is the task of finding relationships between two entities from text.", "Relation extraction is the task of finding semantic relations between entities from text."], "ms": ["Pengekstrakan hubungan adalah tugas mencari hubungan antara dua entiti dari teks.", "Pengekstrakan hubungan adalah tugas mencari hubungan semantik antara entiti dari teks."]}, {"en": ["Based on the Distributional hypothesis, we train a Skip-Gram model to learn the Distributional representations of words in a large corpus.", "We use a Count-Based Distributional Semantics model and the continuous Bag-Of-Words model to learn word vectors."], "ms": ["Berdasarkan hipotesis Pengagihan, kami melatih model Skip-Gram untuk mempelajari perwakilan Pengagihan perkataan dalam korpus besar.", "Kami menggunakan model Semantik Pengedaran Berasaskan Count dan model Bag-Of-Words yang berterusan untuk mempelajari vektor perkataan."]}, {"en": ["Relation extraction (re) is the task of extracting instances of semantic relations between entities in unstructured data such as natural language text.", "Relation extraction is a traditional information extraction task which aims at detecting and classifying semantic relations between entities in text (Cite-P-10-1-18)."], "ms": ["Pengekstrakan hubungan (re) adalah tugas mengekstrak contoh hubungan semantik antara entiti dalam data yang tidak tersusun seperti teks bahasa semula jadi.", "Pengekstrakan hubungan adalah tugas pengekstrakan maklumat tradisional yang bertujuan untuk mengesan dan mengklasifikasikan hubungan semantik antara entiti dalam teks (Cite-P-10-1-18)."]}, {"en": ["We train 300 dimensional word Embedding using Word2Vec on all the training data, and Fine-Turning during the training process.", "We Pretrain word vectors with the Word2Vec tool on the news Dataset released by Ding et al, which are Fine-Tuned during training."], "ms": ["Kami melatih Embedding perkataan 300 dimensi menggunakan Word2Vec pada semua data latihan, dan Fine-Turning semasa proses latihan.", "Kami Pretrain vektor perkataan dengan alat Word2Vec pada Dataset berita yang dikeluarkan oleh Ding et al, yang Fine-Tuned semasa latihan."]}, {"en": ["The language model component uses the Srilm Lattice-Tool for weight assignment and Nbest decoding.", "The Srilm Toolkit is used to build the Character-Level language model for generating the LM features in NSW detection system."], "ms": ["Komponen model bahasa menggunakan Srilm Lattice-Tool untuk penugasan berat dan penyahkodan Nbest.", "Srilm Toolkit digunakan untuk membina model bahasa Character-Level untuk menghasilkan ciri-ciri LM dalam sistem pengesanan NSW."]}, {"en": ["We use Corpus-Level BLEU score to quantitatively evaluate the generated paragraphs.", "We will show translation quality measured with the BLEU score as a function of the phrase table size."], "ms": ["Kami menggunakan skor BLEU Tahap-Kosus untuk menilai secara kuantitatif perenggan yang dihasilkan.", "Kami akan menunjukkan kualiti terjemahan yang diukur dengan skor BLEU sebagai fungsi saiz jadual frasa."]}, {"en": ["Sentiment analysis is a fundamental problem aiming to give a machine the ability to understand the emotions and opinions expressed in a written text.", "One of the first challenges in sentiment analysis is the vast lexical diversity of subjective language."], "ms": ["Analisis sentimen adalah masalah asas yang bertujuan untuk memberi mesin keupayaan untuk memahami emosi dan pendapat yang dinyatakan dalam teks bertulis.", "Salah satu cabaran pertama dalam analisis sentimen adalah kepelbagaian leksikal bahasa subjektif yang luas."]}, {"en": ["Coreference resolution is the task of identifying all mentions which refer to the same entity in a document.", "Coreference resolution is the process of finding discourse entities (Markables) referring to the same Real-World entity or concept."], "ms": ["Resolusi spatial adalah tugas untuk mengenal pasti semua sebutan yang merujuk kepada entiti yang sama dalam dokumen.", "Resolusi spatial adalah proses mencari entiti wacana (Markables) merujuk kepada entiti atau konsep Dunia Nyata yang sama."]}, {"en": ["Sarcasm is a form of verbal irony that is intended to express contempt or ridicule.", "Sarcasm is a pervasive phenomenon in social media, permitting the concise communication of meaning, affect and attitude."], "ms": ["Sarkasm adalah bentuk ironi lisan yang bertujuan untuk menyatakan penghinaan atau ejekan.", "Sarcasm adalah fenomena yang meluas di media sosial, membolehkan komunikasi ringkas makna, kesan dan sikap."]}, {"en": ["As the Database of Typological features, we used the Online edition 2 of the world Atlas of language structures.", "The Database of Typological features we used is the Online edition 8 of the world Atlas of language structures."], "ms": ["Sebagai Pangkalan Data ciri Typologi, kami menggunakan edisi Online 2 dari dunia Atlas struktur bahasa.", "Pangkalan Data ciri Typologi yang kami gunakan adalah edisi dalam talian 8 dunia Atlas struktur bahasa."]}, {"en": ["Recently, distant supervision has emerged to be a popular choice for training relation extractors without using manually labeled data.", "Recently, to reduce labeling effort for relation extraction, distant supervision has been proposed."], "ms": ["Baru-baru ini, pengawasan jauh telah muncul sebagai pilihan yang popular untuk pengekstrakan hubungan latihan tanpa menggunakan data berlabel secara manual.", "Baru-baru ini, untuk mengurangkan usaha pelabelan untuk pengekstrakan hubungan, pengawasan jauh telah dicadangkan."]}, {"en": ["We use the logistic regression Classifier in the Skll package, which is based on Scikit-Learn, optimizing for f 1 score.", "As Classifier we use a traditional model, a support vector machine with linear kernel implemented in Scikit-Learn."], "ms": ["Kami menggunakan Klasifikasi regresi logistik dalam pakej Skll, yang berdasarkan Scikit-Learn, mengoptimumkan skor f 1.", "Sebagai Classifier kami menggunakan model tradisional, mesin vektor sokongan dengan kernel linear yang dilaksanakan dalam Scikit-Learn."]}, {"en": ["Information extraction (Ie) is the task of extracting information from natural language texts to fill a Database record following a structure called a template.", "Information extraction (Ie) is a main Nlp aspects for analyzing scientific papers, which includes named entity recognition (NER) and relation extraction (re)."], "ms": ["Pengekstrakan maklumat (Ie) adalah tugas mengekstrak maklumat dari teks bahasa semula jadi untuk mengisi rekod Pangkalan Data berikutan struktur yang disebut templat.", "Pengekstrakan maklumat (Ie) adalah aspek utama Nlp untuk menganalisis kertas saintifik, yang merangkumi pengiktirafan entiti bernama (NER) dan pengekstrakan hubungan (re)."]}, {"en": ["Additionally, we compile the model using the Adamax Optimizer.", "We considered one layer and used the Adam Optimizer for parameter optimization."], "ms": ["Kami juga menyusun model menggunakan Adamax Optimizer.", "Kami menganggap satu lapisan dan menggunakan Adam Optimizer untuk pengoptimuman parameter."]}, {"en": ["Additionally, Coreference resolution is a pervasive problem in Nlp and many Nlp applications could benefit from an effective Coreference Resolver that can be easily Configured and customized.", "Coreference resolution is the task of automatically grouping references to the same Real-World entity in a document into a set."], "ms": ["Selain itu, resolusi Coreference adalah masalah yang meluas di Nlp dan banyak aplikasi Nlp boleh mendapat manfaat daripada Coreference Resolver yang berkesan yang boleh dengan mudah dikonfigurasi dan disesuaikan.", "Resolusi spatial adalah tugas untuk mengumpulkan rujukan secara automatik ke entiti Dunia Nyata yang sama dalam dokumen ke dalam satu set."]}, {"en": ["We use the Stanford named entity Recognizer to identify named entities in s and T.", "We use the Stanford NER to identify named entities in our corpus, and then use these entities as Bag-Of-Features."], "ms": ["Kami menggunakan Stanford dinamakan entiti Pengiktirafan untuk mengenal pasti entiti dinamakan dalam s dan T.", "Kami menggunakan Stanford NER untuk mengenal pasti entiti yang dinamakan dalam korpus kami, dan kemudian menggunakan entiti ini sebagai Bag-Of-Features."]}, {"en": ["The word Embeddings are Initialized with Pre-Trained word vectors using Word2Vec 2 and other parameters are randomly Initialized by sampling from uniform distribution in including character Embeddings.", "The word Embeddings are Initialized with Pre-Trained word vectors using Word2Vec 2 and other parameters are randomly Initialized including Pos Embeddings."], "ms": ["Perkataan Embeddings Diawalkan dengan vektor perkataan Pra-Latihan menggunakan Word2Vec 2 dan parameter lain diawalkan secara rawak dengan persampelan daripada taburan seragam termasuk aksara Embeddings.", "Perkataan Embeddings Diawalkan dengan vektor perkataan Pra-Latihan menggunakan Word2Vec 2 dan parameter lain Diawalkan secara rawak termasuk Embedding Pos."]}, {"en": ["The model parameters will then be estimated using the Expectation-Maximization algorithm.", "The weights are learned automatically using expectation maximization."], "ms": ["Parameter model kemudiannya akan dianggarkan menggunakan algoritma Expectation-Maximization.", "Berat dipelajari secara automatik menggunakan pemaksimuman jangkaan."]}, {"en": ["Sentiment analysis is a recent attempt to deal with evaluative aspects of text.", "Sentiment analysis is a Nlp task that deals with extraction of opinion from a piece of text on a topic."], "ms": ["Analisis sentimen adalah percubaan baru-baru ini untuk menangani aspek penilaian teks.", "Analisis sentimen adalah tugas Nlp yang berkaitan dengan pengekstrakan pendapat dari sekeping teks mengenai topik."]}, {"en": ["First, Arabic is a Morphologically rich language (Cite-P-19-3-7).", "In Arabic, there is a reasonable number of sentiment Lexicons but with major deficiencies."], "ms": ["Pertama, bahasa Arab adalah bahasa yang kaya dengan Morfologi (Cite-P-19-3-7).", "Dalam bahasa Arab, terdapat sebilangan sentimen Lexicon yang munasabah tetapi dengan kekurangan yang besar."]}, {"en": ["Dependency Parsing is the task to assign dependency structures to a given sentence Math-W-4-1-0-14.", "Dependency Parsing is a central Nlp task."], "ms": ["Penghuraian dependensi adalah tugas untuk menetapkan struktur dependensi pada ayat Math-W-4-1-0-14.", "Dependency Parsing adalah tugas Nlp pusat."]}, {"en": ["We employ the glove and Node2Vec to generate the Pre-Trained word Embedding, obtaining two distinct Embedding for each word.", "For the first two features, we adopt a set of Pre-Trained word Embedding, known as global vectors for word representation."], "ms": ["Kami menggunakan sarung tangan dan Node2Vec untuk menghasilkan Embedding perkataan Pra-Latih, memperoleh dua Embedding yang berbeza untuk setiap perkataan.", "Untuk dua ciri pertama, kami menggunakan satu set Embedding perkataan Pra-Latihan, yang dikenali sebagai vektor global untuk perwakilan perkataan."]}, {"en": ["Case-Insensitive 4-Gram BLEU is used as evaluation metric.", "The case insensitive Nist Bleu-4 metric is adopted for evaluation."], "ms": ["Case-Insensitive 4-Gram BLEU digunakan sebagai metrik penilaian.", "Metrik Nist Bleu-4 yang tidak sensitif digunakan untuk penilaian."]}, {"en": ["We obtained distributed word representations using Word2Vec 4 with Skip-Gram.", "Based on Word2Vec, we obtained both representations using the Skipgram architecture with negative sampling."], "ms": ["Kami memperoleh perwakilan perkataan yang diedarkan menggunakan Word2Vec 4 dengan Skip-Gram.", "Berdasarkan Word2Vec, kami memperoleh kedua-dua perwakilan menggunakan seni bina Skipgram dengan persampelan negatif."]}, {"en": ["Coreference resolution is a challenging task, that involves identification and clustering of noun phrases mentions that refer to the same Real-World entity.", "Since Coreference resolution is a pervasive discourse phenomenon causing performance impediments in current Ie systems, we considered a corpus of aligned English and Romanian texts to identify Coreferring expressions."], "ms": ["Resolusi spatial adalah tugas yang mencabar, yang melibatkan pengenalan dan pengelompokan frasa kata nama yang menyebut yang merujuk kepada entiti Dunia Nyata yang sama.", "Oleh kerana resolusi Coreference adalah fenomena wacana yang meluas yang menyebabkan halangan prestasi dalam sistem Ie semasa, kami menganggap korpus teks bahasa Inggeris dan Romania yang sejajar untuk mengenal pasti ungkapan Coreferring."]}, {"en": ["Sentiment analysis is the task in natural language processing (Nlp) that deals with classifying opinions according to the polarity of the sentiment they Express.", "Sentiment analysis is the computational analysis of people \u2019 s feelings or beliefs expressed in texts such as emotions, opinions, attitudes, appraisals, etc . (Cite-P-11-3-3)."], "ms": ["Analisis sentimen adalah tugas dalam pemprosesan bahasa semula jadi (Nlp) yang berkaitan dengan mengklasifikasikan pendapat mengikut polariti sentimen yang mereka Express.", "Analisis sentimen adalah analisis pengiraan perasaan atau kepercayaan orang yang dinyatakan dalam teks seperti emosi, pendapat, sikap, penilaian, dan lain-lain (Cite-P-11-3-3)."]}, {"en": ["Sentiment analysis is the study of the subjectivity and polarity (positive vs. negative) of a text (Cite-P-7-1-10).", "Sentiment analysis is the task of identifying the polarity (positive, negative or neutral) of review."], "ms": ["Analisis kepekaan adalah kajian subjektiviti dan polariti (positif vs negatif) teks (Cite-P-7-1-10).", "Analisis kepekaan adalah tugas mengenal pasti polariti (positif, negatif atau neutral) kajian semula."]}, {"en": ["We learn our word Embeddings by using Word2Vec 3 on Unlabeled review data.", "We use the Pre-Trained 300-Dimensional Word2Vec Embeddings trained on Google news 1 as input features."], "ms": ["Kami mempelajari perkataan Embeddings kami dengan menggunakan Word2Vec 3 pada data ulasan yang tidak berlabel.", "Kami menggunakan Embedding Word2Vec 300-Dimensional Pra-Latih yang dilatih pada Google News 1 sebagai ciri input."]}, {"en": ["Translation quality is measured by Case-Insensitive BLEU on Newstest13 using one reference translation.", "The translation quality is evaluated by Caseinsensitive Bleu-4 metric."], "ms": ["Kualiti terjemahan diukur oleh Case-Insensitive BLEU pada Newstest13 menggunakan satu terjemahan rujukan.", "Kualiti terjemahan dinilai oleh Caseinsensitive Bleu-4 metrik."]}, {"en": ["According to Lakoff and Johnson, metaphor is a productive phenomenon that operates at the level of mental processes.", "According to Lakoff and Johnson, metaphors are cognitive Mappings of concepts from a source to a target domain."], "ms": ["Menurut Lakoff dan Johnson, metafora adalah fenomena produktif yang beroperasi pada tahap proses mental.", "Menurut Lakoff dan Johnson, metafora adalah pemetaan kognitif konsep dari sumber ke domain sasaran."]}, {"en": ["To Rerank the candidate texts, we used a 5-Gram language model trained on the Europarl corpus using Kenlm.", "For this, we used the combination of the entire Swedish-English Europarl corpus and the Smultron data."], "ms": ["Untuk Mengulangi teks calon, kami menggunakan model bahasa 5-Gram yang dilatih di korpus Europarl menggunakan Kenlm.", "Untuk ini, kami menggunakan gabungan keseluruhan korpus Europarl Sweden-Inggeris dan data Smultron."]}, {"en": ["Word sense Disambiguation (Wsd) is a widely studied task in natural language processing: given a word and its context, assign the correct sense of the word based on a predefined sense inventory (Cite-P-15-3-4).", "Word sense Disambiguation (Wsd) is a key Enabling-Technology that automatically chooses the intended sense of a word in context."], "ms": ["Disambiguasi deria perkataan (Wsd) adalah tugas yang dikaji secara meluas dalam pemprosesan bahasa semula jadi: diberikan perkataan dan konteksnya, memberikan rasa yang betul perkataan berdasarkan inventori deria yang telah ditetapkan (Cite-P-15-3-4).", "Disambiguation Word Sense Disambiguation (Wsd) ialah kunci Enabling-Technology yang secara automatik memilih pengertian perkataan yang dimaksudkan dalam konteks."]}, {"en": ["Barzilay and Lapata propose an Entity-Based coherence model which Operationalizes some of the intuitions behind the centering model.", "Barzilay and Lapata propose an entity grid model which represents the distribution of Referents in a discourse for sentence ordering."], "ms": ["Barzilay dan Lapata mencadangkan model koheren berasaskan Entiti yang mengendalikan beberapa intuisi di sebalik model berpusat.", "Barzilay dan Lapata mencadangkan model grid entiti yang mewakili pengagihan Rujukan dalam wacana untuk susunan ayat."]}, {"en": ["We use the Moses Toolkit to train our Phrase-Based Smt models.", "Our baseline is the Smt Toolkit Moses run over letter strings rather than word strings."], "ms": ["Kami menggunakan Musa Toolkit untuk melatih model Smt Berasaskan Frasa kami.", "Asas kami adalah Smt Toolkit Musa berjalan melalui rentetan huruf dan bukannya rentetan perkataan."]}, {"en": ["For input representation, we used glove word Embeddings.", "For word Embeddings, we used popular Pre-Trained word vectors from glove."], "ms": ["Untuk perwakilan input, kami menggunakan perkataan sarung tangan Embeddings.", "Untuk Embedding perkataan, kami menggunakan vektor perkataan Pra-Latih yang popular dari sarung tangan."]}, {"en": ["Li et al proposed to use the maximum mutual information as the objective to penalize general responses.", "As an early work, Li et al used maximum mutual information as the objective to penalize general responses."], "ms": ["Li et al mencadangkan untuk menggunakan maklumat bersama maksimum sebagai objektif untuk menghukum tindak balas umum.", "Sebagai kerja awal, Li et al menggunakan maklumat bersama maksimum sebagai objektif untuk menghukum tindak balas umum."]}, {"en": ["We used Sklearn-Kittext to build our SVM models.", "We used the SVM implementation of Scikit learn."], "ms": ["Kami menggunakan Sklearn-Kittext untuk membina model SVM kami.", "Kami menggunakan pelaksanaan SVM Scikit belajar."]}, {"en": ["An AMR is a graph with nodes representing the concepts of the sentence and edges representing the semantic relations between them.", "Amr is a semantic formalism, structured as a graph (Cite-P-13-1-1)."], "ms": ["AMR ialah graf dengan nod yang mewakili konsep ayat dan tepi yang mewakili hubungan semantik antara mereka.", "Amr ialah formalisme semantik, berstruktur sebagai graf (Cite-P-13-1-1)."]}, {"en": ["For the English Sts Subtask, we used regression models combining a wide array of features including semantic similarity scores obtained from various methods.", "For the English Sts Subtask used regression models that combined a wide array of features including semantic similarity scores obtained with various methods."], "ms": ["Untuk Subtugas Sts Bahasa Inggeris, kami menggunakan model regresi yang menggabungkan pelbagai ciri termasuk skor persamaan semantik yang diperoleh dari pelbagai kaedah.", "Untuk English Sts Subtask menggunakan model regresi yang menggabungkan pelbagai ciri termasuk skor persamaan semantik yang diperolehi dengan pelbagai kaedah."]}, {"en": ["We also used support vector machines and conditional random fields.", "We use the Mallet implementation of conditional random fields."], "ms": ["Kami juga menggunakan mesin vektor sokongan dan medan rawak bersyarat.", "Kami menggunakan pelaksanaan Mallet medan rawak bersyarat."]}, {"en": ["We use glove vectors with 100 dimensions trained on Wikipedia and Gigaword as word Embeddings.", "In this task, we use the 300-Dimensional 840B glove word Embeddings."], "ms": ["Kami menggunakan vektor sarung tangan dengan 100 dimensi yang dilatih di Wikipedia dan Gigaword sebagai Embedding perkataan.", "Dalam tugas ini, kami menggunakan perkataan sarung tangan 300-Dimensional 840B Embeddings."]}, {"en": ["Table 4 shows the BLEU scores of the output descriptions.", "The results evaluated by BLEU score is shown in Table 2."], "ms": ["Jadual 4 menunjukkan skor BLEU bagi keterangan output.", "Keputusan yang dinilai oleh skor BLEU ditunjukkan dalam Jadual 2."]}, {"en": ["We trained the five classifiers using the SVM implementation in Scikit-Learn.", "For training our system Classifier, we have used Scikit-Learn."], "ms": ["Kami melatih lima pengelas menggunakan pelaksanaan SVM dalam Scikit-Learn.", "Untuk melatih Classifier sistem kami, kami telah menggunakan Scikit-Learn."]}, {"en": ["Word sense Disambiguation (Wsd) is a widely studied task in natural language processing: given a word and its context, assign the correct sense of the word based on a predefined sense inventory (Cite-P-15-3-4).", "Word sense Disambiguation (Wsd) is a key enabling technology that automatically chooses the intended sense of a word in context."], "ms": ["Disambiguasi deria perkataan (Wsd) adalah tugas yang dikaji secara meluas dalam pemprosesan bahasa semula jadi: diberikan perkataan dan konteksnya, memberikan rasa yang betul perkataan berdasarkan inventori deria yang telah ditetapkan (Cite-P-15-3-4).", "Disambiguation Word Sense Disambiguation (Wsd) adalah teknologi yang membolehkan secara automatik memilih rasa yang dimaksudkan perkataan dalam konteks."]}, {"en": ["For the Actioneffect Embedding model, we use Pre-Trained glove word Embeddings as input to the Lstm.", "For the Word-Embedding based Classifier, we use the glove Pre-Trained word Embeddings."], "ms": ["Untuk model Embedding Kesan Tindakan, kami menggunakan Embedding perkataan sarung tangan Pra-Latih sebagai input ke Lstm.", "Untuk Klasifier berasaskan Word-Embedding, kami menggunakan Embedding perkataan Pra-Trained sarung tangan."]}, {"en": ["We used Treetagger based on the English parameter files supplied with it.", "For all languages in our Dataset, we used Treetagger with its built-in Lemmatiser."], "ms": ["Kami menggunakan Treetagger berdasarkan fail parameter bahasa Inggeris yang dibekalkan dengannya.", "Untuk semua bahasa dalam Dataset kami, kami menggunakan Treetagger dengan Lemmatiser terbina dalam."]}, {"en": ["We use the logistic regression implementation of Liblinear wrapped by the Scikit-Learn library.", "As Classifier we use a traditional model, a support vector machine with linear kernel implemented in Scikit-Learn."], "ms": ["Kami menggunakan pelaksanaan regresi logistik Liblinear yang dibungkus oleh perpustakaan Scikit-Learn.", "Sebagai Classifier kami menggunakan model tradisional, mesin vektor sokongan dengan kernel linear yang dilaksanakan dalam Scikit-Learn."]}, {"en": ["We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing.", "For language model, we used Sri language modeling Toolkit to train a 4-Gram model with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model 4-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["In recent years, Phrase-Based systems for statistical machine translation have delivered state-of-the-art performance on standard translation tasks.", "Phrase-Based statistical machine translation models have achieved significant improvements in translation accuracy over the original IBM Word-Based model."], "ms": ["Dalam tahun-tahun kebelakangan ini, sistem berasaskan frasa untuk terjemahan mesin statistik telah menyampaikan prestasi canggih pada tugas terjemahan standard.", "Model terjemahan mesin statistik berasaskan frasa telah mencapai peningkatan yang ketara dalam ketepatan terjemahan berbanding model IBM Word-Based asal."]}, {"en": ["We trained a 5-Gram language model on the Xinhua portion of Gigaword corpus using the Srilm Toolkit.", "We use Srilm to train a 5-Gram language model on the Xinhua portion of the English Gigaword corpus 5th edition with modified Kneser-Ney discounting."], "ms": ["Kami melatih model bahasa 5-Gram di bahagian Xinhua Gigaword corpus menggunakan Srilm Toolkit.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di bahagian Xinhua dari edisi ke-5 Gigaword corpus Inggeris dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["We also use a 4-Gram language model trained using Srilm with Kneser-Ney smoothing.", "Further, we apply a 4-Gram language model trained with the Srilm Toolkit on the target side of the training corpus."], "ms": ["Kami juga menggunakan model bahasa 4-Gram yang dilatih menggunakan Srilm dengan smoothing Kneser-Ney.", "Selanjutnya, kami menerapkan model bahasa 4-Gram yang dilatih dengan Srilm Toolkit di sisi target korpus pelatihan."]}, {"en": ["Thus, we train a 4-Gram language model based on Kneser-Ney smoothing method using Sri Toolkit and Interpolate it with the best Rnnlms by different weights.", "We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus."], "ms": ["Oleh itu, kami melatih model bahasa 4-Gram berdasarkan kaedah smoothing Kneser-Ney menggunakan Sri Toolkit dan Interpolasi dengan Rnnlms terbaik dengan berat yang berbeza.", "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side."]}, {"en": ["In recent years, Phrase-Based systems for statistical machine translation have delivered state-of-the-art performance on standard translation tasks.", "In recent years, various phrase translation approaches have been shown to outperform Word-To-Word translation models."], "ms": ["Dalam tahun-tahun kebelakangan ini, sistem berasaskan frasa untuk terjemahan mesin statistik telah menyampaikan prestasi canggih pada tugas terjemahan standard.", "Dalam tahun-tahun kebelakangan ini, pelbagai pendekatan terjemahan frasa telah ditunjukkan untuk mengatasi model terjemahan Word-To-Word."]}, {"en": ["We obtain word clusters from Word2Vec K-Means word clustering tool.", "We use the Skipgram model to learn word Embeddings."], "ms": ["Kami mendapat kluster perkataan dari alat k-Means perkataan Word2Vec K-Means.", "Kami menggunakan model Skipgram untuk mempelajari Embedding perkataan."]}, {"en": ["We performed Mert based tuning using the Mira algorithm.", "We used minimum error rate training Mert for tuning the feature weights."], "ms": ["Kami melakukan penalaan berasaskan Mert menggunakan algoritma Mira.", "Kami menggunakan latihan kadar ralat minimum Mert untuk menyesuaikan berat ciri."]}, {"en": ["We use the Stanford dependency Parser with the collapsed representation so that preposition nodes become edges.", "In renew, we exploit the Stanford typed dependency representations that use triples to formalize dependency relations."], "ms": ["Kami menggunakan Stanford dependency Parser dengan perwakilan runtuh supaya nod preposisi menjadi tepi.", "Dalam pembaharuan, kami mengeksploitasi perwakilan dependensi taip Stanford yang menggunakan triples untuk memformalkan hubungan dependensi."]}, {"en": ["The 5-Gram target language model was trained using Kenlm.", "We trained a 3-Gram language model on all the Correct-Side sentences using Kenlm."], "ms": ["Model bahasa sasaran 5-Gram dilatih menggunakan Kenlm.", "Kami melatih model bahasa 3-Gram pada semua ayat yang betul-betul menggunakan Kenlm."]}, {"en": ["We trained the statistical Phrase-Based systems using the Moses Toolkit with Mert tuning.", "Our baseline system is an standard Phrase-Based Smt system built with Moses."], "ms": ["Kami melatih sistem berasaskan frasa statistik menggunakan Musa Toolkit dengan penalaan Mert.", "Sistem asas kami adalah sistem Smt Berasaskan Frasa standard yang dibina dengan Musa."]}, {"en": ["We measure translation quality via the BLEU score.", "We use three common evaluation Metrics including BLEU, Me-Teor, and Ter."], "ms": ["Kami mengukur kualiti terjemahan melalui skor BLEU.", "Kami menggunakan tiga metrik penilaian biasa termasuk BLEU, Me-Teor, dan Ter."]}, {"en": ["The Penn discourse Treebank is the largest available Discourseannotated resource in English.", "One of the very few available discourse Annotated Corpora is the Penn discourse Treebank in English."], "ms": ["Penn discourse Treebank adalah sumber Discourseannotated yang terbesar dalam bahasa Inggeris.", "Salah satu daripada wacana yang sangat sedikit tersedia Annotated Corpora ialah wacana Penn Treebank dalam bahasa Inggeris."]}, {"en": ["Named entity (NE) Transliteration is the process of Transcribing a NE from a source language to some target language while preserving its Pronunciation in the original language.", "Named entity (NE) Transliteration is the process of Transcribing a NE from a source language to some target language based on phonetic similarity between the entities."], "ms": ["Entiti bernama (NE) Transliterasi adalah proses Transcribing NE dari bahasa sumber kepada beberapa bahasa sasaran sambil mengekalkan sebutannya dalam bahasa asal.", "Entiti bernama (NE) Transliterasi ialah proses Transcribing NE dari bahasa sumber kepada beberapa bahasa sasaran berdasarkan persamaan fonetik antara entiti."]}, {"en": ["The clustering method used in this work is latent Dirichlet allocation topic Modelling.", "We used latent Dirichlet allocation to create these topics."], "ms": ["Kaedah clustering yang digunakan dalam kerja ini adalah pemodelan topik peruntukan laten.", "Kami menggunakan peruntukan Dirichlet laten untuk mencipta topik ini."]}, {"en": ["We use the Moses Toolkit to train various statistical machine translation systems.", "We use the Moses mt framework to build a standard statistical Phrase-Based mt model using our Old-Domain training data."], "ms": ["Kami menggunakan Musa Toolkit untuk melatih pelbagai sistem terjemahan mesin statistik.", "Kami menggunakan kerangka mt Moses untuk membina model mt berasaskan frasa statistik standard menggunakan data latihan Old-Domain kami."]}, {"en": ["We evaluated the translation quality using the Case-Insensitive Bleu-4 metric.", "We used the Case-Insensitive Bleu-4 to evaluate translation quality and run Mert three times."], "ms": ["Kami menilai kualiti terjemahan menggunakan metrik Case-Insensitive Bleu-4.", "Kami menggunakan Case-Insensitive Bleu-4 untuk menilai kualiti terjemahan dan menjalankan Mert tiga kali."]}, {"en": ["Language models were built with Srilm, modified Kneser-Ney smoothing, default pruning, and order 5.", "Language models of order 5 have been built and interpolated with Srilm and Kenlm."], "ms": ["Model bahasa dibina dengan Srilm, smoothing Kneser-Ney yang diubahsuai, pemangkasan lalai, dan pesanan 5.", "Model bahasa order 5 telah dibina dan diinterpolasi dengan Srilm dan Kenlm."]}, {"en": ["We train 300 dimensional word Embedding using Word2Vec on all the training data, and Fine-Turning during the training process.", "We Initialize our word representation using publicly available Word2Vec trained on Google news Dataset and keep them fixed during training."], "ms": ["Kami melatih Embedding perkataan 300 dimensi menggunakan Word2Vec pada semua data latihan, dan Fine-Turning semasa proses latihan.", "Kami Memulakan perwakilan perkataan kami menggunakan Word2Vec yang tersedia untuk umum yang dilatih di Dataset berita Google dan memastikannya tetap semasa latihan."]}, {"en": ["We feed our features to a Multinomial naive Bayes Classifier in Scikit-Learn.", "We use a random forest Classifier, as implemented in Scikit-Learn."], "ms": ["Kami memberi ciri-ciri kami kepada Multinomial naive Bayes Classifier dalam Scikit-Learn.", "Kami menggunakan Classifier hutan rawak, seperti yang dilaksanakan dalam Scikit-Learn."]}, {"en": ["Semantic Parsing is the task of mapping natural language to machine interpretable meaning representations.", "Semantic Parsing is the task of converting natural language utterances into formal representations of their meaning."], "ms": ["Penghuraian Semantik adalah tugas pemetaan bahasa semula jadi kepada perwakilan makna yang boleh ditafsirkan mesin.", "Penghuraian Semantik adalah tugas menukarkan ucapan bahasa semula jadi kepada perwakilan formal makna mereka."]}, {"en": ["In all cases, we used the Implementations from the Scikitlearn machine learning library.", "For Nb and SVM, we used their implementation available in Scikit-Learn."], "ms": ["Dalam semua kes, kami menggunakan Pelaksanaan dari perpustakaan pembelajaran mesin Scikitlearn.", "Untuk Nb dan SVM, kami menggunakan pelaksanaannya yang terdapat di Scikit-Learn."]}, {"en": ["Sentiment analysis (SA) is a field of knowledge which deals with the analysis of people \u2019 s opinions, sentiments, evaluations, appraisals, attitudes and emotions towards particular entities (Liu , 2012).", "Sentiment analysis (SA) is the task of prediction of opinion in text."], "ms": ["Analisis sentimen (SA) adalah bidang pengetahuan yang berkaitan dengan analisis pendapat, sentimen, penilaian, penilaian, sikap dan emosi orang terhadap entiti tertentu (Liu, 2012).", "Analisis sentimen (SA) adalah tugas ramalan pendapat dalam teks."]}, {"en": ["Coreference resolution is the task of determining whether two or more noun phrases refer to the same entity in a text.", "Coreference resolution is the task of clustering a sequence of textual entity mentions into a set of maximal Non-Overlapping clusters, such that mentions in a cluster refer to the same discourse entity."], "ms": ["Resolusi spatial adalah tugas menentukan sama ada dua atau lebih frasa kata nama merujuk kepada entiti yang sama dalam teks.", "Resolusi spatial adalah tugas untuk mengelompokkan urutan sebutan entiti teks ke dalam satu set kluster Non-Overlapping maksima, seperti sebutan dalam kluster merujuk kepada entiti wacana yang sama."]}, {"en": ["Relation extraction (re) has been defined as the task of identifying a given set of semantic Binary relations in text.", "Relation extraction (re) is the task of recognizing relationships between entities mentioned in text."], "ms": ["Pengekstrakan hubungan (re) telah ditakrifkan sebagai tugas mengenal pasti set hubungan semantik yang diberikan dalam teks.", "Pengekstrakan hubungan (re) adalah tugas mengenali hubungan antara entiti yang disebut dalam teks."]}, {"en": ["We obtained both phrase structures and dependency relations for every sentence using the Stanford Parser.", "We used a Caseless Parsing model of the Stanford Parser for a dependency representation of the messages."], "ms": ["Kami memperoleh kedua-dua struktur frasa dan hubungan kebergantungan untuk setiap ayat menggunakan Stanford Parser.", "Kami menggunakan model Penghuraian Caseless dari Stanford Parser untuk perwakilan kebergantungan mesej."]}, {"en": ["The Penn discourse Treebank is a new resource of Annotated discourse relations.", "The Penn discourse Treebank is another Annotated discourse corpus."], "ms": ["Penn discourse Treebank adalah sumber baru hubungan wacana Annotated.", "Penn discourse Treebank adalah satu lagi korpus wacana Annotated."]}, {"en": ["Entity linking (El) is the task of automatically linking mentions of entities such as persons, locations, or organizations to their corresponding entry in a knowledge base (KB).", "Entity linking (El) is a central task in information extraction \u2014 given a textual passage, identify entity mentions (Substrings corresponding to world entities) and link them to the corresponding entry in a given knowledge base (KB, E.G . Wikipedia or Freebase)."], "ms": ["Entiti penghubung (El) adalah tugas untuk menghubungkan sebutan entiti secara automatik seperti orang, lokasi, atau organisasi ke entri yang sesuai dalam pangkalan pengetahuan (KB).", "Entiti penghubung (El) adalah tugas utama dalam pengekstrakan maklumat diberikan petikan teks, mengenal pasti sebutan entiti (Substrings yang sepadan dengan entiti dunia) dan menghubungkannya dengan entri yang sepadan dalam pangkalan pengetahuan tertentu (KB, E.G. Wikipedia atau Freebase)."]}, {"en": ["We use the 300-Dimensional Pre-Trained Word2Vec 3 word Embeddings and compare the performance with that of glove 4 Embeddings.", "For Word-Level Embedding E W, we utilize Pre-Trained , 300-Dimensional Embedding vectors from glove 6B."], "ms": ["Kami menggunakan Embedding perkataan Pra-Trained 300-Dimensional 2Vec 3 dan membandingkan prestasi dengan sarung tangan 4 Embeddings.", "Untuk Embedding Word-Level E W, kami menggunakan vektor Embedding Pra-Trained, 300-Dimensional dari sarung tangan 6B."]}, {"en": ["Text classification is a fundamental problem in natural language processing (Nlp).", "Text classification is a crucial and Well-Proven method for organizing the collection of large scale documents."], "ms": ["Pengelasan teks adalah masalah asas dalam pemprosesan bahasa semula jadi (Nlp).", "Pengelasan teks adalah kaedah penting dan terbukti untuk mengatur pengumpulan dokumen berskala besar."]}, {"en": ["Coreference resolution is the process of linking together multiple expressions of a given entity.", "Coreference resolution is the task of clustering a set of mentions in the text such that all mentions in the same cluster refer to the same entity."], "ms": ["Resolusi spatial adalah proses menghubungkan pelbagai ungkapan entiti tertentu.", "Resolusi spatial adalah tugas untuk mengelompokkan satu set sebutan dalam teks sedemikian rupa sehingga semua sebutan dalam kluster yang sama merujuk kepada entiti yang sama."]}, {"en": ["We report the mt performance using the original BLEU metric.", "We evaluate our results with Case-Sensitive Bleu-4 metric."], "ms": ["Kami melaporkan prestasi mt menggunakan metrik BLEU asal.", "Kami menilai keputusan kami dengan metrik Case-Sensitive Bleu-4."]}, {"en": ["Llu\u94c6S et al use a joint Arcfactored model that predicts full syntactic paths along with Predicate-Argument structures via dual decomposition.", "Llu\u94c6S et al introduced a dual decomposition based joint model for joint syntactic and semantic Parsing."], "ms": ["LluS et al menggunakan model Arcfactored bersama yang meramalkan laluan sintaktik penuh bersama dengan struktur Predicate-Argument melalui penguraian dwi.", "LluS et al memperkenalkan model gabungan berasaskan penguraian dwi untuk Parsing sintaktik dan semantik bersama."]}, {"en": ["Discourse Parsing is the task of identifying the presence and the type of the discourse relations between discourse units.", "Discourse Parsing is a challenging task and plays a critical role in discourse analysis."], "ms": ["Parsing Wacana adalah tugas mengenal pasti kehadiran dan jenis hubungan wacana antara unit wacana.", "Parsing wacana adalah tugas yang mencabar dan memainkan peranan penting dalam analisis wacana."]}, {"en": ["Relation extraction (re) is the process of generating structured relation knowledge from unstructured natural language texts.", "Relation extraction is a Subtask of information extraction that finds various predefined semantic relations, such as location, affiliation, rival, etc ., between pairs of entities in text."], "ms": ["Pengekstrakan hubungan (re) adalah proses menghasilkan pengetahuan hubungan berstruktur dari teks bahasa semula jadi yang tidak berstruktur.", "Pengekstrakan hubungan adalah Subtugas pengekstrakan maklumat yang menemui pelbagai hubungan semantik yang telah ditentukan, seperti lokasi, gabungan, saingan, dll., Antara pasangan entiti dalam teks."]}, {"en": ["Support vector machines have been shown to outperform other existing methods in text Categorization.", "Svms have been shown to be robust in classification tasks involving text where the Dimensionality is high."], "ms": ["Mesin vektor sokongan telah ditunjukkan untuk mengatasi kaedah lain yang ada dalam Categorization teks.", "Svms telah ditunjukkan untuk menjadi mantap dalam tugas-tugas pengelasan yang melibatkan teks di mana Dimensi adalah tinggi."]}, {"en": ["Within this Subpart of our ensemble model, we used a SVM model from the Scikit-Learn library.", "To train our models, we utilized the standard machine learning package, Scikit-Learn for the models using a shallow feature representation."], "ms": ["Dalam Subpart model ensemble kami, kami menggunakan model SVM dari perpustakaan Scikit-Learn.", "Untuk melatih model kami, kami menggunakan pakej pembelajaran mesin standard, Scikit-Learn untuk model menggunakan perwakilan ciri cetek."]}, {"en": ["Mikolov et al used distributed representations of words to learn a linear mapping between vector spaces of languages and showed that this mapping can serve as a good dictionary between the languages.", "Mikolov et al observed a strong similarity of the Geometric arrangements of corresponding concepts between the vector spaces of different languages, and suggested that a Crosslingual mapping between the two vector spaces is technically plausible."], "ms": ["Mikolov et al menggunakan perwakilan perkataan yang diedarkan untuk mempelajari pemetaan linear antara ruang vektor bahasa dan menunjukkan bahawa pemetaan ini boleh berfungsi sebagai kamus yang baik antara bahasa.", "Mikolov et al memerhatikan persamaan yang kuat dari susunan geometri konsep yang sesuai antara ruang vektor bahasa yang berbeza, dan mencadangkan bahawa pemetaan silang antara dua ruang vektor secara teknikal masuk akal."]}, {"en": ["We use the Stanford dependency Parser to extract nouns and their grammatical roles.", "We extract lexical relations from the question using the Stanford Dependencies Parser."], "ms": ["Kami menggunakan Stanford dependency Parser untuk mengekstrak kata nama dan peranan tatabahasa mereka.", "Kami mengekstrak hubungan leksikal dari soalan menggunakan Stanford Dependencies Parser."]}, {"en": ["Choi and Cardie developed inference rules to capture compositional effects at the lexical level on Phrase-Level polarity classification.", "Choi and Cardie combine different kinds of Negations with lexical polarity items through various compositional semantic models to improve Phrasal sentiment analysis."], "ms": ["Choi dan Cardie membangunkan peraturan kesimpulan untuk menangkap kesan komposisi pada tahap leksikal pada klasifikasi polariti Tahap Frasa.", "Choi dan Cardie menggabungkan pelbagai jenis Negasi dengan item polariti leksikal melalui pelbagai model semantik komposisi untuk meningkatkan analisis sentimen Phrasal."]}, {"en": ["We use the popular Moses Toolkit to build the Smt system.", "We use the Moses Smt Toolkit to test the augmented Datasets."], "ms": ["Kami menggunakan Musa Toolkit yang popular untuk membina sistem Smt.", "Kami menggunakan Musa Smt Toolkit untuk menguji Dataset yang ditambah."]}, {"en": ["We use Pre-Trained word vectors from glove.", "We apply a Pretrained glove word Embedding on."], "ms": ["Kami menggunakan vektor perkataan pra-latihan dari sarung tangan.", "Kami menggunakan perkataan sarung tangan Pretrained Embedding pada."]}, {"en": ["Our framework has made clear advancements with respect to existing structured topic models.", "And we will show that this framework captures many existing topic models (\u00a1\u00cc 4)."], "ms": ["Kerangka kami telah membuat kemajuan yang jelas berkenaan dengan model topik berstruktur yang sedia ada.", "Dan kami akan menunjukkan bahawa rangka kerja ini menangkap banyak model topik yang ada ( 4)."]}, {"en": ["Sarcasm is a form of speech in which speakers say the opposite of what they truly mean in order to convey a strong sentiment.", "Sarcasm is defined as \u2018 a cutting, often ironic remark intended to express contempt or ridicule \u2019 1."], "ms": ["Sarcasm adalah satu bentuk ucapan di mana penceramah mengatakan sebaliknya daripada apa yang mereka benar-benar bermakna untuk menyampaikan sentimen yang kuat.", "Sarcasm ditakrifkan sebagai potong, sering ironis kenyataan yang bertujuan untuk menyatakan penghinaan atau ejekan 1."]}, {"en": ["Semantic role labeling (SRL) is the task of identifying the semantic arguments of a Predicate and labeling them with their semantic roles.", "Semantic role labeling (SRL) is the task of identifying semantic arguments of Predicates in text."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas mengenal pasti hujah semantik Predicate dan melabelkannya dengan peranan semantik mereka.", "Pelabelan peranan semantik (SRL) adalah tugas mengenal pasti hujah semantik Predicates dalam teks."]}, {"en": ["Coreference resolution is a task aimed at identifying phrases (mentions) referring to the same entity.", "Coreference resolution is a fundamental component of natural language processing (Nlp) and has been widely applied in other Nlp tasks (Cite-P-15-3-9)."], "ms": ["Resolusi spatial adalah tugas yang bertujuan untuk mengenal pasti frasa (mention) yang merujuk kepada entiti yang sama.", "Resolusi spatial adalah komponen asas pemprosesan bahasa semula jadi (Nlp) dan telah digunakan secara meluas dalam tugas Nlp lain (Cite-P-15-3-9)."]}, {"en": ["We use Srilm Toolkit to train a Trigram language model with modified Kneser-Ney smoothing on the target side of training corpus.", "For all data sets, we trained a 5-Gram language model using the Sri language modeling Toolkit."], "ms": ["Kami menggunakan Srilm Toolkit untuk melatih model bahasa Trigram dengan smoothing Kneser-Ney yang diubahsuai di sisi sasaran korpus latihan.", "Untuk semua set data, kami melatih model bahasa 5-Gram menggunakan Toolkit pemodelan bahasa Sri."]}, {"en": ["The base Pcfg uses simplified categories of the Stanford Pcfg Parser.", "We implement some of these features using the Stanford Parser."], "ms": ["Pcfg asas menggunakan kategori mudah dari Stanford Pcfg Parser.", "Kami melaksanakan beberapa ciri ini menggunakan Stanford Parser."]}, {"en": ["We evaluated translation quality using Uncased BLEU and Ter.", "We measured translation performance with BLEU."], "ms": ["Kami menilai kualiti terjemahan menggunakan Uncased BLEU dan Ter.", "Kami mengukur prestasi terjemahan dengan BLEU."]}, {"en": ["Sentiment classification is the fundamental task of sentiment analysis (Cite-P-15-3-11), where we are to classify the sentiment of a given text.", "Sentiment classification is a very Domain-Specific problem; training a Classifier using the data from one domain may fail when testing against data from another."], "ms": ["Klasifikasi sentimen adalah tugas asas analisis sentimen (Cite-P-15-3-11), di mana kita mengklasifikasikan sentimen teks tertentu.", "Klasifikasi sentimen adalah masalah yang sangat Domain-Specific; melatih pengelas menggunakan data dari satu domain mungkin gagal apabila menguji terhadap data dari domain lain."]}, {"en": ["Srilm Toolkit is used to build these language models.", "The Target-Side language models were estimated using the Srilm Toolkit."], "ms": ["Srilm Toolkit digunakan untuk membina model bahasa ini.", "Model bahasa Target-Side dianggarkan menggunakan Srilm Toolkit."]}, {"en": ["We estimated 5-Gram language models using the Sri Toolkit with modified Kneser-Ney smoothing.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing."], "ms": ["Kami menganggarkan model bahasa 5-Gram menggunakan Sri Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Recently, neural networks become popular for natural language processing.", "More recently, neural networks have become prominent in word representation learning."], "ms": ["Baru-baru ini, rangkaian saraf menjadi popular untuk pemprosesan bahasa semula jadi.", "Baru-baru ini, rangkaian saraf telah menjadi terkenal dalam pembelajaran perwakilan perkataan."]}, {"en": ["Word sense Disambiguation (Wsd) is a natural language processing (Nlp) task in which the correct meaning (sense) of a word in a given context is to be determined.", "Word sense Disambiguation (Wsd) is the task of automatically determining the correct sense for a target word given the context in which it occurs."], "ms": ["Disambiguasi erti kata (Wsd) ialah tugas pemprosesan bahasa semula jadi (Nlp) di mana makna (rasa) yang betul perkataan dalam konteks tertentu perlu ditentukan.", "Disambiguasi erti kata (Wsd) adalah tugas menentukan secara automatik pengertian yang betul untuk perkataan sasaran yang diberikan konteks di mana ia berlaku."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["For the language model, we used Sri language modeling Toolkit to train a Trigram model with modified Kneser-Ney smoothing on the 31 , 149 English sentences.", "We trained a Trigram language model on the Chinese side, with the Srilm Toolkit, using the modified Kneser-Ney smoothing option."], "ms": ["Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Trigram dengan Kneser-Ney yang diubahsuai pada 31, 149 ayat bahasa Inggeris.", "Kami melatih model bahasa Trigram di sisi Cina, dengan Srilm Toolkit, menggunakan pilihan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We used the Moses Decoder, with default settings, to obtain the translations.", "We used the Moses Toolkit with its default settings."], "ms": ["Kami telah menggunakan Musa sebagai khalifah untuk menyembah berhala.", "Kami telah menggunakan Musa dengan (menerangkan) surah-surah yang tidak ternilai harganya."]}, {"en": ["In this paper, we adopt continuous Bag-Of-Word in Word2Vec as our Context-Based Embedding model.", "In this work, we introduce an extension to the continuous Bag-Of-Words model."], "ms": ["Dalam makalah ini, kami menggunakan Bag-Of-Word yang berterusan dalam Word2Vec sebagai model Embedding Berasaskan Konteks kami.", "Dalam kerja ini, kami memperkenalkan sambungan kepada model Bag-Of-Words yang berterusan."]}, {"en": ["The decoding weights are Optimized with minimum error rate training to maximize BLEU scores.", "The Nnlm weights are Optimized as the other feature weights using minimum error rate training."], "ms": ["Berat penyahkodan dioptimumkan dengan latihan kadar ralat minimum untuk memaksimumkan skor BLEU.", "Berat Nnlm dioptimumkan sebagai berat ciri lain menggunakan latihan kadar ralat minimum."]}, {"en": ["We use the Skll and Scikit-Learn Toolkits.", "We used the Scikit-Learn library the SVM model."], "ms": ["Kami menggunakan Skll dan Scikit-Learn Toolkits.", "Kami menggunakan perpustakaan Scikit-Learn model SVM."]}, {"en": ["We use Srilm for training a Trigram language model on the English side of the training data.", "We train a 4-Gram language model on the Xinhua portion of English Gigaword corpus by Srilm Toolkit."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa Trigram di sisi bahasa Inggeris data latihan.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua Gigaword corpus bahasa Inggeris oleh Srilm Toolkit."]}, {"en": ["Semantic Parsing is the task of mapping natural language to machine interpretable meaning representations.", "Semantic Parsing is the mapping of text to a meaning representation."], "ms": ["Penghuraian Semantik adalah tugas pemetaan bahasa semula jadi kepada perwakilan makna yang boleh ditafsirkan mesin.", "Penghuraian Semantik adalah pemetaan teks kepada perwakilan makna."]}, {"en": ["We conduct experiments on the latest Twitter sentiment classification benchmark Dataset in Semeval 2013.", "We conduct experiments on the benchmark Twitter sentiment classification Dataset from Semeval 2013."], "ms": ["Kami melakukan eksperimen pada Dataset penanda aras klasifikasi sentimen Twitter terkini di Semeval 2013.", "Kami melakukan eksperimen pada penanda aras Dataset klasifikasi sentimen Twitter dari Semeval 2013."]}, {"en": ["And while discourse Parsing is a document level task, discourse Segmentation is done at the sentence level, assuming that sentence boundaries are known.", "Discourse Parsing is a challenging natural language processing (Nlp) task that has utility for many other Nlp tasks such as summarization, opinion mining, etc . (Cite-P-17-3-3)."], "ms": ["Dan sementara wacana Parsing adalah tugas peringkat dokumen, wacana Segmentasi dilakukan pada tahap ayat, dengan anggapan bahawa batas ayat diketahui.", "Parsing Wacana adalah tugas pemprosesan bahasa semula jadi (Nlp) yang mencabar yang mempunyai utiliti untuk banyak tugas Nlp lain seperti ringkasan, perlombongan pendapat, dan lain-lain (Cite-P-17-3-3)."]}, {"en": ["The parameter weights are Optimized with minimum error rate training.", "The model weights are automatically tuned using minimum error rate training."], "ms": ["Berat parameter dioptimumkan dengan latihan kadar ralat minimum.", "Berat model ditala secara automatik menggunakan latihan kadar ralat minimum."]}, {"en": ["Although Coreference resolution is a Subproblem of natural language understanding, Coreference resolution evaluation Metrics have predominately been discussed in terms of abstract entities and hypothetical system errors.", "Coreference resolution is a key problem in natural language understanding that still escapes reliable solutions."], "ms": ["Walaupun resolusi Coreference adalah Submasalah pemahaman bahasa semula jadi, Metrik penilaian resolusi Coreference telah banyak dibincangkan dari segi entiti abstrak dan kesilapan sistem hipotesis.", "Resolusi spatial adalah masalah utama dalam pemahaman bahasa semula jadi yang masih terlepas daripada penyelesaian yang boleh dipercayai."]}, {"en": ["A 4-Gram language model which was trained on the entire training corpus using Srilm was used to generate responses in conjunction with the Phrase-Based translation model.", "A 5-Gram language model was created with the Sri language modeling Toolkit and trained using the Gigaword corpus and English sentences from the parallel data."], "ms": ["Model bahasa 4-Gram yang dilatih pada keseluruhan korpus latihan menggunakan Srilm digunakan untuk menghasilkan respons bersempena dengan model terjemahan Berfiksyen.", "Model bahasa 5-Gram dicipta dengan Toolkit pemodelan bahasa Sri dan dilatih menggunakan Gigaword corpus dan ayat bahasa Inggeris dari data selari."]}, {"en": ["Brockett et al use an Smt system to correct errors involving mass noun errors.", "Brockett et al showed that Phrase-Based statistical mt can help to correct mistakes made on mass nouns."], "ms": ["Brockett et al menggunakan sistem Smt untuk membetulkan kesilapan yang melibatkan kesilapan kata nama jisim.", "Brockett et al menunjukkan bahawa statistik Berasaskan Frasa mt dapat membantu membetulkan kesilapan yang dilakukan pada kata nama massa."]}, {"en": ["Simulating the approach reported by, we trained a support vector machine for regression with Rbf kernel using Scikit-Learn with the set of features.", "We trained a support vector machine for regression with Rbf kernel using Scikitlearn, which in turn uses Libsvm."], "ms": ["Mensimulasikan pendekatan yang dilaporkan oleh, kami melatih mesin vektor sokongan untuk regresi dengan kernel Rbf menggunakan Scikit-Learn dengan set ciri.", "Kami melatih mesin vektor sokongan untuk regresi dengan kernel Rbf menggunakan Scikitlearn, yang seterusnya menggunakan Libsvm."]}, {"en": ["Sentiment analysis is a growing research field, especially on web social networks.", "Sentiment analysis is a natural language processing task whose aim is to classify documents according to the opinion (polarity) they express on a given subject (Cite-P-13-8-14)."], "ms": ["Analisis sentimen adalah bidang penyelidikan yang semakin meningkat, terutamanya di rangkaian sosial web.", "Analisis sentimen adalah tugas pemprosesan bahasa semula jadi yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat (kepolaritian) yang mereka nyatakan pada subjek tertentu (Cite-P-13-8-14)."]}, {"en": ["Coreference resolution is the task of partitioning a set of entity mentions in a text, where each partition corresponds to some entity in an underlying discourse model.", "Coreference resolution is the process of determining whether two expressions in natural language refer to the same entity in the world."], "ms": ["Resolusi spatial adalah tugas pembahagian satu set sebutan entiti dalam teks, di mana setiap partition sepadan dengan beberapa entiti dalam model wacana yang mendasari.", "Resolusi spatial adalah proses menentukan sama ada dua ungkapan dalam bahasa semula jadi merujuk kepada entiti yang sama di dunia."]}, {"en": ["We use the Brown clustering algorithm to induce our word representations.", "We adopt the Brown cluster algorithm to find the word cluster."], "ms": ["Kami menggunakan algoritma pengelompokan Brown untuk mendorong perwakilan perkataan kami.", "Kami menggunakan algoritma kluster Brown untuk mencari kluster perkataan."]}, {"en": ["Our experimental results show that this approach can accurately predict missing topic preferences of users accurately (80\u201394 %).", "Our experimental results demonstrate both that our proposed approach is useful in predicting missing preferences of users."], "ms": ["Hasil eksperimen kami menunjukkan bahawa pendekatan ini dapat meramalkan keutamaan topik yang hilang dengan tepat pengguna (80-44%).", "Hasil eksperimen kami menunjukkan kedua-dua pendekatan yang dicadangkan kami berguna dalam meramalkan pilihan pengguna yang hilang."]}, {"en": ["The Smt tools are a Phrase-Based Smt Toolkit licensed by Nict, and Moses.", "The Smt systems were built using the Moses Toolkit."], "ms": ["Alat Smt adalah alat Smt Berasaskan Frasa yang dilesenkan oleh Nict, dan Musa.", "Sistem Smt dibina menggunakan Musa Toolkit."]}, {"en": ["Stance detection is the task of assigning stance labels to a piece of text with respect to a topic, I.E . whether a piece of text is in favour of \u201c abortion \u201d, neutral, or against.", "Stance detection is the task of automatically determining from the text whether the author of the text is in favor of, against, or neutral towards a proposition or target."], "ms": ["Pengesanan santun adalah tugas untuk memberikan label pendirian kepada sekeping teks berkenaan dengan topik, I.E. sama ada sekeping teks memihak kepada pengguguran, neutral, atau menentang.", "Pengesanan santun adalah tugas menentukan secara automatik dari teks sama ada pengarang teks memihak kepada, menentang, atau neutral terhadap cadangan atau sasaran."]}, {"en": ["We measure the translation quality with automatic Metrics including BLEU and Ter.", "We will show translation quality measured with the BLEU score as a function of the phrase table size."], "ms": ["Kami mengukur kualiti terjemahan dengan Metrik automatik termasuk BLEU dan Ter.", "Kami akan menunjukkan kualiti terjemahan yang diukur dengan skor BLEU sebagai fungsi saiz jadual frasa."]}, {"en": ["For this model, we use a Binary logistic regression Classifier implemented in the Lib-Linear package, coupled with the Ovo scheme.", "We train and evaluate a L2-Regularized logistic regression Classifier with the Liblin-Ear Solver as implemented in Scikit-Learn."], "ms": ["Untuk model ini, kami menggunakan Pengkelasan regresi logistik binari yang dilaksanakan dalam pakej Lib-Linear, ditambah dengan skema Ovo.", "Kami melatih dan menilai Classifier regresi logistik L2-Regularized dengan Liblin-Ear Solver seperti yang dilaksanakan dalam Scikit-Learn."]}, {"en": ["As a baseline for this comparison, we use Morfessor Categories-Map.", "For Unsupervised Baselines we use Morfessor Categories-Map and Undivide."], "ms": ["Sebagai asas untuk perbandingan ini, kami menggunakan Morfessor Categories-Map.", "Untuk Baselines yang tidak diawasi, kami menggunakan Morfessor Categories-Map dan Undivide."]}, {"en": ["Relation extraction is a fundamental task in information extraction.", "Relation extraction (re) is the task of recognizing relationships between entities mentioned in text."], "ms": ["Pengekstrakan hubungan adalah tugas asas dalam pengekstrakan maklumat.", "Pengekstrakan hubungan (re) adalah tugas mengenali hubungan antara entiti yang disebut dalam teks."]}, {"en": ["We used Word2Vec to learn these dense vectors.", "We used Word2Vec to Preinitialize the word Embeddings."], "ms": ["Kami menggunakan Word2Vec untuk mempelajari vektor padat ini.", "Kami menggunakan Word2Vec untuk Preinitialize perkataan Embeddings."]}, {"en": ["Relation extraction is the task of recognizing and extracting relations between entities or concepts in texts.", "Relation extraction is the task of predicting semantic relations over entities expressed in structured or Semi-Structured text."], "ms": ["Pengekstrakan hubungan adalah tugas mengenali dan mengekstrak hubungan antara entiti atau konsep dalam teks.", "Pengekstrakan hubungan adalah tugas meramalkan hubungan semantik ke atas entiti yang dinyatakan dalam teks berstruktur atau Semi-Structured."]}, {"en": ["To address this problem, we propose Coverage-Based Nmt in this paper.", "In Smt, we propose a Coverage-Based approach to Nmt."], "ms": ["Untuk mengatasi masalah ini, kami mencadangkan Nmt Berasaskan Liputan dalam kertas ini.", "Dalam Smt, kami mencadangkan pendekatan Berasaskan Liputan untuk Nmt."]}, {"en": ["Our Nmt is based on an Encoderdecoder with attention design, using Bidirectional Lstm layers for Encoding and unidirectional layers for decoding.", "Our Ncpg system is an Attention-Based Bidirectional Rnn architecture that uses an Encoder-Decoder framework."], "ms": ["Nmt kami adalah berdasarkan Encoderdecoder dengan reka bentuk perhatian, menggunakan lapisan Lstm Bidirectional untuk Pengekodan dan lapisan unidirectional untuk penyahkodan.", "Sistem Ncpg kami adalah seni bina Rnn Bidirectional Berasaskan Perhatian yang menggunakan kerangka Encoder-Decoder."]}, {"en": ["In this paper, we introduce the novel task of question answering using natural language demonstrations.", "As a case study, we explore the task of learning to solve geometry problems."], "ms": ["Dalam makalah ini, kami memperkenalkan tugas baru menjawab soalan menggunakan demonstrasi bahasa semula jadi.", "Sebagai kajian kes, kami meneroka tugas pembelajaran untuk menyelesaikan masalah geometri."]}, {"en": ["Luong and Manning propose a Fine-Tuning method, which continues to train the already trained Out-Of-Domain system on the In-Domain data.", "Luong and Manning propose training a model on an Out-Of-Domain corpus and do Finetuning with small sized In-Domain parallel data to mitigate the domain shift problem."], "ms": ["Luong dan Manning mencadangkan kaedah Fine-Tuning, yang terus melatih sistem Out-Of-Domain yang sudah terlatih pada data In-Domain.", "Luong dan Manning mencadangkan melatih model pada korpus Out-Of-Domain dan melakukan Finetuning dengan data selari In-Domain bersaiz kecil untuk mengurangkan masalah peralihan domain."]}, {"en": ["Then we use the standard minimum Error-Rate training to tune the feature weights to maximize the System\u6f5eS BLEU score.", "We set all feature weights by optimizing BLEU directly using minimum error rate training on the tuning part of the development set."], "ms": ["Kemudian kami menggunakan latihan Ralat-Rate minimum standard untuk menyesuaikan berat ciri untuk memaksimumkan skor SystemS BLEU.", "Kami menetapkan semua berat ciri dengan mengoptimumkan BLEU secara langsung menggunakan latihan kadar ralat minimum pada bahagian penalaan set pembangunan."]}, {"en": ["The same data was used for tuning the systems with Mert.", "The Log-Lineal combination weights were Optimized using Mert."], "ms": ["Data yang sama digunakan untuk menala sistem dengan Mert.", "Berat gabungan Log-Lineal telah dioptimumkan menggunakan Mert."]}, {"en": ["A Multiword expression can be defined as a combination of words for which syntactic or semantic properties of the whole expression cannot be obtained from its parts.", "A Multiword expression is any combination of words with lexical, syntactic or semantic Idiosyncrasy, in that the properties of the Mwe are not predictable from the component words."], "ms": ["Ungkapan Multiword boleh ditakrifkan sebagai gabungan perkataan yang sifat sintaktik atau semantik keseluruhan ungkapan tidak boleh diperolehi dari bahagiannya.", "Ungkapan Multiword adalah gabungan perkataan dengan Idiosyncrasy leksikal, sintaksis atau semantik, kerana sifat-sifat Mwe tidak dapat diramalkan dari kata-kata komponen."]}, {"en": ["Luong et al utilized the Morpheme segments produced by Morfessor and constructed Morpheme trees for words to learn Morphologically-Aware word Embeddings by the recursive neural network.", "In, the authors use a recursive neural network to explicitly model the morphological structures of words and learn Morphologically-Aware Embeddings."], "ms": ["Luong et al menggunakan segmen Morpheme yang dihasilkan oleh Morfessor dan membina pokok Morpheme untuk perkataan untuk mempelajari Embedding perkataan Morphologically-Aware oleh rangkaian saraf rekursif.", "Dalam, penulis menggunakan rangkaian neural rekursif untuk memodelkan struktur morfologi perkataan secara eksplisit dan mempelajari Embedding Morfologi-Aware."]}, {"en": ["We trained the Embedding vectors with the Word2Vec tool on the large Unlabeled corpus of clinical texts provided by the task organizers.", "We Pre-Trained Embeddings using Word2Vec with the Skip-Gram training objective and NEC negative sampling."], "ms": ["Kami melatih vektor Embedding dengan alat Word2Vec pada korpus besar teks klinikal yang tidak berlabel yang disediakan oleh penganjur tugas.", "Kami Embedding Pra-Latih menggunakan Word2Vec dengan objektif latihan Skip-Gram dan pensampelan negatif NEC."]}, {"en": ["Marcu and Wong proposed a Phrase-Based Context-Free joint probability model for lexical mapping.", "Marcu and Wong present a joint probability model for Phrase-Based translation."], "ms": ["Marcu dan Wong mencadangkan model kebarangkalian bersama Berasaskan Konteks Bebas Frasa untuk pemetaan leksikal.", "Marcu dan Wong mempersembahkan model kebarangkalian bersama untuk terjemahan Berasaskan Frasa."]}, {"en": ["Sequence labeling is a structured prediction task where systems need to assign the correct label to every token in the input sequence.", "Sequence labeling is the simplest Subclass of structured prediction problems."], "ms": ["Pelabelan jujukan adalah tugas ramalan berstruktur di mana sistem perlu menetapkan label yang betul untuk setiap token dalam urutan input.", "Pelabelan jujukan adalah Subkelas paling mudah masalah ramalan berstruktur."]}, {"en": ["The system was trained using Moses with default settings, using a 5-Gram language model created from the English side of the training corpus using Srilm.", "Additionally, a Back-Off 2-Gram model with Goodturing discounting and no lexical classes was built from the same training data, using the Srilm Toolkit."], "ms": ["Sistem ini dilatih menggunakan Musa dengan tetapan lalai, menggunakan model bahasa 5-Gram yang dicipta dari sisi bahasa Inggeris korpus latihan menggunakan Srilm.", "Selain itu, model Back-Off 2-Gram dengan diskaun Goodturing dan tiada kelas leksikal dibina daripada data latihan yang sama, menggunakan Srilm Toolkit."]}, {"en": ["Furthermore, we train a 5-Gram language model using the Sri language Toolkit.", "We use Sri language modeling Toolkit to train a 5-Gram language model on the English sentences of Fbis corpus."], "ms": ["Tambahan pula, kami melatih model bahasa 5-Gram menggunakan Toolkit bahasa Sri.", "Kami menggunakan Sri bahasa pemodelan Toolkit untuk melatih model bahasa 5-Gram pada ayat bahasa Inggeris Fbis corpus."]}, {"en": ["Some researchers used similarity and Association measures to build alignment links.", "In recent years, many researchers have employed statistical models or Association measures to build alignment links."], "ms": ["Sesetengah penyelidik menggunakan persamaan dan langkah-langkah Persatuan untuk membina pautan penjajaran.", "Dalam tahun-tahun kebelakangan ini, banyak penyelidik telah menggunakan model statistik atau langkah-langkah Persatuan untuk membina pautan penjajaran."]}, {"en": ["We use the Scikit-Learn machine learning library to implement the entire pipeline.", "For training our system Classifier, we have used Scikit-Learn."], "ms": ["Kami menggunakan perpustakaan pembelajaran mesin Scikit-Learn untuk melaksanakan keseluruhan saluran paip.", "Untuk melatih Classifier sistem kami, kami telah menggunakan Scikit-Learn."]}, {"en": ["Conditional random fields are probabilistic models for labelling sequential data.", "Conditional random fields are Discriminative structured classification models for sequential tagging and Segmentation."], "ms": ["Medan rawak bersyarat adalah model kebarangkalian untuk melabel data berurutan.", "Medan rawak bersyarat adalah model klasifikasi berstruktur Discriminatif untuk penandaan berurutan dan Segmentasi."]}, {"en": ["Twitter 1 is a Microblogging service, which according to latest statistics, has 284 million active users , 77% outside the us that generate 500 million Tweets a day in 35 different languages.", "Twitter is a Microblogging service that has 313 million monthly active users 1."], "ms": ["Twitter 1 adalah perkhidmatan Microblogging, yang menurut statistik terkini, mempunyai 284 juta pengguna aktif, 77% di luar AS yang menjana 500 juta Tweet sehari dalam 35 bahasa yang berbeza.", "Twitter adalah perkhidmatan Microblogging yang mempunyai 313 juta pengguna aktif bulanan 1."]}, {"en": ["Morphological analysis is a staple of natural language processing for broad languages.", "We assume that a morphological analysis consists of three processes: Tokenization, dictionary lookup, and Disambiguation."], "ms": ["Analisis morfologi adalah pokok pemprosesan bahasa semula jadi untuk bahasa yang luas.", "Kami menganggap bahawa analisis morfologi terdiri daripada tiga proses: Tokenisasi, carian kamus, dan Disambiguasi."]}, {"en": ["Our translation model is implemented as an N-Gram model of operations using the Srilm Toolkit with Kneser-Ney smoothing.", "We then perform Mert which Optimizes parameter settings using the BLEU metric, while a 5-Gram language model is derived with Kneser-Ney smoothing trained using Srilm."], "ms": ["Model terjemahan kami dilaksanakan sebagai model operasi N-Gram menggunakan Srilm Toolkit dengan smoothing Kneser-Ney.", "Kami kemudian melakukan Mert yang Optimizes parameter settings menggunakan metrik BLEU, manakala model bahasa 5-Gram diperoleh dengan Kneser-Ney smoothing dilatih menggunakan Srilm."]}, {"en": ["We used the support vector machine implementation from the Liblinear library on the test sets and report the results in Table 4.", "We use the Multi-Class logistic regression Classifier from the Liblinear package 2 for the prediction of edit scripts."], "ms": ["Kami menggunakan pelaksanaan mesin vektor sokongan dari perpustakaan Liblinear pada set ujian dan melaporkan hasilnya dalam Jadual 4.", "Kami menggunakan Klasifikasi regresi logistik Multi-Class dari pakej Liblinear 2 untuk ramalan skrip suntingan."]}, {"en": ["We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "We trained a standard 5-Gram language model with modified Kneser-Ney smoothing using the Kenlm Toolkit on 4 billion running words."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Kami melatih model bahasa 5-Gram standard dengan smoothing Kneser-Ney yang diubahsuai menggunakan Kenlm Toolkit pada 4 bilion perkataan berjalan."]}, {"en": ["For the language model we use the corpus of 60,000 simple English Wikipedia articles 3 and build a 3-Gram language model with Kneser-Ney smoothing trained with Srilm.", "We use Srilm Toolkit to train a Trigram language model with modified Kneser-Ney smoothing on the target side of training corpus."], "ms": ["Untuk model bahasa, kami menggunakan korpus 60,000 artikel Wikipedia Bahasa Inggeris mudah 3 dan membina model bahasa 3-Gram dengan smoothing Kneser-Ney dilatih dengan Srilm.", "Kami menggunakan Srilm Toolkit untuk melatih model bahasa Trigram dengan smoothing Kneser-Ney yang diubahsuai di sisi sasaran korpus latihan."]}, {"en": ["We first trained a Trigram Bnlm as the baseline with interpolated Kneser-Ney smoothing, using Srilm Toolkit.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Kami pertama kali melatih Trigram Bnlm sebagai garis dasar dengan smoothing Kneser-Ney yang saling berkaitan, menggunakan Srilm Toolkit.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Automatic word alignment is a key step in training statistical machine translation systems.", "Automatic word alignment can be defined as the problem of determining a Translational correspondence at word level given a parallel corpus of aligned sentences."], "ms": ["Penjajahan perkataan automatik adalah langkah utama dalam melatih sistem terjemahan mesin statistik.", "Penjajahan perkataan automatik boleh ditakrifkan sebagai masalah menentukan surat-menyurat Translasional pada tahap perkataan yang diberikan korpus selari ayat yang sejajar."]}, {"en": ["We first use BLEU score to perform automatic evaluation.", "We report the mt performance using the original BLEU metric."], "ms": ["Kami menggunakan skor BLEU untuk melakukan penilaian automatik.", "Kami melaporkan prestasi mt menggunakan metrik BLEU asal."]}, {"en": ["We then Lowercase all data and use all sentences from the modern Dutch part of the corpus to train an N-Gram language model with the Srilm Toolkit.", "We train a 4-Gram language model on the Xinhua portion of the Gigaword corpus using the Sri language Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami kemudian menurunkan semua data dan menggunakan semua ayat dari bahagian Belanda moden korpus untuk melatih model bahasa N-Gram dengan Srilm Toolkit.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword menggunakan Toolkit bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We evaluated the translation quality using the Case-Insensitive Bleu-4 metric.", "We evaluate the translation quality using the Case-Insensitive Bleu-4 metric."], "ms": ["Kami menilai kualiti terjemahan menggunakan metrik Case-Insensitive Bleu-4.", "Kami menilai kualiti terjemahan menggunakan metrik Case-Insensitive Bleu-4."]}, {"en": ["The 5-Gram Kneser-Ney smoothed language models were trained by Srilm, with Kenlm used at Runtime.", "A Trigram language model with modified Kneser-Ney discounting and interpolation was used as produced by the Srilm Toolkit."], "ms": ["Model bahasa 5-Gram Kneser-Ney yang dilicinkan dilatih oleh Srilm, dengan Kenlm digunakan di Runtime.", "Model bahasa Trigram dengan diskaun Kneser-Ney yang diubahsuai dan interpolasi digunakan seperti yang dihasilkan oleh Srilm Toolkit."]}, {"en": ["Our machine translation system is a Phrase-Based system using the Moses Toolkit.", "We develop translation models using the Phrase-Based Moses Smt system."], "ms": ["Sistem terjemahan mesin kami adalah sistem berasaskan frasa menggunakan Musa Toolkit.", "Kami membangunkan model terjemahan menggunakan sistem Moses Smt Berasaskan Frasa."]}, {"en": ["Semantic Parsing is the problem of translating human language into computer language, and therefore is at the heart of natural language understanding.", "Semantic Parsing is the problem of mapping natural language strings into meaning representations."], "ms": ["Penghuraian Semantik adalah masalah menterjemahkan bahasa manusia ke dalam bahasa komputer, dan oleh itu adalah di tengah-tengah pemahaman bahasa semula jadi.", "Penghuraian Semantik adalah masalah pemetaan rentetan bahasa semula jadi ke dalam perwakilan makna."]}, {"en": ["We Initialize the Embedding weights by the Pre-Trained word Embeddings with 200 dimensional vectors.", "We adopt glove vectors as the initial setting of word Embeddings V."], "ms": ["Kami Memulakan berat Embedding oleh perkataan Pra-Trained Embeddings dengan 200 vektor dimensi.", "Kami menggunakan vektor sarung tangan sebagai tetapan awal perkataan Embeddings V."]}, {"en": ["We choose modified Kneser Ney as the smoothing algorithm when learning the Ngram model.", "In our implementation, we use a Kn-Smoothed Trigram model."], "ms": ["Kami memilih Kneser Ney yang diubahsuai sebagai algoritma melicinkan apabila mempelajari model Ngram.", "Dalam pelaksanaan kami, kami menggunakan model Kn-Smoothed Trigram."]}, {"en": ["We used the Srilm Toolkit to build Unpruned 5-Gram models using interpolated modified Kneser-Ney smoothing.", "We used Srilm to build a 4-Gram language model with Kneser-Ney discounting."], "ms": ["Kami menggunakan Srilm Toolkit untuk membina model 5-Gram Unpruned menggunakan smoothing Kneser-Ney yang diubahsuai secara interpolated.", "Kami menggunakan Srilm untuk membina model bahasa 4-Gram dengan diskaun Kneser-Ney."]}, {"en": ["We train a Trigram language model with the Srilm Toolkit.", "We trained a 5-Grams language model by the Srilm Toolkit."], "ms": ["Kami melatih model bahasa Trigram dengan Srilm Toolkit.", "Kami melatih model bahasa 5-Gram oleh Srilm Toolkit."]}, {"en": ["Word sense Disambiguation (Wsd) is the Nlp task that consists in selecting the correct sense of a Polysemous word in a given context.", "The process of identifying the correct meaning, or sense of a word in context, is known as word sense Disambiguation (Wsd)."], "ms": ["Disambiguasi erti kata (Wsd) ialah tugas Nlp yang terdiri daripada memilih erti kata yang betul bagi perkataan Polisemous dalam konteks tertentu.", "Proses mengenal pasti makna yang betul, atau rasa perkataan dalam konteks, dikenali sebagai kata rasa Disambiguation (Wsd)."]}, {"en": ["Coreference resolution is a key task in natural language processing (Cite-P-13-1-8) aiming to detect the Referential expressions (mentions) in a text that point to the same entity.", "Coreference resolution is the process of finding discourse entities (Markables) referring to the same Real-World entity or concept."], "ms": ["Resolusi spatial adalah tugas utama dalam pemprosesan bahasa semula jadi (Cite-P-13-1-8) yang bertujuan untuk mengesan ungkapan rujukan (mention) dalam teks yang menunjuk kepada entiti yang sama.", "Resolusi spatial adalah proses mencari entiti wacana (Markables) merujuk kepada entiti atau konsep Dunia Nyata yang sama."]}, {"en": ["In this paper, we present a more expressive Entity-Mention model for Coreference resolution.", "We present an expressive Entity-Mention model that performs Coreference resolution."], "ms": ["Dalam makalah ini, kami membentangkan model Entiti-Mention yang lebih ekspresif untuk resolusi Coreference.", "Kami membentangkan model Entity-Mention ekspresif yang melaksanakan resolusi Coreference."]}, {"en": ["Relation extraction is the task of finding relationships between two entities from text.", "Relation extraction (re) has been defined as the task of identifying a given set of semantic Binary relations in text."], "ms": ["Pengekstrakan hubungan adalah tugas mencari hubungan antara dua entiti dari teks.", "Pengekstrakan hubungan (re) telah ditakrifkan sebagai tugas mengenal pasti set hubungan semantik yang diberikan dalam teks."]}, {"en": ["Hatzivassiloglou and Mckeown proposed a method for identifying word polarity of adjectives.", "Hatzivassiloglou and Mckeown proposed a method to identify the polarity of adjectives based on conjunctions linking them."], "ms": ["Hatzivassiloglou dan Mckeown mencadangkan kaedah untuk mengenal pasti polariti perkataan kata sifat.", "Hatzivassiloglou dan Mckeown mencadangkan kaedah untuk mengenal pasti polariti kata sifat berdasarkan pada hubungkait yang menghubungkannya."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of determining the correct meaning for an ambiguous word from its context.", "Word sense Disambiguation (Wsd) is a natural language processing (Nlp) task in which the correct meaning (sense) of a word in a given context is to be determined."], "ms": ["Kemusykilan erti kata Kemusykilan (Wsd) ialah tugas menentukan makna yang betul bagi perkataan yang samar-samar dari konteksnya.", "Disambiguasi erti kata (Wsd) ialah tugas pemprosesan bahasa semula jadi (Nlp) di mana makna (rasa) yang betul perkataan dalam konteks tertentu perlu ditentukan."]}, {"en": ["In the case of bilingual word Embedding, Mikolov et al propose a method to learn a linear transformation from the source language to the target language for the task of lexicon extraction from bilingual Corpora.", "Mikolov et al have proposed to obtain Cross-Lingual word representations by learning a linear mapping between two Monolingual word Embedding spaces."], "ms": ["Dalam kes Embedding perkataan dwibahasa, Mikolov et al mencadangkan kaedah untuk mempelajari transformasi linear dari bahasa sumber ke bahasa sasaran untuk tugas pengekstrakan leksikon dari Corpora dwibahasa.", "Mikolov et al telah mencadangkan untuk mendapatkan perwakilan perkataan Cross-Lingual dengan mempelajari pemetaan linear antara dua ruang Embedding perkataan Monolingual."]}, {"en": ["We evaluate our models with the standard Rouge metric and obtain Rouge scores using the Pyrouge package.", "We measure the quality of the automatically created summaries using the Rouge measure."], "ms": ["Kami menilai model kami dengan metrik Rouge standard dan memperoleh skor Rouge menggunakan pakej Pyrouge.", "Kami mengukur kualiti ringkasan yang dibuat secara automatik menggunakan ukuran Rouge."]}, {"en": ["Hatzivassiloglou and Mckeown proposed a supervised algorithm to determine the semantic orientation of adjectives.", "In previous work, Hatzivassiloglou and Mckeown proposed a method to identify the polarity of adjectives based on conjunctions linking them in a large corpus."], "ms": ["Hatzivassiloglou dan Mckeown mencadangkan algoritma yang diselia untuk menentukan orientasi semantik kata sifat.", "Dalam karya sebelumnya, Hatzivassiloglou dan Mckeown mencadangkan kaedah untuk mengenal pasti polariti kata sifat berdasarkan hubungkait yang menghubungkannya dalam korpus besar."]}, {"en": ["More recently, Mikolov et al propose two Log-Linear models, namely the Skip-Gram and Cbow model, to efficiently induce word Embeddings.", "The Skip-Gram and continuous Bag-Of-Words models of Mikolov et al propose a simple Single-Layer architecture based on the inner product between two word vectors."], "ms": ["Baru-baru ini, Mikolov et al mencadangkan dua model Log-Linear, iaitu model Skip-Gram dan Cbow, untuk mendorong Embedding perkataan dengan cekap.", "Model Skip-Gram dan Bag-Of-Words yang berterusan Mikolov et al mencadangkan seni bina Single-Layer yang mudah berdasarkan produk dalaman antara dua vektor perkataan."]}, {"en": ["Deep neural networks have seen widespread use in natural language processing tasks such as Parsing, language modeling, and sentiment analysis.", "Recently, neural networks, and in particular recurrent neural networks have shown excellent performance in language modeling."], "ms": ["Rangkaian saraf yang mendalam telah melihat penggunaan meluas dalam tugas pemprosesan bahasa semula jadi seperti Penghuraian, pemodelan bahasa, dan analisis sentimen.", "Baru-baru ini, rangkaian saraf, dan khususnya rangkaian saraf berulang telah menunjukkan prestasi yang sangat baik dalam pemodelan bahasa."]}, {"en": ["Minimum error rate training is applied to tune the Cn weights.", "The minimum error rate training was used to tune the feature weights."], "ms": ["Latihan kadar ralat minimum digunakan untuk menala berat Cn.", "Latihan kadar ralat minimum digunakan untuk menyesuaikan berat ciri."]}, {"en": ["Extractive summarization is a sentence selection problem: identifying important summary sentences from one or multiple documents.", "Extractive summarization is a task to create summaries by pulling out Snippets of text form the original text and combining them to form a summary."], "ms": ["Ringkasan ekstra adalah masalah pemilihan ayat: mengenal pasti ayat ringkasan penting dari satu atau pelbagai dokumen.", "Ringkasan ekstra adalah tugas untuk membuat ringkasan dengan menarik keluar coretan teks membentuk teks asal dan menggabungkannya untuk membentuk ringkasan."]}, {"en": ["Dreyer and Eisner proposed a Log-Linear model to identify paradigms.", "Dreyer and Eisner propose a Dirichlet process mixture model to learn paradigms."], "ms": ["Dreyer dan Eisner mencadangkan model Log-Linear untuk mengenal pasti paradigma.", "Dreyer dan Eisner mencadangkan model campuran proses Dirichlet untuk mempelajari paradigma."]}, {"en": ["Coreference resolution is a fundamental component of natural language processing (Nlp) and has been widely applied in other Nlp tasks (Cite-P-15-3-9).", "Coreference resolution is the process of determining whether two expressions in natural language refer to the same entity in the world."], "ms": ["Resolusi spatial adalah komponen asas pemprosesan bahasa semula jadi (Nlp) dan telah digunakan secara meluas dalam tugas Nlp lain (Cite-P-15-3-9).", "Resolusi spatial adalah proses menentukan sama ada dua ungkapan dalam bahasa semula jadi merujuk kepada entiti yang sama di dunia."]}, {"en": ["Our Ncpg system is an Attention-Based Bidirectional Rnn architecture that uses an Encoder-Decoder framework.", "We use an Attention-Based Bidirectional Rnn architecture with an Encoder-Decoder framework to build our Ncpg models."], "ms": ["Sistem Ncpg kami adalah seni bina Rnn Bidirectional Berasaskan Perhatian yang menggunakan kerangka Encoder-Decoder.", "Kami menggunakan seni bina Rnn Bidirectional Berasaskan Perhatian dengan kerangka Encoder-Decoder untuk membina model Ncpg kami."]}, {"en": ["As for je translation, we use a popular Japanese dependency Parser to obtain Japanese abstraction trees.", "We also use an in-house implementation of a Japanese Chunker to obtain chunks in Japanese sentences."], "ms": ["Bagi terjemahan je, kami menggunakan Parser dependensi Jepun yang popular untuk mendapatkan pokok abstraksi Jepun.", "Kami juga menggunakan pelaksanaan dalaman Chunker Jepun untuk mendapatkan potongan dalam ayat Jepun."]}, {"en": ["Wordnet is a key lexical resource for natural language applications.", "Wordnet is a general English thesaurus which Additionally covers biological terms."], "ms": ["Wordnet adalah sumber leksikal utama untuk aplikasi bahasa semula jadi.", "Wordnet adalah a thesaurus bahasa Inggeris umum yang juga merangkumi istilah biologi."]}, {"en": ["The Targetside 4-Gram language model was estimated using the Srilm Toolkit and modified Kneser-Ney discounting with interpolation.", "Trigram language models were estimated using the Sri language modeling Toolkit with modified Kneser-Ney smoothing."], "ms": ["Model bahasa Targetside 4-Gram dianggarkan menggunakan Srilm Toolkit dan diskaun Kneser-Ney yang diubahsuai dengan interpolasi.", "Model bahasa Trigram dianggarkan menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["The Word-Embeddings were Initialized using the glove 300-Dimensions Pre-Trained Embeddings and were kept fixed during training.", "The Lstm word Embeddings are Initialized with 100-Dim Embeddings from glove and Fine-Tuned during training."], "ms": ["Perkataan-Embedding telah Dimulakan menggunakan sarung tangan 300-Dimensions Pre-Trained Embeddings dan telah tetap semasa latihan.", "Perkataan Lstm Embeddings Dimulakan dengan Embeddings 100-Dim dari sarung tangan dan Fine-Tuned semasa latihan."]}, {"en": ["The feature weights for each system were tuned on development SETS using the Moses implementation of minimum error rate training.", "Minimum error training under BLEU was used to Optimise the feature weights of the Decoder with respect to the Dev2006 development set."], "ms": ["Berat ciri bagi setiap sistem ditala pada pembangunan SETS menggunakan pelaksanaan Musa latihan kadar ralat minimum.", "Latihan ralat minimum di bawah BLEU digunakan untuk Mengoptimumkan berat ciri Decoder berkenaan dengan set pembangunan Dev2006."]}, {"en": ["Their weights are Optimized using minimum Error-Rate training on a Held-Out development set for each of the experiments.", "These weights are Optimized using minimum Error-Rate training on a Held-Out 500 Sentence-Pair development set for each of the experiments."], "ms": ["Berat mereka dioptimumkan menggunakan latihan Ralat-Rate minimum pada set pembangunan Held-Out untuk setiap eksperimen.", "Berat ini dioptimumkan menggunakan latihan Ralat-Rate minimum pada set pembangunan Held-Out 500 Sentence-Pair untuk setiap eksperimen."]}, {"en": ["Sentiment analysis (SA) is the research field that is concerned with identifying opinions in text and classifying them as positive, negative or neutral.", "Sentiment analysis (SA) is the task of analysing opinions, sentiments or emotions expressed towards entities such as products, services, organisations, issues, and the various attributes of these entities (Cite-P-9-3-3)."], "ms": ["Analisis sentimen (SA) adalah bidang penyelidikan yang berkaitan dengan mengenal pasti pendapat dalam teks dan mengklasifikasikannya sebagai positif, negatif atau neutral.", "Analisis sentimen (SA) adalah tugas menganalisis pendapat, sentimen atau emosi yang dinyatakan terhadap entiti seperti produk, perkhidmatan, organisasi, isu, dan pelbagai atribut entiti ini (Cite-P-9-3-3)."]}, {"en": ["More importantly, Chinese is a language that lacks the morphological clues that help determine the Pos tag of a word.", "Since Chinese is the dominant language in our data set, a Word-By-Word statistical machine translation strategy (Cite-P-14-1-22) is adopted to translate English words into Chinese."], "ms": ["Lebih penting lagi, bahasa Cina adalah bahasa yang tidak mempunyai petunjuk morfologi yang membantu menentukan tag Pos perkataan.", "Oleh kerana bahasa Cina adalah bahasa dominan dalam set data kami, strategi terjemahan mesin statistik Word-By-Word (Cite-P-14-1-22) diadopsi untuk menerjemahkan kata-kata Inggeris ke dalam bahasa Cina."]}, {"en": ["We compute the Interannotator agreement in terms of the BLEU score.", "We report the mt performance using the original BLEU metric."], "ms": ["Kami mengira perjanjian Interannotator dari segi skor BLEU.", "Kami melaporkan prestasi mt menggunakan metrik BLEU asal."]}, {"en": ["Since Coreference resolution is a pervasive discourse phenomenon causing performance impediments in current Ie systems, we considered a corpus of aligned English and Romanian texts to identify Coreferring expressions.", "Coreference resolution is the task of clustering a sequence of textual entity mentions into a set of maximal Non-Overlapping clusters, such that mentions in a cluster refer to the same discourse entity."], "ms": ["Oleh kerana resolusi Coreference adalah fenomena wacana yang meluas yang menyebabkan halangan prestasi dalam sistem Ie semasa, kami menganggap korpus teks bahasa Inggeris dan Romania yang sejajar untuk mengenal pasti ungkapan Coreferring.", "Resolusi spatial adalah tugas untuk mengelompokkan urutan sebutan entiti teks ke dalam satu set kluster Non-Overlapping maksima, seperti sebutan dalam kluster merujuk kepada entiti wacana yang sama."]}, {"en": ["We use Corpus-Level BLEU score to quantitatively evaluate the generated paragraphs.", "We evaluate the performance of different translation models using both BLEU and Ter Metrics."], "ms": ["Kami menggunakan skor BLEU Tahap-Kosus untuk menilai secara kuantitatif perenggan yang dihasilkan.", "Kami menilai prestasi model terjemahan yang berbeza menggunakan kedua-dua BLEU dan Ter Metrics."]}, {"en": ["Mihalcea et al propose a method to learn Multilingual subjective language via Crosslanguage projections.", "Mihalcea et al learn Multilingual subjectivity via Cross-Lingual projections."], "ms": ["Mihalcea et al mencadangkan kaedah untuk mempelajari bahasa subjektif Multilingual melalui unjuran Crosslanguage.", "Mihalcea et al belajar subjektiviti Multilingual melalui unjuran Cross-Lingual."]}, {"en": ["The 5-Gram Kneser-Ney smoothed language models were trained by Srilm, with Kenlm used at Runtime.", "A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit."], "ms": ["Model bahasa 5-Gram Kneser-Ney yang dilicinkan dilatih oleh Srilm, dengan Kenlm digunakan di Runtime.", "Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit."]}, {"en": ["We found that performance improves steadily as the number of available languages increases.", "We \u00a1\u00af ve demonstrated that the benefits of Unsupervised Multilingual learning increase steadily with the number of available languages."], "ms": ["Kami mendapati bahawa prestasi bertambah baik dengan stabil kerana bilangan bahasa yang tersedia meningkat.", "Kami telah menunjukkan bahawa manfaat pembelajaran Multilingual Unsupervised meningkat dengan stabil dengan bilangan bahasa yang ada."]}, {"en": ["We first train a Word2Vec model on Fr-Wikipedia 11 to obtain non Contextual word vectors.", "We first use the popular Toolkit Word2Vec 1 provided by Mikolov et al to train our word Embeddings."], "ms": ["Kami mula-mula melatih model Word2Vec di Fr-Wikipedia 11 untuk mendapatkan vektor perkataan bukan kontekstual.", "Kami mula-mula menggunakan Toolkit Word2Vec 1 yang popular yang disediakan oleh Mikolov et al untuk melatih perkataan Embeddings kami."]}, {"en": ["Experimental results show that our algorithm (Math-W-2-2-5-186) can find important feature Subset, estimate cluster number and achieve better performance compared with Cgd algorithm.", "Experimental results show that our algorithm can find important feature Subset, estimate model order (cluster number) and achieve better performance."], "ms": ["Hasil eksperimen menunjukkan bahawa algoritma kami (Math-W-2-2-5-186) dapat mencari Subset ciri penting, menganggarkan nombor kluster dan mencapai prestasi yang lebih baik berbanding algoritma Cgd.", "Hasil eksperimen menunjukkan bahawa algoritma kami dapat mencari Subset ciri penting, menganggarkan pesanan model (nombor kelompok) dan mencapai prestasi yang lebih baik."]}, {"en": ["For representing words, we used 100 dimensional Pre-Trained glove Embeddings.", "For word Embeddings, we used popular Pre-Trained word vectors from glove."], "ms": ["Untuk mewakili perkataan, kami menggunakan 100 dimensi Embedding sarung tangan Pra-Trained.", "Untuk Embedding perkataan, kami menggunakan vektor perkataan Pra-Latih yang popular dari sarung tangan."]}, {"en": ["Specifically, we used the python Scikit-Learn Module, which interfaces with the Widely-Used Libsvm.", "Within this Subpart of our ensemble model, we used a SVM model from the Scikit-Learn library."], "ms": ["Khususnya, kami menggunakan Modul Scikit-Learn python, yang antara muka dengan Libsvm yang Digunakan Secara Lebaran.", "Dalam Subpart model ensemble kami, kami menggunakan model SVM dari perpustakaan Scikit-Learn."]}, {"en": ["The 5-Gram target language model was trained using Kenlm.", "We trained a 3-Gram language model on all the Correct-Side sentences using Kenlm."], "ms": ["Model bahasa sasaran 5-Gram dilatih menggunakan Kenlm.", "Kami melatih model bahasa 3-Gram pada semua ayat yang betul-betul menggunakan Kenlm."]}, {"en": ["Our baseline system is based on a Hierarchical Phrase-Based translation model, which can formally be described as a synchronous Context-Free grammar.", "Our baseline Russian-English system is a Hierarchical Phrase-Based translation model as implemented in Cdec."], "ms": ["Sistem asas kami adalah berdasarkan model terjemahan Berasaskan Frasa Hierarki, yang secara rasmi boleh digambarkan sebagai tatabahasa Bebas Konteks yang diselaraskan.", "Sistem asas Rusia-Inggeris kami adalah model terjemahan Berasaskan Frasa Hierarki seperti yang dilaksanakan dalam Cdec."]}, {"en": ["In this paper, we propose guided learning, a new learning framework for Bidirectional sequence classification.", "In this paper, we will improve upon Collins \u2019 algorithm by introducing a Bidirectional searching strategy, so as to effectively utilize more context information."], "ms": ["Dalam makalah ini, kami mencadangkan pembelajaran berpandu, kerangka pembelajaran baru untuk klasifikasi urutan Bidirectional.", "Dalam kertas kerja ini, kami akan meningkatkan algoritma Collins dengan memperkenalkan strategi carian Bidirectional, untuk menggunakan maklumat konteks yang lebih berkesan."]}, {"en": ["Sentiment analysis is the task of identifying the polarity (positive, negative or neutral) of review.", "Sentiment analysis is a growing research field, especially on web social networks."], "ms": ["Analisis kepekaan adalah tugas mengenal pasti polariti (positif, negatif atau neutral) kajian semula.", "Analisis sentimen adalah bidang penyelidikan yang semakin meningkat, terutamanya di rangkaian sosial web."]}, {"en": ["We use the Word2Vec Skip-Gram model to train our word Embeddings.", "We train a word Embedding using Word2Vec over a large corpus of 55 , 463 product reviews."], "ms": ["Kami menggunakan model Skip-Gram Word2Vec untuk melatih Embedding perkataan kami.", "Kami melatih perkataan Embedding menggunakan Word2Vec melalui korpus besar 55, 463 ulasan produk."]}, {"en": ["Social media is a popular public platform for communicating, sharing information and expressing opinions.", "Social media is a natural place to discover new events missed by Curation, but mentioned Online by someone planning to attend."], "ms": ["Media sosial adalah platform awam yang popular untuk berkomunikasi, berkongsi maklumat dan menyatakan pendapat.", "Media sosial adalah tempat semula jadi untuk menemui peristiwa baru yang terlepas oleh Curation, tetapi disebut dalam talian oleh seseorang yang merancang untuk hadir."]}, {"en": ["After standard Preprocessing of the data, we train a 3-Gram language model using Kenlm.", "For language modeling, we use the English Gigaword corpus with 5-Gram LM implemented with the Kenlm Toolkit."], "ms": ["Selepas pemprosesan data standard, kami melatih model bahasa 3-Gram menggunakan Kenlm.", "Untuk pemodelan bahasa, kami menggunakan corpus Gigaword Inggeris dengan 5-Gram LM yang dilaksanakan dengan Kenlm Toolkit."]}, {"en": ["We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "We train a 4-Gram language model on the Xinhua portion of English Gigaword corpus by Srilm Toolkit."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua Gigaword corpus bahasa Inggeris oleh Srilm Toolkit."]}, {"en": ["For other methods, we used the Mstparser as the underlying dependency Parsing tool.", "We use the Mstparser implementation described in McDonald et al for feature extraction."], "ms": ["Untuk kaedah lain, kami menggunakan Mstparser sebagai alat Penghuraian dependensi yang mendasari.", "Kami menggunakan pelaksanaan Mstparser yang diterangkan dalam McDonald et al untuk pengekstrakan ciri."]}, {"en": ["Later, Xue et al combined the language model and translation model to a Translation-Based language model and observed better performance in question Retrieval.", "Previous work consistently reported that Word-Based translation models yielded better performance than traditional methods for question Retrieval."], "ms": ["Kemudian, Xue et al menggabungkan model bahasa dan model terjemahan kepada model bahasa Berasaskan Terjemahan dan memerhatikan prestasi yang lebih baik dalam soal Pengambilan semula.", "Kerja sebelumnya secara konsisten melaporkan bahawa model terjemahan berasaskan perkataan menghasilkan prestasi yang lebih baik daripada kaedah tradisional untuk pengambilan soalan."]}, {"en": ["Huang et al further extended this context clustering method and incorporated global context to learn Multi-Prototype representation vectors.", "Huang et al train their vectors with a neural network and Additionally take global context into account."], "ms": ["Huang et al melanjutkan lagi kaedah pengelompokan konteks ini dan menggabungkan konteks global untuk mempelajari vektor perwakilan Multi-Prototaip.", "Huang et al melatih vektor mereka dengan rangkaian saraf dan juga mengambil kira konteks global."]}, {"en": ["We use glove word Embeddings, which are 50-Dimension word vectors trained with a crawled large corpus with 840 billion tokens.", "We use glove Pre-Trained word Embeddings, a 100 dimension Embedding layer that is followed by a Bilstm layer of size 32."], "ms": ["Kami menggunakan Embedding kata sarung tangan, yang merupakan vektor perkataan 50 dimensi yang dilatih dengan korpus besar yang merangkak dengan 840 bilion token.", "Kami menggunakan sarung tangan Embedding perkataan Pra-Latih, lapisan Embedding dimensi 100 yang diikuti oleh lapisan Bilstm saiz 32."]}, {"en": ["In this paper, we present a comprehensive analysis of the relationship between personal traits and brand preferences.", "With this data, we can investigate whether the relationship between personal traits and brand preferences."], "ms": ["Dalam makalah ini, kami membentangkan analisis komprehensif mengenai hubungan antara sifat peribadi dan keutamaan jenama.", "Dengan data ini, kami boleh menyiasat sama ada hubungan antara ciri peribadi dan keutamaan jenama."]}, {"en": ["Semantic similarity is a core technique for many topics in natural language processing such as textual Entailment (Cite-P-22-1-7), semantic role labeling (Cite-P-22-1-19), and question answering (Cite-P-22-3-26).", "Semantic similarity is a central concept that extends across numerous fields such as artificial intelligence, natural language processing, cognitive science and psychology."], "ms": ["Kesamaan semantik adalah teknik teras untuk banyak topik dalam pemprosesan bahasa semula jadi seperti Entailment teks (Cite-P-22-1-7), pelabelan peranan semantik (Cite-P-22-1-19), dan jawapan soalan (Cite-P-22-3-26).", "Kesamaan semantik adalah konsep pusat yang meluas di pelbagai bidang seperti kecerdasan buatan, pemprosesan bahasa semula jadi, sains kognitif dan psikologi."]}, {"en": ["We implemented the Algorithms in python using the stochastic gradient descent method for Nmf from the Scikit-Learn package.", "We used the logistic regression implementation in Scikit-Learn for the maximum entropy models in our experiments."], "ms": ["Kami melaksanakan Algoritma dalam python menggunakan kaedah keturunan kecerunan stokastik untuk Nmf dari pakej Scikit-Learn.", "Kami menggunakan pelaksanaan regresi logistik dalam Scikit-Learn untuk model entropi maksimum dalam eksperimen kami."]}, {"en": ["Mikolov et al and Mikolov et al further observe that the semantic relationship of words can be induced by performing simple algebraic operations with word vectors.", "Furthermore, the concept of word Embedding introduced by Mikolov et al allows for words to have vector representations, such that syntactic and semantic similarities are embodied in the vector space."], "ms": ["Mikolov et al dan Mikolov et al selanjutnya mengamati bahawa hubungan semantik kata-kata boleh diaruh dengan melakukan operasi algebra mudah dengan vektor kata.", "Tambahan pula, konsep Embedding perkataan yang diperkenalkan oleh Mikolov et al membolehkan perkataan mempunyai perwakilan vektor, seperti persamaan sintaktik dan semantik terkandung dalam ruang vektor."]}, {"en": ["Word Segmentation is a prerequisite for many natural language processing (Nlp) applications on those languages that have no explicit space between words, such as Arabic, Chinese and Japanese.", "Word Segmentation is a fundamental task for processing most East Asian languages, typically Chinese."], "ms": ["Segmentasi perkataan adalah prasyarat untuk banyak aplikasi pemprosesan bahasa semula jadi (Nlp) pada bahasa-bahasa yang tidak mempunyai ruang yang jelas antara kata-kata, seperti Arab, Cina dan Jepun.", "Segmentasi perkataan adalah tugas asas untuk memproses kebanyakan bahasa Asia Timur, biasanya bahasa Cina."]}, {"en": ["We use the automatic mt evaluation Metrics BLEU, meteor, and Ter, to evaluate the absolute translation quality obtained.", "We measure translation performance by the BLEU and meteor scores with multiple translation references."], "ms": ["Kami menggunakan Metrik Penilaian Mt automatik BLEU, meteor, dan Ter, untuk menilai kualiti terjemahan mutlak yang diperoleh.", "Kami mengukur prestasi terjemahan oleh skor BLEU dan meteor dengan rujukan terjemahan berganda."]}, {"en": ["Hearst examined extracting Hyponym data by taking advantage of lexical patterns in text.", "Hearst proposed a Lexico-Syntactic pattern based method for automatic acquisition of Hyponymy from unrestricted texts."], "ms": ["Hearst memeriksa mengekstrak data Hyponym dengan memanfaatkan pola leksikal dalam teks.", "Hearst mencadangkan kaedah berasaskan corak Lexico-Syntactic untuk pemerolehan automatik Hyponymy dari teks yang tidak terhad."]}, {"en": ["We use the Adaptive moment estimation for the Optimizer.", "We use the Adam Optimizer for the Gradient-Based optimization."], "ms": ["Kami menggunakan anggaran momen Adaptif untuk pengoptimum.", "Kami menggunakan Adam Optimizer untuk pengoptimuman berasaskan Gradien."]}, {"en": ["We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit.", "In our experiments, we used the Srilm Toolkit to build 5-Gram language model using the LDC Arabic Gigaword corpus."], "ms": ["Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit.", "Dalam eksperimen kami, kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram menggunakan LDC Arabic Gigaword corpus."]}, {"en": ["We use the Adam Optimizer and Mini-Batch gradient to solve this optimization problem.", "Therefore, we employ negative sampling and Adam to optimize the overall objective function."], "ms": ["Kami menggunakan Adam Optimizer dan Mini-Batch gradient untuk menyelesaikan masalah pengoptimuman ini.", "Oleh itu, kami menggunakan persampelan negatif dan Adam untuk mengoptimumkan fungsi objektif keseluruhan."]}, {"en": ["For LM training and interpolation, the Srilm Toolkit was used.", "Language models were built using the Srilm Toolkit 16."], "ms": ["Untuk latihan LM dan interpolasi, Srilm Toolkit digunakan.", "Model bahasa dibina menggunakan Srilm Toolkit 16."]}, {"en": ["We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing.", "We used the Srilm Toolkit to create 5-Gram language models with interpolated modified Kneser-Ney discounting."], "ms": ["Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm Toolkit untuk mencipta model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Automatic semantic role labeling was first introduced by Gildea and Jurafsky.", "Semantic role labeling was first defined in Gildea and Jurafsky."], "ms": ["Pelabelan peranan semantik automatik pertama kali diperkenalkan oleh Gildea dan Jurafsky.", "Pelabelan peranan semantik mula-mula ditakrifkan dalam Gildea dan Jurafsky."]}, {"en": ["We used Stanford Corenlp for sentence splitting, Part-Of-Speech tagging, named entity recognition, Co-Reference resolution and dependency Parsing.", "We used the Stanford Corenlp Toolkit for word Segmentation, Part-Of-Speech tagging, and syntactic Parsing."], "ms": ["Kami menggunakan Stanford Corenlp untuk pemisahan ayat, penandaan Part-Of-Speech, pengiktirafan entiti yang dinamakan, resolusi Rujukan Bersama dan Penghuraian dependensi.", "Kami menggunakan Stanford Corenlp Toolkit untuk Segmentasi perkataan, penandaan Part-Of-Speech, dan Penghuraian sintaktik."]}, {"en": ["Zou et al learn bilingual word Embeddings by designing an objective function that combines Unsupervised training with bilingual constraints based on word alignments.", "Our method of learning Multilingual word vectors is most closely associated to Zou et al who learn bilingual word Embeddings and show their utility in machine translation."], "ms": ["Zou et al belajar Embedding kata dwibahasa dengan mereka bentuk fungsi objektif yang menggabungkan latihan Unsupervised dengan kekangan dwibahasa berdasarkan penjajaran perkataan.", "Kaedah pembelajaran vektor perkataan berbilang bahasa paling berkait rapat dengan Zou et al yang mempelajari Embedding perkataan dwibahasa dan menunjukkan utiliti mereka dalam terjemahan mesin."]}, {"en": ["Mikolov et al proposed a Computationally efficient method for learning distributed word representation such that words with similar meanings will map to similar vectors.", "Recently, Mikolov et al introduced an efficient way for Inferring word Embeddings that are effective in capturing syntactic and semantic relationships in natural language."], "ms": ["Mikolov et al mencadangkan kaedah yang cekap pengiraan untuk mempelajari perwakilan perkataan yang diedarkan sedemikian rupa sehingga perkataan dengan makna yang serupa akan memetakan kepada vektor yang serupa.", "Baru-baru ini, Mikolov et al memperkenalkan cara yang cekap untuk menyimpulkan perkataan Embeddings yang berkesan dalam menangkap hubungan sintaktik dan semantik dalam bahasa semula jadi."]}, {"en": ["Using this similarity function in query expansion can significantly improve the Retrieval performance.", "Definition is most effective and is able to significantly and consistently improve Retrieval performance."], "ms": ["Menggunakan fungsi persamaan ini dalam pengembangan pertanyaan dapat meningkatkan prestasi Retrieval dengan ketara.", "Definisi adalah yang paling berkesan dan mampu meningkatkan prestasi Retrieval dengan ketara dan konsisten."]}, {"en": ["We apply the 3-Phase learning procedure proposed by where we first create word Embeddings based on the Skip-Gram model.", "We extend the model by adding continuous word representations, induced from the Unlabeled data using the Skip-Gram algorithm, to the feature representations."], "ms": ["Kami menggunakan prosedur pembelajaran 3-Phase yang dicadangkan oleh mana kami mula-mula membuat Embedding perkataan berdasarkan model Skip-Gram.", "Kami memperluaskan model dengan menambah perwakilan perkataan berterusan, yang disebabkan dari data Unlabeled menggunakan algoritma Skip-Gram, ke perwakilan ciri."]}, {"en": ["Our Phrase-Based system is similar to the alignment template system described by och and Ney.", "Our Smt-Based query expansion techniques are based on a recent implementation of the Phrasebased Smt framework."], "ms": ["Sistem Berasaskan Frasa kami adalah serupa dengan sistem templat penjajaran yang digambarkan oleh och dan Ney.", "Teknik pengembangan pertanyaan berasaskan Smt kami didasarkan pada pelaksanaan kerangka Smt berasaskan Phrase baru-baru ini."]}, {"en": ["Mikolov et al further proposed continuous Bagof-Words and Skip-Gram models, which use a simple Single-Layer architecture based on inner product between two word vectors.", "Mikolov et al introduced the Skip-Gram architecture built on a single hidden layer neural network to learn efficiently a vector representation for each word W of a vocabulary V from a large Corpora of size C."], "ms": ["Mikolov et al further proposed continuous Bagof-Words and Skip-Gram models, which use a simple Single-Layer architecture based on inner product between two word vectors.", "Mikolov et al memperkenalkan seni bina Skip-Gram yang dibina di atas satu rangkaian neural lapisan tersembunyi untuk mempelajari perwakilan vektor dengan cekap untuk setiap perkataan W dari perbendaharaan kata V dari Corpora besar saiz C."]}, {"en": ["Framenet is an Expert-Built Lexical-Semantic resource incorporating the theory of Frame-Semantics.", "Framenet is a Lexico-Semantic resource focused on semantic frames."], "ms": ["Framenet adalah sumber Leksisikal-Semantik yang dihasilkan oleh Pakar yang menggabungkan teori Frame-Semantik.", "Framenet adalah sumber Lexico-Semantik yang tertumpu pada bingkai semantik."]}, {"en": ["Dependency Parsing is a way of structurally analyzing a sentence from the viewpoint of modification.", "Dependency Parsing is the task to assign dependency structures to a given sentence Math-W-4-1-0-14."], "ms": ["Penghuraian Dependensi adalah cara menganalisis secara struktur ayat dari sudut pandangan pengubahsuaian.", "Penghuraian dependensi adalah tugas untuk menetapkan struktur dependensi pada ayat Math-W-4-1-0-14."]}, {"en": ["We used L2-Regularized logistic regression Classifier as implemented in Liblinear.", "In our experiments, we used the implementation of L2-Regularised logistic regression in fan et al as our local Classifier."], "ms": ["Kami menggunakan L2-Regularized logistic regression Classifier seperti yang dilaksanakan dalam Liblinear.", "Dalam eksperimen kami, kami menggunakan pelaksanaan regresi logistik L2-Regularized dalam fan et al sebagai pengelas tempatan kami."]}, {"en": ["In order to build the Englishfrench parallel corpus with discourse Annotations, we used the Europarl corpus.", "For this, we used the combination of the entire Swedish-English Europarl corpus and the Smultron data."], "ms": ["Untuk membina korpus selari bahasa Inggeris dengan wacana Annotations, kami menggunakan korpus Europarl.", "Untuk ini, kami menggunakan gabungan keseluruhan korpus Europarl Sweden-Inggeris dan data Smultron."]}, {"en": ["Coreference resolution is a set partitioning problem in which each resulting partition refers to an entity.", "Coreference resolution is the process of determining whether two expressions in natural language refer to the same entity in the world."], "ms": ["Resolusi spatial adalah masalah pembahagian yang ditetapkan di mana setiap partition yang dihasilkan merujuk kepada entiti.", "Resolusi spatial adalah proses menentukan sama ada dua ungkapan dalam bahasa semula jadi merujuk kepada entiti yang sama di dunia."]}, {"en": ["We evaluate our models using the standard BLEU metric 2 on the Detokenized translations of the test set.", "We evaluate the output of our generation system against the raw strings of section 23 using the simple string accuracy and BLEU evaluation Metrics."], "ms": ["Kami menilai model kami menggunakan metrik BLEU standard 2 pada terjemahan Detokenized set ujian.", "Kami menilai output sistem penjanaan kami terhadap rentetan mentah seksyen 23 menggunakan ketepatan rentetan mudah dan Metrik penilaian BLEU."]}, {"en": ["Word sense Disambiguation is the process of determining which sense of a Homograph is correct in a given context.", "Word sense Disambiguation is the task of assigning sense labels to occurrences of an ambiguous word."], "ms": ["Kemusykilan kata Kemusykilan ialah proses menentukan rasa mana satu Homograf adalah betul dalam konteks tertentu.", "Kemusykilan kata Kemusykilan ialah tugas untuk menetapkan label deria kepada kejadian perkataan yang samar-samar."]}, {"en": ["Pang and Lee propose a Graph-Based method which finds minimum cuts in a document graph to classify the sentences into subjective or objective.", "Pang and Lee frame the problem of detecting subjective sentences as finding the minimum cut in a graph representation of the sentences."], "ms": ["Pang dan Lee mencadangkan kaedah Berasaskan Grafik yang mendapati pemotongan minimum dalam graf dokumen untuk mengklasifikasikan ayat menjadi subjektif atau objektif.", "Pang dan Lee merangka masalah mengesan ayat subjektif sebagai mencari potongan minimum dalam perwakilan graf ayat."]}, {"en": ["For the Tokenization process, our system used Tweettokenizer from Nltk.", "For the Newsgroups and sentiment Datasets, we used Stopwords from the Nltk python package."], "ms": ["Untuk proses Tokenisasi, sistem kami menggunakan Tweettokenizer dari Nltk.", "Untuk Kumpulan Berita dan Dataset sentimen, kami menggunakan Stopwords dari pakej python Nltk."]}, {"en": ["Semantic Parsing is the task of translating natural language utterances into a Machine-Interpretable meaning representation.", "Semantic Parsing is the task of automatically translating natural language text to formal meaning representations (E.G ., statements in a formal logic)."], "ms": ["Penghuraian Semantik adalah tugas menterjemahkan ucapan bahasa semula jadi ke dalam perwakilan makna Mesin-Terpretasi.", "Penghuraian Semantik adalah tugas untuk menerjemahkan teks bahasa semula jadi secara automatik ke perwakilan makna formal (E.G., pernyataan dalam logik formal)."]}, {"en": ["For evaluation, Caseinsensitive Nist BLEU is used to measure translation performance.", "Caseinsensitive Nist BLEU is used to measure translation performance."], "ms": ["Untuk penilaian, Caseinsensitive Nist BLEU digunakan untuk mengukur prestasi terjemahan.", "Caseinsensitive Nist BLEU digunakan untuk mengukur prestasi terjemahan."]}, {"en": ["Each candidate property is generated from just one component of the simile.", "Each candidate property \u2019 s compatibility with the complementary simile component."], "ms": ["Setiap harta calon dihasilkan dari hanya satu komponen simile.", "Setiap harta calon adalah keserasian dengan komponen simile pelengkap."]}, {"en": ["We propose a Grouping-Based ordering framework that integrates local and global coherence concerns.", "We have established a Grouping-Based ordering scheme to accommodate both local and global coherence."], "ms": ["Kami mencadangkan rangka kerja pesanan berasaskan Kumpulan yang mengintegrasikan kebimbangan koheren tempatan dan global.", "Kami telah menubuhkan skim pesanan berasaskan Kumpulan untuk menampung koheren tempatan dan global."]}, {"en": ["We used Moses to train an alignment model on the created paraphrase Dataset.", "We used Moses as the implementation of the baseline Smt systems."], "ms": ["Kami menggunakan Musa untuk melatih model penjajaran pada Set Data parafrasa yang dicipta.", "Kami menggunakan Musa sebagai pelaksanaan sistem Smt asas."]}, {"en": ["We use Skip-Gram with negative sampling for obtaining the word Embeddings.", "We also obtain the Embeddings of each word from Word2Vec."], "ms": ["Kami menggunakan Skip-Gram dengan persampelan negatif untuk mendapatkan perkataan Embeddings.", "Kami juga mendapat Embeddings setiap perkataan dari Word2Vec."]}, {"en": ["To train the models we use the default stochastic gradient descent Classifier provided by Scikit-Learn.", "We use the logistic regression Classifier in the Skll package, which is based on Scikit-Learn, optimizing for f 1 score."], "ms": ["Untuk melatih model, kami menggunakan Klasifier keturunan kecerunan stokastik lalai yang disediakan oleh Scikit-Learn.", "Kami menggunakan Klasifikasi regresi logistik dalam pakej Skll, yang berdasarkan Scikit-Learn, mengoptimumkan skor f 1."]}, {"en": ["In this paper, we propose the first approach for applying distant supervision to Cross-Sentence relation extraction.", "We present the first approach for applying distant supervision to Cross-Sentence relation extraction."], "ms": ["Dalam makalah ini, kami mencadangkan pendekatan pertama untuk menerapkan pengawasan jauh ke pengekstrakan hubungan Cross-Sentence.", "Kami membentangkan pendekatan pertama untuk memohon pengawasan jauh untuk pengekstrakan hubungan Cross-Sentence."]}, {"en": ["We perform Pre-Training using the Skipgram Nn architecture available in the Word2Vec tool.", "We Pre-Trained word Embeddings using Word2Vec over Tweet text of the full training data."], "ms": ["Kami melakukan Pra-Latihan menggunakan seni bina Skipgram Nn yang terdapat dalam alat Word2Vec.", "Kami Embedding perkataan Pra-Latih menggunakan Word2Vec melalui teks Tweet data latihan penuh."]}, {"en": ["Our baseline is an in-house Phrase-Based statistical machine translation system very similar to Moses.", "We perform our translation experiments using an in-house state-of-the-art Phrase-Based Smt system similar to Moses."], "ms": ["Asas kami adalah sistem terjemahan mesin statistik berasaskan frasa dalaman yang sangat serupa dengan Musa.", "Kami melakukan eksperimen terjemahan kami menggunakan sistem Smt Berasaskan Frasa dalaman yang serupa dengan Musa."]}, {"en": ["We use the logistic regression implementation of Liblinear wrapped by the Scikit-Learn library.", "We use the logistic regression Classifier as implemented in the Skll package, which is based on Scikitlearn, with F1 optimization."], "ms": ["Kami menggunakan pelaksanaan regresi logistik Liblinear yang dibungkus oleh perpustakaan Scikit-Learn.", "Kami menggunakan Klasifikasi regresi logistik seperti yang dilaksanakan dalam pakej Skll, yang berdasarkan Scikitlearn, dengan pengoptimuman F1."]}, {"en": ["Relation extraction is a core task in information extraction and natural language understanding.", "Relation extraction (re) is the task of recognizing the assertion of a particular relationship between two or more entities in text."], "ms": ["Pengekstrakan hubungan adalah tugas utama dalam pengekstrakan maklumat dan pemahaman bahasa semula jadi.", "Pengekstrakan hubungan (re) adalah tugas untuk mengiktiraf penegasan hubungan tertentu antara dua atau lebih entiti dalam teks."]}, {"en": ["In this work, we address the technical difficulty of Leveraging implicit supervision in learning an algebra word problem Solver.", "In this paper, we propose an Algorithmic approach for training a word problem Solver based on both explicit and implicit supervision."], "ms": ["Dalam kerja ini, kami menangani kesukaran teknikal penyeliaan tersirat dalam mempelajari masalah perkataan aljabar.", "Dalam makalah ini, kami mencadangkan pendekatan Algorithmic untuk melatih penyelesaian masalah perkataan berdasarkan penyeliaan eksplisit dan tersirat."]}, {"en": ["As a Classifier, we employ support vector machines as implemented in SVM light.", "For support vector learning, we use Svm-Light and Svm-Multiclass."], "ms": ["Sebagai Classifier, kami menggunakan mesin vektor sokongan seperti yang dilaksanakan dalam cahaya SVM.", "Untuk pembelajaran vektor sokongan, kami menggunakan Svm-Light dan Svm-Multiclass."]}, {"en": ["For the evaluation of the results we use the BLEU score.", "For this task, we use the Widely-Used BLEU metric."], "ms": ["Untuk penilaian keputusan kami menggunakan skor BLEU.", "Untuk tugas ini, kami menggunakan metrik BLEU yang digunakan secara meluas."]}, {"en": ["Feature weights were set with minimum error rate training on a development set using BLEU as the objective function.", "The model weights were trained using the minimum error rate training algorithm."], "ms": ["Berat ciri ditetapkan dengan latihan kadar ralat minimum pada set pembangunan menggunakan BLEU sebagai fungsi objektif.", "Berat model dilatih menggunakan algoritma latihan kadar ralat minimum."]}, {"en": ["We used the BLEU score to evaluate the translation accuracy with and without the Normalization.", "In addition to these two key indicators, we evaluated the translation quality using an automatic measure, namely BLEU score."], "ms": ["Kami menggunakan skor BLEU untuk menilai ketepatan terjemahan dengan dan tanpa Normalisasi.", "Selain dua indikator utama ini, kami menilai kualiti terjemahan menggunakan ukuran automatik, iaitu skor BLEU."]}, {"en": ["Vaswani et al extend the DOT product attention described in Luong et al to consider these vectors.", "Vaswani et al proposed the transformer as an alternative model to the Rnn."], "ms": ["Vaswani et al memanjangkan perhatian produk DOT yang diterangkan dalam Luong et al untuk mempertimbangkan vektor-vektor ini.", "Vaswani et al mencadangkan transformer sebagai model alternatif kepada Rnn."]}, {"en": ["We evaluated the system using BLEU score on the test set.", "The comparison was done in terms of BLEU and processing times."], "ms": ["Kami menilai sistem menggunakan skor BLEU pada set ujian.", "Perbandingan itu dilakukan dari segi BLEU dan masa pemprosesan."]}, {"en": ["Our machine translation system is a Phrase-Based system using the Moses Toolkit.", "We employ widely used and standard machine translation tool Moses to train the Phrasebased Smt system."], "ms": ["Sistem terjemahan mesin kami adalah sistem berasaskan frasa menggunakan Musa Toolkit.", "Kami menggunakan alat terjemahan mesin yang digunakan secara meluas dan standard Moses untuk melatih sistem Smt berasaskan Phrase."]}, {"en": ["Gabrilovich and Markovitch utilized Wikipedia-Based concepts as the basis for a High-Dimensional meaning representation space.", "Gabrilovich and Markovitch introduced the Esa model in which Wikipedia and open directory project 1 was used to obtain the explicit concepts."], "ms": ["Gabrilovich dan Markovitch menggunakan konsep berasaskan Wikipedia sebagai asas bagi ruang perwakilan makna tinggi dimensi.", "Gabrilovich dan Markovitch memperkenalkan model Esa di mana Wikipedia dan projek direktori terbuka 1 digunakan untuk mendapatkan konsep-konsep yang jelas."]}, {"en": ["Because the system is incremental, it should be straightforward to apply it to Unsegmented text.", "Because the Parser is incremental, it should be well suited to Unsegmented text."], "ms": ["Oleh kerana sistem ini bertambah, ia harus mudah untuk menerapkannya ke teks Unsegmented.", "Oleh kerana Parser adalah tambahan, ia harus sesuai dengan teks Unsegmented."]}, {"en": ["Semantic Parsing is the task of translating natural language utterances into a Machine-Interpretable meaning representation (Mr).", "Semantic Parsing is the mapping of text to a meaning representation."], "ms": ["Penghuraian Semantik adalah tugas menterjemahkan ucapan bahasa semula jadi ke dalam perwakilan makna Mesin-Terpretasi (Mr).", "Penghuraian Semantik adalah pemetaan teks kepada perwakilan makna."]}, {"en": ["Within this Subpart of our ensemble model, we used a SVM model from the Scikit-Learn library.", "We used SVM Classifier that implements Linearsvc from the Scikit-Learn library."], "ms": ["Dalam Subpart model ensemble kami, kami menggunakan model SVM dari perpustakaan Scikit-Learn.", "Kami menggunakan SVM Classifier yang melaksanakan Linearsvc dari perpustakaan Scikit-Learn."]}, {"en": ["For simplicity, we use the well-known conditional random fields for sequential labeling.", "The second decoding method is to use conditional random field."], "ms": ["Untuk kesederhanaan, kami menggunakan medan rawak bersyarat yang terkenal untuk pelabelan berurutan.", "Kaedah penyahkodan kedua adalah menggunakan medan rawak bersyarat."]}, {"en": ["The Parsing algorithm is extended to handle translation candidates and to incorporate language model scores via cube pruning.", "The Decoder uses a Cky-Style Parsing algorithm to integrate the language model scores."], "ms": ["Algoritma Parsing diperluaskan untuk mengendalikan calon terjemahan dan untuk menggabungkan skor model bahasa melalui pemangkasan kiub.", "Decoder menggunakan algoritma Cky-Style Parsing untuk mengintegrasikan skor model bahasa."]}, {"en": ["We generate dependency structures from the Ptb constituency trees using the head rules of Yamada and Matsumoto.", "We use the WSJ portion of the Penn Treebank 4, augmented with Head-Dependant information using the rules of Yamada and Matsumoto."], "ms": ["Kami menjana struktur kebergantungan dari pokok konstituen Ptb menggunakan peraturan ketua Yamada dan Matsumoto.", "Kami menggunakan bahagian WSJ Penn Treebank 4, ditambah dengan maklumat Head-Dependant menggunakan peraturan Yamada dan Matsumoto."]}, {"en": ["The Skip-Gram model is a very popular technique for learning Embeddings that scales to huge Corpora and can capture important semantic and syntactic properties of words.", "The Skip-Gram model aims to find word representations that are useful for predicting the surrounding words in a sentence or document."], "ms": ["Model Skip-Gram adalah teknik yang sangat popular untuk pembelajaran Embeddings yang berskala besar Corpora dan dapat menangkap sifat semantik dan sintaksis penting kata-kata.", "Model Skip-Gram bertujuan untuk mencari perwakilan perkataan yang berguna untuk meramalkan perkataan di sekitarnya dalam ayat atau dokumen."]}, {"en": ["To evaluate segment translation quality, we use corpus level BLEU.", "We evaluate the performance of different translation models using both BLEU and Ter Metrics."], "ms": ["Untuk menilai kualiti terjemahan segmen, kami menggunakan BLEU tahap korpus.", "Kami menilai prestasi model terjemahan yang berbeza menggunakan kedua-dua BLEU dan Ter Metrics."]}, {"en": ["We use both logistic regression with elastic net Regularisation and support vector machines with a linear kernel.", "Here, we extract Unigram and Bigram features and use them in a logistic regression Classifier with elastic net Regularization."], "ms": ["Kami menggunakan kedua-dua regresi logistik dengan Regularisasi jaring elastik dan mesin vektor sokongan dengan kernel linear.", "Di sini, kami mengekstrak ciri Unigram dan Bigram dan menggunakannya dalam Klasifikasi regresi logistik dengan Regularisasi jaring elastik."]}, {"en": ["Language models were built using the Sri language modeling Toolkit with modified Kneser-Ney smoothing.", "The language models are 4-Grams with modified Kneser-Ney smoothing which have been trained with the Srilm Toolkit."], "ms": ["Model bahasa dibina menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai.", "Model bahasa adalah 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang telah dilatih dengan Srilm Toolkit."]}, {"en": ["Gu et al, cheng and Lapata, and Nallapati et al also utilized Seq2Seq based framework with attention modeling for short text or single document summarization.", "Gu et al combined a copying mechanism with the Seq2Seq framework to improve the quality of the generated summaries."], "ms": ["Gu et al, cheng dan Lapata, dan Nallapati et al juga menggunakan kerangka berasaskan Seq2Seq dengan pemodelan perhatian untuk teks pendek atau ringkasan dokumen tunggal.", "Gu et al menggabungkan mekanisme penyalinan dengan rangka kerja Seq2Seq untuk meningkatkan kualiti ringkasan yang dihasilkan."]}, {"en": ["We use the Linearsvc Classifier as implemented in Scikit-Learn package 17 with the default parameters.", "We use the logistic regression implementation of Liblinear wrapped by the Scikit-Learn library."], "ms": ["Kami menggunakan Classifier Linearsvc seperti yang dilaksanakan dalam pakej Scikit-Learn 17 dengan parameter lalai.", "Kami menggunakan pelaksanaan regresi logistik Liblinear yang dibungkus oleh perpustakaan Scikit-Learn."]}, {"en": ["Yarowsky proposes a method for word sense Disambiguation, which is based on Monolingual Bootstrapping.", "Yarowsky has used a few seeds and Untagged sentences in a Bootstrapping algorithm based on decision lists."], "ms": ["Yarowsky mencadangkan kaedah untuk perkataan erti Disambiguation, yang berdasarkan Monolingual Bootstrapping.", "Yarowsky telah menggunakan beberapa biji dan ayat Untagged dalam algoritma Bootstrapping berdasarkan senarai keputusan."]}, {"en": ["The grammatical relations are all the collapsed Dependencies produced by the Stanford dependency Parser.", "We use the Stanford dependency Parser to extract nouns and their grammatical roles."], "ms": ["Hubungan tatabahasa adalah semua Dependensi runtuh yang dihasilkan oleh Stanford dependency Parser.", "Kami menggunakan Stanford dependency Parser untuk mengekstrak kata nama dan peranan tatabahasa mereka."]}, {"en": ["Gamon et al train a decision tree model and a language model to correct errors in article and preposition usage.", "Gamon et al and Gamon use a combination of classification and language modeling."], "ms": ["Gamon et al melatih model pokok keputusan dan model bahasa untuk membetulkan kesilapan dalam penggunaan artikel dan praposisi.", "Gamon et al dan Gamon menggunakan gabungan pengelasan dan pemodelan bahasa."]}, {"en": ["We Initialize the word Embeddings for our deep learning architecture with the 100-Dimensional glove vectors.", "We use glove vectors with 100 dimensions trained on Wikipedia and Gigaword as word Embeddings."], "ms": ["Kami Memulakan perkataan Embeddings untuk seni bina pembelajaran mendalam kami dengan vektor sarung tangan 100 dimensi.", "Kami menggunakan vektor sarung tangan dengan 100 dimensi yang dilatih di Wikipedia dan Gigaword sebagai Embedding perkataan."]}, {"en": ["Dependency Parsing is the task of building dependency links between words in a sentence, which has recently gained a wide interest in the natural language processing community.", "Dependency Parsing consists of finding the structure of a sentence as expressed by a set of directed links (Dependencies) between words."], "ms": ["Penghuraian kebergantungan adalah tugas membina hubungan kebergantungan antara perkataan dalam ayat, yang baru-baru ini mendapat minat yang luas dalam komuniti pemprosesan bahasa semula jadi.", "Penghuraian Dependensi terdiri daripada mencari struktur ayat seperti yang dinyatakan oleh satu set pautan terarah (Bergantung) antara perkataan."]}, {"en": ["For language models, we use the Srilm linear interpolation feature.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing."], "ms": ["Untuk model bahasa, kami menggunakan ciri interpolasi linear Srilm.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["In particular, Socher et al obtain good Parsing performance by building compositional representations from word vectors.", "Recently Socher et al introduced compositional vector grammar to address the above limitations."], "ms": ["Khususnya, Socher et al memperoleh prestasi Penghuraian yang baik dengan membina perwakilan komposisi dari vektor perkataan.", "Baru-baru ini Socher et al memperkenalkan tatabahasa vektor komposisi untuk menangani batasan di atas."]}, {"en": ["Semantic role labeling (SRL) is defined as the task to recognize arguments for a given Predicate and assign semantic role labels to them.", "Semantic role labeling (SRL) is the task of identifying the Predicate-Argument structure of a sentence."], "ms": ["Pelabelan peranan semantik (SRL) ditakrifkan sebagai tugas untuk mengenali hujah untuk Predicate tertentu dan memberikan label peranan semantik kepada mereka.", "Pelabelan peranan semantik (SRL) adalah tugas mengenal pasti struktur Predicate-Argument ayat."]}, {"en": ["We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing.", "We built a 5-Gram language model on the English side of Europarl and used the Kneser-Ney smoothing method and Srilm as the language model Toolkit."], "ms": ["Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami membina model bahasa 5-Gram di sisi bahasa Inggeris Europarl dan menggunakan kaedah smoothing Kneser-Ney dan Srilm sebagai model bahasa Toolkit."]}, {"en": ["Our translation model is implemented as an N-Gram model of operations using the Srilm Toolkit with Kneser-Ney smoothing.", "As with our original refined language model, we estimate each coarse language model using the Srilm Toolkit."], "ms": ["Model terjemahan kami dilaksanakan sebagai model operasi N-Gram menggunakan Srilm Toolkit dengan smoothing Kneser-Ney.", "Seperti model bahasa halus asal kami, kami menganggarkan setiap model bahasa kasar menggunakan Srilm Toolkit."]}, {"en": ["In order to reduce the amount of Annotated data to train a dependency Parser, Koo et al used word clusters computed from Unlabelled data as features for training a Parser.", "Koo et al used a clustering algorithm to produce word clusters on a large amount of Unannotated data and represented new features based on the clusters for dependency Parsing models."], "ms": ["Untuk mengurangkan jumlah data Annotated untuk melatih Parser dependensi, Koo et al menggunakan kluster perkataan yang dikira dari data Unlabelled sebagai ciri untuk melatih Parser.", "Koo et al menggunakan algoritma clustering untuk menghasilkan kluster perkataan pada sejumlah besar data Unannotated dan mewakili ciri-ciri baru berdasarkan kluster untuk model Parsing dependensi."]}, {"en": ["The weights associated to feature functions are Optimally combined using the minimum error rate training.", "All the feature weights and the weight for each probability factor are tuned on the development set with Minimum-Error-Rate training."], "ms": ["Berat yang berkaitan dengan fungsi ciri digabungkan secara optimum menggunakan latihan kadar ralat minimum.", "Semua berat ciri dan berat untuk setiap faktor kebarangkalian ditala pada set pembangunan dengan latihan Minimum-Ralat."]}, {"en": ["Coreference resolution is a challenging task, that involves identification and clustering of noun phrases mentions that refer to the same Real-World entity.", "Coreference resolution is the next step on the way towards discourse understanding."], "ms": ["Resolusi spatial adalah tugas yang mencabar, yang melibatkan pengenalan dan pengelompokan frasa kata nama yang menyebut yang merujuk kepada entiti Dunia Nyata yang sama.", "Resolusi sumbang mahram adalah langkah seterusnya dalam perjalanan ke arah pemahaman wacana."]}, {"en": ["Named entity recognition (NER) is the task of identifying named entities in free Text\u2014Typically personal names, organizations, Gene-Protein entities, and so on.", "Named entity recognition (NER) is the first step for many tasks in the fields of natural language processing and information Retrieval."], "ms": ["Pengecaman entiti dinamakan (NER) adalah tugas mengenal pasti entiti yang dinamakan dalam nama peribadi, organisasi, entiti Gene-Protein, dan sebagainya.", "Pengiktirafan entiti yang dinamakan (NER) adalah langkah pertama untuk banyak tugas dalam bidang pemprosesan bahasa semula jadi dan pengambilan maklumat."]}, {"en": ["Berger and Lafferty proposed the use of translation models for document Retrieval.", "Berger and Lafferty , 1999, proposed a translation model that expands the document model."], "ms": ["Berger dan Lafferty mencadangkan penggunaan model terjemahan untuk Retrieval dokumen.", "Berger dan Lafferty, 1999, mencadangkan model terjemahan yang memperluaskan model dokumen."]}, {"en": ["The quality of translations is evaluated by the case insensitive Nist Bleu-4 metric.", "The translation quality is evaluated by Caseinsensitive Bleu-4 metric."], "ms": ["Kualiti terjemahan dinilai oleh kes yang tidak sensitif Nist Bleu-4 metrik.", "Kualiti terjemahan dinilai oleh Caseinsensitive Bleu-4 metrik."]}, {"en": ["Coreference resolution is the process of linking multiple mentions that refer to the same entity.", "Coreference resolution is the task of grouping mentions to entities."], "ms": ["Resolusi spatial adalah proses menghubungkan pelbagai sebutan yang merujuk kepada entiti yang sama.", "Resolusi spatial adalah tugas untuk mengumpulkan sebutan kepada entiti."]}, {"en": ["We use the Attention-Based Nmt model introduced by Bahdanau et al as our Text-Only Nmt baseline.", "Our Nnape model is inspired by the mt work of Bahdanau et al which is based on Bidirectional recurrent neural networks."], "ms": ["Kami menggunakan model Nmt Berasaskan Perhatian yang diperkenalkan oleh Bahdanau et al sebagai garis dasar Text-Only Nmt kami.", "Model Nnape kami diilhamkan oleh karya mt Bahdanau et al yang berdasarkan rangkaian neural berulang Bidirectional."]}, {"en": ["We apply Sri language modeling Toolkit to train a 4-Gram language model with Kneser-Ney smoothing.", "A 4-Gram language model is trained on the Monolingual data by Srilm Toolkit."], "ms": ["Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model bahasa 4-Gram dengan smoothing Kneser-Ney.", "Model bahasa 4-Gram dilatih pada data Monolingual oleh Srilm Toolkit."]}, {"en": ["Named entity recognition (NER) is the task of finding rigid Designators as they appear in free text and classifying them into coarse categories such as person or location (Cite-P-24-4-6).", "Named entity recognition (NER) is the task of detecting named entity mentions in text and assigning them to their corresponding type."], "ms": ["Pengecaman entiti yang dinamakan (NER) adalah tugas mencari Pereka tegar kerana mereka muncul dalam teks percuma dan mengklasifikasikannya ke dalam kategori kasar seperti orang atau lokasi (Cite-P-24-4-6).", "Pengecaman entiti dinamakan (NER) adalah tugas mengesan sebutan entiti yang dinamakan dalam teks dan menugaskannya kepada jenis yang sepadan."]}, {"en": ["We update the gradient with Adaptive moment estimation.", "We update the model parameters by minimizing L C and L K with Adam Optimizer."], "ms": ["Kami mengemaskini gradien dengan anggaran momen Adaptif.", "Kami mengemas kini parameter model dengan meminimumkan L C dan L K dengan Adam Optimizer."]}, {"en": ["Lexical Co-Occurrences have previously been shown to be useful for discourse level learning tasks.", "It has been shown in previous work that word pairs are effective for identifying implicit discourse relations."], "ms": ["Kajian Bersama Lexical sebelum ini telah terbukti berguna untuk tugas pembelajaran peringkat wacana.", "Telah ditunjukkan dalam karya sebelumnya bahawa pasangan kata berkesan untuk mengenal pasti hubungan wacana tersirat."]}, {"en": ["We performed paired Bootstrap sampling to test the significance in BLEU score differences.", "Since the BLEU scores we obtained are close, we did a significance test on the scores."], "ms": ["Kami melakukan persampelan Bootstrap berpasangan untuk menguji kepentingan perbezaan skor BLEU.", "Oleh kerana skor BLEU yang kami perolehi hampir, kami melakukan ujian penting pada skor."]}, {"en": ["We Initialize the Embedding weights by the Pre-Trained word Embeddings with 200 dimensional vectors.", "We use the 100-Dimensional Pre-Trained word Embeddings trained by Word2Vec 2 and the 100-Dimensional randomly Initialized Pos tag Embeddings."], "ms": ["Kami Memulakan berat Embedding oleh perkataan Pra-Trained Embeddings dengan 200 vektor dimensi.", "Kami menggunakan Embedding perkataan Pra-Latihan 100 Dimensional yang dilatih oleh Word2Vec 2 dan Embedding tag Pos Permulaan 100 Dimensional secara rawak."]}, {"en": ["Semantic Parsing is the task of automatically translating natural language text to formal meaning representations (E.G ., statements in a formal logic).", "Semantic Parsing is the task of mapping natural language sentences to a formal representation of meaning."], "ms": ["Penghuraian Semantik adalah tugas untuk menerjemahkan teks bahasa semula jadi secara automatik ke perwakilan makna formal (E.G., pernyataan dalam logik formal).", "Penghuraian Semantik adalah tugas pemetaan ayat bahasa semula jadi kepada perwakilan makna formal."]}, {"en": ["We implement the weight tuning component according to the minimum error rate training method.", "We utilize minimum error rate training to optimize feature weights of the Paraphrasing model according to Ndcg."], "ms": ["Kami melaksanakan komponen penalaan berat mengikut kaedah latihan kadar ralat minimum.", "Kami menggunakan latihan kadar ralat minimum untuk mengoptimumkan berat ciri model Paraphrasing mengikut Ndcg."]}, {"en": ["The Srilm Toolkit was used to build the 5-Gram language model.", "Srilm Toolkit was used to create up to 5-Gram language models using the mentioned resources."], "ms": ["Srilm Toolkit digunakan untuk membina model bahasa 5-Gram.", "Srilm Toolkit digunakan untuk mencipta model bahasa 5-Gram menggunakan sumber yang disebutkan."]}, {"en": ["The target Fourgram language model was built with the English part of training data using the Sri language modeling Toolkit.", "A 5-Gram language model was built using Srilm on the target side of the corresponding training corpus."], "ms": ["Model bahasa Fourgram sasaran dibina dengan bahagian bahasa Inggeris data latihan menggunakan Toolkit pemodelan bahasa Sri.", "Model bahasa 5-Gram dibina menggunakan Srilm di sisi sasaran korpus latihan yang sesuai."]}, {"en": ["Our word Embeddings is Initialized with 100-Dimensional glove word Embeddings.", "We use 300-Dimensional word Embeddings from glove to Initialize the model."], "ms": ["Perkataan Embeddings kami Dimulakan dengan perkataan sarung tangan 100-Dimensional Embeddings.", "Kami menggunakan Embedding perkataan 300 dimensi dari sarung tangan untuk Memulakan model."]}, {"en": ["Srilm Toolkit was used to create up to 5-Gram language models using the mentioned resources.", "We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit."], "ms": ["Srilm Toolkit digunakan untuk mencipta model bahasa 5-Gram menggunakan sumber yang disebutkan.", "Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit."]}, {"en": ["Our Smt system is a Phrase-Based system based on the Moses Smt Toolkit.", "Our mt Decoder is a proprietary engine similar to Moses."], "ms": ["Sistem Smt kami adalah sistem Berasaskan Frasa berdasarkan Musa Smt Toolkit.", "Decoder mt kami adalah enjin proprietari yang serupa dengan Musa."]}, {"en": ["Semantic Parsing is the problem of translating human language into computer language, and therefore is at the heart of natural language understanding.", "Semantic Parsing is the task of translating natural language utterances into a Machine-Interpretable meaning representation (Mr)."], "ms": ["Penghuraian Semantik adalah masalah menterjemahkan bahasa manusia ke dalam bahasa komputer, dan oleh itu adalah di tengah-tengah pemahaman bahasa semula jadi.", "Penghuraian Semantik adalah tugas menterjemahkan ucapan bahasa semula jadi ke dalam perwakilan makna Mesin-Terpretasi (Mr)."]}, {"en": ["Relation extraction (re) is the task of extracting semantic relationships between entities in text.", "Relation extraction is a fundamental task in information extraction."], "ms": ["Pengekstrakan hubungan (re) adalah tugas mengekstrak hubungan semantik antara entiti dalam teks.", "Pengekstrakan hubungan adalah tugas asas dalam pengekstrakan maklumat."]}, {"en": ["For assessing significance, we apply the approximate randomization test.", "To compute statistical significance, we use the approximate randomization test."], "ms": ["Untuk menilai kepentingan, kami menggunakan ujian rambang anggaran.", "Untuk mengira kepentingan statistik, kami menggunakan ujian rawak anggaran."]}, {"en": ["The universal Dependencies project seeks to develop Cross-Linguistically consistent Treebank Annotation of morphology and syntax for many languages.", "The universal Dependencies project has produced a Languageindependent but Extensible standard for morphological and syntactic Annotation using a formalism based on dependency grammar."], "ms": ["Projek Dependensi sejagat bertujuan untuk membangunkan Annotasi Treebank yang konsisten secara Cross-Linguistically morfologi dan sintaks untuk banyak bahasa.", "Projek Dependensi sejagat telah menghasilkan standard Bahasa yang bebas tetapi meluas untuk Annotasi morfologi dan sintaksis menggunakan formalisme berdasarkan tatabahasa kebergantungan."]}, {"en": ["In this paper, we propose a novel Cascade model, which can capture both the latent Semantics and latent similarity by modeling Mooc data.", "In this paper, we propose an approach to solve a significant problem: how to learn distinguishable representations from word sequences."], "ms": ["Dalam makalah ini, kami mencadangkan model Cascade novel, yang dapat menangkap kedua-dua Semantik laten dan persamaan laten dengan memodelkan data Mooc.", "Dalam makalah ini, kami mencadangkan pendekatan untuk menyelesaikan masalah yang ketara: bagaimana untuk mempelajari perwakilan yang dapat dibezakan dari urutan kata."]}, {"en": ["Table 2 shows the translation quality measured in terms of BLEU metric with the original and universal Tagset.", "Table 2 shows size of the inferred Mdl-Based PB models, and BLEU score of their translations of the tune and test partitions."], "ms": ["Jadual 2 menunjukkan kualiti terjemahan yang diukur dari segi metrik BLEU dengan Tagset asal dan universal.", "Jadual 2 menunjukkan saiz model PB berasaskan Mdl yang disimpulkan, dan skor BLEU terjemahan mereka dari lagu dan partition ujian."]}, {"en": ["Zhou et al further propose Context-Sensitive Spt, which can dynamically determine the tree span by extending the necessary Predicate-Linked path information outside Spt.", "Zhou et al further extend it to Context-Sensitive shortest Pathenclosed tree, which includes necessary Predicate-Linked path information."], "ms": ["Zhou et al further propose Context-Sensitive Spt, which can dynamically determine the tree span by extending the necessary Predicate-Linked path information outside Spt.", "Zhou et al selanjutnya memanjangkannya ke pokok Pathenclosed terpendek Konteks-Sensitif, yang merangkumi maklumat laluan Predicate-Linked yang diperlukan."]}, {"en": ["Stance detection is the task of determining whether the author of a text is in favor or against a given topic, while rejecting texts in which neither inference is likely.", "Stance detection is the task of automatically determining from text whether the author is in favor of the given target, against the given target, or whether neither inference is likely."], "ms": ["Pengesanan santun adalah tugas menentukan sama ada pengarang teks memihak atau menentang topik tertentu, sambil menolak teks di mana tidak ada kesimpulan yang mungkin.", "Pengesanan santun adalah tugas menentukan secara automatik dari teks sama ada pengarang memihak kepada sasaran yang diberikan, terhadap sasaran yang diberikan, atau sama ada tidak ada kesimpulan yang mungkin."]}, {"en": ["Relation extraction (re) is the task of assigning a semantic relationship between a pair of arguments.", "Relation extraction (re) is the task of identifying instances of relations, such as nationality (person, country) or place of birth (person, location), in passages of natural text."], "ms": ["Pengekstrakan hubungan (re) adalah tugas untuk menetapkan hubungan semantik antara sepasang hujah.", "Pengekstrakan hubungan (re) adalah tugas mengenal pasti contoh hubungan, seperti kewarganegaraan (orang, negara) atau tempat kelahiran (orang, lokasi), dalam petikan teks semula jadi."]}, {"en": ["Unpruned language models were trained using Lmplz which employs modified Kneser-Ney smoothing.", "The Srilm Toolkit was used for training the language models using Kneser-Ney smoothing."], "ms": ["Model bahasa yang tidak dipangkas dilatih menggunakan Lmplz yang menggunakan smoothing Kneser-Ney yang diubahsuai.", "Srilm Toolkit digunakan untuk melatih model bahasa menggunakan smoothing Kneser-Ney."]}, {"en": ["Collobert et al showed that a neural model could achieve close to state-of-the-art results in part of speech tagging and Chunking by relying almost only on word Embeddings learned with a language model.", "Collobert et al used word Embeddings as the input of various Nlp tasks, including Part-Of-Speech tagging, Chunking, NER, and semantic role labeling."], "ms": ["Collobert et al menunjukkan bahawa model saraf dapat mencapai hasil yang hampir dengan state-of-the-art sebagai sebahagian daripada penandaan pertuturan dan Chunking dengan hanya bergantung pada perkataan Embeddings yang dipelajari dengan model bahasa.", "Collobert et al menggunakan perkataan Embeddings sebagai input pelbagai tugas Nlp, termasuk penandaan Part-Of-Speech, Chunking, NER, dan pelabelan peranan semantik."]}, {"en": ["Twitter is a widely used Microblogging platform, where users post and interact with messages, \u201c Tweets \u201d.", "Twitter is a widely used social networking service."], "ms": ["Twitter adalah platform Microblogging yang digunakan secara meluas, di mana pengguna menyiarkan dan berinteraksi dengan mesej, Tweets dan Twitter.", "Twitter adalah perkhidmatan rangkaian sosial yang banyak digunakan."]}, {"en": ["The Srilm Toolkit was used to build this language model.", "We used the Disambig tool provided by the Srilm Toolkit."], "ms": ["Srilm Toolkit digunakan untuk membina model bahasa ini.", "Kami menggunakan alat Disambig yang disediakan oleh Srilm Toolkit."]}, {"en": ["The Target-Side language models were estimated using the Srilm Toolkit.", "The Srilm Toolkit was used to build the Trigram Mkn smoothed language model."], "ms": ["Model bahasa Target-Side dianggarkan menggunakan Srilm Toolkit.", "Srilm Toolkit digunakan untuk membina model bahasa licin Trigram Mkn."]}, {"en": ["We used the support vector machine implementation from the Liblinear library on the test sets and report the results in Table 4.", "We use the wrapper of the Scikit learn python library over the Liblinear logistic regression implementation."], "ms": ["Kami menggunakan pelaksanaan mesin vektor sokongan dari perpustakaan Liblinear pada set ujian dan melaporkan hasilnya dalam Jadual 4.", "Kami menggunakan pembungkus perpustakaan python belajar Scikit melalui pelaksanaan regresi logistik Liblinear."]}, {"en": ["For input representation, we used glove word Embeddings.", "We used Crfsuite and the glove word vector."], "ms": ["Untuk perwakilan input, kami menggunakan perkataan sarung tangan Embeddings.", "Kami menggunakan Crfsuite dan perkataan sarung tangan vektor."]}, {"en": ["For the training of the Smt model, including the word alignment and the phrase translation table, we used Moses, a Toolkit for Phrase-Based Smt models.", "We used the open source Moses Decoder package for word alignment, phrase table extraction and decoding for sentence translation."], "ms": ["Untuk latihan model Smt, termasuk penjajaran perkataan dan jadual terjemahan frasa, kami menggunakan Musa, alat untuk model Smt Berasaskan Frasa.", "Kami menggunakan pakej Moses Decoder sumber terbuka untuk penjajaran perkataan, pengekstrakan jadual frasa dan penyahkodan untuk terjemahan ayat."]}, {"en": ["Relation extraction is a fundamental task that enables a wide range of semantic applications from question answering (Cite-P-13-3-12) to fact checking (Cite-P-13-3-10).", "Relation extraction is the task of finding semantic relations between entities from text."], "ms": ["Pengekstrakan hubungan adalah tugas asas yang membolehkan pelbagai aplikasi semantik dari menjawab soalan (Cite-P-13-3-12) hingga pemeriksaan fakta (Cite-P-13-3-10).", "Pengekstrakan hubungan adalah tugas mencari hubungan semantik antara entiti dari teks."]}, {"en": ["Part-Of-Speech (Pos) tagging is a crucial task for natural language processing (Nlp) tasks, providing basic information about syntax.", "Part-Of-Speech (Pos) tagging is a job to assign a proper Pos tag to each linguistic unit such as word for a given sentence."], "ms": ["Penandaan Part-Of-Speech (Pos) adalah tugas penting untuk tugas pemprosesan bahasa semula jadi (Nlp), memberikan maklumat asas mengenai sintaks.", "Penandaan Part-Of-Speech (Pos) adalah tugas untuk menetapkan tag Pos yang betul untuk setiap unit linguistik seperti perkataan untuk ayat yang diberikan."]}, {"en": ["Language models were built using the Sri language modeling Toolkit with modified Kneser-Ney smoothing.", "All the language models are built with the Sri language modeling Toolkit."], "ms": ["Model bahasa dibina menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai.", "Semua model bahasa dibina dengan Alat pemodelan bahasa Sri."]}, {"en": ["We used Trigram language models with interpolated Kneser-Kney discounting trained using the Sri language modeling Toolkit.", "We trained a 4-Gram language model on this data with Kneser-Ney discounting using Srilm."], "ms": ["Kami menggunakan model bahasa Trigram dengan diskaun Kneser-Kney yang diinterpolasi dilatih menggunakan Toolkit pemodelan bahasa Sri.", "Kami melatih model bahasa 4-Gram pada data ini dengan diskaun Kneser-Ney menggunakan Srilm."]}, {"en": ["The Decoder uses a Cky-Style Parsing algorithm and cube pruning to integrate the language model scores.", "The Decoder uses Cky-Style Parsing with cube pruning to integrate the language model."], "ms": ["Decoder menggunakan algoritma Cky-Style Parsing dan pemangkasan kiub untuk mengintegrasikan skor model bahasa.", "Decoder menggunakan Cky-Style Parsing dengan pemangkasan kiub untuk mengintegrasikan model bahasa."]}, {"en": ["The N-Gram language models are trained using the Srilm Toolkit or similar software developed at hut.", "Target language models were trained on the English side of the training corpus using the Srilm Toolkit."], "ms": ["Model bahasa N-Gram dilatih menggunakan Srilm Toolkit atau perisian serupa yang dibangunkan di pondok.", "Model bahasa sasaran dilatih di sisi bahasa Inggeris korpus latihan menggunakan Srilm Toolkit."]}, {"en": ["To minimize the objective, we use stochastic gradient descent with the diagonal variant of Adagrad.", "We minimize Cross-Entropy loss over all 42 relations using Adagrad."], "ms": ["Untuk meminimumkan objektif, kita menggunakan keturunan kecerunan stokastik dengan varian pepenjuru Adagrad.", "Kami meminimumkan kerugian Cross-Entropy ke atas semua 42 hubungan menggunakan Adagrad."]}, {"en": ["Translation performances are measured with Case-Insensitive Bleu4 score.", "The translation results are evaluated with case insensitive 4-Gram BLEU."], "ms": ["Persembahan terjemahan diukur dengan skor Case-Insensitive Bleu4.", "Hasil terjemahan dinilai dengan kes tidak sensitif 4-Gram BLEU."]}, {"en": ["We used 4-Gram language models, trained using Kenlm.", "A 5-Gram language model of the target language was trained using Kenlm."], "ms": ["Kami menggunakan model bahasa 4-Gram, dilatih menggunakan Kenlm.", "Model bahasa 5-Gram bagi bahasa sasaran dilatih menggunakan Kenlm."]}, {"en": ["We evaluate our semantic Parser on the Webques-Tions Dataset, which contains 5,810 Question-Answer pairs.", "We use the Webquestions Dataset as our main Dataset, which contains 5,810 Question-Answer pairs."], "ms": ["Kami menilai Parser semantik kami pada Set Data Webques-Tions, yang mengandungi 5,810 pasangan Soalan-Jawapan.", "Kami menggunakan Webquestions Dataset sebagai Dataset utama kami, yang mengandungi 5,810 pasangan Soalan-Penjawab."]}, {"en": ["The Framenet corpus is a collection of semantic frames, together with a corpus of documents Annotated with these frames.", "The Framenet Database provides an inventory of semantic frames together with a list of lexical units associated with these frames."], "ms": ["Framenet corpus adalah koleksi bingkai semantik, bersama dengan corpus dokumen yang Dianotasi dengan bingkai ini.", "Pangkalan Data Framenet menyediakan inventori bingkai semantik bersama-sama dengan senarai unit leksikal yang berkaitan dengan bingkai ini."]}, {"en": ["We built a Trigram language model with Kneser-Ney smoothing using Kenlm Toolkit.", "Finally, we used Kenlm to create a Trigram language model with Kneser-Ney smoothing on that data."], "ms": ["Kami membina model bahasa Trigram dengan smoothing Kneser-Ney menggunakan Kenlm Toolkit.", "Akhirnya, kami menggunakan Kenlm untuk membuat model bahasa Trigram dengan Kneser-Ney melicinkan data tersebut."]}, {"en": ["To the best of our knowledge, this is the first time that very deep Convolutional nets have been applied to text processing.", "To the best of our knowledge, this is the first time that the \u00a1\u00b0 benefit of depths \u00a1\u00b1 was shown for Convolutional neural networks."], "ms": ["Untuk pengetahuan kami yang terbaik, ini adalah kali pertama bahawa jaring Convolutional yang sangat mendalam telah digunakan untuk pemprosesan teks.", "Untuk pengetahuan yang terbaik, ini adalah kali pertama bahawa manfaat kedalaman ditunjukkan untuk rangkaian saraf konvolutional."]}, {"en": ["Language models were built using the Sri language modeling Toolkit with modified Kneser-Ney smoothing.", "A 4-Gram language model was trained on the Monolingual data by the Srilm Toolkit."], "ms": ["Model bahasa dibina menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai.", "Model bahasa 4-Gram dilatih pada data Monolingual oleh Srilm Toolkit."]}, {"en": ["One of the very few available discourse Annotated Corpora is the Penn discourse Treebank in English.", "The Penn discourse Treebank is the largest available Discourse-Annotated corpus in English."], "ms": ["Salah satu daripada wacana yang sangat sedikit tersedia Annotated Corpora ialah wacana Penn Treebank dalam bahasa Inggeris.", "Penn discourse Treebank adalah korpus Wacana-Annotated terbesar yang terdapat dalam bahasa Inggeris."]}, {"en": ["We evaluated the system using BLEU score on the test set.", "We first use BLEU score to perform automatic evaluation."], "ms": ["Kami menilai sistem menggunakan skor BLEU pada set ujian.", "Kami menggunakan skor BLEU untuk melakukan penilaian automatik."]}, {"en": ["In this paper, we model our problem in the framework of posterior Regularization.", "In this paper, we propose a novel Unsupervised model, sentiment distribution consistency Regularized."], "ms": ["Dalam makalah ini, kita memodelkan masalah kita dalam kerangka Regularisasi posterior.", "Dalam makalah ini, kami mengusulkan novel Unsupervised model, konsistensi pengedaran sentimen Diatur."]}, {"en": ["For all three classifiers, we used the Word2Vec 300D Pre-Trained Embeddings as features.", "We use the Pre-Trained Word2Vec Embeddings provided by Mikolov et al as model input."], "ms": ["Untuk ketiga-tiga pengelas, kami menggunakan Embedding Pra-Trained 300D Word2Vec sebagai ciri.", "Kami menggunakan Embedding Word2Vec Pra-Trained yang disediakan oleh Mikolov et al sebagai input model."]}, {"en": ["Miwa and Bansal adopted a Bidirectional tree Lstm model to jointly extract named entities and relations under a dependency tree structure.", "Miwa and Bansal adopt a Bidirectional dependency Tree-Lstm model by introducing a Top-Down Lstm path."], "ms": ["Miwa dan Bansal mengadopsi model Lstm pokok Bidirectional untuk bersama-sama mengekstrak entiti dan hubungan yang dinamakan di bawah struktur pokok dependensi.", "Miwa dan Bansal mengguna pakai model Tree-Lstm dependensi Bidirectional dengan memperkenalkan laluan Top-Down Lstm."]}, {"en": ["For J-E translation, we used the Cabocha Parser to analyze the context document.", "We used the statistical Japanese dependency Parser Cabocha for Parsing."], "ms": ["Untuk terjemahan J-E, kami menggunakan Penghurai Cabocha untuk menganalisis dokumen konteks.", "Kami menggunakan statistik Jepun dependency Parser Cabocha untuk Parsing."]}, {"en": ["We trained two 5-Gram language models on the entire target side of the parallel data, with Srilm.", "We used the target side of the parallel corpus and the Srilm Toolkit to train a 5-Gram language model."], "ms": ["Kami melatih dua model bahasa 5-Gram di seluruh sisi sasaran data selari, dengan Srilm.", "Kami menggunakan sisi sasaran korpus selari dan Srilm Toolkit untuk melatih model bahasa 5-Gram."]}, {"en": ["The language models were built using Srilm Toolkits.", "The Srilm Toolkit was used to build this language model."], "ms": ["Model bahasa dibina menggunakan Srilm Toolkits.", "Srilm Toolkit digunakan untuk membina model bahasa ini."]}, {"en": ["We use Srilm to train a 5-Gram language model on the target side of our training corpus with modified Kneser-Ney discounting.", "We use Srilm to train a 5-Gram language model on the Xinhua portion of the English Gigaword corpus 5th edition with modified Kneser-Ney discounting."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di sisi sasaran korpus latihan kami dengan diskaun Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di bahagian Xinhua dari edisi ke-5 Gigaword corpus Inggeris dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["The language model is a 3-Gram language model trained using the Srilm Toolkit on the English side of the training data.", "Modified Kneser-Ney Trigram models are trained using Srilm upon the Chinese portion of the training data."], "ms": ["Model bahasa adalah model bahasa 3-Gram yang dilatih menggunakan Srilm Toolkit di sisi bahasa Inggeris data latihan.", "Model Kneser-Ney Trigram yang diubahsuai dilatih menggunakan Srilm pada bahagian data latihan Cina."]}, {"en": ["Sarcasm is a form of verbal irony that is intended to express contempt or ridicule.", "Sarcasm is defined as \u2018 a cutting, often ironic remark intended to express contempt or ridicule \u2019 1."], "ms": ["Sarkasm adalah bentuk ironi lisan yang bertujuan untuk menyatakan penghinaan atau ejekan.", "Sarcasm ditakrifkan sebagai potong, sering ironis kenyataan yang bertujuan untuk menyatakan penghinaan atau ejekan 1."]}, {"en": ["We used the SVM implementation provided within Scikit-Learn.", "We use the Scikit-Learn machine learning library to implement the entire pipeline."], "ms": ["Kami menggunakan pelaksanaan SVM yang disediakan dalam Scikit-Learn.", "Kami menggunakan perpustakaan pembelajaran mesin Scikit-Learn untuk melaksanakan keseluruhan saluran paip."]}, {"en": ["The weights of the different feature functions were Optimised by means of minimum error rate training on the 2013 WMT test set.", "The weights of the different feature functions were Optimised by means of minimum error rate training on the 2008 test set."], "ms": ["Berat fungsi ciri yang berbeza telah dioptimumkan melalui latihan kadar ralat minimum pada set ujian WMT 2013.", "Berat fungsi ciri yang berbeza telah dioptimumkan dengan latihan kadar ralat minimum pada set ujian 2008."]}, {"en": ["The case insensitive Nist Bleu-4 metric is adopted for evaluation.", "Case-Insensitive Bleu4 was used as the evaluation metric."], "ms": ["Metrik Nist Bleu-4 yang tidak sensitif digunakan untuk penilaian.", "Bleu4 Case-Insensitive digunakan sebagai metrik penilaian."]}, {"en": ["Semantic role labeling (SRL) is a form of shallow semantic Parsing whose goal is to discover the Predicate-Argument structure of each Predicate in a given input sentence.", "Semantic role labeling (SRL) is a kind of shallow semantic Parsing task and its goal is to recognize some related phrases and assign a joint structure (who did what to whom, when, where, why, how) to each Predicate of a sentence (Cite-P-24-3-4)."], "ms": ["Pelabelan peranan semantik (SRL) adalah satu bentuk Parsing semantik cetek yang matlamatnya adalah untuk menemui struktur Predicate-Argument setiap Predicate dalam ayat input yang diberikan.", "Pelabelan peranan semantik (SRL) adalah sejenis tugas Parsing semantik cetek dan tujuannya adalah untuk mengenali beberapa frasa yang berkaitan dan menetapkan struktur bersama (yang melakukan apa kepada siapa, kapan, di mana, mengapa, bagaimana) untuk setiap Predikat ayat (Cite-P-24-3-4)."]}, {"en": ["For training the translation model and for decoding we used the Moses Toolkit.", "We used Moses, a Phrase-Based Smt Toolkit, for training the translation model."], "ms": ["Untuk melatih model terjemahan dan untuk penyahkodan, kami menggunakan Musa Toolkit.", "Kami menggunakan Musa, Alat Alat Smt Berasaskan Frasa, untuk melatih model terjemahan."]}, {"en": ["We use a Pbsmt model where the language model is a 5-Gram LM with modified Kneser-Ney smoothing.", "The language model is a 5-Gram LM with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model Pbsmt di mana model bahasa adalah LM 5-Gram dengan smoothing Kneser-Ney yang diubahsuai.", "Model bahasa adalah LM 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We automatically produced training data from the Penn Treebank.", "Our source for syntactically Annotated training data was the Penn Treebank."], "ms": ["Kami secara automatik menghasilkan data latihan dari Penn Treebank.", "Sumber kami untuk data latihan Annotated secara sintaksis ialah Penn Treebank."]}, {"en": ["This approach benefits from large Unsupervised Corpora, that can be used to learn effective word Embeddings.", "In addition, we can use Pre-Trained neural word Embeddings on large scale corpus for neural network Initialization."], "ms": ["Pendekatan ini mendapat manfaat daripada Corpora Unsupervised yang besar, yang boleh digunakan untuk mempelajari Embedding perkataan yang berkesan.", "Di samping itu, kita boleh menggunakan Embedding perkataan neural Pra-Trained pada korpus skala besar untuk permulaan rangkaian neural."]}, {"en": ["Badjatiya et al presented a gradient boosted Lstm model with random Embeddings to outperform state of the art hate speech detection techniques.", "Badjatiya et al used an Lstm model with features extracted by character N-Grams for hate speech detection."], "ms": ["Badjatiya et al presented a gradient boosted Lstm model with random Embeddings to outperform state of the art hate speech detection techniques.", "Badjatiya et al menggunakan model Lstm dengan ciri-ciri yang diekstrak oleh watak N-Grams untuk pengesanan ucapan kebencian."]}, {"en": ["There is no data like more data, performance improves Log-Linearly with the number of parameters (unique N-Grams).", "Like more data, performance improves Log-Linearly with the number of parameters (unique N-Grams)."], "ms": ["Tiada data seperti data yang lebih banyak, prestasi meningkatkan Log-Linearly dengan bilangan parameter (N-Gram unik).", "Seperti lebih banyak data, prestasi meningkatkan Log-Linearly dengan bilangan parameter (N-Gram unik)."]}, {"en": ["We implement our approach in the framework of Phrase-Based statistical machine translation.", "The translation technology used in our system is based on the well-known Phrase-Based translation statistical approach."], "ms": ["Kami melaksanakan pendekatan kami dalam rangka terjemahan mesin statistik berasaskan frasa.", "Teknologi terjemahan yang digunakan dalam sistem kami adalah berdasarkan pendekatan statistik terjemahan berasaskan frasa yang terkenal."]}, {"en": ["The Annotation is based on the Google universal Part-Ofspeech tags and the Stanford Dependencies, adapted and Harmonized across languages.", "The Annotation scheme leans on the universal Stanford Dependencies Complemented with the Google universal Pos Tagset and the Interset Interlingua for morphological Tagsets."], "ms": ["Annotasi ini berdasarkan tag Part-Ofspeech universal Google dan Dependencies Stanford, disesuaikan dan Harmonized merentasi bahasa.", "Skim Annotasi bergantung kepada Dependensi Stanford sejagat yang Dilengkapi dengan Tagset Pos universal Google dan Interset Interlingua untuk Tagset morfologi."]}, {"en": ["Parsing is the task of Reconstructing the syntactic structure from surface text.", "Parsing {2} is the same as searching for an s Node that dominates the entire string, Ie."], "ms": ["Penghuraian adalah tugas membina semula struktur sintaktik dari teks permukaan.", "Penghuraian {2} adalah sama dengan mencari Nod s yang menguasai keseluruhan rentetan, Ie."]}, {"en": ["With English Gigaword corpus, we use the Skip-Gram model as implemented in Word2Vec 3 to induce Embeddings.", "We use the Word2Vec tool to train Monolingual vectors , 6 and the Cca-Based tool for projecting word vectors."], "ms": ["Dengan Gigaword corpus bahasa Inggeris, kami menggunakan model Skip-Gram seperti yang dilaksanakan dalam Word2Vec 3 untuk mendorong Embeddings.", "Kami menggunakan alat Word2Vec untuk melatih vektor Monolingual, 6 dan alat Cca-Based untuk memproyeksikan vektor perkataan."]}, {"en": ["We used a Phrase-Based Smt model as implemented in the Moses Toolkit.", "We use the Moses package to train a Phrase-Based machine translation model."], "ms": ["Kami menggunakan model Smt Berasaskan Frasa seperti yang dilaksanakan dalam Musa Toolkit.", "Kami menggunakan pakej Musa untuk melatih model terjemahan mesin berasaskan frasa."]}, {"en": ["The feature weights for each system were tuned on development SETS using the Moses implementation of minimum error rate training.", "The parameters of the systems were tuned using Mert to optimize BLEU on the development set."], "ms": ["Berat ciri bagi setiap sistem ditala pada pembangunan SETS menggunakan pelaksanaan Musa latihan kadar ralat minimum.", "Parameter sistem ditala menggunakan Mert untuk mengoptimumkan BLEU pada set pembangunan."]}, {"en": ["We train the parameters of the stages separately using Adagrad with the Perceptron loss function.", "For the optimization process, we apply the diagonal variant of Adagrad with Mini-Batches."], "ms": ["Kami melatih parameter peringkat secara berasingan menggunakan Adagrad dengan fungsi kehilangan Perceptron.", "Untuk proses pengoptimuman, kami menggunakan varian pepenjuru Adagrad dengan Mini-Batches."]}, {"en": ["Morphological analysis is the basis for many Nlp applications, including syntax Parsing, machine translation and automatic indexing.", "Morphological analysis is the task of Segmenting a word into Morphemes, the smallest Meaning-Bearing elements of natural languages."], "ms": ["Analisis morfologi adalah asas bagi banyak aplikasi Nlp, termasuk penghuraian sintaks, terjemahan mesin dan pengindeksan automatik.", "Analisis morfologi adalah tugas Segmenkan perkataan ke dalam Morphemes, unsur-unsur terkecil yang bermaksud bahasa semula jadi."]}, {"en": ["The existing methods use only the information in either language side.", "In this study, we propose to leverage both the information in the source language."], "ms": ["Kaedah yang sedia ada hanya menggunakan maklumat di kedua-dua belah bahasa.", "Dalam kajian ini, kami mencadangkan untuk memanfaatkan kedua-dua maklumat dalam bahasa sumber."]}, {"en": ["We trained a standard 5-Gram language model with modified Kneser-Ney smoothing using the Kenlm Toolkit on 4 billion running words.", "In our experiments we used 5-Gram language models trained with modified Kneser-Ney smoothing using Kenlm Toolkit."], "ms": ["Kami melatih model bahasa 5-Gram standard dengan smoothing Kneser-Ney yang diubahsuai menggunakan Kenlm Toolkit pada 4 bilion perkataan berjalan.", "Dalam eksperimen kami, kami menggunakan model bahasa 5-Gram yang dilatih dengan smoothing Kneser-Ney yang diubahsuai menggunakan Kenlm Toolkit."]}, {"en": ["Li et al used a latent Dirichlet allocation model to generate topic distribution features as the news representations.", "Xing et al presented topic aware response generation by incorporating topic words obtained from a Pre-Trained Lda model."], "ms": ["Li et al menggunakan model peruntukan Dirichlet terpendam untuk menghasilkan ciri pengedaran topik sebagai perwakilan berita.", "Xing et al menyampaikan penjanaan respons sedar topik dengan memasukkan kata-kata topik yang diperolehi daripada model Lda Pra-Trained."]}, {"en": ["In our work, we use latent Dirichlet allocation to identify the Sub-Topics in the given body of texts.", "In our work, we build on Lda, which is often used as a building block for topic models."], "ms": ["Dalam kerja kami, kami menggunakan peruntukan Dirichlet laten untuk mengenal pasti Sub-Topik dalam badan teks yang diberikan.", "Dalam kerja kami, kami membina Lda, yang sering digunakan sebagai blok bangunan untuk model topik."]}, {"en": ["Word Embedding approaches like Word2Vec or glove are powerful tools for the semantic analysis of natural language.", "The most common word Embeddings used in deep learning are Word2Vec, glove, and Fasttext."], "ms": ["Pendekatan Embedding Word seperti Word2Vec atau sarung tangan adalah alat yang kuat untuk analisis semantik bahasa semula jadi.", "Perkataan Embedding yang paling biasa digunakan dalam pembelajaran mendalam ialah Word2Vec, sarung tangan, dan Fasttext."]}, {"en": ["For this task, we use the Widely-Used BLEU metric.", "We report the mt performance using the original BLEU metric."], "ms": ["Untuk tugas ini, kami menggunakan metrik BLEU yang digunakan secara meluas.", "Kami melaporkan prestasi mt menggunakan metrik BLEU asal."]}, {"en": ["The language model is a 3-Gram language model trained using the Srilm Toolkit on the English side of the training data.", "The target language model was a Trigram language model with modified Kneser-Ney smoothing trained on the English side of the Bitext using the Srilm Tookit."], "ms": ["Model bahasa adalah model bahasa 3-Gram yang dilatih menggunakan Srilm Toolkit di sisi bahasa Inggeris data latihan.", "Model bahasa sasaran adalah model bahasa Trigram dengan smoothing Kneser-Ney yang diubahsuai dilatih di sisi bahasa Inggeris Bitext menggunakan Srilm Tookit."]}, {"en": ["Word sense Disambiguation (Wsd) is a problem long recognised in computational linguistics (Yngve 1955) and there has been a recent resurgence of interest, including a special issue of this Journal devoted to the topic (Cite-P-27-8-11).", "Word sense Disambiguation (Wsd) is the problem of assigning a sense to an ambiguous word, using its context."], "ms": ["Disambiguation Word Sense Disambiguation (Wsd) adalah masalah yang lama diiktiraf dalam linguistik komputasi (Yngve 1955) dan terdapat kebangkitan minat baru-baru ini, termasuk isu khas Jurnal ini yang dikhaskan untuk topik (Cite-P-27-8-11).", "Kemusykilan erti kata Kemusykilan (Wsd) ialah masalah untuk memberikan rasa kepada perkataan yang samar-samar, menggunakan konteksnya."]}, {"en": ["The component features are weighted to minimize a translation error criterion on a development set.", "The development set is used to optimize feature weights using the Minimum-Error-Rate algorithm."], "ms": ["Ciri-ciri komponen ditimbang untuk meminimumkan kriteria ralat terjemahan pada set pembangunan.", "Set pembangunan digunakan untuk mengoptimumkan berat ciri menggunakan algoritma Minimum-Error-Rate."]}, {"en": ["Twitter 1 is a Microblogging service, which according to latest statistics, has 284 million active users , 77% outside the us that generate 500 million Tweets a day in 35 different languages.", "Twitter is the medium where people post real time messages to discuss on the different topics, and express their sentiments."], "ms": ["Twitter 1 adalah perkhidmatan Microblogging, yang menurut statistik terkini, mempunyai 284 juta pengguna aktif, 77% di luar AS yang menjana 500 juta Tweet sehari dalam 35 bahasa yang berbeza.", "Twitter adalah media di mana orang menghantar mesej masa nyata untuk membincangkan topik yang berbeza, dan menyatakan sentimen mereka."]}, {"en": ["Named entity Disambiguation is the task of linking entity mentions to their intended referent, as represented in a knowledge base, usually derived from Wikipedia.", "Named entity Disambiguation (Ned) is the task of determining which concrete person, place, event, etc . is referred to by a mention."], "ms": ["Disambiguasi entiti dinamakan ialah tugas menghubungkan sebutan entiti dengan rujukan yang dimaksudkan, seperti yang diwakili dalam pangkalan pengetahuan, biasanya berasal dari Wikipedia.", "Disambiguation entiti dinamakan (Ned) adalah tugas menentukan orang konkrit, tempat, peristiwa, dan lain-lain yang dirujuk oleh sebutan."]}, {"en": ["For our experiments reported here, we obtained word vectors using the Word2Vec tool and the Text8 corpus.", "For our purpose we use Word2Vec Embeddings trained on a Google news Dataset and find the Pairwise Cosine distances for all words."], "ms": ["Untuk eksperimen kami yang dilaporkan di sini, kami memperoleh vektor perkataan menggunakan alat Word2Vec dan korpus Text8.", "Untuk tujuan kami, kami menggunakan Embeddings Word2Vec yang dilatih pada Dataset berita Google dan mencari jarak Pairwise Cosine untuk semua perkataan."]}, {"en": ["We used Srilm to build a 4-Gram language model with interpolated Kneser-Ney discounting.", "We trained a 4-Gram language model on this data with Kneser-Ney discounting using Srilm."], "ms": ["Kami menggunakan Srilm untuk membina model bahasa 4-Gram dengan diskaun Kneser-Ney yang saling berkaitan.", "Kami melatih model bahasa 4-Gram pada data ini dengan diskaun Kneser-Ney menggunakan Srilm."]}, {"en": ["Semantic role labeling (SRL) has been defined as a Sentence-Level Natural-Language processing task in which semantic roles are assigned to the syntactic arguments of a Predicate (Cite-P-14-1-7).", "Semantic role labeling (SRL) is the process of producing such a MARKUP."], "ms": ["Pelabelan peranan semantik (SRL) telah ditakrifkan sebagai tugas pemprosesan Bahasa Semulajadi Tahap Sentence di mana peranan semantik ditugaskan kepada hujah sintaktik Predicate (Cite-P-14-1-7).", "Pelabelan peranan semantik (SRL) adalah proses menghasilkan MARKUP sedemikian."]}, {"en": ["The language models were trained using Srilm Toolkit.", "Srilm Toolkit is used to build these language models."], "ms": ["Model bahasa dilatih menggunakan Srilm Toolkit.", "Srilm Toolkit digunakan untuk membina model bahasa ini."]}, {"en": ["Word Segmentation is the foremost obligatory task in almost all the Nlp applications where the initial phase requires Tokenization of input into words.", "Word Segmentation is the first step of natural language processing for Japanese, Chinese and Thai because they do not delimit words by Whitespace."], "ms": ["Segmentasi perkataan adalah tugas wajib utama dalam hampir semua aplikasi Nlp di mana fasa awal memerlukan Tokenisasi input ke dalam perkataan.", "Segmentasi perkataan adalah langkah pertama pemprosesan bahasa semula jadi untuk bahasa Jepun, Cina dan Thai kerana mereka tidak mengehadkan perkataan oleh Whitespace."]}, {"en": ["All word vectors are trained on the Skipgram architecture.", "As word vectors the authors use Word2Vec Embeddings trained with the Skip-Gram model."], "ms": ["Semua vektor perkataan dilatih pada seni bina Skipgram.", "Sebagai vektor perkataan penulis menggunakan Embeddings Word2Vec yang dilatih dengan model Skip-Gram."]}, {"en": ["We report decoding speed and BLEU score, as measured by Sacrebleu.", "We substitute our language model and use Mert to optimize the BLEU score."], "ms": ["Kami melaporkan kelajuan penyahkodan dan skor BLEU, seperti yang diukur oleh Sacrebleu.", "Kami menggantikan model bahasa kami dan menggunakan Mert untuk mengoptimumkan skor BLEU."]}, {"en": ["Socher et al present a model for Compositionality based on recursive neural networks.", "Socher et al used an Rnn-Based architecture to generate compositional vector representations of sentences."], "ms": ["Socher et al mempersembahkan model untuk Komposisi berdasarkan rangkaian neural rekursif.", "Socher et al menggunakan seni bina Berasaskan Rnn untuk menghasilkan perwakilan vektor komposisi ayat."]}, {"en": ["Traditional semantic space models represent meaning on the basis of word Co-Occurrence statistics in large text Corpora.", "Standard vector space models of Semantics are based in a Term-Document or Word-Context matrix."], "ms": ["Model ruang semantik tradisional mewakili makna berdasarkan statistik perkataan Co-Occurrence dalam teks besar Corpora.", "Model ruang vektor standard Semantik didasarkan pada matriks Dokumen Terma atau Kata-Konteks."]}, {"en": ["Turian et al, for example, used Embeddings from existing language models as Unsupervised lexical features to improve named entity recognition and Chunking.", "For example, Turian et al have improved the performance of Chunking and named entity recognition by using word Embedding also as one of the features in their Crf model."], "ms": ["Turian et al, misalnya, menggunakan Embeddings dari model bahasa yang ada sebagai ciri leksikal yang tidak diawasi untuk meningkatkan pengiktirafan entiti dan Chunking yang dinamakan.", "Sebagai contoh, Turian et al telah meningkatkan prestasi Chunking dan pengiktirafan entiti yang dinamakan dengan menggunakan perkataan Embedding juga sebagai salah satu ciri dalam model Crf mereka."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of assigning sense tags to ambiguous lexical items (Lis) in a text.", "The process of identifying the correct meaning, or sense of a word in context, is known as word sense Disambiguation (Wsd)."], "ms": ["Disambiguasi kata (Wsd) adalah tugas untuk menetapkan tag deria kepada item leksikal samar (Lis) dalam teks.", "Proses mengenal pasti makna yang betul, atau rasa perkataan dalam konteks, dikenali sebagai kata rasa Disambiguation (Wsd)."]}, {"en": ["Semantic Parsing is the problem of translating human language into computer language, and therefore is at the heart of natural language understanding.", "Semantic Parsing is the task of translating natural language utterances into a Machine-Interpretable meaning representation."], "ms": ["Penghuraian Semantik adalah masalah menterjemahkan bahasa manusia ke dalam bahasa komputer, dan oleh itu adalah di tengah-tengah pemahaman bahasa semula jadi.", "Penghuraian Semantik adalah tugas menterjemahkan ucapan bahasa semula jadi ke dalam perwakilan makna Mesin-Terpretasi."]}, {"en": ["Some researchers use similarity and Association measures to build alignment links.", "Some researchers used similarity and Association measures to build alignment links."], "ms": ["Sesetengah penyelidik menggunakan persamaan dan langkah Persatuan untuk membina pautan penjajaran.", "Sesetengah penyelidik menggunakan persamaan dan langkah-langkah Persatuan untuk membina pautan penjajaran."]}, {"en": ["Sentiment analysis is the task of automatically identifying the Valence or polarity of a piece of text.", "Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-1-14) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B)."], "ms": ["Analisis kepekaan adalah tugas untuk mengenal pasti Ketinggian atau polariti sekeping teks secara automatik.", "Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-1-14) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B)."]}, {"en": ["Sentiment analysis is a Much-Researched area that deals with identification of positive, negative and neutral opinions in text.", "Sentiment analysis is a recent attempt to deal with evaluative aspects of text."], "ms": ["Analisis sentimen adalah kawasan yang banyak dikaji yang berkaitan dengan pengenalan pendapat positif, negatif dan neutral dalam teks.", "Analisis sentimen adalah percubaan baru-baru ini untuk menangani aspek penilaian teks."]}, {"en": ["The Smt system was tuned on the development set Newstest10 with minimum error rate training using the BLEU error rate measure as the optimization criterion.", "For adjusting feature weights, the Mert method was applied, optimizing the Bleu-4 metric obtained on the development corpus."], "ms": ["Sistem Smt ditala pada set pembangunan Newstest10 dengan latihan kadar ralat minimum menggunakan ukuran kadar ralat BLEU sebagai kriteria pengoptimuman.", "Untuk menyesuaikan berat ciri, kaedah Mert digunakan, mengoptimumkan metrik Bleu-4 yang diperoleh pada korpus pembangunan."]}, {"en": ["The language models were interpolated Kneser-Ney discounted Trigram models, all constructed using the Srilm Toolkit.", "The LMS are build using the Srilm language Modelling Toolkit with modified Kneserney discounting and interpolation."], "ms": ["Model bahasa adalah model Trigram diskaun Kneser-Ney yang diinterpolasi, semuanya dibina menggunakan Srilm Toolkit.", "LMS dibina menggunakan Toolkit Pemodelan bahasa Srilm dengan diskaun dan interpolasi Kneserney yang diubahsuai."]}, {"en": ["We also used Pre-Trained word Embeddings, including glove and 300D Fasttext vectors.", "Specifically, we tested the methods Word2Vec using the Gensim Word2Vec package and Pretrained glove word Embeddings."], "ms": ["Kami juga menggunakan Embedding perkataan Pra-Latih, termasuk sarung tangan dan vektor Fasttext 300D.", "Khususnya, kami menguji kaedah Word2Vec menggunakan pakej Gensim Word2Vec dan Embedding kata sarung tangan Pretrained."]}, {"en": ["We use the Pre-Trained 300-Dimensional Word2Vec vectors by Mikolov et al and Mikolov et al.", "We rely on distributed representation based on the neural network Skip-Gram model of Mikolov et al."], "ms": ["Kami menggunakan vektor Pra-Trained 300-Dimensional Word2Vec oleh Mikolov et al dan Mikolov et al.", "Kami bergantung pada perwakilan yang diedarkan berdasarkan model Skip-Gram rangkaian saraf Mikolov et al."]}, {"en": ["Sentiment analysis is the task of automatically identifying the Valence or polarity of a piece of text.", "One of the first challenges in sentiment analysis is the vast lexical diversity of subjective language."], "ms": ["Analisis kepekaan adalah tugas untuk mengenal pasti Ketinggian atau polariti sekeping teks secara automatik.", "Salah satu cabaran pertama dalam analisis sentimen adalah kepelbagaian leksikal bahasa subjektif yang luas."]}, {"en": ["We use the 100-Dimensional Pre-Trained word Embeddings trained by Word2Vec 2 and the 100-Dimensional randomly Initialized Pos tag Embeddings.", "We Initialize the vectors corresponding to words in our input layer with 100-Dimensional vectors generated by a Word2Vec model trained on over one million words from the Pubmed central article repository."], "ms": ["Kami menggunakan Embedding perkataan Pra-Latihan 100 Dimensional yang dilatih oleh Word2Vec 2 dan Embedding tag Pos Permulaan 100 Dimensional secara rawak.", "Kami Memulakan vektor yang sepadan dengan perkataan dalam lapisan input kami dengan vektor 100-Dimensional yang dihasilkan oleh model Word2Vec yang dilatih pada lebih dari satu juta perkataan dari repositori artikel pusat Pubmed."]}, {"en": ["Xiao et al propose a Topic-Based similarity model for rule selection in Hierarchical Phrasebased translation.", "Xiao et al introduce a topic similarity model to select the synchronous rules for Hierarchical Phrase-Based translation."], "ms": ["Xiao et al mencadangkan model persamaan Berasaskan Topik untuk pemilihan peraturan dalam terjemahan Berasaskan Frasa Hierarki.", "Xiao et al memperkenalkan model persamaan topik untuk memilih peraturan yang diselaraskan untuk terjemahan Berasaskan Frasa Hierarki."]}, {"en": ["We use the open source Moses Phrase-Based mt system to test the impact of the Preprocessing technique on translation quality.", "As a baseline system for our experiments we use the Syntax-Based component of the Moses Toolkit."], "ms": ["Kami menggunakan sistem mt berasaskan frasa Moses sumber terbuka untuk menguji kesan teknik pemprosesan pada kualiti terjemahan.", "Sebagai sistem asas untuk eksperimen kami, kami menggunakan komponen berasaskan Syntax dari Moses Toolkit."]}, {"en": ["The Annotation was performed using the Brat 2 tool.", "All Annotations were carried out with the Brat rapid Annotation tool."], "ms": ["Anotasi dilakukan menggunakan alat Brat 2.", "Semua Anotasi dilakukan dengan alat Anotasi Cepat Brat."]}, {"en": ["The syntax tree features were calculated using the Stanford Parser trained using the English Caseless model.", "The Stanford Parser was used to generate the dependency Parse information for each sentence."], "ms": ["Ciri-ciri pokok sintaks dikira menggunakan Stanford Parser yang dilatih menggunakan model Caseless Inggeris.", "Stanford Parser digunakan untuk menghasilkan maklumat Parse dependensi untuk setiap ayat."]}, {"en": ["Bengio et al proposed a probabilistic neural network language model for word representations.", "Bengio et al proposed neural probabilistic language model by using a distributed representation of words."], "ms": ["Bengio et al mencadangkan model bahasa rangkaian neural probabilistik untuk perwakilan perkataan.", "Bengio et al mencadangkan model bahasa probabilistik neural dengan menggunakan perwakilan perkataan yang diedarkan."]}, {"en": ["All language models are created with the Srilm Toolkit and are standard 4-Gram LMS with interpolated modified Kneser-Ney smoothing.", "The target language model is built on the target side of the parallel data with Kneser-Ney smoothing using the Irstlm tool."], "ms": ["Semua model bahasa dicipta dengan Srilm Toolkit dan merupakan LMS 4-Gram standard dengan smoothing Kneser-Ney yang diubahsuai interpolated.", "Model bahasa sasaran dibina di sisi sasaran data selari dengan smoothing Kneser-Ney menggunakan alat Irstlm."]}, {"en": ["The decoding weights were Optimized with minimum error rate training.", "The model weights were trained using the minimum error rate training algorithm."], "ms": ["Berat penyahkodan dioptimumkan dengan latihan kadar ralat minimum.", "Berat model dilatih menggunakan algoritma latihan kadar ralat minimum."]}, {"en": ["Part-Of-Speech (Pos) tagging is the task of assigning each of the words in a given piece of text a Contextually suitable grammatical category.", "Part-Of-Speech (Pos) tagging is a job to assign a proper Pos tag to each linguistic unit such as word for a given sentence."], "ms": ["Penandaan Part-Of-Speech (Pos) adalah tugas untuk menetapkan setiap perkataan dalam sekeping teks tertentu kategori tatabahasa yang sesuai secara kontekstual.", "Penandaan Part-Of-Speech (Pos) adalah tugas untuk menetapkan tag Pos yang betul untuk setiap unit linguistik seperti perkataan untuk ayat yang diberikan."]}, {"en": ["We used the Svd implementation provided in the Scikit-Learn Toolkit.", "We used the Scikit-Learn library the SVM model."], "ms": ["Kami menggunakan pelaksanaan Svd yang disediakan dalam Scikit-Learn Toolkit.", "Kami menggunakan perpustakaan Scikit-Learn model SVM."]}, {"en": ["For English, we use the Pre-Trained glove vectors.", "We use Pre-Trained vectors from glove for Word-Level Embeddings."], "ms": ["Untuk bahasa Inggeris, kami menggunakan vektor sarung tangan Pra-Trained.", "Kami menggunakan vektor Pra-Trained dari sarung tangan untuk Embeddings Peringkat Perkataan."]}, {"en": ["The language model was constructed using the Srilm Toolkit with interpolated Kneser-Ney discounting.", "Gram language model with modified Kneser-Ney smoothing is trained with the Srilm Toolkit on the Epps, Ted, Newscommentary, and the Gigaword Corpora."], "ms": ["Model bahasa dibina menggunakan Srilm Toolkit dengan diskaun Kneser-Ney yang saling berkaitan.", "Model bahasa gram dengan smoothing Kneser-Ney yang diubahsuai dilatih dengan Srilm Toolkit pada Epps, Ted, Newscommentary, dan Gigaword Corpora."]}, {"en": ["We use Pre-Trained 50 dimensional glove vectors 4 for word Embeddings Initialization.", "We use glove word Embeddings, an Unsupervised learning algorithm for obtaining vector representations of words."], "ms": ["Kami menggunakan vektor sarung tangan 50 dimensi Pra-Trained 4 untuk Pengawalan Embeddings perkataan.", "Kami menggunakan perkataan sarung tangan Embeddings, algoritma pembelajaran yang tidak diawasi untuk mendapatkan perwakilan vektor perkataan."]}, {"en": ["In addition, we use an English corpus of roughly 227 million words to build a Target-Side 5-Gram language model with Srilm in combination with Kenlm.", "We used the Srilm Toolkit to create 5-Gram language models with interpolated modified Kneser-Ney discounting."], "ms": ["Di samping itu, kami menggunakan korpus bahasa Inggeris kira-kira 227 juta perkataan untuk membina model bahasa Target-Side 5-Gram dengan Srilm dalam kombinasi dengan Kenlm.", "Kami menggunakan Srilm Toolkit untuk mencipta model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Coreference resolution is a complex problem, and successful systems must tackle a variety of Non-Trivial Subproblems that are central to the Coreference task \u2014 E.G ., Mention/Markable detection, Anaphor identification \u2014 and that require substantial implementation efforts.", "Coreference resolution is the process of linking together multiple expressions of a given entity."], "ms": ["Resolusi Coreference adalah masalah yang kompleks, dan sistem yang berjaya mesti menangani pelbagai Submasalah Bukan Trivial yang menjadi pusat tugas Coreference - E.G., pengesanan Mention / Markable, pengenalan Anaphor - dan yang memerlukan usaha pelaksanaan yang besar.", "Resolusi spatial adalah proses menghubungkan pelbagai ungkapan entiti tertentu."]}, {"en": ["We use the Sdsl library to implement all our structures and compare our indexes to Srilm.", "And we use Sri language modeling Toolkit to tune our feature weights."], "ms": ["Kami menggunakan perpustakaan Sdsl untuk melaksanakan semua struktur kami dan membandingkan indeks kami dengan Srilm.", "Dan kami menggunakan Toolkit pemodelan bahasa Sri untuk menyesuaikan berat ciri kami."]}, {"en": ["Word sense Disambiguation (Wsd) is a particular problem of computational linguistics which consists in determining the correct sense for a given ambiguous word.", "Word sense Disambiguation (Wsd) is a difficult natural language processing task which requires that for every content word (noun, adjective, verb or adverb) the appropriate meaning is automatically selected from the available sense inventory 1."], "ms": ["Kemusykilan kata Kemusykilan perkataan (Wsd) ialah masalah tertentu linguistik komputasi yang terdiri dalam menentukan pengertian yang betul bagi perkataan yang samar-samar.", "Disambiguasi erti kata (Wsd) adalah tugas pemprosesan bahasa semula jadi yang sukar yang memerlukan bahawa untuk setiap perkataan kandungan (kata nama, kata sifat, kata kerja atau kata kerja) makna yang sesuai dipilih secara automatik dari inventori rasa yang ada 1."]}, {"en": ["Unpruned language models were trained using Lmplz which employs modified Kneser-Ney smoothing.", "The language model used was a 5-Gram with modified Kneserney smoothing, built with Srilm Toolkit."], "ms": ["Model bahasa yang tidak dipangkas dilatih menggunakan Lmplz yang menggunakan smoothing Kneser-Ney yang diubahsuai.", "Model bahasa yang digunakan ialah 5-Gram dengan smoothing Kneserney yang diubahsuai, dibina dengan Srilm Toolkit."]}, {"en": ["Coreference resolution is a well known clustering task in natural language processing.", "Coreference resolution is the process of linking together multiple expressions of a given entity."], "ms": ["Resolusi spatial adalah tugas clustering yang terkenal dalam pemprosesan bahasa semula jadi.", "Resolusi spatial adalah proses menghubungkan pelbagai ungkapan entiti tertentu."]}, {"en": ["The Meta-Net project aims to ensure equal access to information by all European citizens.", "Metanet \u2019 s aims of increasing communication between citizens of different European countries."], "ms": ["Projek Meta-Net bertujuan untuk memastikan akses yang sama kepada maklumat oleh semua warga Eropah.", "Metanet bertujuan untuk meningkatkan komunikasi antara warga negara-negara Eropah yang berbeza."]}, {"en": ["As described herein, we proposed a new automatic evaluation method for machine translation.", "As described in this paper, we propose a new automatic evaluation method for machine translation."], "ms": ["Seperti yang dijelaskan di sini, kami mencadangkan kaedah penilaian automatik baru untuk terjemahan mesin.", "Seperti yang dijelaskan dalam kertas kerja ini, kami mencadangkan kaedah penilaian automatik baru untuk terjemahan mesin."]}, {"en": ["We adopt Berkeley Parser 1 to train our Sub-Models.", "For our experiments, we used the latent Variablebased Berkeley Parser."], "ms": ["Kami menggunakan Berkeley Parser 1 untuk melatih Sub-Model kami.", "Untuk eksperimen kami, kami menggunakan Berkeley Parser berasaskan laten."]}, {"en": ["We trained two 5-Gram language models on the entire target side of the parallel data, with Srilm.", "A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit."], "ms": ["Kami melatih dua model bahasa 5-Gram di seluruh sisi sasaran data selari, dengan Srilm.", "Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit."]}, {"en": ["Experiments on Nlp & CC 2013 Clsc Dataset show that our approach Outperforms the state-of-the-art systems.", "In spite of the small-scale of training set, our approach Outperforms the state-of-the-art systems in Nlp & CC 2013 Clsc."], "ms": ["Eksperimen pada Nlp & CC 2013 Clsc Dataset menunjukkan bahawa pendekatan kami Outperforms sistem canggih.", "Walaupun set latihan berskala kecil, pendekatan kami Melaksanakan sistem canggih di Nlp & CC 2013 Clsc."]}, {"en": ["Pereira, Curran and LIN use syntactic features in the vector definition.", "Curran and LIN use syntactic features in the vector definition."], "ms": ["Pereira, Curran dan LIN menggunakan ciri-ciri sintaktik dalam takrifan vektor.", "Curran dan LIN menggunakan ciri-ciri sintaktik dalam takrifan vektor."]}, {"en": ["Parameter tuning was carried out using both K-Best Mira and minimum error rate training on a Held-Out development set.", "Feature weight tuning was carried out using minimum error rate training, maximizing BLEU scores on a Held-Out development set."], "ms": ["Penalaan parameter dijalankan menggunakan kedua-dua K-Best Mira dan latihan kadar ralat minimum pada set pembangunan Held-Out.", "Penalaan berat ciri dilakukan menggunakan latihan kadar ralat minimum, memaksimumkan skor BLEU pada set pembangunan Held-Out."]}, {"en": ["Taxonomies, which serve as Backbones for structured knowledge, are useful for many Nlp applications such as question answering and document clustering.", "Taxonomies which serve as backbone of structured knowledge are useful for many applications such as question answering and document clustering."], "ms": ["Taksonomi, yang berfungsi sebagai tulang belakang untuk pengetahuan berstruktur, berguna untuk banyak aplikasi Nlp seperti menjawab soalan dan pengelompokan dokumen.", "Taksonomi yang berfungsi sebagai tulang belakang pengetahuan berstruktur berguna untuk banyak aplikasi seperti menjawab soalan dan pengelompokan dokumen."]}, {"en": ["The Lstm addresses the problem by Re-Parameterizing the Rnn model.", "The Lstm model is developed to solve the gradient vanishing or exploding problems in the Rnn."], "ms": ["Lstm menangani masalah dengan Meremetrik semula model Rnn.", "Model Lstm dibangunkan untuk menyelesaikan masalah kecerunan yang hilang atau meletup di Rnn."]}, {"en": ["Ccg is a strongly Lexicalized formalism, in which every word is associated with a syntactic category (similar to an elementary syntactic structure) indicating its Subcategorization potential.", "Ccg is a Lexicalized grammar formalism in which every constituent in a sentence is associated with a structured category that specifies its syntactic relationship to other constituents."], "ms": ["Ccg adalah formalisme Leksikan yang kuat, di mana setiap perkataan dikaitkan dengan kategori sintaksis (serupa dengan struktur sintaksis asas) yang menunjukkan potensi Subkategorinya.", "Ccg adalah formalisme tatabahasa Leksiikal di mana setiap konstituen dalam ayat dikaitkan dengan kategori berstruktur yang menentukan hubungan sintaksisnya dengan konstituen lain."]}, {"en": ["We used the Srilm Toolkit to train a 4-Gram language model on the Xinhua portion of the Gigaword corpus, which contains 238M English words.", "In our experiments, we used the Srilm Toolkit to build 5-Gram language model using the LDC Arabic Gigaword corpus."], "ms": ["Kami menggunakan Srilm Toolkit untuk melatih model bahasa 4-Gram di bahagian Xinhua dari Gigaword corpus, yang mengandungi 238M perkataan Inggeris.", "Dalam eksperimen kami, kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram menggunakan LDC Arabic Gigaword corpus."]}, {"en": ["We used minimum error rate training to tune the feature weights for maximum BLEU on the development set.", "We set the feature weights by optimizing the BLEU score directly using minimum error rate training on the development set."], "ms": ["Kami menggunakan latihan kadar ralat minimum untuk menyesuaikan berat ciri untuk BLEU maksimum pada set pembangunan.", "Kami menetapkan berat ciri dengan mengoptimumkan skor BLEU secara langsung menggunakan latihan kadar ralat minimum pada set pembangunan."]}, {"en": ["Negation is a grammatical category that comprises devices used to reverse the truth value of propositions.", "Negation is a linguistic phenomenon present in all languages (Cite-P-12-3-6, Cite-P-12-1-5)."], "ms": ["Negasi adalah kategori tatabahasa yang terdiri daripada peranti yang digunakan untuk membalikkan nilai kebenaran cadangan.", "Negasi adalah fenomena linguistik yang terdapat dalam semua bahasa (Cite-P-12-3-6, Cite-P-12-1-5)."]}, {"en": ["These Nlp tools have the potential to make a marked difference for gun violence researchers.", "Nlp researchers are especially Well-Positioned to contribute to the National discussion about gun violence."], "ms": ["Alat Nlp ini berpotensi untuk membuat perbezaan yang ketara bagi penyelidik keganasan senjata api.", "Penyelidik Nlp terutamanya Well-Positioned untuk menyumbang kepada perbincangan Kebangsaan mengenai keganasan senjata api."]}, {"en": ["We also use a 4-Gram language model trained using Srilm with Kneser-Ney smoothing.", "We used Trigram language models with interpolated Kneser-Kney discounting trained using the Sri language modeling Toolkit."], "ms": ["Kami juga menggunakan model bahasa 4-Gram yang dilatih menggunakan Srilm dengan smoothing Kneser-Ney.", "Kami menggunakan model bahasa Trigram dengan diskaun Kneser-Kney yang diinterpolasi dilatih menggunakan Toolkit pemodelan bahasa Sri."]}, {"en": ["We evaluate our semantic Parser on the Webques-Tions Dataset, which contains 5,810 Question-Answer pairs.", "To evaluate our method, we use the Webquestions Dataset, which contains 5,810 questions crawled via Google suggest API."], "ms": ["Kami menilai Parser semantik kami pada Set Data Webques-Tions, yang mengandungi 5,810 pasangan Soalan-Jawapan.", "Untuk menilai kaedah kami, kami menggunakan Webquestions Dataset, yang mengandungi 5,810 soalan yang merangkak melalui Google mencadangkan API."]}, {"en": ["We used a 4-Gram language model which was trained on the Xinhua section of the English Gigaword corpus using the Srilm 4 Toolkit with modified Kneser-Ney smoothing.", "For the language model, we used Sri language modeling Toolkit to train a Trigram model with modified Kneser-Ney smoothing on the 31 , 149 English sentences."], "ms": ["Kami menggunakan model bahasa 4-Gram yang dilatih di bahagian Xinhua korpus Gigaword Inggeris menggunakan Srilm 4 Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Trigram dengan Kneser-Ney yang diubahsuai pada 31, 149 ayat bahasa Inggeris."]}, {"en": ["We Tokenized, cleaned, and Truecased our data using the standard tools from the Moses Toolkit.", "We Preprocessed the corpus with Tokenization and True-Casing tools from the Moses Toolkit."], "ms": ["Kami Tokenized, dibersihkan, dan Truecased data kami menggunakan alat standard dari Moses Toolkit.", "Kami memproses korpus dengan Tokenization dan alat True-Casing dari Musa Toolkit."]}, {"en": ["Kalchbrenner et al , 2014) proposes a CNN framework with multiple Convolution layers, with latent, dense and Low-Dimensional word Embeddings as inputs.", "Kalchbrenner et al propose a Convolutional architecture for sentence representation that vertically stacks multiple Convolution layers, each of which can learn independent Convolution kernels."], "ms": ["Kalchbrenner et al, 2014) mencadangkan rangka kerja CNN dengan lapisan Convolution berganda, dengan perkataan laten, padat dan Low-Dimensional Embeddings sebagai input.", "Kalchbrenner et al mencadangkan seni bina Konvolusi untuk perwakilan ayat yang secara menegak menyusun pelbagai lapisan Konvolusi, masing-masing boleh mempelajari kernel Konvolusi bebas."]}, {"en": ["Coreference resolution is a challenging task, that involves identification and clustering of noun phrases mentions that refer to the same Real-World entity.", "Coreference resolution is the process of linking multiple mentions that refer to the same entity."], "ms": ["Resolusi spatial adalah tugas yang mencabar, yang melibatkan pengenalan dan pengelompokan frasa kata nama yang menyebut yang merujuk kepada entiti Dunia Nyata yang sama.", "Resolusi spatial adalah proses menghubungkan pelbagai sebutan yang merujuk kepada entiti yang sama."]}, {"en": ["We use the automatic mt evaluation Metrics BLEU, meteor, and Ter, to evaluate the absolute translation quality obtained.", "To measure translation accuracy, we use the automatic evaluation measures of BLEU and Ribes measured over all sentences in the test corpus."], "ms": ["Kami menggunakan Metrik Penilaian Mt automatik BLEU, meteor, dan Ter, untuk menilai kualiti terjemahan mutlak yang diperoleh.", "Untuk mengukur ketepatan terjemahan, kami menggunakan langkah penilaian automatik BLEU dan Ribes yang diukur di atas semua ayat dalam korpus ujian."]}, {"en": ["Rosa et al and Mare\u81b7Ek et al applied a Rule-Based approach to ape of English-Czech mt outputs on the morphological level.", "Rosa et al and Mare\u81b7Ek et al applied ape on English-To-Czech mt outputs on morphological level."], "ms": ["Rosa et al dan MareEk et al menggunakan pendekatan Berasaskan Peraturan untuk kera output bahasa Inggeris-Czech mt pada tahap morfologi.", "Rosa et al dan MareEk et al menggunakan kera pada output Bahasa Inggeris-To-Czech mt pada tahap morfologi."]}, {"en": ["We trained a 5-Gram language model on the Xinhua portion of Gigaword corpus using the Srilm Toolkit.", "We used Srilm to build a 4-Gram language model with Kneser-Ney discounting."], "ms": ["Kami melatih model bahasa 5-Gram di bahagian Xinhua Gigaword corpus menggunakan Srilm Toolkit.", "Kami menggunakan Srilm untuk membina model bahasa 4-Gram dengan diskaun Kneser-Ney."]}, {"en": ["We trained two 5-Gram language models on the entire target side of the parallel data, with Srilm.", "We use Srilm to train a 5-Gram language model on the target side of our training corpus with modified Kneser-Ney discounting."], "ms": ["Kami melatih dua model bahasa 5-Gram di seluruh sisi sasaran data selari, dengan Srilm.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di sisi sasaran korpus latihan kami dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Italwordnet is a lexical semantic Database based on Eurowordnet lexical model which, in its turn, is inspired from Princeton Wordnet.", "Germanet is a lexical semantic network that is modeled after the Princeton Wordnet for English."], "ms": ["Italwordnet adalah Pangkalan Data semantik leksikal berdasarkan model leksikal Eurowordnet yang, pada gilirannya, diilhamkan dari Princeton Wordnet.", "Germanet adalah rangkaian semantik leksikal yang dimodelkan selepas Princeton Wordnet untuk bahasa Inggeris."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit.", "The language model Pis implemented as an N-Gram model using the Srilm-Toolkit with Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit.", "Model bahasa Pis dilaksanakan sebagai model N-Gram menggunakan Srilm-Toolkit dengan smoothing Kneser-Ney."]}, {"en": ["A Back-Off 2-Gram model with Good-Turing discounting and no lexical classes was also created from the training set, using the Srilm Toolkit ,.", "A 3-Gram language model was trained from the target side of the training data for Chinese and Arabic, using the Srilm Toolkit."], "ms": ["Model Back-Off 2-Gram dengan diskaun Good-Turing dan tiada kelas leksikal juga dicipta dari set latihan, menggunakan Srilm Toolkit,.", "Model bahasa 3-Gram dilatih dari sisi sasaran data latihan untuk bahasa Cina dan Arab, menggunakan Srilm Toolkit."]}, {"en": ["The Smt system was tuned on the development set Newstest10 with minimum error rate training using the BLEU error rate measure as the optimization criterion.", "Feature weights were trained with minimum Error-Rate training on the News-Test2008 development set using the Dp beam search Decoder and the Mert implementation of the Moses Toolkit."], "ms": ["Sistem Smt ditala pada set pembangunan Newstest10 dengan latihan kadar ralat minimum menggunakan ukuran kadar ralat BLEU sebagai kriteria pengoptimuman.", "Berat ciri dilatih dengan latihan Ralat-Rate minimum pada set pembangunan News-Test2008 menggunakan Decoder carian rasuk Dp dan pelaksanaan Mert Musa Toolkit."]}, {"en": ["We use word Embeddings of dimension 100 Pretrained using Word2Vec on the training Dataset.", "We train 300 dimensional word Embedding using Word2Vec on all the training data, and Fine-Turning during the training process."], "ms": ["Kami menggunakan perkataan Embeddings dimensi 100 Pretrained menggunakan Word2Vec pada Dataset latihan.", "Kami melatih Embedding perkataan 300 dimensi menggunakan Word2Vec pada semua data latihan, dan Fine-Turning semasa proses latihan."]}, {"en": ["Coreference resolution is a challenging task, that involves identification and clustering of noun phrases mentions that refer to the same Real-World entity.", "Coreference resolution is the task of grouping mentions to entities."], "ms": ["Resolusi spatial adalah tugas yang mencabar, yang melibatkan pengenalan dan pengelompokan frasa kata nama yang menyebut yang merujuk kepada entiti Dunia Nyata yang sama.", "Resolusi spatial adalah tugas untuk mengumpulkan sebutan kepada entiti."]}, {"en": ["Semantic role labeling (SRL) is the process of extracting simple event structures, I.E ., \u201c who \u201d did \u201c what \u201d to \u201c whom \u201d, \u201c when \u201d and \u201c where \u201d.", "Semantic role labeling (SRL) is the task of identifying the arguments of lexical Predicates in a sentence and labeling them with semantic roles (Cite-P-13-3-3, Cite-P-13-3-11)."], "ms": ["Pelabelan peranan semantik (SRL) adalah proses mengekstrak struktur peristiwa mudah, I.E., dan siapa yang melakukan apa yang anda lakukan kepada siapa, dan apabila anda dan di mana anda berada.", "Pelabelan peranan semantik (SRL) adalah tugas mengenal pasti hujah-hujah Predikasi leksikal dalam ayat dan melabelkannya dengan peranan semantik (Cite-P-13-3-3, Cite-P-13-3-11)."]}, {"en": ["In this run, we use a sentence vector derived from word Embeddings obtained from Word2Vec.", "For estimating the Monolingual we, we use the Cbow algorithm as implemented in the Word2Vec package using a 5-Token window."], "ms": ["Dalam larian ini, kami menggunakan vektor ayat yang berasal dari perkataan Embeddings yang diperoleh dari Word2Vec.", "Untuk menganggarkan Monolingual kami, kami menggunakan algoritma Cbow seperti yang dilaksanakan dalam pakej Word2Vec menggunakan tetingkap 5-Token."]}, {"en": ["As a strong baseline, we trained the Skip-Gram model of Mikolov et al using the publicly available Word2Vec 5 software.", "We use the best performing model amongst those tested by Baroni and colleagues, which has been constructed with Word2Vec 5 using the Cbow approach proposed by Mikolov et al."], "ms": ["Sebagai asas yang kuat, kami melatih model Skip-Gram Mikolov et al menggunakan perisian Word2Vec 5 yang tersedia secara terbuka.", "Kami menggunakan model berprestasi terbaik di kalangan yang diuji oleh Baroni dan rakan sekerja, yang telah dibina dengan Word2Vec 5 menggunakan pendekatan Cbow yang dicadangkan oleh Mikolov et al."]}, {"en": ["Mihalcea et al proposed a method to measure the semantic similarity of words or short texts, considering both Corpus-Based and Knowledge-Based information.", "Mihalcea et al compared Knowledgebased and Corpus-Based methods, using word similarity and word specificity to define one general measure of text semantic similarity."], "ms": ["Mihalcea et al mencadangkan kaedah untuk mengukur persamaan semantik perkataan atau teks pendek, memandangkan kedua-dua maklumat berasaskan Corpus dan maklumat berasaskan pengetahuan.", "Mihalcea et al membandingkan kaedah berasaskan pengetahuan dan berasaskan Corpus, menggunakan persamaan perkataan dan kekhususan perkataan untuk menentukan satu ukuran umum persamaan semantik teks."]}, {"en": ["Sentiment analysis is a research area in the field of natural language processing.", "Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-1-14) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B)."], "ms": ["Analisis kepekaan adalah bidang penyelidikan dalam bidang pemprosesan bahasa semula jadi.", "Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-1-14) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B)."]}, {"en": ["For the Word-Embedding based Classifier, we use the glove Pre-Trained word Embeddings.", "We employ the Pretrained word vector, glove, to obtain the fixed word Embedding of each word."], "ms": ["Untuk Klasifier berasaskan Word-Embedding, kami menggunakan Embedding perkataan Pra-Trained sarung tangan.", "Kami menggunakan vektor perkataan Pretrained, sarung tangan, untuk mendapatkan perkataan tetap Embedding setiap perkataan."]}, {"en": ["A Lexicalized reordering model was trained with the Msd-Bidirectional-Fe option.", "The Lexicalized reordering model was trained with the Msd-Bidirectionalfe option."], "ms": ["Model penyusunan semula Lexicalized dilatih dengan pilihan Msd-Bidirectional-Fe.", "Model penyusunan semula Lexicalized dilatih dengan pilihan Msd-Bidirectionalfe."]}, {"en": ["We implement an In-Domain language model using the Sri language modeling Toolkit.", "We use Srilm for N-Gram language model training and Hmm decoding."], "ms": ["Kami melaksanakan model bahasa In-Domain menggunakan Toolkit pemodelan bahasa Sri.", "Kami menggunakan Srilm untuk latihan model bahasa N-Gram dan penyahkodan Hmm."]}, {"en": ["Twitter is a Microblogging service that has 313 million monthly active users 1.", "Twitter is a huge Microbloging service with more than 500 million Tweets per day 1 from different locations in the world and in different languages."], "ms": ["Twitter adalah perkhidmatan Microblogging yang mempunyai 313 juta pengguna aktif bulanan 1.", "Twitter adalah perkhidmatan Microbloging yang besar dengan lebih daripada 500 juta Tweets setiap hari 1 dari lokasi yang berbeza di dunia dan dalam bahasa yang berbeza."]}, {"en": ["For Regularization, dropout is applied to each layer.", "For Regularization, dropout is applied to the input and hidden layers."], "ms": ["Untuk Regularization, keciciran digunakan pada setiap lapisan.", "Untuk Regularization, putus asa digunakan pada input dan lapisan tersembunyi."]}, {"en": ["This scenario Posits new challenges to active learning.", "Active learning approach can effectively avoid this problem."], "ms": ["Senario ini mempunyai cabaran baru untuk pembelajaran aktif.", "Pendekatan pembelajaran aktif dapat mengelakkan masalah ini dengan berkesan."]}, {"en": ["Reading comprehension (RC) is a language understanding task similar to question answering, where a system is expected to read a given passage of text and answer questions about it.", "Reading comprehension (RC) is a high-level task in natural language understanding that requires reading a document and answering questions about its content."], "ms": ["Reading Comprehension (RC) adalah tugas pemahaman bahasa yang serupa dengan jawapan soalan, di mana sistem dijangka membaca petikan teks tertentu dan menjawab soalan mengenainya.", "Reading Comprehension (RC) adalah tugas peringkat tinggi dalam pemahaman bahasa semula jadi yang memerlukan membaca dokumen dan menjawab soalan mengenai kandungannya."]}, {"en": ["We used BLEU and meteor for Extrinsic evaluation.", "We use BLEU and meteor for our automatic Metric-Based evaluation."], "ms": ["Kami menggunakan BLEU dan meteor untuk penilaian Extrinsic.", "Kami menggunakan BLEU dan meteor untuk penilaian berasaskan metrik automatik kami."]}, {"en": ["Word Embedding models are aimed at learning vector representations of word meaning.", "The word Embeddings can provide word vector representation that captures semantic and syntactic information of words."], "ms": ["Model Embedding Perkataan bertujuan untuk mempelajari perwakilan vektor makna perkataan.", "Perkataan Embeddings boleh memberikan perwakilan vektor perkataan yang menangkap maklumat semantik dan sintaktik perkataan."]}, {"en": ["Coreference resolution is the task of clustering referring expressions in a text so that each resulting cluster represents an entity.", "Coreference resolution is the task of clustering a set of mentions in the text such that all mentions in the same cluster refer to the same entity."], "ms": ["Resolusi spatial adalah tugas pengelompokan merujuk ungkapan dalam teks supaya setiap kluster yang terhasil mewakili entiti.", "Resolusi spatial adalah tugas untuk mengelompokkan satu set sebutan dalam teks sedemikian rupa sehingga semua sebutan dalam kluster yang sama merujuk kepada entiti yang sama."]}, {"en": ["We use the Stanford dependency Parser with the collapsed representation so that preposition nodes become edges.", "As for EJ translation, we use the Stanford Parser to obtain English abstraction trees."], "ms": ["Kami menggunakan Stanford dependency Parser dengan perwakilan runtuh supaya nod preposisi menjadi tepi.", "Bagi terjemahan EJ, kami menggunakan Stanford Parser untuk mendapatkan pokok abstraksi bahasa Inggeris."]}, {"en": ["Coreference resolution is the task of determining which mentions in a text refer to the same entity.", "Coreference resolution is the task of partitioning a set of mentions (I.E . person, organization and location) into entities."], "ms": ["Resolusi spatial adalah tugas menentukan sebutan mana dalam teks merujuk kepada entiti yang sama.", "Resolusi spatial adalah tugas pembahagian satu set sebutan (I.E. orang, organisasi dan lokasi) ke dalam entiti."]}, {"en": ["Lexical substitution is a more natural task, enables us to evaluate meaning composition at the level of individual words, and provides a common ground to compare Cdsms with dedicated lexical substitution models.", "Additionally, lexical substitution is a more natural task than similarity ratings, it makes it possible to evaluate meaning composition at the level of individual words, and provides a common ground to compare Cdsms with dedicated lexical substitution models."], "ms": ["Penggantian leksikal adalah tugas yang lebih semula jadi, membolehkan kita menilai komposisi makna pada tahap perkataan individu, dan menyediakan asas yang sama untuk membandingkan Cdsms dengan model penggantian leksikal khusus.", "Selain itu, penggantian leksikal adalah tugas yang lebih semula jadi daripada penilaian kesamaan, ia memungkinkan untuk menilai komposisi makna pada tahap kata individu, dan menyediakan asas umum untuk membandingkan Cdsms dengan model penggantian leksikal khusus."]}, {"en": ["Dredze et al, show that domain adaptation is hard for dependency Parsing based on results in the Conll 2007 shared task.", "Dredze et al showed the possibility that many Parsing errors in the domain adaptation tasks came from inconsistencies between Annotation manners of training resources."], "ms": ["Dredze et al, menunjukkan bahawa penyesuaian domain sukar untuk Penghuraian dependensi berdasarkan hasil dalam tugas bersama Conll 2007.", "Dredze et al menunjukkan kemungkinan bahawa banyak kesalahan Penghuraian dalam tugas penyesuaian domain berasal dari ketidakkonsistenan antara adab Annotasi sumber latihan."]}, {"en": ["We used Datasets distributed for the 2006 and 2007 Conll shared tasks.", "We use five Datasets from the Conll-X shared task."], "ms": ["Kami menggunakan Dataset yang diedarkan untuk tugas-tugas dikongsi Conll 2006 dan 2007.", "Kami menggunakan lima Dataset dari tugas dikongsi Conll-X."]}, {"en": ["We train randomly Initialized word Embeddings of size 500 for the dialog model and use 300 Dimentional glove Embeddings for Reranking classifiers.", "We also use glove vectors to Initialize the word Embedding matrix in the Caption Embedding Module."], "ms": ["Kami melatih Embedding perkataan yang diawalkan secara rawak saiz 500 untuk model dialog dan menggunakan 300 Embedding sarung tangan Dimentional untuk pengelas Reranking.", "Kami juga menggunakan vektor sarung tangan untuk Memulakan perkataan Embedding matrix dalam Modul Embedding Caption."]}, {"en": ["We use Liblinear logistic regression Module to classify Document-Level Embeddings.", "We use Liblinear with L2 Regularization and default parameters to learn a model."], "ms": ["Kami menggunakan Modul regresi logistik Liblinear untuk mengklasifikasikan Embedding Tahap Dokumen.", "Kami menggunakan Liblinear dengan L2 Regularization dan parameter lalai untuk mempelajari model."]}, {"en": ["We report BLEU and Ter evaluation scores.", "We evaluate our system using BLEU and Ter."], "ms": ["Kami melaporkan skor penilaian BLEU dan Ter.", "Kami menilai sistem kami menggunakan BLEU dan Ter."]}, {"en": ["We trained a 5-Gram language model on the Xinhua portion of Gigaword corpus using the Srilm Toolkit.", "We trained a Trigram language model on the Chinese side, with the Srilm Toolkit, using the modified Kneser-Ney smoothing option."], "ms": ["Kami melatih model bahasa 5-Gram di bahagian Xinhua Gigaword corpus menggunakan Srilm Toolkit.", "Kami melatih model bahasa Trigram di sisi Cina, dengan Srilm Toolkit, menggunakan pilihan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Peng et al achieved better results by using a conditional random field model.", "Yu and Chen proposed to use conditional random field to detect Chinese word ordering errors."], "ms": ["Peng et al mencapai hasil yang lebih baik dengan menggunakan model medan rawak bersyarat.", "Yu dan Chen mencadangkan untuk menggunakan medan rawak bersyarat untuk mengesan kesilapan pesanan perkataan Cina."]}, {"en": ["The Smt system is implemented using Moses and the Nmt system is built using the Fairseq Toolkit.", "It is a standard Phrasebased Smt system built using the Moses Toolkit."], "ms": ["Sistem Smt dilaksanakan menggunakan Musa dan sistem Nmt dibina menggunakan Toolkit Fairseq.", "Ia merupakan sistem Smt berasaskan Phrase standard yang dibina menggunakan Musa Toolkit."]}, {"en": ["After standard Preprocessing of the data, we train a 3-Gram language model using Kenlm.", "For building our statistical ape system, we used maximum phrase length of 7 and a 5-Gram language model trained using Kenlm."], "ms": ["Selepas pemprosesan data standard, kami melatih model bahasa 3-Gram menggunakan Kenlm.", "Untuk membina sistem kera statistik kami, kami menggunakan panjang frasa maksimum 7 dan model bahasa 5-Gram yang dilatih menggunakan Kenlm."]}, {"en": ["We model the Generative architecture with a recurrent language model based on a recurrent neural network.", "We train a recurrent neural network language model on a large collection of Tweets."], "ms": ["Kami memodelkan seni bina Generatif dengan model bahasa berulang berdasarkan rangkaian saraf berulang.", "Kami melatih model bahasa rangkaian saraf berulang pada koleksi Tweet yang besar."]}, {"en": ["The language model was a Kneser-Ney interpolated Trigram model generated using the Srilm Toolkit.", "A 4-Gram language model was trained on the Monolingual data by the Srilm Toolkit."], "ms": ["Model bahasa adalah model Trigram interpolasi Kneser-Ney yang dihasilkan menggunakan Srilm Toolkit.", "Model bahasa 4-Gram dilatih pada data Monolingual oleh Srilm Toolkit."]}, {"en": ["Recently, Mikolov et al proposed novel model architectures to compute continuous vector representations of words obtained from very large data sets.", "More recently, Mikolov et al propose two Log-Linear models, namely the Skip-Gram and Cbow model, to efficiently induce word Embeddings."], "ms": ["Baru-baru ini, Mikolov et al mencadangkan seni bina model novel untuk mengira perwakilan vektor berterusan perkataan yang diperolehi daripada set data yang sangat besar.", "Baru-baru ini, Mikolov et al mencadangkan dua model Log-Linear, iaitu model Skip-Gram dan Cbow, untuk mendorong Embedding perkataan dengan cekap."]}, {"en": ["Continuous representation of words and phrases are proven effective in many Nlp tasks.", "Word Embeddings are critical for high-performance neural networks in Nlp tasks."], "ms": ["Perwakilan berterusan kata-kata dan frasa terbukti berkesan dalam banyak tugas Nlp.", "Embedding Word sangat penting untuk rangkaian neural berprestasi tinggi dalam tugas Nlp."]}, {"en": ["We use the aligned English and German sentences in Europarl for our experiments.", "We extract our paraphrase grammar from the French-English portion of the Europarl corpus."], "ms": ["Kami menggunakan ayat bahasa Inggeris dan Jerman yang sejajar di Europarl untuk eksperimen kami.", "Kami mengekstrak tatabahasa parafrasa kami dari bahagian Perancis-Inggeris korpus Europarl."]}, {"en": ["Part-Of-Speech tagging is the Act of assigning each word in a sentence a tag that describes how that word is used in the sentence.", "Part-Of-Speech tagging is a crucial preliminary process in many natural language processing applications."], "ms": ["Penandaan Part-Of-Speech adalah Akta menetapkan setiap perkataan dalam ayat tag yang menerangkan bagaimana perkataan itu digunakan dalam ayat.", "Penandaan Part-Of-Speech adalah proses awal yang penting dalam banyak aplikasi pemprosesan bahasa semula jadi."]}, {"en": ["We are also interested in using long short-term memory neural networks to better model the locality of propagated information from the stack and Queue.", "In this paper, we propose the use of Autoencoders based on long short term memory neural networks for capturing long distance relationships between phonemes in a word."], "ms": ["Kami juga berminat untuk menggunakan rangkaian saraf ingatan jangka pendek yang panjang untuk memodelkan lebih baik lokaliti maklumat yang disebarkan dari timbunan dan Queue.", "Dalam makalah ini, kami mencadangkan penggunaan Autoencoders berdasarkan rangkaian saraf ingatan jangka pendek yang panjang untuk menangkap hubungan jarak jauh antara fonem dalam satu perkataan."]}, {"en": ["The Skip-Gram model is a very popular technique for learning Embeddings that scales to huge Corpora and can capture important semantic and syntactic properties of words.", "The Skip-Gram model adopts a neural network structure to derive the distributed representation of words from textual corpus."], "ms": ["Model Skip-Gram adalah teknik yang sangat popular untuk pembelajaran Embeddings yang berskala besar Corpora dan dapat menangkap sifat semantik dan sintaksis penting kata-kata.", "Model Skip-Gram menggunakan struktur rangkaian saraf untuk memperoleh perwakilan perkataan yang diedarkan dari korpus teks."]}, {"en": ["We evaluate the translation quality using the Case-Sensitive Bleu-4 metric.", "We evaluate our models using the standard BLEU metric 2 on the Detokenized translations of the test set."], "ms": ["Kami menilai kualiti terjemahan menggunakan metrik Case-Sensitive Bleu-4.", "Kami menilai model kami menggunakan metrik BLEU standard 2 pada terjemahan Detokenized set ujian."]}, {"en": ["We work with the Phrase-Based Smt framework as the baseline system.", "We implement our approach in the framework of Phrase-Based statistical machine translation."], "ms": ["Kami bekerjasama dengan kerangka Smt Berasaskan Frasa sebagai sistem asas.", "Kami melaksanakan pendekatan kami dalam rangka terjemahan mesin statistik berasaskan frasa."]}, {"en": ["For the semantic language model, we used the Srilm package and trained a Tri-Gram language model with the default Goodturing smoothing.", "We used Kenlm with Srilm to train a 5-Gram language model based on all available target language training data."], "ms": ["Untuk model bahasa semantik, kami menggunakan pakej Srilm dan melatih model bahasa Tri-Gram dengan smoothing Goodturing lalai.", "Kami menggunakan Kenlm dengan Srilm untuk melatih model bahasa 5-Gram berdasarkan semua data latihan bahasa sasaran yang ada."]}, {"en": ["Transliteration is a key building block for Multilingual and Cross-Lingual Nlp since it is useful for User-Friendly input methods and applications like machine translation and Cross-Lingual information Retrieval.", "Transliteration is a key building block for Multilingual and Cross-Lingual Nlp since it is essential for (I) handling of names in applications like machine translation (mt) and Cross-Lingual information Retrieval (Clir), and (II) User-Friendly input methods."], "ms": ["Transliterasi adalah blok bangunan utama untuk Multilingual dan Cross-Lingual Nlp kerana ia berguna untuk kaedah dan aplikasi input Pengguna-Friendly seperti terjemahan mesin dan Retrieval maklumat Cross-Lingual.", "Transliterasi adalah blok bangunan utama untuk Multilingual dan Cross-Lingual Nlp kerana ia adalah penting untuk (I) pengendalian nama dalam aplikasi seperti terjemahan mesin (mt) dan Retrieval maklumat Cross-Lingual (Clir), dan (II) Kaedah input Pengguna-Perniagaan."]}, {"en": ["Recently, Le and Mikolov exploit neural networks to learn continuous document representation from data.", "Le and Mikolov extends the neural network of word Embedding to learn the document Embedding."], "ms": ["Baru-baru ini, Le dan Mikolov mengeksploitasi rangkaian saraf untuk mempelajari perwakilan dokumen berterusan dari data.", "Le dan Mikolov memperluaskan rangkaian saraf Embedding perkataan untuk mempelajari Embedding dokumen."]}, {"en": ["Named entity recognition (NER) is the process by which named entities are identified and classified in an Open-Domain text.", "Named entity recognition (NER) is the task of detecting named entity mentions in text and assigning them to their corresponding type."], "ms": ["Pengecaman entiti bernama (NER) adalah proses di mana entiti bernama dikenal pasti dan dikelaskan dalam teks Open-Domain.", "Pengecaman entiti dinamakan (NER) adalah tugas mengesan sebutan entiti yang dinamakan dalam teks dan menugaskannya kepada jenis yang sepadan."]}, {"en": ["The data SETS used are taken from the Conll-X shared task on Multilingual dependency Parsing.", "We used the Dataset from the Conll shared task for Cross-Lingual dependency Parsing."], "ms": ["Data SETS yang digunakan diambil dari tugas dikongsi Conll-X pada Penghuraian dependensi Multilingual.", "Kami menggunakan Dataset dari tugas dikongsi Conll untuk Penghuraian dependensi Cross-Lingual."]}, {"en": ["To see whether an improvement is statistically significant, we also conduct significance tests using the paired Bootstrap approach.", "We apply statistical significance tests using the paired Bootstrapped Resampling method."], "ms": ["Untuk melihat sama ada peningkatan adalah signifikan secara statistik, kami juga menjalankan ujian penting menggunakan pendekatan Bootstrap berpasangan.", "Kami menggunakan ujian kepentingan statistik menggunakan kaedah Bootstrapped Resampling berpasangan."]}, {"en": ["We used the malt Parser to obtain source English dependency trees and the Stanford Parser for Arabic.", "We used Maltparser to derive syntactic dependency relations in English."], "ms": ["Kami menggunakan Parser malt untuk mendapatkan pokok pergantungan bahasa Inggeris sumber dan Stanford Parser untuk bahasa Arab.", "Kami menggunakan Maltparser untuk memperoleh hubungan kebergantungan sintaktik dalam bahasa Inggeris."]}, {"en": ["Conditional random fields are Discriminatively-Trained Undirected graphical models that find the globally optimal labeling for a given configuration of random variables.", "Conditional random fields are Discriminative structured classification models for sequential tagging and Segmentation."], "ms": ["Medan rawak bersyarat adalah model grafik Tidak Tertib Tertib yang mendapati pelabelan optimum global untuk konfigurasi pemboleh ubah rawak yang diberikan.", "Medan rawak bersyarat adalah model klasifikasi berstruktur Discriminatif untuk penandaan berurutan dan Segmentasi."]}, {"en": ["We use our reordering model for N-Best Re-Ranking and optimize BLEU using minimum error rate training.", "We set the feature weights by optimizing the BLEU score directly using minimum error rate training on the development set."], "ms": ["Kami menggunakan model penyusunan semula kami untuk N-Best Re-Ranking dan mengoptimumkan BLEU menggunakan latihan kadar ralat minimum.", "Kami menetapkan berat ciri dengan mengoptimumkan skor BLEU secara langsung menggunakan latihan kadar ralat minimum pada set pembangunan."]}, {"en": ["Named entity recognition (NER) is the process by which named entities are identified and classified in an Open-Domain text.", "Named entity recognition (NER) is the task of identifying and classifying phrases that denote certain types of named entities (NES), such as persons, organizations and locations in news articles, and genes, proteins and chemicals in BIOMEDICAL literature."], "ms": ["Pengecaman entiti bernama (NER) adalah proses di mana entiti bernama dikenal pasti dan dikelaskan dalam teks Open-Domain.", "Pengiktirafan entiti dinamakan (NER) adalah tugas mengenal pasti dan mengklasifikasikan frasa yang menunjukkan jenis entiti bernama tertentu (NES), seperti orang, organisasi dan lokasi dalam artikel berita, dan gen, protein dan bahan kimia dalam kesusasteraan BIOMEDICAL."]}, {"en": ["An early attempt can be found in Nepveu et al, where dynamic adaptation of an Imt system via Cache-Based model extensions to language and translation models is proposed.", "In order to deal with the evolutionary nature of the problem, Nepveu et al propose an Imt system with dynamic adaptation via Cache-Based model extensions for language and translation models."], "ms": ["Percubaan awal boleh didapati di Nepveu et al, di mana penyesuaian dinamik sistem Imt melalui sambungan model berasaskan Cache ke model bahasa dan terjemahan dicadangkan.", "Untuk menangani sifat evolusi masalah, Nepveu et al mencadangkan sistem Imt dengan penyesuaian dinamik melalui sambungan model berasaskan Cache untuk model bahasa dan terjemahan."]}, {"en": ["For the semantic language model, we used the Srilm package and trained a Tri-Gram language model with the default Goodturing smoothing.", "We built a 5-Gram language model on the English side of Europarl and used the Kneser-Ney smoothing method and Srilm as the language model Toolkit."], "ms": ["Untuk model bahasa semantik, kami menggunakan pakej Srilm dan melatih model bahasa Tri-Gram dengan smoothing Goodturing lalai.", "Kami membina model bahasa 5-Gram di sisi bahasa Inggeris Europarl dan menggunakan kaedah smoothing Kneser-Ney dan Srilm sebagai model bahasa Toolkit."]}, {"en": ["Luong et al , 2013) utilized recursive neural networks in which inputs are Morphemes of words.", "Luong et al created a Hierarchical language model that uses Rnn to combine Morphemes of a word to obtain a word representation."], "ms": ["Luong et al, 2013) menggunakan rangkaian saraf rekursif di mana input adalah Morphemes perkataan.", "Luong et al mencipta model bahasa Hierarki yang menggunakan Rnn untuk menggabungkan Morphemes sesebuah perkataan untuk mendapatkan perwakilan perkataan."]}, {"en": ["Specifically, we adopt Linear-Chain conditional random fields as the method for sequence labeling.", "We cast the problem of event property extraction as a sequence labeling task, using conditional random fields for learning and inference."], "ms": ["Khususnya, kami menggunakan medan rawak bersyarat Linear-Chain sebagai kaedah untuk pelabelan urutan.", "Kami membuang masalah pengekstrakan harta peristiwa sebagai tugas pelabelan urutan, menggunakan medan rawak bersyarat untuk pembelajaran dan kesimpulan."]}, {"en": ["Word sense Disambiguation (Wsd) is a key enabling technology that automatically chooses the intended sense of a word in context.", "Word sense Disambiguation (Wsd) is the task to identify the intended sense of a word in a computational manner based on the context in which it appears (Cite-P-13-3-4)."], "ms": ["Disambiguation Word Sense Disambiguation (Wsd) adalah teknologi yang membolehkan secara automatik memilih rasa yang dimaksudkan perkataan dalam konteks.", "Disambiguasi erti kata (Wsd) adalah tugas untuk mengenal pasti pengertian perkataan yang dimaksudkan dengan cara pengiraan berdasarkan konteks di mana ia muncul (Cite-P-13-3-4)."]}, {"en": ["Relation extraction (re) is the process of generating structured relation knowledge from unstructured natural language texts.", "Relation extraction is a traditional information extraction task which aims at detecting and classifying semantic relations between entities in text (Cite-P-10-1-18)."], "ms": ["Pengekstrakan hubungan (re) adalah proses menghasilkan pengetahuan hubungan berstruktur dari teks bahasa semula jadi yang tidak berstruktur.", "Pengekstrakan hubungan adalah tugas pengekstrakan maklumat tradisional yang bertujuan untuk mengesan dan mengklasifikasikan hubungan semantik antara entiti dalam teks (Cite-P-10-1-18)."]}, {"en": ["We use the glove word vector representations of dimension 300.", "We use Pre-Trained glove vector for Initialization of word Embeddings."], "ms": ["Kami menggunakan perkataan sarung tangan perwakilan vektor dimensi 300.", "Kami menggunakan vektor sarung tangan pra-latihan untuk Permulaan Embedding perkataan."]}, {"en": ["Word sense Disambiguation (Wsd) is a key Enabling-Technology that automatically chooses the intended sense of a word in context.", "The process of identifying the correct meaning, or sense of a word in context, is known as word sense Disambiguation (Wsd)."], "ms": ["Disambiguation Word Sense Disambiguation (Wsd) ialah kunci Enabling-Technology yang secara automatik memilih pengertian perkataan yang dimaksudkan dalam konteks.", "Proses mengenal pasti makna yang betul, atau rasa perkataan dalam konteks, dikenali sebagai kata rasa Disambiguation (Wsd)."]}, {"en": ["Existing works are based on two basic models, Plsa and Lda.", "Most existing works are based on Variants and extensions of Lda."], "ms": ["Karya sedia ada adalah berdasarkan dua model asas, Plsa dan Lda.", "Kebanyakan karya sedia ada adalah berdasarkan Variants dan sambungan Lda."]}, {"en": ["Relation extraction (re) is the task of identifying instances of relations, such as nationality (person, country) or place of birth (person, location), in passages of natural text.", "Relation extraction is the task of finding relational facts in unstructured text and putting them into a structured (Tabularized) knowledge base."], "ms": ["Pengekstrakan hubungan (re) adalah tugas mengenal pasti contoh hubungan, seperti kewarganegaraan (orang, negara) atau tempat kelahiran (orang, lokasi), dalam petikan teks semula jadi.", "Pengekstrakan hubungan adalah tugas mencari fakta hubungan dalam teks yang tidak berstruktur dan memasukkannya ke dalam pangkalan pengetahuan berstruktur (Tabularized)."]}, {"en": ["We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "For the language model we use the corpus of 60,000 simple English Wikipedia articles 3 and build a 3-Gram language model with Kneser-Ney smoothing trained with Srilm."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Untuk model bahasa, kami menggunakan korpus 60,000 artikel Wikipedia Bahasa Inggeris mudah 3 dan membina model bahasa 3-Gram dengan smoothing Kneser-Ney dilatih dengan Srilm."]}, {"en": ["As described by Joshi, Bhattacharyya, and Carman, irony modeling approaches can roughly be classified into Rule-Based and machine learning methods.", "As described by Joshi et al, recent approaches to irony can roughly be classified as either Rule-Based or machine Learning-Based."], "ms": ["Seperti yang dijelaskan oleh Joshi, Bhattacharyya, dan Carman, pendekatan pemodelan ironi secara kasar boleh dikelaskan kepada kaedah berasaskan peraturan dan pembelajaran mesin.", "Seperti yang dijelaskan oleh Joshi et al, pendekatan baru-baru ini untuk ironi boleh diklasifikasikan sebagai sama ada berasaskan peraturan atau berasaskan pembelajaran mesin."]}, {"en": ["For the Word-Embedding based Classifier, we use the glove Pre-Trained word Embeddings.", "Meanwhile, we adopt glove Pre-Trained word Embeddings 5 to Initialize the representation of input tokens."], "ms": ["Untuk Klasifier berasaskan Word-Embedding, kami menggunakan Embedding perkataan Pra-Trained sarung tangan.", "Sementara itu, kami menggunakan sarung tangan Embeddings perkataan Pra-Latih 5 untuk Memulakan perwakilan token input."]}, {"en": ["Sentiment analysis is the process of identifying and extracting subjective information using natural language processing (Nlp).", "Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-1-14) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B)."], "ms": ["Analisis kepekaan adalah proses mengenal pasti dan mengekstrak maklumat subjektif menggunakan pemprosesan bahasa semula jadi (Nlp).", "Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-1-14) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B)."]}, {"en": ["We learn our word Embeddings by using Word2Vec 3 on Unlabeled review data.", "To quantify it, we train a Word2Vec model on a Mid-2011 copy of English Wikipedia."], "ms": ["Kami mempelajari perkataan Embeddings kami dengan menggunakan Word2Vec 3 pada data ulasan yang tidak berlabel.", "Untuk mengukurnya, kami melatih model Word2Vec pada salinan Bahasa Inggeris pertengahan 2011."]}, {"en": ["We used Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting ,.", "We used Trigram language models with interpolated Kneser-Kney discounting trained using the Sri language modeling Toolkit."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai interpolated.", "Kami menggunakan model bahasa Trigram dengan diskaun Kneser-Kney yang diinterpolasi dilatih menggunakan Toolkit pemodelan bahasa Sri."]}, {"en": ["If the Anaphor is a definite noun phrase and the referent is in focus (I.E . in the cache), Anaphora resolution will be hindered.", "If the Anaphor is a pronoun, the cache is searched for a plausible referent."], "ms": ["Jika Anafora adalah frasa kata nama yang pasti dan rujukan adalah dalam tumpuan (I.E. dalam cache), resolusi Anaphora akan dihalang.", "Jika Anaphor adalah kata ganti, cache dicari untuk rujukan yang munasabah."]}, {"en": ["For improving the word alignment, we use the Word-Classes that are trained from a Monolingual corpus using the Srilm Toolkit.", "Further, we apply a 4-Gram language model trained with the Srilm Toolkit on the target side of the training corpus."], "ms": ["Untuk meningkatkan penjajaran perkataan, kami menggunakan Word-Classes yang dilatih dari korpus Monolingual menggunakan Srilm Toolkit.", "Selanjutnya, kami menerapkan model bahasa 4-Gram yang dilatih dengan Srilm Toolkit di sisi target korpus pelatihan."]}, {"en": ["Morfessor 2.0 is a rewrite of the original, Widely-Used Morfessor 1.0 software, with well documented Command-Line tools and library interface.", "Morfessor 2.0 is a new implementation of the Morfessor baseline algorithm."], "ms": ["Morfessor 2.0 adalah penulisan semula perisian Morfessor 1.0 yang asli, Widely-Used, dengan alat Command-Line yang didokumentasikan dengan baik dan antara muka perpustakaan.", "Morfessor 2.0 adalah pelaksanaan baru algoritma asas Morfessor."]}, {"en": ["We trained a 4-Gram language model on this data with Kneser-Ney discounting using Srilm.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Kami melatih model bahasa 4-Gram pada data ini dengan diskaun Kneser-Ney menggunakan Srilm.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Coreference resolution is a field in which major progress has been made in the last decade.", "Coreference resolution is the task of determining whether two or more noun phrases refer to the same entity in a text."], "ms": ["Resolusi spatial adalah bidang di mana kemajuan besar telah dibuat dalam dekad yang lalu.", "Resolusi spatial adalah tugas menentukan sama ada dua atau lebih frasa kata nama merujuk kepada entiti yang sama dalam teks."]}, {"en": ["We trained Kneser-Ney discounted 5-Gram language models on each available corpus using the Srilm Toolkit.", "We use Srilm to train a 5-Gram language model on the target side of our training corpus with modified Kneser-Ney discounting."], "ms": ["Kami melatih model bahasa 5-Gram Kneser-Ney didiskaun pada setiap korpus yang tersedia menggunakan Srilm Toolkit.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di sisi sasaran korpus latihan kami dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Dependency Parsing is a crucial component of many natural language processing (Nlp) systems for tasks such as relation extraction (Cite-P-15-1-5), statistical machine translation (Cite-P-15-5-7), text classification (O? Zgu? R and Gu? Ngo? R , 2010), and question answering (Cite-P-15-3-0).", "Dependency Parsing is the task of building dependency links between words in a sentence, which has recently gained a wide interest in the natural language processing community and has been used for many problems ranging from machine translation (Cite-P-12-1-4) to question answering (Zhou et al . , 2011A)."], "ms": ["Penghuraian Dependensi adalah komponen penting dalam banyak sistem pemprosesan bahasa semula jadi (Nlp) untuk tugas seperti pengekstrakan hubungan (Cite-P-15-1-5), terjemahan mesin statistik (Cite-P-15-5-7), pengelasan teks (O? Zgu? R dan Gu? Ngo? R, 2010), dan jawapan soalan (Cite-P-15-3-0).", "Penghuraian kebergantungan adalah tugas membina hubungan kebergantungan antara perkataan dalam ayat, yang baru-baru ini mendapat minat yang luas dalam komuniti pemprosesan bahasa semula jadi dan telah digunakan untuk banyak masalah mulai dari terjemahan mesin (Cite-P-12-1-4) hingga menjawab soalan (Zhou et al., 2011A)."]}, {"en": ["Huang et al further extended this context clustering method and incorporated global context to learn Multi-Prototype representation vectors.", "Huang et al , 2012) used the Multi-Prototype models to learn the vector for different senses of a word."], "ms": ["Huang et al melanjutkan lagi kaedah pengelompokan konteks ini dan menggabungkan konteks global untuk mempelajari vektor perwakilan Multi-Prototaip.", "Huang et al, 2012) menggunakan model Multi-Prototaip untuk mempelajari vektor untuk deria perkataan yang berbeza."]}, {"en": ["Zeng et al proposed an approach for relation classification where Sentence-Level features are learned through a CNN, which has word Embedding and position features as its input.", "Zeng et al exploit a Convolutional neural network to extract lexical and sentence level features for relation classification."], "ms": ["Zeng et al mencadangkan pendekatan untuk pengelasan hubungan di mana ciri-ciri Sentence-Level dipelajari melalui CNN, yang mempunyai ciri Embedding perkataan dan kedudukan sebagai inputnya.", "Zeng et al mengeksploitasi rangkaian saraf Konvolutional untuk mengekstrak ciri-ciri tahap leksikal dan ayat untuk pengelasan hubungan."]}, {"en": ["Distant supervision as a learning paradigm was introduced by Mintz et al for relation extraction in general domain.", "Mintz et al proposed a distant supervision approach for relation extraction using a Richfeatured logistic regression model."], "ms": ["Pengawasan jauh sebagai paradigma pembelajaran diperkenalkan oleh Mintz et al untuk pengekstrakan hubungan dalam domain umum.", "Mintz et al mencadangkan pendekatan pengawasan jauh untuk pengekstrakan hubungan menggunakan model regresi logistik Richfeatured."]}, {"en": ["The language model is a 5-Gram with interpolation and Kneserney smoothing.", "All models used interpolated modified Kneser-Ney smoothing."], "ms": ["Model bahasa adalah 5-Gram dengan interpolasi dan smoothing Kneserney.", "Semua model menggunakan smoothing Kneser-Ney yang diubahsuai interpolated."]}, {"en": ["We use the Pre-Trained 300-Dimensional Word2Vec Embeddings trained on Google news 1 as input features.", "Since our Dataset is not so large, we make use of Pre-Trained word Embeddings, which are trained on a much larger corpus with Word2Vec Toolkit."], "ms": ["Kami menggunakan Embedding Word2Vec 300-Dimensional Pra-Latih yang dilatih pada Google News 1 sebagai ciri input.", "Oleh kerana Dataset kami tidak begitu besar, kami menggunakan Embedding kata Pra-Latihan, yang dilatih pada korpus yang jauh lebih besar dengan Word2Vec Toolkit."]}, {"en": ["Our word Embeddings is Initialized with 100-Dimensional glove word Embeddings.", "Unlike dong et al, we Initialize our word Embeddings using a Concatenation of the glove and Cove Embeddings."], "ms": ["Perkataan Embeddings kami Dimulakan dengan perkataan sarung tangan 100-Dimensional Embeddings.", "Tidak seperti dong et al, kami Memulakan perkataan Embeddings kami menggunakan Concatenation sarung tangan dan Embeddings Cove."]}, {"en": ["We use conditional random fields for sequence labelling.", "We use conditional random field sequence labeling as described in."], "ms": ["Kami menggunakan medan rawak bersyarat untuk pelabelan jujukan.", "Kami menggunakan pelabelan jujukan medan rawak bersyarat seperti yang dijelaskan dalam."]}, {"en": ["Coreference resolution is a task aimed at identifying phrases (mentions) referring to the same entity.", "Coreference resolution is the process of determining whether two expressions in natural language refer to the same entity in the world."], "ms": ["Resolusi spatial adalah tugas yang bertujuan untuk mengenal pasti frasa (mention) yang merujuk kepada entiti yang sama.", "Resolusi spatial adalah proses menentukan sama ada dua ungkapan dalam bahasa semula jadi merujuk kepada entiti yang sama di dunia."]}, {"en": ["For the Actioneffect Embedding model, we use Pre-Trained glove word Embeddings as input to the Lstm.", "Meanwhile, we adopt glove Pre-Trained word Embeddings 5 to Initialize the representation of input tokens."], "ms": ["Untuk model Embedding Kesan Tindakan, kami menggunakan Embedding perkataan sarung tangan Pra-Latih sebagai input ke Lstm.", "Sementara itu, kami menggunakan sarung tangan Embeddings perkataan Pra-Latih 5 untuk Memulakan perwakilan token input."]}, {"en": ["As a Classifier, we choose a first-order conditional random field model.", "To exploit these kind of labeling constraints, we resort to conditional random fields."], "ms": ["Sebagai Pengelas, kami memilih model medan rawak bersyarat pesanan pertama.", "Untuk mengeksploitasi kekangan pelabelan seperti ini, kami menggunakan medan rawak bersyarat."]}, {"en": ["We build a 9-Gram LM using Srilm Toolkit with modified Kneser-Ney smoothing.", "We use Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting."], "ms": ["Kami membina LM 9-Gram menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Relation extraction is a fundamental task in information extraction.", "Relation extraction is the task of finding relations between entities in text, which is useful for several tasks such as information extraction, summarization, and question answering (Cite-P-14-3-7)."], "ms": ["Pengekstrakan hubungan adalah tugas asas dalam pengekstrakan maklumat.", "Pengekstrakan hubungan adalah tugas mencari hubungan antara entiti dalam teks, yang berguna untuk beberapa tugas seperti pengekstrakan maklumat, ringkasan, dan jawapan soalan (Cite-P-14-3-7)."]}, {"en": ["For the classification task, we use Pre-Trained glove Embedding vectors as lexical features.", "We use the glove algorithm to obtain 300-Dimensional word Embeddings from a Union of these Corpora."], "ms": ["Untuk tugas pengelasan, kami menggunakan vektor Embedding sarung tangan Pra-Latih sebagai ciri leksikal.", "Kami menggunakan algoritma sarung tangan untuk mendapatkan Embedding perkataan 300-Dimensional dari Kesatuan Corpora ini."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit.", "We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit.", "Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Due to their ability to capture syntactic and semantic information of words from large scale Unlabeled texts, we Pre-Train the word Embeddings from the given training Dataset by Word2Vec Toolkit.", "For Word-Level Embeddings, we Pre-Train the word vectors using Word2Vec on the Gigaword corpus mentioned in section 4, and the text of the training Dataset."], "ms": ["Oleh kerana keupayaan mereka untuk menangkap maklumat sintaktik dan semantik perkataan dari teks Unlabeled skala besar, kami Pra-Latih perkataan Embeddings dari Dataset latihan yang diberikan oleh Word2Vec Toolkit.", "Untuk Embedding Tahap Word, kami Pra-Latih vektor perkataan menggunakan Word2Vec pada korpus Gigaword yang disebutkan dalam bahagian 4, dan teks Dataset latihan."]}, {"en": ["Coreference resolution is the task of partitioning a set of entity mentions in a text, where each partition corresponds to some entity in an underlying discourse model.", "Coreference resolution is the task of determining which mentions in a text are used to refer to the same Real-World entity."], "ms": ["Resolusi spatial adalah tugas pembahagian satu set sebutan entiti dalam teks, di mana setiap partition sepadan dengan beberapa entiti dalam model wacana yang mendasari.", "Resolusi spatial adalah tugas menentukan sebutan mana dalam teks yang digunakan untuk merujuk kepada entiti Dunia Nyata yang sama."]}, {"en": ["Cite-P-20-1-16 extended the above model to handle other types of Non-Standard words.", "Cite-P-20-1-5 extended work by adding several more subsystems in this error model."], "ms": ["Cite-P-20-1-16 memanjangkan model di atas untuk mengendalikan jenis perkataan Non-Standard yang lain.", "Cite-P-20-1-5 melanjutkan kerja dengan menambah beberapa subsistem lagi dalam model ralat ini."]}, {"en": ["Coreference resolution is the task of clustering referring expressions in a text so that each resulting cluster represents an entity.", "Coreference resolution is a fundamental component of natural language processing (Nlp) and has been widely applied in other Nlp tasks (Cite-P-15-3-9)."], "ms": ["Resolusi spatial adalah tugas pengelompokan merujuk ungkapan dalam teks supaya setiap kluster yang terhasil mewakili entiti.", "Resolusi spatial adalah komponen asas pemprosesan bahasa semula jadi (Nlp) dan telah digunakan secara meluas dalam tugas Nlp lain (Cite-P-15-3-9)."]}, {"en": ["Table 4 shows the BLEU scores of the output descriptions.", "Table 1 shows the translation performance by BLEU."], "ms": ["Jadual 4 menunjukkan skor BLEU bagi keterangan output.", "Jadual 1 menunjukkan prestasi terjemahan oleh BLEU."]}, {"en": ["In our experiments, we choose to use the published glove Pre-Trained word Embeddings.", "For the sick and Msrvid experiments, we used 300-Dimension glove word Embeddings."], "ms": ["Dalam eksperimen kami, kami memilih untuk menggunakan sarung tangan yang diterbitkan Embedding perkataan Pra-Latih.", "Untuk eksperimen yang sakit dan Msrvid, kami menggunakan perkataan sarung tangan 300 Dimensi Embeddings."]}, {"en": ["Tai et al, and Le and Zuidema extended sequential Lstms to Tree-Structured Lstms by adding branching factors.", "Tai et al and Zhu et al extended sequential Lstms to Tree-Structured Lstms by adding branching factors."], "ms": ["Tai et al, dan Le dan Zuidema memanjangkan Lstm berurutan ke Lstms Tree-Structured dengan menambah faktor bercabang.", "Tai et al dan Zhu et al memanjangkan Lstm berurutan ke Lstms Tree-Structured dengan menambah faktor bercabang."]}, {"en": ["Marcu and Wong proposed a Phrase-Based Context-Free joint probability model for lexical mapping.", "A joint probability model for phrase translation was proposed by Marcu and Wong."], "ms": ["Marcu dan Wong mencadangkan model kebarangkalian bersama Berasaskan Konteks Bebas Frasa untuk pemetaan leksikal.", "Model kebarangkalian bersama untuk terjemahan frasa dicadangkan oleh Marcu dan Wong."]}, {"en": ["We use the Rouge 1 to evaluate our framework, which has been widely applied for summarization evaluation.", "Following the current practice in evaluating summarization, particularly Duc 3, we use the Rouge evaluation package."], "ms": ["Kami menggunakan Rouge 1 untuk menilai rangka kerja kami, yang telah digunakan secara meluas untuk penilaian ringkasan.", "Berikutan amalan semasa dalam menilai ringkasan, terutamanya Duc 3, kami menggunakan pakej penilaian Rouge."]}, {"en": ["Coreference resolution is a complex problem, and successful systems must tackle a variety of Non-Trivial Subproblems that are central to the Coreference task \u2014 E.G ., Mention/Markable detection, Anaphor identification \u2014 and that require substantial implementation efforts.", "Coreference resolution is the task of determining which mentions in a text refer to the same entity."], "ms": ["Resolusi Coreference adalah masalah yang kompleks, dan sistem yang berjaya mesti menangani pelbagai Submasalah Bukan Trivial yang menjadi pusat tugas Coreference - E.G., pengesanan Mention / Markable, pengenalan Anaphor - dan yang memerlukan usaha pelaksanaan yang besar.", "Resolusi spatial adalah tugas menentukan sebutan mana dalam teks merujuk kepada entiti yang sama."]}, {"en": ["Coreference resolution is the process of linking multiple mentions that refer to the same entity.", "Coreference resolution is the process of linking together multiple referring expressions of a given entity in the world."], "ms": ["Resolusi spatial adalah proses menghubungkan pelbagai sebutan yang merujuk kepada entiti yang sama.", "Resolusi spatial adalah proses menghubungkan pelbagai ungkapan merujuk entiti tertentu di dunia."]}, {"en": ["We utilize the Google news Dataset created by Mikolov et al, which consists of 300-Dimensional vectors for 3 million words and phrases.", "We Pretrain word vectors with the Word2Vec tool on the news Dataset released by Ding et al, which are Fine-Tuned during training."], "ms": ["Kami menggunakan Dataset berita Google yang dicipta oleh Mikolov et al, yang terdiri daripada vektor 300-Dimensional untuk 3 juta perkataan dan frasa.", "Kami Pretrain vektor perkataan dengan alat Word2Vec pada Dataset berita yang dikeluarkan oleh Ding et al, yang Fine-Tuned semasa latihan."]}, {"en": ["Specifically, we adopt Linear-Chain conditional random fields as the method for sequence labeling.", "To this end, we use First-And second-order conditional random fields."], "ms": ["Khususnya, kami menggunakan medan rawak bersyarat Linear-Chain sebagai kaedah untuk pelabelan urutan.", "Untuk tujuan ini, kami menggunakan medan rawak bersyarat pertama dan kedua."]}, {"en": ["A sentiment lexicon is a list of words and phrases, such as excellent, awful and not bad, each is being assigned with a positive or negative score reflecting its sentiment polarity.", "A sentiment lexicon is a list of words and phrases, such as \u201c excellent \u201d, \u201c awful \u201d and \u201c not bad \u201d, each of them is assigned with a positive or negative score reflecting its sentiment polarity and strength (Cite-P-18-3-8)."], "ms": ["Leksikon sentimen adalah senarai perkataan dan frasa, seperti cemerlang, mengerikan dan tidak buruk, masing-masing ditugaskan dengan skor positif atau negatif yang mencerminkan polariti sentimennya.", "Leksikon sentimen adalah senarai perkataan dan frasa, seperti sangat baik, mengerikan dan tidak buruk, masing-masing diberikan skor positif atau negatif yang mencerminkan polariti dan kekuatan sentimennya (Cite-P-18-3-8)."]}, {"en": ["We trained a 4-Gram language model on the Xinhua portion of Gigaword corpus using the Sri language modeling Toolkit with modified Kneser-Ney smoothing.", "For this language model, we built a Trigram language model with Kneser-Ney smoothing using Srilm from the same automatically Segmented corpus."], "ms": ["Kami melatih model bahasa 4-Gram di bahagian Xinhua Gigaword corpus menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai.", "Untuk model bahasa ini, kami membina model bahasa Trigram dengan smoothing Kneser-Ney menggunakan Srilm dari korpus Segmen yang sama secara automatik."]}, {"en": ["Srilm Toolkit was used to create up to 5-Gram language models using the mentioned resources.", "A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit from Stolcke."], "ms": ["Srilm Toolkit digunakan untuk mencipta model bahasa 5-Gram menggunakan sumber yang disebutkan.", "Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit dari Stolcke."]}, {"en": ["Word sense Disambiguation (Wsd) is the task to identify the intended sense of a word in a computational manner based on the context in which it appears (Cite-P-13-3-4).", "Word sense Disambiguation (Wsd) is a task to identify the intended sense of a word based on its context."], "ms": ["Disambiguasi erti kata (Wsd) adalah tugas untuk mengenal pasti pengertian perkataan yang dimaksudkan dengan cara pengiraan berdasarkan konteks di mana ia muncul (Cite-P-13-3-4).", "Disambiguasi erti kata (Wsd) adalah tugas untuk mengenal pasti pengertian perkataan yang dimaksudkan berdasarkan konteksnya."]}, {"en": ["A 5-Gram language model with Kneser-Ney smoothing was trained with Srilm on Monolingual English data.", "A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit."], "ms": ["Model bahasa 5-Gram dengan smoothing Kneser-Ney dilatih dengan Srilm pada data Bahasa Inggeris Monolingual.", "Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit."]}, {"en": ["Qiu et al propose double propagation to expand opinion targets and opinion words lists in a Bootstrapping way.", "Qiu et al propose a double propagation method to extract opinion word and opinion target simultaneously."], "ms": ["Qiu et al mencadangkan penyebaran berganda untuk memperluaskan sasaran pendapat dan senarai kata pendapat dengan cara Bootstrapping.", "Qiu et al mencadangkan kaedah penyebaran berganda untuk mengekstrak kata pendapat dan sasaran pendapat secara serentak."]}, {"en": ["We used the Treetagger tool to extract Part-Of-Speech from each given text, then Tokenize and Lemmatize it.", "We Preprocessed all aligned translations by means of the Treetagger tool that outputs Part-Of-Speech and 55 Lemma information."], "ms": ["Kami menggunakan alat Treetagger untuk mengekstrak Bahagian-Daripada-Ucapan dari setiap teks yang diberikan, kemudian Tokenize dan Lemmatize.", "Kami memproses semua terjemahan yang diselaraskan melalui alat Treetagger yang mengeluarkan maklumat Bahagian-Daripada-Ucapan dan 55 Lemma."]}, {"en": ["We used the Phrase-Based Smt model, as implemented in the Moses Toolkit, to train an Smt system translating from English to Arabic.", "We use the Open-Source Moses Toolkit to build four Arabic-English Phrase-Based statistical machine translation systems."], "ms": ["Kami menggunakan model Smt Berasaskan Frasa, seperti yang dilaksanakan dalam Musa Toolkit, untuk melatih sistem Smt yang diterjemahkan dari bahasa Inggeris ke bahasa Arab.", "Kami menggunakan Open-Source Moses Toolkit untuk membina empat sistem terjemahan mesin statistik berasaskan frasa Arab-Inggeris."]}, {"en": ["We begin by building two word alignment models using the Berkeley Aligner, a state-of-the-art word alignment package that relies on IBM mixture models 1 and 2 and an Hmm.", "We begin by building two word alignment models using the Berkeley Aligner, a state-of-the-art word alignment package that relies on IBM models 1 and 2 and an Hmm."], "ms": ["Kami bermula dengan membina dua model penjajaran perkataan menggunakan Berkeley Aligner, pakej penjajaran perkataan canggih yang bergantung kepada model campuran IBM 1 dan 2 dan Hmm.", "Kami bermula dengan membina dua model penjajaran perkataan menggunakan Berkeley Aligner, pakej penjajaran perkataan canggih yang bergantung kepada model IBM 1 dan 2 dan Hmm."]}, {"en": ["Matsuo et al presented a graph Cluster-Ing algorithm for word clustering based on word similarity measures by web counts.", "More recently, Matsuo et al presented a method of word clustering based on web counts using a search engine."], "ms": ["Matsuo et al membentangkan algoritma Kluster-Ing graf untuk pengelompokan perkataan berdasarkan ukuran kesamaan perkataan mengikut kiraan web.", "Baru-baru ini, Matsuo et al membentangkan kaedah pengelompokan perkataan berdasarkan jumlah web menggunakan enjin carian."]}, {"en": ["Unsupervised word Embeddings trained from large amounts of Unlabeled data have been shown to improve many Nlp tasks.", "Pre-Trained word Embeddings were shown to boost the performance in various Nlp tasks and specifically in NER."], "ms": ["Embedding perkataan yang tidak diawasi yang dilatih dari sejumlah besar data Unlabeled telah ditunjukkan untuk meningkatkan banyak tugas Nlp.", "Embedding perkataan pra-latihan ditunjukkan untuk meningkatkan prestasi dalam pelbagai tugas Nlp dan khususnya dalam NER."]}, {"en": ["With English Gigaword corpus, we use the Skip-Gram model as implemented in Word2Vec 3 to induce Embeddings.", "To convert into a distributed representation here, a neural network for word Embedding learns via the Skip-Gram model."], "ms": ["Dengan Gigaword corpus bahasa Inggeris, kami menggunakan model Skip-Gram seperti yang dilaksanakan dalam Word2Vec 3 untuk mendorong Embeddings.", "Untuk menukar kepada perwakilan yang diedarkan di sini, rangkaian saraf untuk Embedding perkataan belajar melalui model Skip-Gram."]}, {"en": ["Translation performances are measured with Case-Insensitive Bleu4 score.", "The evaluation metric for the overall translation quality was Case-Insensitive Bleu4."], "ms": ["Persembahan terjemahan diukur dengan skor Case-Insensitive Bleu4.", "Metrik penilaian untuk kualiti terjemahan keseluruhan adalah Case-Insensitive Bleu4."]}, {"en": ["Specifically, we adopt Linear-Chain conditional random fields as the method for sequence labeling.", "We use conditional random fields, a popular approach to solve sequence labeling problems."], "ms": ["Khususnya, kami menggunakan medan rawak bersyarat Linear-Chain sebagai kaedah untuk pelabelan urutan.", "Kami menggunakan medan rawak bersyarat, pendekatan popular untuk menyelesaikan masalah pelabelan urutan."]}, {"en": ["We added part of speech and dependency triple Annotations to this data using the Stanford Parser.", "We Parsed the corpus with rasp and with the Stanford Pcfg Parser."], "ms": ["Kami menambah sebahagian daripada ucapan dan pergantungan tiga Anotations ke data ini menggunakan Stanford Parser.", "Kami Parsed corpus dengan rasp dan dengan Stanford Pcfg Parser."]}, {"en": ["For feature building, we use Word2Vec Pre-Trained word Embeddings.", "We Pre-Train the word Embeddings using Word2Vec."], "ms": ["Untuk bangunan ciri, kami menggunakan Embedding kata Pra-Latihan Word2Vec.", "Kami Pra-Latih Embedding perkataan menggunakan Word2Vec."]}, {"en": ["The Srilm Toolkit was used to build the 5-Gram language model.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing."], "ms": ["Srilm Toolkit digunakan untuk membina model bahasa 5-Gram.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Recent studies focuses on learning word Embeddings for specific tasks, such as sentiment analysis and dependency Parsing.", "More recently, features drawn from word Embeddings have been shown to be effective in various text classification tasks such as sentiment analysis and named entity recognition."], "ms": ["Kajian terkini memberi tumpuan kepada pembelajaran perkataan Embeddings untuk tugas-tugas tertentu, seperti analisis sentimen dan penghuraian kebergantungan.", "Baru-baru ini, ciri-ciri yang diambil dari perkataan Embeddings telah ditunjukkan berkesan dalam pelbagai tugas pengelasan teks seperti analisis sentimen dan pengiktirafan entiti dinamakan."]}, {"en": ["Yarowsky proposes a method for word sense Disambiguation, which is based on Monolingual Bootstrapping.", "Yarowsky used the one sense per Collocation property as an essential ingredient for an Unsupervised Word-Sense Disambiguation algorithm."], "ms": ["Yarowsky mencadangkan kaedah untuk perkataan erti Disambiguation, yang berdasarkan Monolingual Bootstrapping.", "Yarowsky menggunakan satu rasa setiap harta Collocation sebagai bahan penting untuk algoritma Disambiguasi Word-Sense yang tidak diawasi."]}, {"en": ["Word2Vec is the method to obtain distributed representations for a word by using neural networks with one hidden layer.", "Word2Vec is a Prediction-Based Distributional model in which a word representation is obtained from a neural network trying to predict a word from its context or Vice-Versa."], "ms": ["Word2Vec adalah kaedah untuk mendapatkan perwakilan yang diedarkan untuk perkataan dengan menggunakan rangkaian saraf dengan satu lapisan tersembunyi.", "Word2Vec adalah model Distributional Berasaskan Ramalan di mana perwakilan perkataan diperoleh dari rangkaian saraf yang cuba meramalkan perkataan dari konteksnya atau Vice-Versa."]}, {"en": ["In particular, neural language models have demonstrated impressive performance at the task of language modeling.", "This approach has already been used with great success in the domain of language models."], "ms": ["Khususnya, model bahasa saraf telah menunjukkan prestasi yang mengagumkan pada tugas pemodelan bahasa.", "Pendekatan ini telah digunakan dengan kejayaan besar dalam domain model bahasa."]}, {"en": ["In the first step, we pose a variant of sequential pattern mining problem to identify sequential word patterns that are more common among student answers.", "We model the task of finding Commonalities from student answers in a manner similar to the sequential pattern mining problem."], "ms": ["Dalam langkah pertama, kami mengemukakan varian masalah perlombongan corak berurutan untuk mengenal pasti corak perkataan berurutan yang lebih biasa di kalangan jawapan pelajar.", "Kami memodelkan tugas mencari Commonalities dari jawapan pelajar dengan cara yang serupa dengan masalah perlombongan corak berurutan."]}, {"en": ["The word Embeddings are identified using the standard glove representations.", "Further, the word Embeddings are Initialized with glove, and not tied with the Softmax weights."], "ms": ["Perkataan Embeddings dikenal pasti menggunakan perwakilan sarung tangan standard.", "Selanjutnya, perkataan Embeddings diawalkan dengan sarung tangan, dan tidak terikat dengan berat Softmax."]}, {"en": ["Relation extraction is the task of detecting and classifying relationships between two entities from text.", "Relation extraction is the key component for building relation knowledge graphs, and it is of crucial significance to natural language processing applications such as structured search, sentiment analysis, question answering, and summarization."], "ms": ["Pengekstrakan hubungan adalah tugas mengesan dan mengklasifikasikan hubungan antara dua entiti dari teks.", "Pengekstrakan hubungan adalah komponen utama untuk membina graf pengetahuan hubungan, dan ia sangat penting untuk aplikasi pemprosesan bahasa semula jadi seperti carian berstruktur, analisis sentimen, jawapan soalan, dan ringkasan."]}, {"en": ["The Subtask of aspect category detection obtains the best performance when applying the boosting method on Maxent.", "The Subtask of aspect category detection obtains the best result when applying the boosting method."], "ms": ["Subtugas pengesanan kategori aspek memperoleh prestasi terbaik apabila menggunakan kaedah peningkatan pada Maxent.", "Subtugas pengesanan kategori aspek mendapat hasil terbaik apabila menggunakan kaedah peningkatan."]}, {"en": ["Dependency Parsing is a fundamental task for language processing which has been investigated for decades.", "Dependency Parsing is a central Nlp task."], "ms": ["Penghuraian Dependensi adalah tugas asas untuk pemprosesan bahasa yang telah disiasat selama beberapa dekad.", "Dependency Parsing adalah tugas Nlp pusat."]}, {"en": ["Barzilay and Mckeown extracted both Single-And Multiple-Word paraphrases from a Sentence-Aligned corpus for use in Multi-Document summarization.", "Barzilay and Mckeown used a Corpus-Based method to identify paraphrases from a corpus of multiple English translations of the same source text."], "ms": ["Barzilay dan Mckeown mengekstrak kedua-dua frasa Single-And Multiple-Word dari korpus Sentence-Aligned untuk digunakan dalam ringkasan Multi-Document.", "Barzilay dan Mckeown menggunakan kaedah berasaskan Corpus untuk mengenal pasti parafrasa dari korpus terjemahan bahasa Inggeris yang berbeza dari teks sumber yang sama."]}, {"en": ["Using these representations as features, Bansal et al obtained improvements in dependency recovery in the Mst Parser.", "Bansal et al show the benefits of such Modified-Context Embeddings in dependency Parsing task."], "ms": ["Menggunakan perwakilan ini sebagai ciri, Bansal et al memperoleh peningkatan dalam pemulihan dependensi dalam Mst Parser.", "Bansal et al menunjukkan manfaat Embeddings Konteks Terubahsuai dalam tugas Penghuraian dependensi."]}, {"en": ["We used the Mallet Toolkit for generating topic distribution vectors and the Weka package for the classification tasks.", "We use the Weka Toolkit and the derived features to train a Naive-Bayes Classifier."], "ms": ["Kami menggunakan Mallet Toolkit untuk menghasilkan vektor pengedaran topik dan pakej Weka untuk tugas klasifikasi.", "Kami menggunakan Weka Toolkit dan ciri-ciri yang diperolehi untuk melatih Classifier Naive-Bayes."]}, {"en": ["Relation extraction is the task of finding relationships between two entities from text.", "Relation extraction is the task of predicting semantic relations over entities expressed in structured or Semi-Structured text."], "ms": ["Pengekstrakan hubungan adalah tugas mencari hubungan antara dua entiti dari teks.", "Pengekstrakan hubungan adalah tugas meramalkan hubungan semantik ke atas entiti yang dinyatakan dalam teks berstruktur atau Semi-Structured."]}, {"en": ["Also, while in previous approaches, the features are collected from Corpora, those we make use of are retrieved from the lexicon entries.", "In previous approaches, the features are collected from Corpora, those we make use of are retrieved from the lexicon entries."], "ms": ["Juga, semasa dalam pendekatan sebelumnya, ciri-ciri dikumpulkan dari Corpora, yang kami gunakan diambil dari entri leksikon.", "Dalam pendekatan sebelumnya, ciri-ciri dikumpulkan dari Corpora, yang kami gunakan diambil dari entri leksikon."]}, {"en": ["We estimated 5-Gram language models using the Sri Toolkit with modified Kneser-Ney smoothing.", "We use Srilm Toolkit to train a Trigram language model with modified Kneser-Ney smoothing on the target side of training corpus."], "ms": ["Kami menganggarkan model bahasa 5-Gram menggunakan Sri Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm Toolkit untuk melatih model bahasa Trigram dengan smoothing Kneser-Ney yang diubahsuai di sisi sasaran korpus latihan."]}, {"en": ["Sentiment analysis (SA) is the determination of the polarity of a piece of text (positive, negative, neutral).", "Sentiment analysis (SA) is a Hot-Topic in the academic world, and also in the industry."], "ms": ["Analisis kepekaan (SA) adalah penentuan polariti sekeping teks (positif, negatif, neutral).", "Analisis sentimen (SA) adalah Hot-Topic dalam dunia akademik, dan juga dalam industri."]}, {"en": ["Furthermore, Xu et al correct false negative instances by using Pseudo-Relevance feedback to expand the origin knowledge base.", "Xu et al and min et al improve the quality of distant supervision training data by reducing false negative examples."], "ms": ["Tambahan pula, Xu et al membetulkan contoh negatif palsu dengan menggunakan maklum balas Pseudo-Relevance untuk mengembangkan asas pengetahuan asal.", "Xu et al dan min et al meningkatkan kualiti data latihan penyeliaan jauh dengan mengurangkan contoh negatif palsu."]}, {"en": ["The language model was constructed using the Srilm Toolkit with interpolated Kneser-Ney discounting.", "The probabilistic language model is constructed on Google web 1T 5-Gram corpus by using the Srilm Toolkit."], "ms": ["Model bahasa dibina menggunakan Srilm Toolkit dengan diskaun Kneser-Ney yang saling berkaitan.", "Model bahasa probabilistik dibina di Google web 1T 5-Gram corpus dengan menggunakan Srilm Toolkit."]}, {"en": ["The Classifier we use in this paper is support vector machines in the implementation of SVM light.", "As a Classifier, we employ support vector machines as implemented in SVM light."], "ms": ["Pengelas yang kami gunakan dalam kertas ini adalah mesin vektor sokongan dalam pelaksanaan cahaya SVM.", "Sebagai Classifier, kami menggunakan mesin vektor sokongan seperti yang dilaksanakan dalam cahaya SVM."]}, {"en": ["We used Adam for optimization of the neural models.", "We used Adam Optimizer with its standard parameters."], "ms": ["Kami menggunakan Adam untuk pengoptimuman model saraf.", "Kami menggunakan Adam Optimizer dengan parameter standardnya."]}, {"en": ["The translation quality is evaluated by Case-Insensitive Bleu-4.", "The translation results are evaluated with case insensitive 4-Gram BLEU."], "ms": ["Kualiti terjemahan dinilai oleh Case-Insensitive Bleu-4.", "Hasil terjemahan dinilai dengan kes tidak sensitif 4-Gram BLEU."]}, {"en": ["Named entity recognition (NER) is a challenging learning problem.", "Named entity recognition (NER) is the task of identifying and typing phrases that contain the names of persons, organizations, locations, and so on."], "ms": ["Pengecaman entiti yang dinamakan (NER) adalah masalah pembelajaran yang mencabar.", "Pengiktirafan entiti yang dinamakan (NER) adalah tugas mengenal pasti dan menaip frasa yang mengandungi nama orang, organisasi, lokasi, dan sebagainya."]}, {"en": ["We also used Word2Vec to generate dense word vectors for all word types in our learning corpus.", "For our experiments reported here, we obtained word vectors using the Word2Vec tool and the Text8 corpus."], "ms": ["Kami juga menggunakan Word2Vec untuk menghasilkan vektor perkataan yang padat untuk semua jenis perkataan dalam korpus pembelajaran kami.", "Untuk eksperimen kami yang dilaporkan di sini, kami memperoleh vektor perkataan menggunakan alat Word2Vec dan korpus Text8."]}, {"en": ["Shen et al extended the Hmm-Based approach to make it Discriminative by making use of conditional random fields.", "More recently Wang et al proposed to train a conditional random field using an Entropy-Based Regularizer."], "ms": ["Shen et al melanjutkan pendekatan Hmm-Based untuk menjadikannya Diskriminatif dengan menggunakan medan rawak bersyarat.", "Baru-baru ini Wang et al mencadangkan untuk melatih medan rawak bersyarat menggunakan Regularizer Berasaskan Entropi."]}, {"en": ["An effective solution for these problems is the long short-term memory architecture.", "Long-Short term memory networks have been proposed to solve this issue, and so we employ them."], "ms": ["Penyelesaian yang berkesan untuk masalah ini adalah seni bina memori jangka pendek yang panjang.", "Rangkaian memori jangka pendek telah dicadangkan untuk menyelesaikan masalah ini, dan oleh itu kami menggunakannya."]}, {"en": ["The Annotation scheme is based on an evolution of Stanford Dependencies, Google universal Part-Ofspeech tags, and the Interset Interlingua for Morphosyntactic Tagsets.", "The Annotation scheme is based on an evolution of Stanford Dependencies and Google universal Part-Of-Speech tags."], "ms": ["Skim Annotasi adalah berdasarkan evolusi Stanford Dependencies, tag Part-Ofspeech universal Google, dan Interset Interlingua untuk Tagset Morfosyntactic.", "Skim Annotasi adalah berdasarkan evolusi Stanford Dependencies dan tag Google universal Part-Of-Speech."]}, {"en": ["We apply Sri language modeling Toolkit to train a 4-Gram language model with Kneser-Ney smoothing.", "We trained a 4-Gram language model on this data with Kneser-Ney discounting using Srilm."], "ms": ["Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model bahasa 4-Gram dengan smoothing Kneser-Ney.", "Kami melatih model bahasa 4-Gram pada data ini dengan diskaun Kneser-Ney menggunakan Srilm."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit.", "We trained a Trigram language model on the Chinese side, with the Srilm Toolkit, using the modified Kneser-Ney smoothing option."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit.", "Kami melatih model bahasa Trigram di sisi Cina, dengan Srilm Toolkit, menggunakan pilihan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Morphological Disambiguation is the task of selecting the correct morphological Parse for a given word in a given context.", "Morphological Disambiguation is a useful first step for higher level analysis of any language but it is especially critical for Agglutinative languages like Turkish, Czech, Hungarian, and Finnish."], "ms": ["Penyahsiran Morfologi adalah tugas memilih Parse morfologi yang betul untuk perkataan yang diberikan dalam konteks yang diberikan.", "Penyahsulitan Morfologi adalah langkah pertama yang berguna untuk analisis tahap yang lebih tinggi dari mana-mana bahasa tetapi sangat penting untuk bahasa Agglutinatif seperti Turki, Czech, Hungaria, dan Finland."]}, {"en": ["Sentiment analysis is a research area in the field of natural language processing.", "Sentiment analysis is the study of the subjectivity and polarity (positive vs. negative) of a text (Cite-P-7-1-10)."], "ms": ["Analisis kepekaan adalah bidang penyelidikan dalam bidang pemprosesan bahasa semula jadi.", "Analisis kepekaan adalah kajian subjektiviti dan polariti (positif vs negatif) teks (Cite-P-7-1-10)."]}, {"en": ["We used the SVM implementation of Scikit learn.", "We use the Liblinear tool as our SVM implementation."], "ms": ["Kami menggunakan pelaksanaan SVM Scikit belajar.", "Kami menggunakan alat Liblinear sebagai pelaksanaan SVM kami."]}, {"en": ["We used L2-Regularized logistic regression Classifier as implemented in Liblinear.", "We used a logistic regression Classifier provided by the Liblinear software."], "ms": ["Kami menggunakan L2-Regularized logistic regression Classifier seperti yang dilaksanakan dalam Liblinear.", "Kami menggunakan Classifier regresi logistik yang disediakan oleh perisian Liblinear."]}, {"en": ["The Smt weighting parameters were tuned by Mert using the development data.", "The model weights are automatically tuned using minimum error rate training."], "ms": ["Parameter pemberat Smt ditala oleh Mert menggunakan data pembangunan.", "Berat model ditala secara automatik menggunakan latihan kadar ralat minimum."]}, {"en": ["We build a Trigram language model per prompt for the English data using the Srilm Toolkit and measure the perplexity of translated German answers under that language model.", "We train a Trigram language model with modified Kneser-Ney smoothing from the training Dataset using the Srilm Toolkit, and use the same language model for all three systems."], "ms": ["Kami membina model bahasa Trigram setiap prompt untuk data bahasa Inggeris menggunakan Srilm Toolkit dan mengukur kebingungan jawapan Jerman yang diterjemahkan di bawah model bahasa itu.", "Kami melatih model bahasa Trigram dengan Kneser-Ney yang diubahsuai dari Dataset latihan menggunakan Srilm Toolkit, dan menggunakan model bahasa yang sama untuk ketiga-tiga sistem."]}, {"en": ["We use Srilm with its default parameters for this purpose.", "As a software we use Srilm with the default algorithm."], "ms": ["Kami menggunakan Srilm dengan parameter lalai untuk tujuan ini.", "Sebagai perisian kami menggunakan Srilm dengan algoritma lalai."]}, {"en": ["We employ the Pretrained word vector, glove, to obtain the fixed word Embedding of each word.", "For this reason, we used glove vectors to extract the vector representation of words."], "ms": ["Kami menggunakan vektor perkataan Pretrained, sarung tangan, untuk mendapatkan perkataan tetap Embedding setiap perkataan.", "Atas sebab ini, kami menggunakan vektor sarung tangan untuk mengekstrak perwakilan vektor perkataan."]}, {"en": ["Extensive experiments on benchmark Datasets show that our approach can train accurate sentiment Classifier with less labeled samples.", "We present an active sentiment domain adaptation approach to train accurate sentiment Classifier for target domain with less labeled samples."], "ms": ["Eksperimen yang meluas pada Dataset penanda aras menunjukkan bahawa pendekatan kami dapat melatih Klasifikasi sentimen yang tepat dengan sampel yang kurang berlabel.", "Kami membentangkan pendekatan penyesuaian domain sentimen aktif untuk melatih pengelasan sentimen yang tepat untuk domain sasaran dengan sampel kurang berlabel."]}, {"en": ["An Hierarchical Phrase-Based model is a powerful method to cover any format of translation pairs by using synchronous context free grammar.", "The formally Syntax-Based models use synchronous Context-Free grammar but induce a grammar from a parallel text without relying on any linguistic Annotations or assumptions."], "ms": ["Model Berasaskan Frasa Hierarki adalah kaedah yang kuat untuk merangkumi sebarang format pasangan terjemahan dengan menggunakan tatabahasa bebas konteks yang diselaraskan.", "Model berasaskan Syntax secara rasmi menggunakan tatabahasa Bebas Konteks yang tidak bersinkron tetapi mendorong tatabahasa dari teks selari tanpa bergantung kepada sebarang Annotasi atau andaian linguistik."]}, {"en": ["Table 1 summarizes test set performance in BLEU, Nist and Ter.", "Table 2 shows the blind test results using Bleu-4, meteor and Ter."], "ms": ["Jadual 1 meringkaskan prestasi set ujian dalam BLEU, Nist dan Ter.", "Jadual 2 menunjukkan keputusan ujian buta menggunakan Bleu-4, meteor dan Ter."]}, {"en": ["We use Byte pair Encoding with 45K merge operations to split words into Subwords.", "We segment English and Chinese tokens into Subwords via Byte-Pair Encoding."], "ms": ["Kami menggunakan Pengekodan pasangan Byte dengan operasi penggabungan 45K untuk membahagikan perkataan ke dalam Subwords.", "Kami membahagikan token bahasa Inggeris dan Cina ke dalam Subwords melalui Byte-Pair Encoding."]}, {"en": ["We use the SVM implementation from Scikit-Learn, which in turn is based on Libsvm.", "We used the implementation of the Scikit-Learn 2 Module."], "ms": ["Kami menggunakan pelaksanaan SVM dari Scikit-Learn, yang seterusnya berdasarkan Libsvm.", "Kami menggunakan pelaksanaan Modul Scikit-Learn 2."]}, {"en": ["Katiyar and Cardie proposed a neural Network-Based approach that learns Hypergraph representation for nested entities using features extracted from a recurrent neural network.", "Katiyar and Cardie proposed a recurrent neural network to extract features to learn an Hypergraph structure of nested mentions, using a Bilou Encoding scheme."], "ms": ["Katiyar dan Cardie mencadangkan pendekatan berasaskan rangkaian saraf yang mempelajari perwakilan Hypergraph untuk entiti bersarang menggunakan ciri-ciri yang diekstrak dari rangkaian saraf berulang.", "Katiyar dan Cardie mencadangkan rangkaian neural berulang untuk mengekstrak ciri-ciri untuk mempelajari struktur Hypergraph sebutan bersarang, menggunakan skema Pengekodan Bilou."]}, {"en": ["We have used the Srilm with Kneser-Ney smoothing for training a language model for the first stage of decoding.", "However, we use a large 4-Gram LM with modified Kneser-Ney smoothing, trained with the Srilm Toolkit, Stolcke , 2002 and LDC English Gigaword Corpora."], "ms": ["Kami telah menggunakan Srilm dengan smoothing Kneser-Ney untuk melatih model bahasa untuk peringkat pertama penyahkodan.", "Walau bagaimanapun, kami menggunakan LM 4-Gram yang besar dengan smoothing Kneser-Ney yang diubahsuai, dilatih dengan Srilm Toolkit, Stolcke, 2002 dan LDC English Gigaword Corpora."]}, {"en": ["Pereira et al cluster nouns according to their distribution as direct objects of verbs, using Information-Theoretic tools.", "Pereira et al suggested deterministic Annealing to cluster Verb-Argument pairs into classes of verbs and nouns."], "ms": ["Kata nama kluster Pereira et al mengikut taburannya sebagai objek kata kerja langsung, menggunakan alat Maklumat-Teoretik.", "Pereira et al mencadangkan Penentuan deterministik untuk kluster pasangan Verb-Argument ke dalam kelas kata kerja dan kata nama."]}, {"en": ["As a baseline system for our experiments we use the Syntax-Based component of the Moses Toolkit.", "We use the Moses Toolkit with a Phrase-Based baseline to extract the Qe features for the X L, X U, and testing."], "ms": ["Sebagai sistem asas untuk eksperimen kami, kami menggunakan komponen berasaskan Syntax dari Moses Toolkit.", "Kami menggunakan Musa Toolkit dengan asas berasaskan frasa untuk mengekstrak ciri Qe untuk X L, X U, dan ujian."]}, {"en": ["We apply the 3-Phase learning procedure proposed by where we first create word Embeddings based on the Skip-Gram model.", "We Initialize the Embedding weights by the Pre-Trained word Embeddings with 200 dimensional vectors."], "ms": ["Kami menggunakan prosedur pembelajaran 3-Phase yang dicadangkan oleh mana kami mula-mula membuat Embedding perkataan berdasarkan model Skip-Gram.", "Kami Memulakan berat Embedding oleh perkataan Pra-Trained Embeddings dengan 200 vektor dimensi."]}, {"en": ["We evaluate the translation quality using the Case-Sensitive Bleu-4 metric.", "We measure translation quality via the BLEU score."], "ms": ["Kami menilai kualiti terjemahan menggunakan metrik Case-Sensitive Bleu-4.", "Kami mengukur kualiti terjemahan melalui skor BLEU."]}, {"en": ["For the semantic language model, we used the Srilm package and trained a Tri-Gram language model with the default Goodturing smoothing.", "We used the Srilm Toolkit to build Unpruned 5-Gram models using interpolated modified Kneser-Ney smoothing."], "ms": ["Untuk model bahasa semantik, kami menggunakan pakej Srilm dan melatih model bahasa Tri-Gram dengan smoothing Goodturing lalai.", "Kami menggunakan Srilm Toolkit untuk membina model 5-Gram Unpruned menggunakan smoothing Kneser-Ney yang diubahsuai secara interpolated."]}, {"en": ["Sentiment classification is a task to predict a sentiment label, such as Positive/Negative, for a given text and has been applied to many domains such as Movie/Product reviews, customer surveys, news comments, and social media.", "Sentiment classification is a special task of text Categorization that aims to classify documents according to their opinion of, or sentiment toward a given subject (E.G ., if an opinion is supported or not) (Cite-P-11-1-2)."], "ms": ["Klasifikasi sentimen adalah tugas untuk meramalkan label sentimen, seperti Positif / Negatif, untuk teks tertentu dan telah digunakan untuk banyak domain seperti ulasan Filem / Produk, tinjauan pelanggan, komen berita, dan media sosial.", "Klasifikasi sentimen adalah tugas khas Categorization teks yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat mereka, atau sentimen terhadap subjek tertentu (E.G., jika pendapat disokong atau tidak) (Cite-P-11-1-2)."]}, {"en": ["Guo et al , 2014) considers bilingual Datasets to learn Sense-Specific word representations.", "Guo et al , 2014) explored bilingual resources to learn Sense-Specific word representation."], "ms": ["Guo et al, 2014) mempertimbangkan Dataset dwibahasa untuk mempelajari perwakilan kata Sense-Specific.", "Guo et al, 2014) meneroka sumber dwibahasa untuk mempelajari perwakilan perkataan Sense-Specific."]}, {"en": ["The process of identifying the correct meaning, or sense of a word in context, is known as word sense Disambiguation (Wsd).", "Word sense Disambiguation (Wsd) is the task of determining the meaning of an ambiguous word in its context."], "ms": ["Proses mengenal pasti makna yang betul, atau rasa perkataan dalam konteks, dikenali sebagai kata rasa Disambiguation (Wsd).", "Kemusykilan erti kata Kemusykilan (Wsd) ialah tugas menentukan makna perkataan yang samar-samar dalam konteksnya."]}, {"en": ["Wordnet is a key lexical resource for natural language applications.", "The nodes are concepts (or Synsets as they are called in the Wordnet)."], "ms": ["Wordnet adalah sumber leksikal utama untuk aplikasi bahasa semula jadi.", "Nod adalah konsep (atau Synsets kerana ia dipanggil dalam Wordnet)."]}, {"en": ["We used the Moses Toolkit to train the phrase tables and Lexicalized reordering models.", "We trained the machine translation Toolkit Moses to translate groups of letters rather than groups of words."], "ms": ["Kami menggunakan Musa Toolkit untuk melatih jadual frasa dan model penyusunan semula Lexicalized.", "Kami melatih terjemahan mesin Toolkit Musa untuk menterjemahkan kumpulan huruf dan bukannya kumpulan perkataan."]}, {"en": ["We used the Srilm Toolkit to generate the scores with no smoothing.", "We used the Sri language modeling Toolkit for this purpose."], "ms": ["Kami menggunakan Srilm Toolkit untuk menghasilkan skor tanpa lancar.", "Kami menggunakan alat pemodelan bahasa Sri untuk tujuan ini."]}, {"en": ["Our translation model is implemented as an N-Gram model of operations using Srilm-Toolkit with Kneser-Ney smoothing.", "We estimated 5-Gram language models using the Sri Toolkit with modified Kneser-Ney smoothing."], "ms": ["Model terjemahan kami dilaksanakan sebagai model operasi N-Gram menggunakan Srilm-Toolkit dengan smoothing Kneser-Ney.", "Kami menganggarkan model bahasa 5-Gram menggunakan Sri Toolkit dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["For learning Coreference decisions, we used a maximum entropy model.", "For entity tagging we used a maximum entropy model."], "ms": ["Untuk pembelajaran keputusan Coreference, kami menggunakan model entropi maksimum.", "Untuk penanda entiti, kami menggunakan model entropi maksimum."]}, {"en": ["This type of features are based on a Trigram model with Kneser-Ney smoothing.", "All models used interpolated modified Kneser-Ney smoothing."], "ms": ["Ciri-ciri jenis ini berdasarkan model Trigram dengan smoothing Kneser-Ney.", "Semua model menggunakan smoothing Kneser-Ney yang diubahsuai interpolated."]}, {"en": ["We use Case-Sensitive Bleu-4 to measure the quality of translation result.", "We will show translation quality measured with the BLEU score as a function of the phrase table size."], "ms": ["Kami menggunakan Case-Sensitive Bleu-4 untuk mengukur kualiti hasil terjemahan.", "Kami akan menunjukkan kualiti terjemahan yang diukur dengan skor BLEU sebagai fungsi saiz jadual frasa."]}, {"en": ["Here, we present an effective, expandable, and Tractable new approach to comprehensive Multiword lexicon acquisition.", "We have presented here a new methodology for acquiring comprehensive Multiword Lexicons from large Corpora, using competition."], "ms": ["Di sini, kami membentangkan pendekatan baru yang berkesan, boleh diperluas, dan Tractable untuk pemerolehan leksikon Multiword yang komprehensif.", "Kami telah membentangkan di sini metodologi baru untuk memperoleh Lexicon Multiword komprehensif dari Corpora besar, menggunakan persaingan."]}, {"en": ["We used the Srilm Toolkit to create 5-Gram language models with interpolated modified Kneser-Ney discounting.", "We train a 4-Gram language model on the Xinhua portion of the Gigaword corpus using the Sri language Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan Srilm Toolkit untuk mencipta model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword menggunakan Toolkit bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["The system was trained using Moses with default settings, using a 5-Gram language model created from the English side of the training corpus using Srilm.", "A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit from Stolcke."], "ms": ["Sistem ini dilatih menggunakan Musa dengan tetapan lalai, menggunakan model bahasa 5-Gram yang dicipta dari sisi bahasa Inggeris korpus latihan menggunakan Srilm.", "Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit dari Stolcke."]}, {"en": ["The standard minimum error rate training algorithm was used for tuning.", "The model weights were trained using the minimum error rate training algorithm."], "ms": ["Algoritma latihan kadar ralat minimum standard digunakan untuk penalaan.", "Berat model dilatih menggunakan algoritma latihan kadar ralat minimum."]}, {"en": ["The language model component uses the Srilm Lattice-Tool for weight assignment and Nbest decoding.", "The Srilm Toolkit was used to build the Trigram Mkn smoothed language model."], "ms": ["Komponen model bahasa menggunakan Srilm Lattice-Tool untuk penugasan berat dan penyahkodan Nbest.", "Srilm Toolkit digunakan untuk membina model bahasa licin Trigram Mkn."]}, {"en": ["Sagae and Tsujii applied the standard Co-Training method for dependency Parsing.", "Sagae and Tsujii used an ensemble to select high-quality dependency Parses."], "ms": ["Sagae dan Tsujii menggunakan kaedah Latihan Bersama standard untuk Penghuraian dependensi.", "Sagae dan Tsujii menggunakan ensemble untuk memilih Parses dependensi berkualiti tinggi."]}, {"en": ["Adding subjectivity labels to Wordnet could also support automatic subjectivity analysis.", "Such as Wordnet (Cite-P-11-1-13) with subjectivity labels could support better subjectivity analysis."], "ms": ["Menambah label subjektiviti ke Wordnet juga boleh menyokong analisis subjektiviti automatik.", "Seperti Wordnet (Cite-P-11-1-13) dengan label subjektiviti boleh menyokong analisis subjektiviti yang lebih baik."]}, {"en": ["It is a standard Phrasebased Smt system built using the Moses Toolkit.", "The system was trained using the Moses Toolkit."], "ms": ["Ia merupakan sistem Smt berasaskan Phrase standard yang dibina menggunakan Musa Toolkit.", "Sistem ini dilatih menggunakan Musa Toolkit."]}, {"en": ["We implement the Pbsmt system with the Moses Toolkit.", "We used a Phrase-Based Smt model as implemented in the Moses Toolkit."], "ms": ["Kita melaksanakan sistem Pbsmt dengan Musa Toolkit.", "Kami menggunakan model Smt Berasaskan Frasa seperti yang dilaksanakan dalam Musa Toolkit."]}, {"en": ["Various recent attempts have been made to include Non-Local features into Graph-Based dependency Parsing.", "Transition-Based and Graph-Based models have attracted the most attention of dependency Parsing in recent years."], "ms": ["Pelbagai percubaan baru-baru ini telah dibuat untuk memasukkan ciri Bukan Tempatan ke dalam Penghuraian dependensi Berasaskan Grafik.", "Model berasaskan peralihan dan berasaskan grafik telah menarik perhatian yang paling banyak Parsing kebergantungan dalam beberapa tahun kebelakangan ini."]}, {"en": ["For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided.", "We trained a 5-Gram Sri language model using the corpus supplied for this purpose by the shared task organizers."], "ms": ["Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan.", "Kami melatih model bahasa Sri 5-Gram menggunakan korpus yang dibekalkan untuk tujuan ini oleh penganjur tugas bersama."]}, {"en": ["We used the Google news Pretrained Word2Vec word Embeddings for our model.", "We use the Word2Vec tool to Pre-Train the word Embeddings."], "ms": ["Kami menggunakan perkataan Embedding Word2Vec Pretrained Google untuk model kami.", "Kami menggunakan alat Word2Vec untuk Pra-Latih Embedding perkataan."]}, {"en": ["The Log-Linear parameter weights are tuned with Mert on the development set.", "The Log-Lineal combination weights were Optimized using Mert."], "ms": ["Berat parameter Log-Linear ditala dengan Mert pada set pembangunan.", "Berat gabungan Log-Lineal telah dioptimumkan menggunakan Mert."]}, {"en": ["The experimental results demonstrate that our approach Outperforms the template extraction based approaches.", "Reviews demonstrate that proposed method Outperforms the template extraction based algorithm."], "ms": ["Hasil eksperimen menunjukkan bahawa pendekatan kami Melaksanakan pendekatan berasaskan pengekstrakan templat.", "Ulasan menunjukkan bahawa kaedah yang dicadangkan Melakukan algoritma berasaskan pengekstrakan templat."]}, {"en": ["We apply standard tuning with Mert on the BLEU score.", "We substitute our language model and use Mert to optimize the BLEU score."], "ms": ["Kami menggunakan penalaan standard dengan Mert pada skor BLEU.", "Kami menggantikan model bahasa kami dan menggunakan Mert untuk mengoptimumkan skor BLEU."]}, {"en": ["Relation extraction is a Subtask of information extraction that finds various predefined semantic relations, such as location, affiliation, rival, etc ., between pairs of entities in text.", "Relation extraction is a traditional information extraction task which aims at detecting and classifying semantic relations between entities in text (Cite-P-10-1-18)."], "ms": ["Pengekstrakan hubungan adalah Subtugas pengekstrakan maklumat yang menemui pelbagai hubungan semantik yang telah ditentukan, seperti lokasi, gabungan, saingan, dll., Antara pasangan entiti dalam teks.", "Pengekstrakan hubungan adalah tugas pengekstrakan maklumat tradisional yang bertujuan untuk mengesan dan mengklasifikasikan hubungan semantik antara entiti dalam teks (Cite-P-10-1-18)."]}, {"en": ["Continuous-Valued vector representation of words has been one of the key components in neural architectures for natural language processing.", "Word Embeddings are considered one of the key building blocks in natural language processing and are widely used for various applications."], "ms": ["Perwakilan vektor yang berterusan nilai perkataan telah menjadi salah satu komponen utama dalam seni bina neural untuk pemprosesan bahasa semula jadi.", "Embedding Word dianggap sebagai salah satu blok bangunan utama dalam pemprosesan bahasa semula jadi dan digunakan secara meluas untuk pelbagai aplikasi."]}, {"en": ["Semantic textual similarity is the task of judging the similarity of a pair of sentences on a scale from 1 to 5.", "Semantic textual similarity is the task of judging the similarity of a pair of sentences on a scale from 0 to 5, and was recently introduced as a Semeval task."], "ms": ["Keserupaan teks semantik adalah tugas menilai persamaan sepasang ayat pada skala dari 1 hingga 5.", "Keserupaan teks semantik adalah tugas menilai persamaan sepasang ayat pada skala dari 0 hingga 5, dan baru-baru ini diperkenalkan sebagai tugas Semeval."]}, {"en": ["In this paper, we describe an approach which overcomes this problem using dictionary definitions.", "In this paper, we describe an approach which overcomes this problem."], "ms": ["Dalam kertas ini, kami menerangkan pendekatan yang mengatasi masalah ini menggunakan definisi kamus.", "Dalam kertas ini, kami menerangkan pendekatan yang mengatasi masalah ini."]}, {"en": ["Relation extraction is the task of predicting semantic relations over entities expressed in structured or Semi-Structured text.", "Relation extraction is the task of automatically detecting occurrences of expressed relations between entities in a text and structuring the detected information in a Tabularized form."], "ms": ["Pengekstrakan hubungan adalah tugas meramalkan hubungan semantik ke atas entiti yang dinyatakan dalam teks berstruktur atau Semi-Structured.", "Pengekstrakan hubungan adalah tugas mengesan kejadian hubungan yang dinyatakan secara automatik antara entiti dalam teks dan menyusun maklumat yang dikesan dalam bentuk Tabularized."]}, {"en": ["Our word Embeddings is Initialized with 100-Dimensional glove word Embeddings.", "We use the glove vector representations to compute Cosine similarity between two words."], "ms": ["Perkataan Embeddings kami Dimulakan dengan perkataan sarung tangan 100-Dimensional Embeddings.", "Kami menggunakan perwakilan vektor sarung tangan untuk mengira persamaan kosinus antara dua perkataan."]}, {"en": ["Duh et al employed the method of and further explored neural language model for data selection rather than the conventional N-Gram language model.", "Duh et al used a neural network based language model trained on a small In-Domain corpus to select from a larger data pool."], "ms": ["Duh et al menggunakan kaedah dan lebih banyak meneroka model bahasa saraf untuk pemilihan data dan bukannya model bahasa N-Gram konvensional.", "Duh et al menggunakan model bahasa berasaskan rangkaian saraf yang dilatih pada korpus In-Domain kecil untuk memilih dari kumpulan data yang lebih besar."]}, {"en": ["Sentiment classification is the fundamental task of sentiment analysis (Cite-P-15-3-11), where we are to classify the sentiment of a given text.", "Sentiment classification is the task of identifying the sentiment polarity (E.G ., positive or negative) of * 1 corresponding author a natural language text towards a given topic (Cite-P-18-1-19, Cite-P-18-3-1) and has become the core component of many important applications in opinion analysis (Cite-P-18-1-2, Cite-P-18-1-10, Cite-P-18-1-15, Cite-P-18-3-4)."], "ms": ["Klasifikasi sentimen adalah tugas asas analisis sentimen (Cite-P-15-3-11), di mana kita mengklasifikasikan sentimen teks tertentu.", "Klasifikasi sentimen adalah tugas mengenal pasti polariti sentimen (E.G., positif atau negatif) * 1 pengarang yang sepadan teks bahasa semula jadi ke arah topik tertentu (Cite-P-18-1-19, Cite-P-18-3-1) dan telah menjadi komponen teras banyak aplikasi penting dalam analisis pendapat (Cite-P-18-1-2, Cite-P-18-1-10, Cite-P-18-1-15, Cite-P-18-3-4)."]}, {"en": ["For this task, we used the SVM implementation provided with the python Scikit-Learn Module.", "For Nb and SVM, we used their implementation available in Scikit-Learn."], "ms": ["Untuk tugas ini, kami menggunakan pelaksanaan SVM yang disediakan dengan Modul Scikit-Learn python.", "Untuk Nb dan SVM, kami menggunakan pelaksanaannya yang terdapat di Scikit-Learn."]}, {"en": ["Coreference resolution is the task of determining when two textual mentions name the same individual.", "Coreference resolution is the process of determining whether two expressions in natural language refer to the same entity in the world."], "ms": ["Resolusi spatial adalah tugas menentukan apabila dua sebutan teks menamakan individu yang sama.", "Resolusi spatial adalah proses menentukan sama ada dua ungkapan dalam bahasa semula jadi merujuk kepada entiti yang sama di dunia."]}, {"en": ["The probabilistic language model is constructed on Google web 1T 5-Gram corpus by using the Srilm Toolkit.", "The Srilm Toolkit was used to build the Trigram Mkn smoothed language model."], "ms": ["Model bahasa probabilistik dibina di Google web 1T 5-Gram corpus dengan menggunakan Srilm Toolkit.", "Srilm Toolkit digunakan untuk membina model bahasa licin Trigram Mkn."]}, {"en": ["All language models were trained using the Srilm Toolkit.", "A 4-Gram language model was trained on the Monolingual data by the Srilm Toolkit."], "ms": ["Semua model bahasa dilatih menggunakan Srilm Toolkit.", "Model bahasa 4-Gram dilatih pada data Monolingual oleh Srilm Toolkit."]}, {"en": ["The decoding weights are Optimized with minimum error rate training to maximize BLEU scores.", "The parameter weights are Optimized with minimum error rate training."], "ms": ["Berat penyahkodan dioptimumkan dengan latihan kadar ralat minimum untuk memaksimumkan skor BLEU.", "Berat parameter dioptimumkan dengan latihan kadar ralat minimum."]}, {"en": ["The context clustering approach was pioneered by Sch\u7709Tze who used second order Co-Occurrences to construct the context Embedding.", "Sch\u7709Tze created sense representations by clustering context representations derived from Co-Occurrence."], "ms": ["Pendekatan clustering konteks dipelopori oleh SchTze yang menggunakan urutan kedua Co-Occurrences untuk membina konteks Embedding.", "SchTze mencipta perwakilan deria dengan mengelompokkan perwakilan konteks yang berasal dari Co-Occurrence."]}, {"en": ["Text Categorization is the problem of automatically assigning predefined categories to free text documents.", "Text Categorization is a classical text information processing task which has been studied adequately (Cite-P-18-1-9)."], "ms": ["Categorization Teks adalah masalah secara automatik menetapkan kategori yang telah ditetapkan kepada dokumen teks percuma.", "Teks Categorization adalah tugas pemprosesan maklumat teks klasik yang telah dikaji dengan secukupnya (Cite-P-18-1-9)."]}, {"en": ["For training the Trigger-Based lexicon model, we apply the Expectation-Maximization algorithm.", "For this purpose, we turn to the expectation maximization algorithm."], "ms": ["Untuk melatih model leksikon Berasaskan Pemacu, kami menggunakan algoritma Jangkaan-Maximisasi.", "Untuk tujuan ini, kita beralih kepada algoritma memaksimumkan jangkaan."]}, {"en": ["Generative models like Lda and Plsa have been proved to be very successful in modeling topics and other textual information in an Unsupervised manner.", "Traditional topic models like latent Dirichlet allocation have been explored extensively to discover topics from text."], "ms": ["Model-model generasi seperti Lda dan Plsa telah terbukti sangat berjaya dalam topik pemodelan dan maklumat teks lain dengan cara yang tidak diawasi.", "Model topik tradisional seperti peruntukan laten Dirichlet telah diterokai secara meluas untuk menemui topik dari teks."]}, {"en": ["Luong et al learn word representations based on Morphemes that are obtained from an external morphological Segmentation system.", "Luong et al break words into Morphemes, and use recursive neural networks to compose word meanings from Morpheme meanings."], "ms": ["Luong et al mempelajari perwakilan perkataan berdasarkan Morphemes yang diperolehi daripada sistem Segmentasi morfologi luaran.", "Luong et al memecahkan perkataan ke dalam Morphemes, dan menggunakan rangkaian saraf rekursif untuk mengarang makna perkataan dari makna Morpheme."]}, {"en": ["These language models were built up to an order of 5 with Kneser-Ney smoothing using the Srilm Toolkit.", "The language model used was a 5-Gram with modified Kneserney smoothing, built with Srilm Toolkit."], "ms": ["Model bahasa ini dibina sehingga urutan 5 dengan smoothing Kneser-Ney menggunakan Srilm Toolkit.", "Model bahasa yang digunakan ialah 5-Gram dengan smoothing Kneserney yang diubahsuai, dibina dengan Srilm Toolkit."]}, {"en": ["Sentiment analysis is a \u2018 suitcase \u2019 research problem that requires tackling many Nlp Subtasks, E.G ., aspect extraction (Cite-P-26-3-15), named entity recognition (Cite-P-26-3-6), concept extraction (Cite-P-26-3-20), sarcasm detection (Cite-P-26-3-16), personality recognition (Cite-P-26-3-7), and more.", "Sentiment analysis is a research area where does a computational analysis of people \u2019 s feelings or beliefs expressed in texts such as emotions, opinions, attitudes, appraisals, etc . (Cite-P-12-1-3)."], "ms": ["Analisis kepekaan adalah masalah penyelidikan beg pakaian yang memerlukan menangani banyak Subtugas Nlp, E.G., pengekstrakan aspek (Cite-P-26-3-15), pengiktirafan entiti yang dinamakan (Cite-P-26-3-6), pengekstrakan konsep (Cite-P-26-3-20), pengesanan sindiran (Cite-P-26-3-16), pengiktirafan keperibadian (Cite-P-26-3-7), dan banyak lagi.", "Analisis sentimen adalah bidang penyelidikan di mana analisis pengiraan perasaan atau kepercayaan orang yang dinyatakan dalam teks seperti emosi, pendapat, sikap, penilaian, dan lain-lain (Cite-P-12-1-3)."]}, {"en": ["We use the Selectfrommodel 4 feature selection method as implemented in Scikit-Learn.", "We implemented the different Aes models using Scikit-Learn."], "ms": ["Kami menggunakan kaedah pemilihan ciri Selectfrommodel 4 seperti yang dilaksanakan dalam Scikit-Learn.", "Kami melaksanakan model Aes yang berbeza menggunakan Scikit-Learn."]}, {"en": ["Relation extraction is a core task in information extraction and natural language understanding.", "Relation extraction is the task of automatically detecting occurrences of expressed relations between entities in a text and structuring the detected information in a Tabularized form."], "ms": ["Pengekstrakan hubungan adalah tugas utama dalam pengekstrakan maklumat dan pemahaman bahasa semula jadi.", "Pengekstrakan hubungan adalah tugas mengesan kejadian hubungan yang dinyatakan secara automatik antara entiti dalam teks dan menyusun maklumat yang dikesan dalam bentuk Tabularized."]}, {"en": ["Coreference resolution is a complex problem, and successful systems must tackle a variety of Non-Trivial Subproblems that are central to the Coreference task \u2014 E.G ., Mention/Markable detection, Anaphor identification \u2014 and that require substantial implementation efforts.", "Additionally, Coreference resolution is a pervasive problem in Nlp and many Nlp applications could benefit from an effective Coreference Resolver that can be easily Configured and customized."], "ms": ["Resolusi Coreference adalah masalah yang kompleks, dan sistem yang berjaya mesti menangani pelbagai Submasalah Bukan Trivial yang menjadi pusat tugas Coreference - E.G., pengesanan Mention / Markable, pengenalan Anaphor - dan yang memerlukan usaha pelaksanaan yang besar.", "Selain itu, resolusi Coreference adalah masalah yang meluas di Nlp dan banyak aplikasi Nlp boleh mendapat manfaat daripada Coreference Resolver yang berkesan yang boleh dengan mudah dikonfigurasi dan disesuaikan."]}, {"en": ["We use the L2-Regularized logistic regression of Liblinear as our term candidate Classifier.", "As our supervised classification algorithm, we use a linear SVM Classifier from Liblinear, with its default parameter settings."], "ms": ["Kami menggunakan regresi logistik L2-Regularized Liblinear sebagai pengelasan calon istilah kami.", "Sebagai algoritma pengelasan yang diselia, kami menggunakan Pengelas SVM linear dari Liblinear, dengan tetapan parameter lalainya."]}, {"en": ["A Knsmoothed 5-Gram language model is trained on the target side of the parallel data with Srilm.", "A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit from Stolcke."], "ms": ["Model bahasa 5-Gram Knsmoothed dilatih pada sisi sasaran data selari dengan Srilm.", "Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit dari Stolcke."]}, {"en": ["In addition, we describe an approach to Crowdsourcing ideological bias Annotations.", "In this paper, we examine the problem of detecting ideological bias."], "ms": ["Di samping itu, kami menerangkan pendekatan untuk Crowdsourcing Annotations bias ideologi.", "Dalam makalah ini, kita mengkaji masalah mengesan bias ideologi."]}, {"en": ["Callison-Burch et al used Pivot languages for paraphrase extraction to handle the unseen phrases for Phrase-Based Smt.", "Callison-Burch et al used paraphrases of the Trainig corpus for translating unseen phrases."], "ms": ["Callison-Burch et al menggunakan bahasa Pivot untuk pengekstrakan parafrasa untuk mengendalikan frasa yang tidak kelihatan untuk Smt Berasaskan Frasa.", "Callison-Burch et al menggunakan parafrasa korpus Trainig untuk menterjemahkan frasa-frasa yang tidak kelihatan."]}, {"en": ["The parameters are Initialized by the techniques described in.", "Parameters are Initialized using the method described by Glorot and Bengio."], "ms": ["Parameter diawalkan oleh teknik yang diterangkan dalam.", "Parameter diawalkan menggunakan kaedah yang diterangkan oleh Glorot dan Bengio."]}, {"en": ["Unpruned language models were trained using Lmplz which employs modified Kneser-Ney smoothing.", "The language model is a 5-Gram LM with modified Kneser-Ney smoothing."], "ms": ["Model bahasa yang tidak dipangkas dilatih menggunakan Lmplz yang menggunakan smoothing Kneser-Ney yang diubahsuai.", "Model bahasa adalah LM 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Kim et al and Kulkarni et al computed the degree of meaning change by applying neural networks for word representation.", "Kulkarni et al use neural word Embeddings to model the shift in meaning of words such as gay over the last century."], "ms": ["Kim et al dan Kulkarni et al mengira tahap makna perubahan dengan menggunakan rangkaian saraf untuk perwakilan perkataan.", "Kulkarni et al menggunakan perkataan neural Embeddings untuk memodelkan peralihan makna perkataan seperti gay sepanjang abad yang lalu."]}, {"en": ["Finally, we combine all the above features using a support vector regression model which is implemented in Scikit-Learn.", "We use several classifiers including logistic regression, random forest and Adaboost implemented in Scikit-Learn."], "ms": ["Akhirnya, kami menggabungkan semua ciri di atas menggunakan model regresi vektor sokongan yang dilaksanakan dalam Scikit-Learn.", "Kami menggunakan beberapa pengelas termasuk regresi logistik, hutan rawak dan Adaboost yang dilaksanakan di Scikit-Learn."]}, {"en": ["For Monolingual Treebank data we relied on the Conll-X and Conll-2007 shared tasks on dependency Parsing.", "We use the Treebanks from the Conll shared tasks on dependency Parsing for evaluation."], "ms": ["Untuk data Monolingual Treebank kami bergantung pada tugas kongsi Conll-X dan Conll-2007 mengenai Penghuraian dependensi.", "Kami menggunakan Treebanks dari tugas Conll berkongsi pada Penghuraian dependensi untuk penilaian."]}, {"en": ["We do perform word Segmentation in this work, using the Stanford tools.", "For Pos tagging and syntactic Parsing, we use the Stanford Nlp Toolkit."], "ms": ["Kami melakukan Segmentasi perkataan dalam kerja ini, menggunakan alat Stanford.", "Untuk penandaan Pos dan Penghuraian sintaktik, kami menggunakan Stanford Nlp Toolkit."]}, {"en": ["We use Srilm for training a Trigram language model on the English side of the training data.", "We apply Srilm to train the 3-Gram language model of target side."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa Trigram di sisi bahasa Inggeris data latihan.", "Kami menggunakan Srilm untuk melatih model bahasa 3-Gram dari sisi sasaran."]}, {"en": ["Lexical simplification is a technique that substitutes a complex word or phrase in a sentence with a simpler synonym.", "Lexical simplification is a specific case of lexical substitution where the complex words in a sentence are replaced with simpler words."], "ms": ["Penyederhanaan leksikal adalah teknik yang menggantikan perkataan atau frasa yang kompleks dalam ayat dengan sinonim yang lebih mudah.", "Penyederhanaan leksikal adalah kes penggantian leksikal tertentu di mana perkataan kompleks dalam ayat digantikan dengan kata yang lebih mudah."]}, {"en": ["Negation is a grammatical category that comprises devices used to reverse the truth value of propositions.", "Negation is a linguistic phenomenon where a negation Cue (E.G . not) can alter the meaning of a particular text segment or of a fact."], "ms": ["Negasi adalah kategori tatabahasa yang terdiri daripada peranti yang digunakan untuk membalikkan nilai kebenaran cadangan.", "Negasi adalah fenomena linguistik di mana Negasi Cue (E.G. tidak) boleh mengubah makna segmen teks tertentu atau fakta."]}, {"en": ["Word alignment is a critical first step for building statistical machine translation systems.", "Word alignment is a crucial early step in the training of most statistical machine translation (Smt) systems, in which the estimated alignments are used for constraining the set of candidates in Phrase/Grammar extraction (Cite-P-9-3-5, Cite-P-9-1-4, Cite-P-9-3-0)."], "ms": ["Penjajahan perkataan adalah langkah pertama yang kritikal untuk membina sistem terjemahan mesin statistik.", "Penjajahan perkataan adalah langkah awal penting dalam latihan kebanyakan sistem terjemahan mesin statistik (Smt), di mana penjajaran anggaran digunakan untuk mengekang set calon dalam pengekstrakan Phrase / Gammar (Cite-P-9-3-5, Cite-P-9-1-4, Cite-P-9-3-0)."]}, {"en": ["The language model is a 5-Gram LM with modified Kneser-Ney smoothing.", "In addition, a 5-Gram LM with Kneser-Ney smoothing and interpolation was built using the Srilm Toolkit."], "ms": ["Model bahasa adalah LM 5-Gram dengan smoothing Kneser-Ney yang diubahsuai.", "Selain itu, LM 5-Gram dengan smoothing dan interpolasi Kneser-Ney dibina menggunakan Srilm Toolkit."]}, {"en": ["For language modeling, we use the English Gigaword corpus with 5-Gram LM implemented with the Kenlm Toolkit.", "An English 5-Gram language model is trained using Kenlm on the Gigaword corpus."], "ms": ["Untuk pemodelan bahasa, kami menggunakan corpus Gigaword Inggeris dengan 5-Gram LM yang dilaksanakan dengan Kenlm Toolkit.", "Model bahasa 5-Gram Inggeris dilatih menggunakan Kenlm pada korpus Gigaword."]}, {"en": ["Collobert et al used word Embeddings as input to a deep neural network for Multi-Task learning.", "Collobert et al , 2011) used word Embeddings for Pos tagging, named entity recognition and semantic role labeling."], "ms": ["Collobert et al menggunakan perkataan Embeddings sebagai input kepada rangkaian neural yang mendalam untuk pembelajaran Multi-Task.", "Collobert et al, 2011) menggunakan perkataan Embeddings untuk penandaan Pos, pengiktirafan entiti dinamakan dan pelabelan peranan semantik."]}, {"en": ["These results show that phrase structure trees, when viewed in certain ways, have much more descriptive power than one would have thought.", "We have also shown that phrase structure trees, even when deprived of the labels, retain in a certain sense."], "ms": ["Hasil ini menunjukkan bahawa pokok struktur frasa, apabila dilihat dengan cara tertentu, mempunyai kuasa yang lebih deskriptif daripada yang difikirkan.", "Kami juga telah menunjukkan bahawa pokok struktur frasa, walaupun dilucutkan label, mengekalkan dalam erti kata tertentu."]}, {"en": ["The Trec documents were converted from Html to raw text, and both collections were Tokenised using Bio-Specific Nlp tools.", "The Xml MARKUP was removed, and the collection was Tokenised and split into sentences using Bio-Specific Nlp tools."], "ms": ["Dokumen Trec ditukar dari Html ke teks mentah, dan kedua-dua koleksi Tokenized menggunakan alat Bio-Specific Nlp.", "Xml MARKUP telah dikeluarkan, dan koleksi itu Tokenised dan dibahagikan kepada ayat menggunakan alat Bio-Specific Nlp."]}, {"en": ["In this paper, we propose a novel neural system combination framework for machine translation.", "In this paper, we propose a neural system combination framework, which is adapted from the Multi-Source Nmt model."], "ms": ["Dalam makalah ini, kami mencadangkan rangka kerja gabungan sistem saraf novel untuk terjemahan mesin.", "Dalam makalah ini, kami mencadangkan rangka kerja gabungan sistem saraf, yang disesuaikan dari model Multi-Source Nmt."]}, {"en": ["Hatzivassiloglou and Mckeown proposed a method for identifying word polarity of adjectives.", "Hatzivassiloglou and Mckeown used a Log-Linear regression model to predict the similarity of conjoined adjectives."], "ms": ["Hatzivassiloglou dan Mckeown mencadangkan kaedah untuk mengenal pasti polariti perkataan kata sifat.", "Hatzivassiloglou dan Mckeown menggunakan model regresi Log-Linear untuk meramalkan persamaan kata sifat yang bersambung."]}, {"en": ["For our implementation we use 300-Dimensional Part-Of-Speech-Specific word Embeddings V I generated using the Gensim Word2Vec package.", "For our purpose we use Word2Vec Embeddings trained on a Google news Dataset and find the Pairwise Cosine distances for all words."], "ms": ["Untuk pelaksanaan kami, kami menggunakan Embedding perkataan Bahagian-Daripada-Pertuturan-Spesifik 300 Dimensional V I yang dihasilkan menggunakan pakej Gensim Word2Vec.", "Untuk tujuan kami, kami menggunakan Embeddings Word2Vec yang dilatih pada Dataset berita Google dan mencari jarak Pairwise Cosine untuk semua perkataan."]}, {"en": ["Crowdsourcing is a viable mechanism for creating training data for machine translation.", "Crowdsourcing is the use of the mass collaboration of Internet Passersby for large Enterprises on the world wide web such as Wikipedia and survey companies."], "ms": ["Crowdsourcing adalah mekanisme yang sesuai untuk membuat data latihan untuk terjemahan mesin.", "Crowdsourcing adalah penggunaan kerjasama besar-besaran Internet Passersby untuk Enterprises besar di web luas dunia seperti Wikipedia dan syarikat tinjauan."]}, {"en": ["The target language model was a Trigram language model with modified Kneser-Ney smoothing trained on the English side of the Bitext using the Srilm Tookit.", "The Phrase-Based translation model uses the Con- the baseline LM was a regular N-Gram LM with Kneser-Ney smoothing and interpolation by means of the Srilm Toolkit."], "ms": ["Model bahasa sasaran adalah model bahasa Trigram dengan smoothing Kneser-Ney yang diubahsuai dilatih di sisi bahasa Inggeris Bitext menggunakan Srilm Tookit.", "Model terjemahan Berfiksyen menggunakan Con- LM asas adalah LM N-Gram biasa dengan smoothing Kneser-Ney dan interpolasi melalui Srilm Toolkit."]}, {"en": ["As a Countbased baseline, we use modified Kneser-Ney as implemented in Kenlm.", "We use Srilm to build 5-Gram language models with modified Kneser-Ney smoothing."], "ms": ["Sebagai asas berasaskan Count, kami menggunakan Kneser-Ney yang diubahsuai seperti yang dilaksanakan di Kenlm.", "Kami menggunakan Srilm untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We use the Word2Vec Skip-Gram model to learn initial word representations on Wikipedia.", "Using Word2Vec, we compute word Embeddings for our text corpus."], "ms": ["Kami menggunakan model Skip-Gram Word2Vec untuk mempelajari perwakilan perkataan awal di Wikipedia.", "Menggunakan Word2Vec, kami mengira Embedding perkataan untuk korpus teks kami."]}, {"en": ["Lexical simplification is a popular task in natural language processing and it was the topic of a successful Semeval task in 2012 (Cite-P-14-1-9).", "Lexical simplification is a Subtask of text simplification (Cite-P-16-3-3) concerned with replacing words or short phrases by simpler Variants in a context aware fashion (generally synonyms), which can be understood by a wider range of readers."], "ms": ["Penyederhanaan leksikal adalah tugas yang popular dalam pemprosesan bahasa semula jadi dan ia menjadi topik tugas Semeval yang berjaya pada tahun 2012 (Cite-P-14-1-9).", "Penyederhanaan leksikal adalah Subtugas ringkasan teks (Cite-P-16-3-3) yang berkaitan dengan menggantikan perkataan atau frasa pendek oleh Variants yang lebih mudah dalam konteks yang sedar fesyen (umumnya sinonim), yang boleh difahami oleh pelbagai pembaca yang lebih luas."]}, {"en": ["Chapman et al developed Negex, a simple regular Expression-Based algorithm to determine whether a finding or disease mentioned within medical reports was present or absent.", "Chapman et al developed Negex, a regular expression based algorithm for determining whether a finding or disease mentioned within narrative medical reports is present or absent."], "ms": ["Chapman et al membangunkan Negex, algoritma berasaskan ekspresi biasa yang mudah untuk menentukan sama ada penemuan atau penyakit yang disebutkan dalam laporan perubatan hadir atau tidak hadir.", "Chapman et al membangunkan Negex, algoritma berasaskan ungkapan biasa untuk menentukan sama ada penemuan atau penyakit yang disebut dalam laporan perubatan naratif hadir atau tidak hadir."]}, {"en": ["We used a logistic regression Classifier provided by the Liblinear software.", "We use the logistic regression implementation of Liblinear wrapped by the Scikit-Learn library."], "ms": ["Kami menggunakan Classifier regresi logistik yang disediakan oleh perisian Liblinear.", "Kami menggunakan pelaksanaan regresi logistik Liblinear yang dibungkus oleh perpustakaan Scikit-Learn."]}, {"en": ["Firstly, at Word-Level alignment, Luong et al extend the Skip-Gram model to learn efficient bilingual word Embeddings.", "Luong et al propose bilingual Skip-Gram which extends the Monolingual Skip-Gram model and learns bilingual Embeddings using a parallel Copora and word alignments."], "ms": ["Pertama, pada penjajaran Word-Level, Luong et al memanjangkan model Skip-Gram untuk mempelajari Embedding kata dwibahasa yang cekap.", "Luong et al mengusulkan Skip-Gram dwibahasa yang memanjangkan model Skip-Gram Monolingual dan mempelajari Embedding dwibahasa menggunakan Copora selari dan penjajaran perkataan."]}, {"en": ["In this paper, we propose a Cache-Based approach to Document-Level translation.", "In this way, our Cache-Based approach can provide useful data at the beginning of the translation process."], "ms": ["Dalam makalah ini, kami mencadangkan pendekatan berasaskan cache untuk terjemahan Tahap Dokumen.", "Dengan cara ini, pendekatan berasaskan cache kami dapat memberikan data berguna pada awal proses terjemahan."]}, {"en": ["We used the target side of the parallel corpus and the Srilm Toolkit to train a 5-Gram language model.", "We used the Srilm software 4 to build Langauge models as well as to calculate Cross-Entropy based features."], "ms": ["Kami menggunakan sisi sasaran korpus selari dan Srilm Toolkit untuk melatih model bahasa 5-Gram.", "Kami menggunakan perisian Srilm 4 untuk membina model Langauge serta untuk mengira ciri berasaskan Cross-Entropy."]}, {"en": ["The grammatical relations are all the collapsed Dependencies produced by the Stanford dependency Parser.", "The DTS are based on collapsed Dependencies from the Stanford Parser in the Holing operation."], "ms": ["Hubungan tatabahasa adalah semua Dependensi runtuh yang dihasilkan oleh Stanford dependency Parser.", "DTS didasarkan pada Dependensi yang runtuh dari Stanford Parser dalam operasi Holing."]}, {"en": ["There has been a substantial amount of work on automatic semantic role labeling, starting with the statistical model of Gildea and Jurafsky.", "Ever since the pioneering article of Gildea and Jurafsky, there has been an increasing interest in automatic semantic role labeling."], "ms": ["Terdapat banyak kerja pada pelabelan peranan semantik automatik, bermula dengan model statistik Gildea dan Jurafsky.", "Sejak artikel perintis Gildea dan Jurafsky, terdapat minat yang semakin meningkat dalam pelabelan peranan semantik automatik."]}, {"en": ["We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "Our Trigram word language model was trained on the target side of the training corpus using the Srilm Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Model bahasa perkataan Trigram kami dilatih di sisi sasaran korpus latihan menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We apply Sri language modeling Toolkit to train a 4-Gram language model with Kneser-Ney smoothing.", "We used Trigram language models with interpolated Kneser-Kney discounting trained using the Sri language modeling Toolkit."], "ms": ["Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model bahasa 4-Gram dengan smoothing Kneser-Ney.", "Kami menggunakan model bahasa Trigram dengan diskaun Kneser-Kney yang diinterpolasi dilatih menggunakan Toolkit pemodelan bahasa Sri."]}, {"en": ["The translation systems were evaluated by BLEU score.", "The translation quality is evaluated by Caseinsensitive Bleu-4 metric."], "ms": ["Sistem terjemahan dinilai oleh skor BLEU.", "Kualiti terjemahan dinilai oleh Caseinsensitive Bleu-4 metrik."]}, {"en": ["All language models are created with the Srilm Toolkit and are standard 4-Gram LMS with interpolated modified Kneser-Ney smoothing.", "The language models are 4-Grams with modified Kneser-Ney smoothing which have been trained with the Srilm Toolkit."], "ms": ["Semua model bahasa dicipta dengan Srilm Toolkit dan merupakan LMS 4-Gram standard dengan smoothing Kneser-Ney yang diubahsuai interpolated.", "Model bahasa adalah 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang telah dilatih dengan Srilm Toolkit."]}, {"en": ["To minimize the objective, we use stochastic gradient descent with the diagonal variant of Adagrad.", "To optimize model parameters, we use the Adagrad algorithm of Duchi et al with L2 Regularization."], "ms": ["Untuk meminimumkan objektif, kita menggunakan keturunan kecerunan stokastik dengan varian pepenjuru Adagrad.", "Untuk mengoptimumkan parameter model, kami menggunakan algoritma Adagrad Duchi et al dengan L2 Regularization."]}, {"en": ["Models are evaluated in terms of BLEU, meteor and Ter on Tokenized, cased test data.", "Performance is measured in terms of BLEU and Ter computed using the Multeval script."], "ms": ["Model dinilai dari segi BLEU, meteor dan Ter on Tokenized, data ujian cased.", "Prestasi diukur dari segi BLEU dan Ter dikira menggunakan skrip Multeval."]}, {"en": ["The experiments were carried out using the Chinese-English Datasets provided within the Iwslt 2006 evaluation campaign, extracted from the basic travel expression corpus.", "The experiments are carried out on a Subset of the basic travel expression corpus, as it is used for the supplied data track condition of the Iwslt evaluation campaign."], "ms": ["Eksperimen ini dijalankan menggunakan Dataset Cina-Inggeris yang disediakan dalam kempen penilaian Iwslt 2006, yang diekstrak dari korpus ungkapan perjalanan asas.", "Eksperimen dijalankan pada Subset korpus ungkapan perjalanan asas, kerana ia digunakan untuk keadaan trek data yang dibekalkan kempen penilaian Iwslt."]}, {"en": ["A pun is a form of Wordplay in which one sign (E.G ., a word or phrase) suggests two or more meanings by exploiting Polysemy, Homonymy, or Phonological similarity to another sign, for an intended humorous or Rhetorical effect (Aarons , 2017; Hempelmann and Miller , 2017).", "Pun is a way of using the characteristics of the language to cause a word, a sentence or a discourse to involve two or more different meanings."], "ms": ["A pun adalah bentuk Wordplay di mana satu tanda (E.G., perkataan atau frasa) mencadangkan dua atau lebih makna dengan mengeksploitasi Polysemy, Homonymy, atau persamaan Phonologi dengan tanda lain, untuk kesan humor atau Rhetorical yang dimaksudkan (Aarons, 2017; Hempelmann dan Miller, 2017).", "Pun adalah cara menggunakan ciri-ciri bahasa untuk menyebabkan perkataan, ayat atau wacana melibatkan dua atau lebih makna yang berbeza."]}, {"en": ["Using Espac Medlineplus, we trained an initial Phrase-Based Moses system.", "Our baseline system is an standard Phrase-Based Smt system built with Moses."], "ms": ["Menggunakan Espac Medlineplus, kami melatih sistem Musa Berasaskan Frasa awal.", "Sistem asas kami adalah sistem Smt Berasaskan Frasa standard yang dibina dengan Musa."]}, {"en": ["Relation extraction is the task of extracting semantic relationships between entities in text, E.G . to detect an employment relationship between the person Larry page and the company Google in the following text Snippet: Google Ceo Larry page holds a press announcement at its headquarters in New York on May 21 , 2012.", "Relation extraction is the task of automatically detecting occurrences of expressed relations between entities in a text and structuring the detected information in a Tabularized form."], "ms": ["Pengekstrakan hubungan adalah tugas mengekstrak hubungan semantik antara entiti dalam teks, E.G. untuk mengesan hubungan pekerjaan antara halaman Larry dan syarikat Google dalam teks berikut Snippet: Halaman Google Ceo Larry memegang pengumuman akhbar di ibu pejabatnya di New York pada 21 Mei 2012.", "Pengekstrakan hubungan adalah tugas mengesan kejadian hubungan yang dinyatakan secara automatik antara entiti dalam teks dan menyusun maklumat yang dikesan dalam bentuk Tabularized."]}, {"en": ["Recent studies have also shown that the capability to automatically identify problematic situations during interaction can significantly improve the system performance.", "Related to their information goals, the interaction context can provide useful cues for the system to automatically identify problematic situations."], "ms": ["Kajian terkini juga menunjukkan bahawa keupayaan untuk mengenal pasti situasi bermasalah secara automatik semasa interaksi dapat meningkatkan prestasi sistem dengan ketara.", "Berkaitan dengan matlamat maklumat mereka, konteks interaksi boleh memberikan isyarat berguna untuk sistem untuk mengenal pasti situasi yang bermasalah secara automatik."]}, {"en": ["The translation results are evaluated by Caseinsensitive Bleu-4 metric.", "Translation quality is evaluated by Case-Insensitive Bleu-4 metric."], "ms": ["Hasil terjemahan dinilai oleh metrik Caseinsensitive Bleu-4.", "Kualiti terjemahan dinilai oleh metrik Case-Insensitive Bleu-4."]}, {"en": ["A Trigram language model with modified Kneser-Ney discounting and interpolation was used as produced by the Srilm Toolkit.", "We use Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting."], "ms": ["Model bahasa Trigram dengan diskaun Kneser-Ney yang diubahsuai dan interpolasi digunakan seperti yang dihasilkan oleh Srilm Toolkit.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["All English data are Pos tagged and Lemmatised using the Treetagger.", "The source and target sentences are tagged respectively using the Treetagger and Amira Toolkits."], "ms": ["Semua data Bahasa Inggeris adalah Pos ditandai dan Lemmatised menggunakan Treetagger.", "Kalimat sumber dan sasaran ditandakan masing-masing menggunakan Treetagger dan Amira Toolkits."]}, {"en": ["We use Moses, an open source Toolkit for training different systems.", "We use the Opensource Moses Toolkit to build a Phrase-Based Smt system."], "ms": ["Kami menggunakan Musa, alat sumber terbuka untuk melatih sistem yang berbeza.", "Kami menggunakan Opensource Moses Toolkit untuk membina sistem Smt Berasaskan Frasa."]}, {"en": ["We present the text to the Encoder as a sequence of Word2Vec word Embeddings from a Word2Vec model trained on the Hrwac corpus.", "We Initialize our model with 300-Dimensional Word2Vec Toolkit vectors generated by a continuous Skip-Gram model trained on around 100 billion words from the Google news corpus."], "ms": ["Kami membentangkan teks kepada Encoder sebagai urutan Embedding perkataan Word2Vec dari model Word2Vec yang dilatih pada korpus Hrwac.", "Kami Memulakan model kami dengan 300-Dimensional Word2Vec Toolkit vektor yang dihasilkan oleh model Skip-Gram berterusan yang dilatih pada sekitar 100 bilion perkataan dari korpus berita Google."]}, {"en": ["We use the glove vector representations to compute Cosine similarity between two words.", "For all models, we use fixed Pre-Trained glove vectors and character Embeddings."], "ms": ["Kami menggunakan perwakilan vektor sarung tangan untuk mengira persamaan kosinus antara dua perkataan.", "Untuk semua model, kami menggunakan vektor sarung tangan Pra-Trained tetap dan Embedding watak."]}, {"en": ["We used the Case-Insensitive Bleu-4 to evaluate translation quality and run Mert three times.", "We use Case-Sensitive Bleu-4 to measure the quality of translation result."], "ms": ["Kami menggunakan Case-Insensitive Bleu-4 untuk menilai kualiti terjemahan dan menjalankan Mert tiga kali.", "Kami menggunakan Case-Sensitive Bleu-4 untuk mengukur kualiti hasil terjemahan."]}, {"en": ["To this end, we use First-And second-order conditional random fields.", "We use conditional random fields for sequence labelling."], "ms": ["Untuk tujuan ini, kami menggunakan medan rawak bersyarat pertama dan kedua.", "Kami menggunakan medan rawak bersyarat untuk pelabelan jujukan."]}, {"en": ["Itspoke is a Speech-Enabled version of the Text-Based Why2-Atlas conceptual physics tutoring system.", "Itspoke, is a Speech-Enabled tutor built on top of the Text-Based Why2-Atlas conceptual physics tutor."], "ms": ["Itspoke adalah versi Speech-Enabled dari sistem tutor fizik konseptual Why2-Atlas Berasaskan Teks.", "Itspoke, adalah tutor Speech-Enabled yang dibina di atas tutor fizik konseptual Why2-Atlas berasaskan teks."]}, {"en": ["Word sense Disambiguation (Wsd) is the Nlp task that consists in selecting the correct sense of a Polysemous word in a given context.", "Word sense Disambiguation (Wsd) is the task of assigning sense tags to ambiguous lexical items (Lis) in a text."], "ms": ["Disambiguasi erti kata (Wsd) ialah tugas Nlp yang terdiri daripada memilih erti kata yang betul bagi perkataan Polisemous dalam konteks tertentu.", "Disambiguasi kata (Wsd) adalah tugas untuk menetapkan tag deria kepada item leksikal samar (Lis) dalam teks."]}, {"en": ["Our Phrase-Based system is similar to the alignment template system described by och and Ney.", "The Smt system deployed in our approach is an implementation of the alignment template approach of och and Ney."], "ms": ["Sistem Berasaskan Frasa kami adalah serupa dengan sistem templat penjajaran yang digambarkan oleh och dan Ney.", "Sistem Smt yang digunakan dalam pendekatan kami adalah pelaksanaan pendekatan templat penjajaran och dan Ney."]}, {"en": ["The target language model is built on the target side of the parallel data with Kneser-Ney smoothing using the Irstlm tool.", "Language modeling is trained using Kenlm using 5-Grams, with modified Kneser-Ney smoothing."], "ms": ["Model bahasa sasaran dibina di sisi sasaran data selari dengan smoothing Kneser-Ney menggunakan alat Irstlm.", "Pemodelan bahasa dilatih menggunakan Kenlm menggunakan 5-Gram, dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We use the Moses software package 5 to train a Pbmt model.", "We use the Moses Toolkit to train our Phrase-Based Smt models."], "ms": ["Kami menggunakan pakej perisian Musa 5 untuk melatih model Pbmt.", "Kami menggunakan Musa Toolkit untuk melatih model Smt Berasaskan Frasa kami."]}, {"en": ["Collobert and Weston , 2008, proposed a Multitask neural network trained jointly on the relevant tasks using Weight-Sharing.", "Collobert and Weston, in their seminal paper on deep architectures for Nlp, propose a Multilayer neural network for learning word Embeddings."], "ms": ["Collobert dan Weston, 2008, mencadangkan rangkaian neural Multitask yang dilatih bersama-sama pada tugas-tugas yang berkaitan menggunakan Weight-Sharing.", "Collobert dan Weston, dalam kertas seminal mereka mengenai seni bina mendalam untuk Nlp, mencadangkan rangkaian neural Multilayer untuk pembelajaran Embedding perkataan."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit.", "The language models are 4-Grams with modified Kneser-Ney smoothing which have been trained with the Srilm Toolkit."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit.", "Model bahasa adalah 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang telah dilatih dengan Srilm Toolkit."]}, {"en": ["The Penn discourse Treebank is the largest available Discourseannotated resource in English.", "The Penn discourse Treebank is the largest corpus richly Annotated with explicit and implicit discourse relations and their senses."], "ms": ["Penn discourse Treebank adalah sumber Discourseannotated yang terbesar dalam bahasa Inggeris.", "Penn discourse Treebank adalah corpus terbesar yang kaya Annotated dengan hubungan wacana yang eksplisit dan tersirat dan deria mereka."]}, {"en": ["Table 1 summarizes test set performance in BLEU, Nist and Ter.", "Table 4 shows the BLEU scores of the output descriptions."], "ms": ["Jadual 1 meringkaskan prestasi set ujian dalam BLEU, Nist dan Ter.", "Jadual 4 menunjukkan skor BLEU bagi keterangan output."]}, {"en": ["Mcclosky et al presented a successful instance of Parsing with Self-Training by using a Reranker.", "Mcclosky et al presented a Self-Training approach for phrase structure Parsing and the approach was shown to be effective in practice."], "ms": ["Mcclosky et al menyampaikan contoh yang berjaya Parsing dengan Latihan Sendiri dengan menggunakan Reranker.", "Mcclosky et al mengemukakan pendekatan Latihan Sendiri untuk struktur frasa Penghuraian dan pendekatan itu terbukti berkesan dalam amalan."]}, {"en": ["We use the glove word vector representations of dimension 300.", "We use glove vectors with 100 dimensions trained on Wikipedia and Gigaword as word Embeddings."], "ms": ["Kami menggunakan perkataan sarung tangan perwakilan vektor dimensi 300.", "Kami menggunakan vektor sarung tangan dengan 100 dimensi yang dilatih di Wikipedia dan Gigaword sebagai Embedding perkataan."]}, {"en": ["This task is called sentence compression.", "Sentence compression is the task of producing a summary at the sentence level."], "ms": ["Tugas ini dipanggil mampatan ayat.", "Pemampatan ayat adalah tugas menghasilkan ringkasan pada tahap ayat."]}, {"en": ["Bleu is an established and the most widely used automatic metric for evaluation of mt quality.", "Bleu is essentially a Precision-Based metric and is currently the standard metric for automatic evaluation of mt performance."], "ms": ["Bleu adalah metrik automatik yang paling banyak digunakan untuk penilaian kualiti mt.", "Bleu pada dasarnya adalah metrik berasaskan ketepatan dan kini merupakan metrik standard untuk penilaian automatik prestasi mt."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of determining the correct meaning for an ambiguous word from its context.", "Word sense Disambiguation (Wsd) is formally defined as the task of Computationally identifying senses of a word in a context."], "ms": ["Kemusykilan erti kata Kemusykilan (Wsd) ialah tugas menentukan makna yang betul bagi perkataan yang samar-samar dari konteksnya.", "Disambiguasi erti kata (Wsd) secara rasmi ditakrifkan sebagai tugas Mengenal pasti deria perkataan secara komputasi dalam konteks."]}, {"en": ["The target language model was a standard Ngram language model trained by the Sri language modeling Toolkit.", "A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit from Stolcke."], "ms": ["Model bahasa sasaran adalah model bahasa Ngram standard yang dilatih oleh Toolkit pemodelan bahasa Sri.", "Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit dari Stolcke."]}, {"en": ["Tomanek et al utilised Eye-Tracking data to evaluate the degree of difficulty in Annotating named entities.", "Tomanek et al utilised Eye-Tracking data to evaluate difficulties of named entities for selecting training instances for active learning techniques."], "ms": ["Tomanek et al menggunakan data Eye-Tracking untuk menilai tahap kesukaran dalam Annotating entiti yang dinamakan.", "Tomanek et al menggunakan data Eye-Tracking untuk menilai kesukaran entiti bernama untuk memilih contoh latihan untuk teknik pembelajaran aktif."]}, {"en": ["We Initialize the Embedding weights by the Pre-Trained word Embeddings with 200 dimensional vectors.", "Then, we Encode each Tweet as a sequence of word vectors Initialized using glove Embeddings."], "ms": ["Kami Memulakan berat Embedding oleh perkataan Pra-Trained Embeddings dengan 200 vektor dimensi.", "Kemudian, kami Mengenal pasti setiap Tweet sebagai urutan vektor perkataan yang Diawalkan menggunakan Embedding sarung tangan."]}, {"en": ["Sentiment analysis (SA) is the task of determining the sentiment of a given piece of text.", "Sentiment analysis (SA) is a Hot-Topic in the academic world, and also in the industry."], "ms": ["Analisis sentimen (SA) adalah tugas menentukan sentimen sekeping teks tertentu.", "Analisis sentimen (SA) adalah Hot-Topic dalam dunia akademik, dan juga dalam industri."]}, {"en": ["We used the Srilm Toolkit to train a 4-Gram language model on the English side of the training corpus.", "We trained a 5-Gram language model on the Xinhua portion of Gigaword corpus using the Srilm Toolkit."], "ms": ["Kami menggunakan Srilm Toolkit untuk melatih model bahasa 4-Gram di sisi bahasa Inggeris korpus latihan.", "Kami melatih model bahasa 5-Gram di bahagian Xinhua Gigaword corpus menggunakan Srilm Toolkit."]}, {"en": ["Socher et al train a composition function using a neural Network-However their method requires Annotated data.", "Socher et al present a compositional model based on a recursive neural network."], "ms": ["Socher et al melatih fungsi komposisi menggunakan Rangkaian neural-Bagaimanapun kaedah mereka memerlukan data Annotated.", "Socher et al mempersembahkan model komposisi berdasarkan rangkaian saraf rekursif."]}, {"en": ["The Srilm Toolkit is used to train 5-Gram language model.", "Srilm Toolkit is used to build these language models."], "ms": ["Srilm Toolkit digunakan untuk melatih model bahasa 5-Gram.", "Srilm Toolkit digunakan untuk membina model bahasa ini."]}, {"en": ["We use a Bidirectional long short-term memory Rnn to Encode a sentence.", "We use a sequential Lstm to Encode this description."], "ms": ["Kami menggunakan Rnn ingatan jangka pendek panjang Bidirectional untuk Mengenal pasti ayat.", "Kami menggunakan Lstm berurutan untuk Mengenal pasti penerangan ini."]}, {"en": ["Previous work has shown that Unlabeled text can be used to induce Unsupervised word clusters which can improve the performance of many supervised Nlp tasks.", "Unsupervised word Embeddings trained from large amounts of Unlabeled data have been shown to improve many Nlp tasks."], "ms": ["Kerja terdahulu telah menunjukkan bahawa teks Unlabeled boleh digunakan untuk mendorong kluster perkataan Unsupervised yang boleh meningkatkan prestasi banyak tugas Nlp yang diawasi.", "Embedding perkataan yang tidak diawasi yang dilatih dari sejumlah besar data Unlabeled telah ditunjukkan untuk meningkatkan banyak tugas Nlp."]}, {"en": ["In section 4, through experiments on multiple Real-World Datasets, we observe that Sictf is not only more accurate than Kb-Lda but also significantly faster with a Speedup of 14X.", "Through extensive experiments on multiple Real-World Datasets, we find that Sictf is not only more accurate than state-of-the-art Baselines, but also significantly faster (about 14X faster."], "ms": ["Dalam seksyen 4, melalui eksperimen pada pelbagai Dataset Dunia Nyata, kami memerhatikan bahawa Sictf bukan sahaja lebih tepat daripada Kb-Lda tetapi juga jauh lebih pantas dengan Speedup 14X.", "Melalui eksperimen yang luas pada pelbagai Dataset Dunia Nyata, kami mendapati bahawa Sictf bukan sahaja lebih tepat daripada Baselines canggih, tetapi juga jauh lebih pantas (kira-kira 14X lebih cepat."]}, {"en": ["We build an Open-Vocabulary language model with Kneser-Ney smoothing using the Srilm Toolkit.", "We use Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting."], "ms": ["Kami membina model bahasa Open-Vocabulary dengan smoothing Kneser-Ney menggunakan Srilm Toolkit.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Incometo select the most fluent path, we train a 5-Gram language model with the Srilm Toolkit on the English Gigaword corpus.", "We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus."], "ms": ["Incometo memilih laluan yang paling fasih, kami melatih model bahasa 5-Gram dengan Srilm Toolkit pada corpus Gigaword Inggeris.", "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side."]}, {"en": ["Luong et al , 2013) utilized recursive neural networks in which inputs are Morphemes of words.", "Luong et al segment words using Morfessor, and use recursive neural networks to build word Embeddings from Morph Embeddings."], "ms": ["Luong et al, 2013) menggunakan rangkaian saraf rekursif di mana input adalah Morphemes perkataan.", "Kata-kata segmen Luong et al menggunakan Morfessor, dan menggunakan rangkaian neural rekursif untuk membina Embedding perkataan dari Embedding Morph."]}, {"en": ["For word representation, we train the Skip-Gram word Embedding on each Dataset separately to Initialize the word vectors.", "To compensate the limit of In-Domain data size, we use Word2Vec to learn the word Embedding from a large amount of General-Domain data."], "ms": ["Untuk perwakilan perkataan, kami melatih Embedding perkataan Skip-Gram pada setiap Dataset secara berasingan untuk Memulakan vektor perkataan.", "Untuk mengimbangi had saiz data In-Domain, kami menggunakan Word2Vec untuk mempelajari Embedding perkataan dari sejumlah besar data General-Domain."]}, {"en": ["When Parsers are trained on Ptb, we use the Stanford Pos Tagger.", "For feature extraction, we used the Stanford Pos Tagger."], "ms": ["Apabila Parsers dilatih di Ptb, kami menggunakan Stanford Pos Tagger.", "Untuk pengekstrakan ciri, kami menggunakan Stanford Pos Tagger."]}, {"en": ["We used the Scikit-Learn implementation of Svrs and the Skll Toolkit.", "We used SVM Classifier that implements Linearsvc from the Scikit-Learn library."], "ms": ["Kami menggunakan pelaksanaan Scikit-Learn Svrs dan Skll Toolkit.", "Kami menggunakan SVM Classifier yang melaksanakan Linearsvc dari perpustakaan Scikit-Learn."]}, {"en": ["We used the Phrasebased translation system in Moses 5 as a baseline Smt system.", "We used the Moses mt Toolkit with default settings and features for both Phrase-Based and Hierarchical systems."], "ms": ["Kami menggunakan sistem terjemahan berasaskan frasa dalam Musa 5 sebagai sistem Smt asas.", "Kami menggunakan Musa mt Toolkit dengan tetapan lalai dan ciri untuk kedua-dua sistem Berasaskan Frasa dan Hierarki."]}, {"en": ["For this task, we use the Widely-Used BLEU metric.", "We measure the translation quality using a single reference BLEU."], "ms": ["Untuk tugas ini, kami menggunakan metrik BLEU yang digunakan secara meluas.", "Kami mengukur kualiti terjemahan menggunakan rujukan tunggal BLEU."]}, {"en": ["Coreference resolution is the task of automatically grouping references to the same Real-World entity in a document into a set.", "Coreference resolution is the task of grouping mentions to entities."], "ms": ["Resolusi spatial adalah tugas untuk mengumpulkan rujukan secara automatik ke entiti Dunia Nyata yang sama dalam dokumen ke dalam satu set.", "Resolusi spatial adalah tugas untuk mengumpulkan sebutan kepada entiti."]}, {"en": ["Lstms were introduced by Hochreiter and Schmidhuber in order to mitigate the vanishing gradient problem.", "Long short term memory units are proposed in Hochreiter and Schmidhuber to overcome this problem."], "ms": ["Lstms diperkenalkan oleh Hochreiter dan Schmidhuber untuk mengurangkan masalah kecerunan yang hilang.", "Unit ingatan jangka pendek yang panjang dicadangkan di Hochreiter dan Schmidhuber untuk mengatasi masalah ini."]}, {"en": ["The language model was constructed using the Srilm Toolkit with interpolated Kneser-Ney discounting.", "These language models were built up to an order of 5 with Kneser-Ney smoothing using the Srilm Toolkit."], "ms": ["Model bahasa dibina menggunakan Srilm Toolkit dengan diskaun Kneser-Ney yang saling berkaitan.", "Model bahasa ini dibina sehingga urutan 5 dengan smoothing Kneser-Ney menggunakan Srilm Toolkit."]}, {"en": ["We evaluate text generated from gold Mr graphs using the well-known BLEU measure.", "We evaluate the translation quality using the Case-Sensitive Bleu-4 metric."], "ms": ["Kami menilai teks yang dihasilkan dari graf emas Mr menggunakan ukuran BLEU yang terkenal.", "Kami menilai kualiti terjemahan menggunakan metrik Case-Sensitive Bleu-4."]}, {"en": ["We conduct experiments using these word Embeddings with Maltparser and Maltoptimizer.", "We experiment with both the Maltparser and the Mstparser as the Dg Parser."], "ms": ["Kami menjalankan eksperimen menggunakan perkataan Embeddings ini dengan Maltparser dan Maltoptimizer.", "Kami bereksperimen dengan Maltparser dan Mstparser sebagai Dg Parser."]}, {"en": ["Grammar induction is the task of learning grammatical structure from plain text without human supervision.", "Grammar induction is a task within the field of natural language processing that attempts to construct a grammar of a given language solely on the basis of positive examples of this language."], "ms": ["Induksi tatabahasa adalah tugas pembelajaran struktur tatabahasa dari teks biasa tanpa pengawasan manusia.", "Induksi tatabahasa adalah tugas dalam bidang pemprosesan bahasa semula jadi yang cuba membina tatabahasa bahasa tertentu semata-mata berdasarkan contoh positif bahasa ini."]}, {"en": ["The selected plain sentence pairs are further Parsed by Stanford Parser on both the English and Chinese sides.", "The Stanford Parser is used to Parse Chinese sentences on the training, Dev and test sets."], "ms": ["Pasangan ayat biasa yang dipilih di Parsed oleh Stanford Parser di kedua-dua belah pihak Inggeris dan Cina.", "Stanford Parser digunakan untuk Parse ayat Cina pada latihan, Dev dan set ujian."]}, {"en": ["The language models were built using Srilm Toolkits.", "The Trigram language model is implemented in the Srilm Toolkit."], "ms": ["Model bahasa dibina menggunakan Srilm Toolkits.", "Model bahasa Trigram dilaksanakan dalam Srilm Toolkit."]}, {"en": ["We use glove vectors with 100 dimensions trained on Wikipedia and Gigaword as word Embeddings.", "We use Pretrained 100-D glove Embeddings trained on 6 billion tokens from Wikipedia and Gigaword corpus."], "ms": ["Kami menggunakan vektor sarung tangan dengan 100 dimensi yang dilatih di Wikipedia dan Gigaword sebagai Embedding perkataan.", "Kami menggunakan Embedding sarung tangan 100-D Pretrained yang dilatih pada 6 bilion token dari Wikipedia dan Gigaword corpus."]}, {"en": ["In this work, we use the Expectation-Maximization algorithm.", "Hence we use the expectation maximization algorithm for parameter learning."], "ms": ["Dalam kerja ini, kami menggunakan algoritma Expectation-Maximization.", "Oleh itu, kita menggunakan algoritma pemaksimalan jangkaan untuk pembelajaran parameter."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit.", "The Target-Side language models were estimated using the Srilm Toolkit."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit.", "Model bahasa Target-Side dianggarkan menggunakan Srilm Toolkit."]}, {"en": ["Abstract meaning representation is a compact, readable, Whole-Sentence semantic Annotation.", "Abstract meaning representation is a framework suitable for integrated semantic Annotation."], "ms": ["Perwakilan makna abstrak adalah Annotasi semantik yang ringkas, boleh dibaca, Seluruh Sentuhan.", "Perwakilan makna abstrak adalah rangka kerja yang sesuai untuk Annotasi semantik bersepadu."]}, {"en": ["According to Lakoff and Johnson, metaphor is a productive phenomenon that operates at the level of mental processes.", "According to Lakoff and Johnson and others, these linguistic metaphors are an observable manifestation of our mental, conceptual metaphors."], "ms": ["Menurut Lakoff dan Johnson, metafora adalah fenomena produktif yang beroperasi pada tahap proses mental.", "Menurut Lakoff dan Johnson dan lain-lain, metafora linguistik ini adalah manifestasi yang dapat dilihat dari metafora mental, konseptual kita."]}, {"en": ["Bunescu and Mooney propose a shortest path dependency kernel for relation extraction.", "Bunescu and Mooney give a shortest path dependency kernel for relation extraction."], "ms": ["Bunescu dan Mooney mencadangkan kernel dependensi laluan terpendek untuk pengekstrakan hubungan.", "Bunescu dan Mooney memberikan kernel dependensi laluan terpendek untuk pengekstrakan hubungan."]}, {"en": ["We train a 4-Gram language model on the Xinhua portion of English Gigaword corpus by Srilm Toolkit.", "We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit."], "ms": ["Kami melatih model bahasa 4-Gram di bahagian Xinhua Gigaword corpus bahasa Inggeris oleh Srilm Toolkit.", "Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit."]}, {"en": ["Pitler and Nenkova show that discourse coherence features are more informative than other features for ranking texts with respect to their Readability.", "While Pitler and Nenkova have shown that the discourse relation feature is strongest at predicting the linguistic quality of a document, Dr shows poor performance."], "ms": ["Pitler dan Nenkova menunjukkan bahawa ciri koheren wacana lebih bermaklumat daripada ciri lain untuk menilai teks berkenaan dengan Kebolehbacaan mereka.", "Walaupun Pitler dan Nenkova telah menunjukkan bahawa ciri hubungan wacana adalah paling kuat dalam meramalkan kualiti linguistik dokumen, Dr menunjukkan prestasi yang buruk."]}, {"en": ["We use two standard evaluation Metrics BLEU and Ter, for comparing translation quality of various systems.", "To measure the translation quality, we use the BLEU score and the Nist score."], "ms": ["Kami menggunakan dua metrik penilaian standard BLEU dan Ter, untuk membandingkan kualiti terjemahan pelbagai sistem.", "Untuk mengukur kualiti terjemahan, kami menggunakan skor BLEU dan skor Nist."]}, {"en": ["We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "We use Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["For the semantic language model, we used the Srilm package and trained a Tri-Gram language model with the default Goodturing smoothing.", "We used Trigram language models with interpolated Kneser-Kney discounting trained using the Sri language modeling Toolkit."], "ms": ["Untuk model bahasa semantik, kami menggunakan pakej Srilm dan melatih model bahasa Tri-Gram dengan smoothing Goodturing lalai.", "Kami menggunakan model bahasa Trigram dengan diskaun Kneser-Kney yang diinterpolasi dilatih menggunakan Toolkit pemodelan bahasa Sri."]}, {"en": ["Mert was used to tune development set parameter weights and BLEU was used on test SETS to evaluate the translation performance.", "Evaluation was done with Multi-Reference BLEU on test SETS with four references for each language pair, and Mira was used for tuning."], "ms": ["Mert digunakan untuk menala berat parameter set pembangunan dan BLEU digunakan pada SETS ujian untuk menilai prestasi terjemahan.", "Penilaian dilakukan dengan Multi-Reference BLEU pada ujian SETS dengan empat rujukan untuk setiap pasangan bahasa, dan Mira digunakan untuk penalaan."]}, {"en": ["We first train a Word2Vec model on Fr-Wikipedia 11 to obtain non Contextual word vectors.", "We use a popular Word2Vec neural language model to learn the word Embeddings on an Unsupervised Tweet corpus."], "ms": ["Kami mula-mula melatih model Word2Vec di Fr-Wikipedia 11 untuk mendapatkan vektor perkataan bukan kontekstual.", "Kami menggunakan model bahasa saraf Word2Vec yang popular untuk mempelajari perkataan Embeddings pada korpus Tweet Tidak diawasi."]}, {"en": ["The weights of these features are then learned using a Discriminative training algorithm.", "All the weights of those features are tuned by using minimal error rate training."], "ms": ["Berat ciri-ciri ini kemudian dipelajari menggunakan algoritma latihan Discriminative.", "Semua berat ciri-ciri tersebut ditala dengan menggunakan latihan kadar ralat minimum."]}, {"en": ["For improving the word alignment, we use the Word-Classes that are trained from a Monolingual corpus using the Srilm Toolkit.", "For this purpose, we use the Moses Toolkit for training translation models and decoding, as well as Srilm 2 to build the language models."], "ms": ["Untuk meningkatkan penjajaran perkataan, kami menggunakan Word-Classes yang dilatih dari korpus Monolingual menggunakan Srilm Toolkit.", "Untuk tujuan ini, kami menggunakan Musa Toolkit untuk melatih model terjemahan dan penyahkodan, serta Srilm 2 untuk membina model bahasa."]}, {"en": ["Moreover, since event Coreference resolution is a complex task that involves exploring a rich set of linguistic features, Annotating a large corpus with event Coreference information for a new language or domain of interest requires a substantial amount of manual effort.", "More importantly, event Coreference resolution is a necessary component in any reasonable, broadly applicable computational model of natural language understanding (Cite-P-18-3-4)."], "ms": ["Selain itu, kerana resolusi Coreference acara adalah tugas yang kompleks yang melibatkan meneroka satu set ciri linguistik yang kaya, Menganotasi korpus besar dengan maklumat Coreference acara untuk bahasa atau domain minat baru memerlukan sejumlah besar usaha manual.", "Lebih penting lagi, resolusi Coreference peristiwa adalah komponen yang diperlukan dalam mana-mana model pengiraan yang munasabah dan luas pemahaman bahasa semulajadi (Cite-P-18-3-4)."]}, {"en": ["We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing.", "We created 5-Gram language models for every domain using Srilm with improved Kneserney smoothing on the target side of the training parallel Corpora."], "ms": ["Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami mencipta model bahasa 5-Gram untuk setiap domain menggunakan Srilm dengan lancar Kneserney yang lebih baik di sisi sasaran latihan selari Corpora."]}, {"en": ["In this work, we propose a Multi-Space Variational Encoder-Decoder framework for labeled sequence Transduction problem.", "In this paper we propose Multi-Space Variational Encoder-Decoders, a new model for labeled sequence Transduction."], "ms": ["Dalam kerja ini, kami mencadangkan rangka kerja Multi-Space Variational Encoder-Decoder untuk masalah Transduction urutan berlabel.", "Dalam makalah ini kami mencadangkan Multi-Space Variational Encoder-Decoders, model baru untuk Transduction urutan berlabel."]}, {"en": ["The system was trained using Moses with default settings, using a 5-Gram language model created from the English side of the training corpus using Srilm.", "A 3-Gram language model was trained from the target side of the training data for Chinese and Arabic, using the Srilm Toolkit."], "ms": ["Sistem ini dilatih menggunakan Musa dengan tetapan lalai, menggunakan model bahasa 5-Gram yang dicipta dari sisi bahasa Inggeris korpus latihan menggunakan Srilm.", "Model bahasa 3-Gram dilatih dari sisi sasaran data latihan untuk bahasa Cina dan Arab, menggunakan Srilm Toolkit."]}, {"en": ["We use the 300-Dimensional Skip-Gram word Embeddings built on the Google-News corpus.", "We used the Pre-Trained word Embeddings that were learned using the Word2Vec Toolkit on Google news Dataset."], "ms": ["Kami menggunakan Embedding perkataan Skip-Gram 300-Dimensional yang dibina di korpus Google-News.", "Kami menggunakan Embedding perkataan Pra-Latih yang dipelajari menggunakan Word2Vec Toolkit pada Dataset berita Google."]}, {"en": ["Relation extraction is the task of predicting semantic relations over entities expressed in structured or Semi-Structured text.", "Relation extraction is the task of finding semantic relations between entities from text."], "ms": ["Pengekstrakan hubungan adalah tugas meramalkan hubungan semantik ke atas entiti yang dinyatakan dalam teks berstruktur atau Semi-Structured.", "Pengekstrakan hubungan adalah tugas mencari hubungan semantik antara entiti dari teks."]}, {"en": ["Aspect extraction is a central problem in sentiment analysis.", "Aspect-Based sentiment analysis is one of the main Frameworks for sentiment analysis."], "ms": ["Pengekstrakan aspek adalah masalah utama dalam analisis sentimen.", "Analisis sentimen berasaskan aspek adalah salah satu Rangka kerja utama untuk analisis sentimen."]}, {"en": ["In this work, we are interested in selective sampling for Pool-Based active learning, and focus on uncertainty sampling.", "Active learning Processin this work, we are interested in selective sampling for Pool-Based active learning, and focus on uncertainty sampling."], "ms": ["Dalam kerja ini, kami berminat dalam persampelan selektif untuk pembelajaran aktif berasaskan Pool, dan memberi tumpuan kepada persampelan ketidakpastian.", "Proses pembelajaran aktif dalam kerja ini, kami berminat dalam persampelan selektif untuk pembelajaran aktif berasaskan kolam, dan memberi tumpuan kepada persampelan ketidakpastian."]}, {"en": ["Sentiment analysis is a Much-Researched area that deals with identification of positive, negative and neutral opinions in text.", "Sentiment analysis is the process of identifying and extracting subjective information using natural language processing (Nlp)."], "ms": ["Analisis sentimen adalah kawasan yang banyak dikaji yang berkaitan dengan pengenalan pendapat positif, negatif dan neutral dalam teks.", "Analisis kepekaan adalah proses mengenal pasti dan mengekstrak maklumat subjektif menggunakan pemprosesan bahasa semula jadi (Nlp)."]}, {"en": ["For this task, we use glove Pre-Trained word Embedding trained on common crawl corpus.", "We use Pre-Trained vectors from glove for Word-Level Embeddings."], "ms": ["Untuk tugas ini, kami menggunakan sarung tangan Embedding perkataan Pra-Latih yang dilatih pada korpus merangkak biasa.", "Kami menggunakan vektor Pra-Trained dari sarung tangan untuk Embeddings Peringkat Perkataan."]}, {"en": ["Twitter is a widely used Microblogging environment which serves as a medium to share opinions on various events and products.", "Twitter is the medium where people post real time messages to discuss on the different topics, and express their sentiments."], "ms": ["Twitter adalah persekitaran Microblogging yang banyak digunakan yang berfungsi sebagai medium untuk berkongsi pendapat mengenai pelbagai acara dan produk.", "Twitter adalah media di mana orang menghantar mesej masa nyata untuk membincangkan topik yang berbeza, dan menyatakan sentimen mereka."]}, {"en": ["The language model component uses the Srilm Lattice-Tool for weight assignment and Nbest decoding.", "The LMS are build using the Srilm language Modelling Toolkit with modified Kneserney discounting and interpolation."], "ms": ["Komponen model bahasa menggunakan Srilm Lattice-Tool untuk penugasan berat dan penyahkodan Nbest.", "LMS dibina menggunakan Toolkit Pemodelan bahasa Srilm dengan diskaun dan interpolasi Kneserney yang diubahsuai."]}, {"en": ["A Knsmoothed 5-Gram language model is trained on the target side of the parallel data with Srilm.", "A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit."], "ms": ["Model bahasa 5-Gram Knsmoothed dilatih pada sisi sasaran data selari dengan Srilm.", "Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit."]}, {"en": ["The Parse trees for sentences in the test set were obtained using the Stanford Parser.", "All Source-Target sentences were Parsed with the Stanford Parser in order to label the text with syntactic information."], "ms": ["Pokok Parse untuk ayat dalam set ujian diperolehi menggunakan Stanford Parser.", "Semua ayat Sumber-Target telah dihuraikan dengan Stanford Parser untuk melabel teks dengan maklumat sintaksis."]}, {"en": ["Specifically, we adopt Linear-Chain conditional random fields as the method for sequence labeling.", "As discussed in the introduction, we use conditional random fields, since they are particularly suitable for sequence labelling."], "ms": ["Khususnya, kami menggunakan medan rawak bersyarat Linear-Chain sebagai kaedah untuk pelabelan urutan.", "Seperti yang dibincangkan dalam pengenalan, kami menggunakan medan rawak bersyarat, kerana ia sangat sesuai untuk pelabelan urutan."]}, {"en": ["We use the Adaptive moment estimation for the Optimizer.", "We Optimized the learned parameters with the Adam stochastic gradient descent."], "ms": ["Kami menggunakan anggaran momen Adaptif untuk pengoptimum.", "Kami mengoptimumkan parameter yang dipelajari dengan keturunan kecerunan stokastik Adam."]}, {"en": ["Word Embeddings are Initialized with Pretrained glove vectors 2, and updated during the training.", "The input layers are Initialized using the glove vectors, and are updated during training."], "ms": ["Embedding perkataan diawalkan dengan vektor sarung tangan pra-terlatih 2, dan dikemas kini semasa latihan.", "Lapisan input diawalkan menggunakan vektor sarung tangan, dan dikemas kini semasa latihan."]}, {"en": ["We use word Embedding Pre-Trained on Newswire with 300 dimensions from Word2Vec.", "We use the Pre-Trained 300-Dimensional Word2Vec Embeddings trained on Google news 1 as input features."], "ms": ["Kami menggunakan perkataan Embedding Pre-Trained pada Newswire dengan 300 dimensi dari Word2Vec.", "Kami menggunakan Embedding Word2Vec 300-Dimensional Pra-Latih yang dilatih pada Google News 1 sebagai ciri input."]}, {"en": ["Multi-Task joint learning can transfer knowledge between tasks by sharing Task-Invariant layers.", "Multi-Task learning has resulted in successful systems for various Nlp tasks, especially in Cross-Lingual settings."], "ms": ["Pembelajaran bersama Multi-Task boleh memindahkan pengetahuan antara tugas dengan berkongsi lapisan Task-Invariant.", "Pembelajaran Multi-Task telah menghasilkan sistem yang berjaya untuk pelbagai tugas Nlp, terutamanya dalam tetapan Cross-Lingual."]}, {"en": ["Word sense Disambiguation (Wsd) is the task to identify the intended sense of a word in a computational manner based on the context in which it appears (Cite-P-13-3-4).", "Word sense Disambiguation (Wsd) is the task of automatically determining the correct sense for a target word given the context in which it occurs."], "ms": ["Disambiguasi erti kata (Wsd) adalah tugas untuk mengenal pasti pengertian perkataan yang dimaksudkan dengan cara pengiraan berdasarkan konteks di mana ia muncul (Cite-P-13-3-4).", "Disambiguasi erti kata (Wsd) adalah tugas menentukan secara automatik pengertian yang betul untuk perkataan sasaran yang diberikan konteks di mana ia berlaku."]}, {"en": ["We use glove vectors with 200 dimensions as Pre-Trained word Embeddings, which are tuned during training.", "We employ the glove and Node2Vec to generate the Pre-Trained word Embedding, obtaining two distinct Embedding for each word."], "ms": ["Kami menggunakan vektor sarung tangan dengan 200 dimensi sebagai Embedding perkataan Pra-Latih, yang ditala semasa latihan.", "Kami menggunakan sarung tangan dan Node2Vec untuk menghasilkan Embedding perkataan Pra-Latih, memperoleh dua Embedding yang berbeza untuk setiap perkataan."]}, {"en": ["We use Stanford Corenlp for Chinese word Segmentation and Pos tagging.", "We use Stanford Corenlp for Preprocessing and a supervised learning approach for classification."], "ms": ["Kami menggunakan Stanford Corenlp untuk penandaan Segmentasi dan Pos perkataan Cina.", "Kami menggunakan Stanford Corenlp untuk Pemprosesan dan pendekatan pembelajaran yang diawasi untuk klasifikasi."]}, {"en": ["Finally, we construct new Subtree-Based features for Parsing Algorithms.", "Finally, we represent Subtree-Based features on training data."], "ms": ["Akhirnya, kami membina ciri-ciri baru Subtree-Based untuk Algoritma Penghuraian.", "Akhirnya, kami mewakili ciri-ciri Subtree-Based pada data latihan."]}, {"en": ["Dependency Parsing is a core task in Nlp, and it is widely used by many applications such as information extraction, question answering, and machine translation.", "Dependency Parsing consists of finding the structure of a sentence as expressed by a set of directed links (Dependencies) between words."], "ms": ["Dependency Parsing adalah tugas teras dalam Nlp, dan ia digunakan secara meluas oleh banyak aplikasi seperti pengekstrakan maklumat, jawapan soalan, dan terjemahan mesin.", "Penghuraian Dependensi terdiri daripada mencari struktur ayat seperti yang dinyatakan oleh satu set pautan terarah (Bergantung) antara perkataan."]}, {"en": ["We use 4-Gram language models in both tasks, and conduct Minimumerror-Rate training to optimize feature weights on the Dev set.", "We set the feature weights by optimizing the BLEU score directly using minimum error rate training on the development set."], "ms": ["Kami menggunakan model bahasa 4-Gram dalam kedua-dua tugas, dan menjalankan latihan Minimumerror-Rate untuk mengoptimumkan berat ciri pada set Dev.", "Kami menetapkan berat ciri dengan mengoptimumkan skor BLEU secara langsung menggunakan latihan kadar ralat minimum pada set pembangunan."]}, {"en": ["In this run, we use a sentence vector derived from word Embeddings obtained from Word2Vec.", "We use the popular Word2Vec 1 tool proposed by Mikolov et al to extract the vector representations of words."], "ms": ["Dalam larian ini, kami menggunakan vektor ayat yang berasal dari perkataan Embeddings yang diperoleh dari Word2Vec.", "Kami menggunakan alat Word2Vec 1 yang popular yang dicadangkan oleh Mikolov et al untuk mengekstrak perwakilan vektor perkataan."]}, {"en": ["Koo et al and Suzuki et al use Unsupervised Wordclusters as features in a dependency Parser to get lexical Dependencies.", "Chen et al and Koo et al used large-scale Unlabeled data to improve syntactic dependency Parsing performance."], "ms": ["Koo et al dan Suzuki et al menggunakan Unsupervised Wordclusters sebagai ciri dalam Parser dependensi untuk mendapatkan Dependensi leksikal.", "Chen et al dan Koo et al menggunakan data Unlabeled berskala besar untuk meningkatkan prestasi Parsing dependensi sintaktik."]}, {"en": ["Word alignment is a key component in most statistical machine translation systems.", "Word alignment is the problem of Annotating parallel text with Translational correspondence."], "ms": ["Penjajahan perkataan merupakan komponen utama dalam kebanyakan sistem terjemahan mesin statistik.", "Penjajahan perkataan adalah masalah Annotating teks selari dengan surat-menyurat Translasional."]}, {"en": ["Marcu and Wong , 2002) presents a joint probability model for Phrase-Based translation.", "Marcu and Wong , 2002, defined the joint model, which modeled consecutive word M-To-N alignments."], "ms": ["Marcu dan Wong (2002) membentangkan model kebarangkalian bersama untuk terjemahan Berasaskan Frasa.", "Marcu dan Wong, 2002, mentakrifkan model bersama, yang memodelkan penjajaran perkataan M-To-N berturut-turut."]}, {"en": ["We used the Penn Treebank WSJ corpus to perform empirical experiments on the proposed Parsing models.", "To facilitate comparison with previous results, we used the Upenn Treebank corpus."], "ms": ["Kami menggunakan korpus WSJ Penn Treebank untuk melakukan eksperimen empirikal mengenai model Parsing yang dicadangkan.", "Untuk memudahkan perbandingan dengan hasil sebelumnya, kami menggunakan korpus Upenn Treebank."]}, {"en": ["We use the Pre-Trained glove vectors to Initialize word Embeddings.", "To keep consistent, we Initialize the Embedding weight with Pre-Trained word Embeddings."], "ms": ["Kami menggunakan vektor sarung tangan Pra-Latih untuk Memulakan Embedding perkataan.", "Untuk memastikan konsisten, kami Memulakan berat Embedding dengan Embedding perkataan Pra-Trained."]}, {"en": ["The phrase structure trees produced by the Parser are further processed with the Stanford conversion tool to create dependency graphs.", "Long sentences are removed, and the remaining sentences are Pos-Tagged and dependency Parsed using the Pre-Trained Stanford Parser."], "ms": ["Pokok struktur frasa yang dihasilkan oleh Parser diproses lebih lanjut dengan alat penukaran Stanford untuk membuat grafik kebergantungan.", "Kalimat panjang dikeluarkan, dan ayat-ayat yang tinggal adalah Pos-Tagged dan dependency Parsed menggunakan Parser Stanford Pra-Trained."]}, {"en": ["Relation extraction (re) is the task of assigning a semantic relationship between a pair of arguments.", "Relation extraction is the problem of populating a target relation (representing an Entity-Level relationship or attribute) with facts extracted from Natural-Language text."], "ms": ["Pengekstrakan hubungan (re) adalah tugas untuk menetapkan hubungan semantik antara sepasang hujah.", "Pengekstrakan hubungan adalah masalah untuk mengisi hubungan sasaran (mewakili hubungan Entiti-Tahap atau atribut) dengan fakta yang diekstrak dari teks Bahasa Semulajadi."]}, {"en": ["Our approach relies on long short-term memory networks.", "Therefore, we use the long short-term memory network to overcome this problem."], "ms": ["Pendekatan kami bergantung kepada rangkaian memori jangka pendek yang panjang.", "Oleh itu, kami menggunakan rangkaian memori jangka pendek yang panjang untuk mengatasi masalah ini."]}, {"en": ["Coreference resolution is the task of clustering a set of mentions in the text such that all mentions in the same cluster refer to the same entity.", "Coreference resolution is a key problem in natural language understanding that still escapes reliable solutions."], "ms": ["Resolusi spatial adalah tugas untuk mengelompokkan satu set sebutan dalam teks sedemikian rupa sehingga semua sebutan dalam kluster yang sama merujuk kepada entiti yang sama.", "Resolusi spatial adalah masalah utama dalam pemahaman bahasa semula jadi yang masih terlepas daripada penyelesaian yang boleh dipercayai."]}, {"en": ["As a learning algorithm for our classification model, we used maximum entropy.", "For learning Coreference decisions, we used a maximum entropy model."], "ms": ["Sebagai algoritma pembelajaran untuk model klasifikasi kami, kami menggunakan entropi maksimum.", "Untuk pembelajaran keputusan Coreference, kami menggunakan model entropi maksimum."]}, {"en": ["The primary contribution of this paper is a novel Technique\u2014 cube Summing\u2014For approximate summing over discrete structures with Non-Local features, which we relate to cube pruning (\u00a74).", "Our primary contribution in this paper is a Recasting and merging of the tasks of mention detection and entity Disambiguation into a single Endto-End entity linking task."], "ms": ["Sumbangan utama kertas ini adalah novel Teknik Kube SummingUntuk anggaran merangkum struktur diskret dengan ciri-ciri Bukan Tempatan, yang kita berkaitan dengan pemangkasan Kube (4).", "Sumbangan utama kami dalam kertas kerja ini adalah Recasting dan penggabungan tugas pengesanan sebutan dan Disambiguasi entiti ke dalam satu entiti Endto-End yang menghubungkan tugas."]}, {"en": ["For estimating Monolingual word vector models, we use the Cbow algorithm as implemented in the Word2Vec package using a 5-Token window.", "To represent the Semantics of the nouns, we use the Word2Vec method which has proven to produce accurate approximations of word meaning in different Nlp tasks."], "ms": ["Untuk menganggarkan model vektor perkataan Monolingual, kami menggunakan algoritma Cbow seperti yang dilaksanakan dalam pakej Word2Vec menggunakan tetingkap 5-Token.", "Untuk mewakili Semantik kata nama, kami menggunakan kaedah Word2Vec yang telah terbukti menghasilkan anggaran yang tepat dari makna kata dalam tugas Nlp yang berbeza."]}, {"en": ["We use 300-Dimensional glove vectors trained on 6B common crawl corpus as word Embeddings, setting the Embeddings of Outof-Vocabulary words to zero.", "Also, we Initialized all of the word Embeddings using the 300 dimensional Pre-Trained vectors from glove."], "ms": ["Kami menggunakan vektor sarung tangan 300 dimensi yang dilatih pada korpus merangkak biasa 6B sebagai Embedding perkataan, menetapkan Embeddings perkataan Outof-Vocabulary kepada sifar.", "Juga, kami Memulakan semua perkataan Embeddings menggunakan 300 dimensi vektor Pra-Trained dari sarung tangan."]}, {"en": ["The BLEU metric was used to automatically evaluate the quality of the translations.", "The translation outputs were evaluated with BLEU and meteor."], "ms": ["Metrik BLEU digunakan untuk menilai kualiti terjemahan secara automatik.", "Output terjemahan dinilai dengan BLEU dan meteor."]}, {"en": ["Models were built and interpolated using Srilm with modified Kneser-Ney smoothing and the default pruning settings.", "Language models were built with Srilm, modified Kneser-Ney smoothing, default pruning, and order 5."], "ms": ["Model dibina dan diinterpolasi menggunakan Srilm dengan smoothing Kneser-Ney yang diubahsuai dan tetapan pemangkasan lalai.", "Model bahasa dibina dengan Srilm, smoothing Kneser-Ney yang diubahsuai, pemangkasan lalai, dan pesanan 5."]}, {"en": ["Word Embeddings have proven to be effective models of semantic representation of words in various Nlp tasks.", "In particular, the Vector-Space word representations learned by a neural network have been shown to successfully improve various Nlp tasks."], "ms": ["Embedding Word telah terbukti menjadi model berkesan perwakilan semantik perkataan dalam pelbagai tugas Nlp.", "Khususnya, perwakilan perkataan Vector-Space yang dipelajari oleh rangkaian saraf telah ditunjukkan untuk berjaya meningkatkan pelbagai tugas Nlp."]}, {"en": ["Coreference resolution is the task of clustering referring expressions in a text so that each resulting cluster represents an entity.", "Coreference resolution is the task of determining which mentions in a text refer to the same entity."], "ms": ["Resolusi spatial adalah tugas pengelompokan merujuk ungkapan dalam teks supaya setiap kluster yang terhasil mewakili entiti.", "Resolusi spatial adalah tugas menentukan sebutan mana dalam teks merujuk kepada entiti yang sama."]}, {"en": ["For this task, we used the SVM implementation provided with the python Scikit-Learn Module.", "We used the implementation of random forest in Scikitlearn as the Classifier."], "ms": ["Untuk tugas ini, kami menggunakan pelaksanaan SVM yang disediakan dengan Modul Scikit-Learn python.", "Kami menggunakan pelaksanaan hutan rawak di Scikitlearn sebagai Pengelas."]}, {"en": ["We use BLEU scores to measure translation accuracy.", "We measure machine translation performance using the BLEU metric."], "ms": ["Kami menggunakan skor BLEU untuk mengukur ketepatan terjemahan.", "Kami mengukur prestasi terjemahan mesin menggunakan metrik BLEU."]}, {"en": ["Semantic Parsing is the problem of deriving a structured meaning representation from a natural language utterance.", "Semantic Parsing is the task of mapping natural language utterances to machine interpretable meaning representations."], "ms": ["Penghuraian Semantik adalah masalah memperoleh perwakilan makna berstruktur dari ucapan bahasa semula jadi.", "Penghuraian Semantik adalah tugas pemetaan ucapan bahasa semula jadi kepada perwakilan makna yang boleh ditafsirkan mesin."]}, {"en": ["Marcu and Wong , 2002) presents a joint probability model for Phrase-Based translation.", "A joint probability model for phrase translation was proposed by Marcu and Wong."], "ms": ["Marcu dan Wong (2002) membentangkan model kebarangkalian bersama untuk terjemahan Berasaskan Frasa.", "Model kebarangkalian bersama untuk terjemahan frasa dicadangkan oleh Marcu dan Wong."]}, {"en": ["Relation extraction is a Subtask of information extraction that finds various predefined semantic relations, such as location, affiliation, rival, etc ., between pairs of entities in text.", "Relation extraction (re) is the task of assigning a semantic relationship between a pair of arguments."], "ms": ["Pengekstrakan hubungan adalah Subtugas pengekstrakan maklumat yang menemui pelbagai hubungan semantik yang telah ditentukan, seperti lokasi, gabungan, saingan, dll., Antara pasangan entiti dalam teks.", "Pengekstrakan hubungan (re) adalah tugas untuk menetapkan hubungan semantik antara sepasang hujah."]}, {"en": ["As a strong baseline, we trained the Skip-Gram model of Mikolov et al using the publicly available Word2Vec 5 software.", "To train the link Embeddings, we use the speedy, Skip-Gram neural language model of Mikolov et al via their Toolkit Word2Vec."], "ms": ["Sebagai asas yang kuat, kami melatih model Skip-Gram Mikolov et al menggunakan perisian Word2Vec 5 yang tersedia secara terbuka.", "Untuk melatih pautan Embeddings, kami menggunakan model bahasa saraf Skip-Gram Mikolov et al yang pantas melalui Toolkit Word2Vec mereka."]}, {"en": ["For parameter training we use conditional random fields as described in.", "We use the Mallet implementation of conditional random fields."], "ms": ["Untuk latihan parameter, kami menggunakan medan rawak bersyarat seperti yang diterangkan dalam.", "Kami menggunakan pelaksanaan Mallet medan rawak bersyarat."]}, {"en": ["We used Moses as the Phrase-Based machine translation system.", "We use a Phrase-Based translation system similar to Moses."], "ms": ["Kami menggunakan Musa sebagai sistem terjemahan mesin berasaskan frasa.", "Kita menggunakan sistem terjemahan berasaskan frasa yang serupa dengan Musa."]}, {"en": ["Our word Embeddings is Initialized with 100-Dimensional glove word Embeddings.", "We use Pre-Trained 50 dimensional glove vectors 4 for word Embeddings Initialization."], "ms": ["Perkataan Embeddings kami Dimulakan dengan perkataan sarung tangan 100-Dimensional Embeddings.", "Kami menggunakan vektor sarung tangan 50 dimensi Pra-Trained 4 untuk Pengawalan Embeddings perkataan."]}, {"en": ["We evaluated the intermediate outputs using BLEU against human references as in Table 3.", "We report mt performance in Table 1 by Case-Insensitive BLEU."], "ms": ["Kami menilai output perantaraan menggunakan BLEU terhadap rujukan manusia seperti dalam Jadual 3.", "Kami melaporkan prestasi mt dalam Jadual 1 oleh Case-Insensitive BLEU."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit.", "A Trigram language model with modified Kneser-Ney discounting and interpolation was used as produced by the Srilm Toolkit."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit.", "Model bahasa Trigram dengan diskaun Kneser-Ney yang diubahsuai dan interpolasi digunakan seperti yang dihasilkan oleh Srilm Toolkit."]}, {"en": ["We used the Pre-Trained word Embeddings that were learned using the Word2Vec Toolkit on Google news Dataset.", "We Pretrain word vectors with the Word2Vec tool on the news Dataset released by Ding et al, which are Fine-Tuned during training."], "ms": ["Kami menggunakan Embedding perkataan Pra-Latih yang dipelajari menggunakan Word2Vec Toolkit pada Dataset berita Google.", "Kami Pretrain vektor perkataan dengan alat Word2Vec pada Dataset berita yang dikeluarkan oleh Ding et al, yang Fine-Tuned semasa latihan."]}, {"en": ["Information extraction (Ie) is the process of finding relevant entities and their relationships within textual documents.", "Information extraction (Ie) is the task of generating structured information, often in the form of Subject-Predicate-Object relation triples, from unstructured information such as natural language text."], "ms": ["Pengekstrakan maklumat (Ie) adalah proses mencari entiti yang berkaitan dan hubungan mereka dalam dokumen teks.", "Pengekstrakan maklumat (Ie) adalah tugas menghasilkan maklumat berstruktur, selalunya dalam bentuk tiga kali hubungan Subjek-Predicate-Object, dari maklumat yang tidak berstruktur seperti teks bahasa semula jadi."]}, {"en": ["Clark and Curran evaluate a number of Log-Linear Parsing models for Ccg.", "Clark and Curran describes Log-Linear Parsing models for Ccg."], "ms": ["Clark dan Curran menilai beberapa model Log-Linear Parsing untuk Ccg.", "Clark dan Curran menerangkan model Log-Linear Parsing untuk Ccg."]}, {"en": ["Abstract meaning representation is a semantic formalism which represents sentence meaning in a form of a rooted directed Acyclic graph.", "Abstract meaning representation is a semantic formalism in which the meaning of a sentence is Encoded as a rooted, directed, Acyclic graph."], "ms": ["Perwakilan makna abstrak adalah formalisme semantik yang mewakili makna ayat dalam bentuk grafik Acyclic yang diarahkan.", "Perwakilan makna abstrak adalah formalisme semantik di mana makna ayat dikodkan sebagai grafik Acyclic yang berakar, diarahkan."]}, {"en": ["Transition-Based dependency Parsers Scan an input sentence from left to right, performing a sequence of transition actions to predict its Parse tree.", "Greedy Transition-Based dependency Parsers Incrementally process an input sentence from left to right."], "ms": ["Penghurai dependensi berasaskan peralihan Mengimbas ayat input dari kiri ke kanan, melakukan urutan tindakan peralihan untuk meramalkan pokok Parsenya.", "Parsers dependensi Berasaskan Peralihan Greedy Proseskan ayat input dari kiri ke kanan secara berperingkat."]}, {"en": ["We used Srilm to build a 4-Gram language model with interpolated Kneser-Ney discounting.", "We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit."], "ms": ["Kami menggunakan Srilm untuk membina model bahasa 4-Gram dengan diskaun Kneser-Ney yang saling berkaitan.", "Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit."]}, {"en": ["We used the Sri language modeling Toolkit for this purpose.", "We use 5-Grams for all language models implemented using the Srilm Toolkit."], "ms": ["Kami menggunakan alat pemodelan bahasa Sri untuk tujuan ini.", "Kami menggunakan 5-Gram untuk semua model bahasa yang dilaksanakan menggunakan Srilm Toolkit."]}, {"en": ["Evaluation was performed using the BLEU metric.", "Results were evaluated with both BLEU and Nist Metrics."], "ms": ["Penilaian dilakukan menggunakan metrik BLEU.", "Keputusan telah dinilai dengan kedua-dua BLEU dan Nist Metrics."]}, {"en": ["Named entity recognition (NER) is a key technique for Ie and other natural language processing tasks.", "Named entity recognition (NER) is the process by which named entities are identified and classified in an Open-Domain text."], "ms": ["Pengiktirafan entiti yang dinamakan (NER) adalah teknik utama untuk Ie dan tugas pemprosesan bahasa semula jadi yang lain.", "Pengecaman entiti bernama (NER) adalah proses di mana entiti bernama dikenal pasti dan dikelaskan dalam teks Open-Domain."]}, {"en": ["Relation extraction is the task of finding semantic relations between two entities from text.", "Relation extraction (re) is the task of extracting instances of semantic relations between entities in unstructured data such as natural language text."], "ms": ["Pengekstrakan hubungan adalah tugas mencari hubungan semantik antara dua entiti dari teks.", "Pengekstrakan hubungan (re) adalah tugas mengekstrak contoh hubungan semantik antara entiti dalam data yang tidak tersusun seperti teks bahasa semula jadi."]}, {"en": ["We employ conditional random fields to predict the sentiment label for each segment.", "We use a linear chain Crf to predict the morphological features."], "ms": ["Kami menggunakan medan rawak bersyarat untuk meramalkan label sentimen untuk setiap segmen.", "Kami menggunakan Crf rantai linear untuk meramalkan ciri-ciri morfologi."]}, {"en": ["We use three common evaluation Metrics including BLEU, Me-Teor, and Ter.", "We adopt two standard Metrics Rouge and BLEU for evaluation."], "ms": ["Kami menggunakan tiga metrik penilaian biasa termasuk BLEU, Me-Teor, dan Ter.", "Kami menggunakan dua metrik Rouge dan BLEU standard untuk penilaian."]}, {"en": ["Sentiment analysis (SA) is a field of knowledge which deals with the analysis of people \u2019 s opinions, sentiments, evaluations, appraisals, attitudes and emotions towards particular entities (Liu , 2012).", "Sentiment analysis (SA) is the determination of the polarity of a piece of text (positive, negative, neutral)."], "ms": ["Analisis sentimen (SA) adalah bidang pengetahuan yang berkaitan dengan analisis pendapat, sentimen, penilaian, penilaian, sikap dan emosi orang terhadap entiti tertentu (Liu, 2012).", "Analisis kepekaan (SA) adalah penentuan polariti sekeping teks (positif, negatif, neutral)."]}, {"en": ["We use the perplexity computation method of Mikolov et al suitable for Skip-Gram models.", "Inspired by previous work, we adapt the Word2Vec Nnlm of Mikolov et al to this Qa task."], "ms": ["Kami menggunakan kaedah pengiraan keplexan Mikolov et al yang sesuai untuk model Skip-Gram.", "Diilhamkan oleh kerja terdahulu, kami menyesuaikan Word2Vec Nnlm dari Mikolov et al untuk tugas Qa ini."]}, {"en": ["We used the Svd implementation provided in the Scikit-Learn Toolkit.", "We implemented the different Aes models using Scikit-Learn."], "ms": ["Kami menggunakan pelaksanaan Svd yang disediakan dalam Scikit-Learn Toolkit.", "Kami melaksanakan model Aes yang berbeza menggunakan Scikit-Learn."]}, {"en": ["We propose a novel Geolocation prediction model using a complex neural network.", "In this paper, we proposed a complex neural network model for Geolocation prediction."], "ms": ["Kami mencadangkan model ramalan Geolokasi novel menggunakan rangkaian saraf yang kompleks.", "Dalam makalah ini, kami mencadangkan model rangkaian saraf yang kompleks untuk ramalan Geolokasi."]}, {"en": ["Instead, we compute the relatedness of two words based on their distributed representations, which are learned using the Word2Vec Toolkit.", "We derive 100-Dimensional word vectors using Word2Vec Skip-Gram model trained over the domain corpus."], "ms": ["Sebaliknya, kita mengira kaitan dua perkataan berdasarkan perwakilan diedarkan mereka, yang dipelajari menggunakan Word2Vec Toolkit.", "Kami memperoleh vektor perkataan 100 dimensi menggunakan model Skip-Gram Word2Vec yang dilatih melalui korpus domain."]}, {"en": ["For representing words, we used 100 dimensional Pre-Trained glove Embeddings.", "We used glove vectors trained on common crawl 840B 4 with 300 dimensions as fixed word Embeddings."], "ms": ["Untuk mewakili perkataan, kami menggunakan 100 dimensi Embedding sarung tangan Pra-Trained.", "Kami menggunakan vektor sarung tangan yang dilatih pada merangkak biasa 840B 4 dengan dimensi 300 sebagai perkataan tetap Embeddings."]}, {"en": ["We report the findings of the complex word identification task of Semeval 2016.", "We describe the first edition of the complex word identification task, organized at Semeval 2016."], "ms": ["Kami melaporkan penemuan tugas pengenalan perkataan kompleks Semeval 2016.", "Kami menerangkan edisi pertama tugas pengenalan perkataan kompleks, yang dianjurkan di Semeval 2016."]}, {"en": ["We also use a 4-Gram language model trained using Srilm with Kneser-Ney smoothing.", "Finally, we used Kenlm to create a Trigram language model with Kneser-Ney smoothing on that data."], "ms": ["Kami juga menggunakan model bahasa 4-Gram yang dilatih menggunakan Srilm dengan smoothing Kneser-Ney.", "Akhirnya, kami menggunakan Kenlm untuk membuat model bahasa Trigram dengan Kneser-Ney melicinkan data tersebut."]}, {"en": ["However, dependency Parsing, which is a popular choice for Japanese, can incorporate only shallow syntactic information, I.E ., Pos tags, compared with the richer syntactic Phrasal categories in constituency Parsing.", "Dependency Parsing is a very important Nlp task and has wide usage in different tasks such as question answering, semantic Parsing, information extraction and machine translation."], "ms": ["Walau bagaimanapun, Parsing dependensi, yang merupakan pilihan popular untuk Jepun, hanya boleh menggabungkan maklumat sintaktik cetek, I.E., tag Pos, berbanding dengan kategori Phrasal sintaksis yang lebih kaya dalam Parsing konstituen.", "Dependency Parsing adalah tugas Nlp yang sangat penting dan mempunyai penggunaan yang luas dalam tugas yang berbeza seperti menjawab soalan, Penghuraian semantik, pengekstrakan maklumat dan terjemahan mesin."]}, {"en": ["We apply standard tuning with Mert on the BLEU score.", "We report decoding speed and BLEU score, as measured by Sacrebleu."], "ms": ["Kami menggunakan penalaan standard dengan Mert pada skor BLEU.", "Kami melaporkan kelajuan penyahkodan dan skor BLEU, seperti yang diukur oleh Sacrebleu."]}, {"en": ["All language models were trained using the Srilm Toolkit.", "Srilm Toolkit is used to build these language models."], "ms": ["Semua model bahasa dilatih menggunakan Srilm Toolkit.", "Srilm Toolkit digunakan untuk membina model bahasa ini."]}, {"en": ["We use the long short-term memory architecture for recurrent layers.", "We use a sequential Lstm to Encode this description."], "ms": ["Kami menggunakan seni bina memori jangka pendek yang panjang untuk lapisan berulang.", "Kami menggunakan Lstm berurutan untuk Mengenal pasti penerangan ini."]}, {"en": ["We use 300-Dimensional word Embeddings from glove to Initialize the model.", "For the classification task, we use Pre-Trained glove Embedding vectors as lexical features."], "ms": ["Kami menggunakan Embedding perkataan 300 dimensi dari sarung tangan untuk Memulakan model.", "Untuk tugas pengelasan, kami menggunakan vektor Embedding sarung tangan Pra-Latih sebagai ciri leksikal."]}, {"en": ["These features were Optimized using minimum Error-Rate training and the same weights were then used in Docent.", "The model weights were trained using the minimum error rate training algorithm."], "ms": ["Ciri-ciri ini telah dioptimumkan menggunakan latihan Ralat-Rate minimum dan berat yang sama kemudian digunakan dalam Docent.", "Berat model dilatih menggunakan algoritma latihan kadar ralat minimum."]}, {"en": ["Relation classification is the task of assigning sentences with two marked entities to a predefined set of relations.", "Relation classification is the task of identifying the semantic relation holding between two nominal entities in text."], "ms": ["Klasifikasi hubungan adalah tugas untuk menetapkan ayat dengan dua entiti yang ditandai kepada set hubungan yang telah ditentukan.", "Klasifikasi hubungan adalah tugas mengenal pasti hubungan semantik yang memegang antara dua entiti nominal dalam teks."]}, {"en": ["The translation quality is evaluated by Case-Insensitive Bleu-4.", "The evaluation metric for the overall translation quality is Caseinsensitive Bleu4."], "ms": ["Kualiti terjemahan dinilai oleh Case-Insensitive Bleu-4.", "Metrik penilaian untuk kualiti terjemahan keseluruhan adalah Caseinsensitive Bleu4."]}, {"en": ["Translation performance is measured using the automatic BLEU metric, on one reference translation.", "Translation results are reported on the standard mt Metrics BLEU, meteor, and per, position independent word error rate."], "ms": ["Prestasi terjemahan diukur menggunakan metrik BLEU automatik, pada satu terjemahan rujukan.", "Hasil terjemahan dilaporkan pada metrik mt standard BLEU, meteor, dan per, kedudukan kadar ralat perkataan bebas."]}, {"en": ["The input to the network is the Embeddings of words, and we use the Pre-Trained word Embeddings by using Word2Vec on the Wikipedia corpus whose size is over 11G.", "To get a dictionary of word Embeddings, we use the Word2Vec tool 2 and train it on the Chinese Gigaword corpus."], "ms": ["Input ke rangkaian adalah Embeddings perkataan, dan kami menggunakan Embeddings perkataan Pra-Latih dengan menggunakan Word2Vec pada korpus Wikipedia yang saiznya melebihi 11G.", "Untuk mendapatkan kamus Embedding kata, kami menggunakan alat Word2Vec 2 dan melatihnya di korpus Gigaword Cina."]}, {"en": ["Framenet is an Expert-Built Lexical-Semantic resource incorporating the theory of Frame-Semantics.", "Vignet is inspired by and based on Framenet, a resource for lexical Semantics."], "ms": ["Framenet adalah sumber Leksisikal-Semantik yang dihasilkan oleh Pakar yang menggabungkan teori Frame-Semantik.", "Vignet diilhamkan oleh dan berdasarkan Framenet, sumber untuk Semantik leksikal."]}, {"en": ["In this paper, we propose a novel approach for Disfluency detection.", "In this paper, we propose detecting Disfluencies using a Right-To-Left Transition-Based dependency."], "ms": ["Dalam makalah ini, kami mengusulkan pendekatan novel untuk deteksi Disfluensi.", "Dalam makalah ini, kami mencadangkan mengesan Kekerapan menggunakan pergantungan Berasaskan Peralihan Kanan-Ke-Left."]}, {"en": ["Sentiment analysis is a collection of methods and Algorithms used to infer and measure affection expressed by a writer.", "Sentiment analysis is a Nlp task that deals with extraction of opinion from a piece of text on a topic."], "ms": ["Analisis sentimen adalah koleksi kaedah dan Algoritma yang digunakan untuk menyimpulkan dan mengukur kasih sayang yang dinyatakan oleh seorang penulis.", "Analisis sentimen adalah tugas Nlp yang berkaitan dengan pengekstrakan pendapat dari sekeping teks mengenai topik."]}, {"en": ["We use the automatic mt evaluation Metrics BLEU, meteor, and Ter, to evaluate the absolute translation quality obtained.", "For evaluation we use Multeval to calculate BLEU, meteor, Ter, and length of the test set for each system."], "ms": ["Kami menggunakan Metrik Penilaian Mt automatik BLEU, meteor, dan Ter, untuk menilai kualiti terjemahan mutlak yang diperoleh.", "Untuk penilaian, kami menggunakan Multeval untuk mengira BLEU, meteor, Ter, dan panjang set ujian untuk setiap sistem."]}, {"en": ["For our purpose we use Word2Vec Embeddings trained on a Google news Dataset and find the Pairwise Cosine distances for all words.", "We Pretrain word vectors with the Word2Vec tool on the news Dataset released by Ding et al, which are Fine-Tuned during training."], "ms": ["Untuk tujuan kami, kami menggunakan Embeddings Word2Vec yang dilatih pada Dataset berita Google dan mencari jarak Pairwise Cosine untuk semua perkataan.", "Kami Pretrain vektor perkataan dengan alat Word2Vec pada Dataset berita yang dikeluarkan oleh Ding et al, yang Fine-Tuned semasa latihan."]}, {"en": ["Word Embeddings for English and Hindi have been trained using Word2Vec 1 tool.", "Word Embeddings have been trained using Word2Vec 4 tool."], "ms": ["Embedding Word untuk bahasa Inggeris dan Hindi telah dilatih menggunakan alat Word2Vec 1.", "Embedding Word telah dilatih menggunakan alat Word2Vec 4."]}, {"en": ["Our results show a consistent improvement over a state-of-the-art baseline in terms of BLEU and a manual error analysis.", "Our results show that we improve over a state-of-the-art baseline by over 2 . 7% (relative BLEU score)."], "ms": ["Keputusan kami menunjukkan peningkatan yang konsisten berbanding garis asas terkini dari segi BLEU dan analisis ralat manual.", "Keputusan kami menunjukkan bahawa kami meningkatkan garis dasar canggih dengan lebih dari 2.7% (skor BLEU relatif)."]}, {"en": ["Information extraction (Ie) is a main Nlp aspects for analyzing scientific papers, which includes named entity recognition (NER) and relation extraction (re).", "Information extraction (Ie) is the task of extracting factual assertions from text."], "ms": ["Pengekstrakan maklumat (Ie) adalah aspek utama Nlp untuk menganalisis kertas saintifik, yang merangkumi pengiktirafan entiti bernama (NER) dan pengekstrakan hubungan (re).", "Pengekstrakan maklumat (Ie) adalah tugas untuk mengekstrak pernyataan fakta dari teks."]}, {"en": ["Bilingual Lexicons serve as an indispensable source of knowledge for various Cross-Lingual tasks such as Cross-Lingual information Retrieval or statistical machine translation.", "Bilingual Lexicons are an important resource in Multilingual natural language processing tasks such as statistical machine translation and Cross-Language information Retrieval."], "ms": ["Leksikon dwibahasa berfungsi sebagai sumber pengetahuan yang sangat diperlukan untuk pelbagai tugas Cross-Lingual seperti Retrieval maklumat Cross-Lingual atau terjemahan mesin statistik.", "Leksikon dwibahasa merupakan sumber penting dalam tugas pemprosesan bahasa semula jadi berbilang bahasa seperti terjemahan mesin statistik dan Retrieval maklumat Cross-Language."]}, {"en": ["State of the art statistical Parsers are trained on manually Annotated Treebanks that are highly expensive to create.", "Current state-of-the-art statistical Parsers are all trained on large Annotated Corpora such as the Penn Treebank."], "ms": ["State of the art statistical Parsers dilatih pada Treebanks Annotated manual yang sangat mahal untuk dicipta.", "Parsers statistik terkini semua dilatih pada Corpora Annotated besar seperti Penn Treebank."]}, {"en": ["For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided.", "We then Lowercase all data and use all sentences from the modern Dutch part of the corpus to train an N-Gram language model with the Srilm Toolkit."], "ms": ["Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan.", "Kami kemudian menurunkan semua data dan menggunakan semua ayat dari bahagian Belanda moden korpus untuk melatih model bahasa N-Gram dengan Srilm Toolkit."]}, {"en": ["Dependency Parsing is a way of structurally analyzing a sentence from the viewpoint of modification.", "Dependency Parsing is a valuable form of syntactic processing for Nlp applications due to its transparent Lexicalized representation and robustness with respect to flexible word order languages."], "ms": ["Penghuraian Dependensi adalah cara menganalisis secara struktur ayat dari sudut pandangan pengubahsuaian.", "Penghuraian Dependensi adalah satu bentuk pemprosesan sintaktik yang berharga untuk aplikasi Nlp kerana perwakilan Lexicalized telus dan keteguhan berkenaan dengan bahasa pesanan perkataan yang fleksibel."]}, {"en": ["Transition-Based dependency Parsing was originally introduced by Yamada and Matsumoto and Nivre.", "It was first used for Unlabeled dependency Parsing by Kudo and Matsumoto and Yamada and Matsumoto."], "ms": ["Penghuraian dependensi berasaskan peralihan pada asalnya diperkenalkan oleh Yamada dan Matsumoto dan Nivre.", "Ia mula digunakan untuk Parsing dependensi Unlabeled oleh Kudo dan Matsumoto dan Yamada dan Matsumoto."]}, {"en": ["Each system is Optimized using Mert with BLEU as an evaluation measure.", "The Log-Lineal combination weights were Optimized using Mert."], "ms": ["Setiap sistem dioptimumkan menggunakan Mert dengan BLEU sebagai langkah penilaian.", "Berat gabungan Log-Lineal telah dioptimumkan menggunakan Mert."]}, {"en": ["We use the SVM implementation from Scikit-Learn, which in turn is based on Libsvm.", "For training the model, we use the linear kernel SVM implemented in the Scikit-Learn Toolkit."], "ms": ["Kami menggunakan pelaksanaan SVM dari Scikit-Learn, yang seterusnya berdasarkan Libsvm.", "Untuk melatih model, kami menggunakan SVM kernel linear yang dilaksanakan dalam Scikit-Learn Toolkit."]}, {"en": ["Furthermore, the objective function for our simplest model is concave, guaranteeing convergence to a global optimum.", "And our simplest model has a concave objective that guarantees convergence to a global optimum."], "ms": ["Tambahan pula, fungsi objektif untuk model paling mudah kami adalah cekung, menjamin penumpuan kepada optimum global.", "Dan model paling mudah kami mempunyai objektif cekung yang menjamin penumpuan kepada optimum global."]}, {"en": ["For the mix one, we also train word Embeddings of dimension 50 using glove.", "We use glove vectors with 200 dimensions as Pre-Trained word Embeddings, which are tuned during training."], "ms": ["Untuk campuran satu, kami juga melatih perkataan Embeddings dimensi 50 menggunakan sarung tangan.", "Kami menggunakan vektor sarung tangan dengan 200 dimensi sebagai Embedding perkataan Pra-Latih, yang ditala semasa latihan."]}, {"en": ["Coreference resolution is the problem of identifying which mentions (I.E ., noun phrases) refer to which Real-World entities.", "Coreference resolution is the process of finding discourse entities (Markables) referring to the same Real-World entity or concept."], "ms": ["Resolusi spatial adalah masalah mengenal pasti sebutan mana (I.E., frasa kata nama) merujuk kepada entiti Dunia Nyata mana.", "Resolusi spatial adalah proses mencari entiti wacana (Markables) merujuk kepada entiti atau konsep Dunia Nyata yang sama."]}, {"en": ["Chandar a P et al and Zhou et al use the Autoencoder to model the connections between bilingual sentences.", "Zhou et al employed both Unsupervised and supervised neural networks to learn bilingual sentiment word Embedding."], "ms": ["Chandar a P et al dan Zhou et al menggunakan Autoencoder untuk memodelkan hubungan antara ayat dwibahasa.", "Zhou et al menggunakan kedua-dua rangkaian saraf yang tidak diawasi dan diselia untuk mempelajari perkataan sentimen dwibahasa Embedding."]}, {"en": ["The language models were trained using Srilm Toolkit.", "The language model is trained and applied with the Srilm Toolkit."], "ms": ["Model bahasa dilatih menggunakan Srilm Toolkit.", "Model bahasa dilatih dan digunakan dengan Srilm Toolkit."]}, {"en": ["One of the very few available discourse Annotated Corpora is the Penn discourse Treebank in English.", "One of the most important resources for discourse Connectives in English is the Penn discourse Treebank."], "ms": ["Salah satu daripada wacana yang sangat sedikit tersedia Annotated Corpora ialah wacana Penn Treebank dalam bahasa Inggeris.", "Salah satu sumber yang paling penting untuk wacana Connectives dalam bahasa Inggeris adalah Penn discourse Treebank."]}, {"en": ["We argue that relevance for satisfaction, Contrastive weight clues, and certain Adverbials work to affect the polarity, as evidenced by the statistical analysis.", "Relevance for satisfaction \u00a1\u00af, \u00a1\u00ae Contrastive weight \u00a1\u00af and certain Adverbials, that work to affect polarity in a more subtle but crucial manner, as evidenced also by the statistical analysis."], "ms": ["Kami berpendapat bahawa relevansi untuk kepuasan, petunjuk berat kontrastif, dan Adverbial tertentu berfungsi untuk mempengaruhi polariti, seperti yang dibuktikan oleh analisis statistik.", "Kerelatifan untuk kepuasan, berat kontrastif dan Adverbials tertentu, yang berfungsi untuk mempengaruhi polariti dengan cara yang lebih halus tetapi penting, seperti yang dibuktikan juga oleh analisis statistik."]}, {"en": ["For the fluency and Grammaticality features, we train 4-Gram LMS using the development Dataset with the Sri Toolkit.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing."], "ms": ["Untuk kefasihan dan ciri Grammaticality, kami melatih LMS 4-Gram menggunakan Dataset pembangunan dengan Sri Toolkit.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We evaluated the translation quality using the Case-Insensitive Bleu-4 metric.", "We evaluated translation output using Case-Insensitive IBM BLEU."], "ms": ["Kami menilai kualiti terjemahan menggunakan metrik Case-Insensitive Bleu-4.", "Kami menilai output terjemahan menggunakan Case-Insensitive IBM BLEU."]}, {"en": ["Word alignment is a central problem in statistical machine translation (Smt).", "Word alignment, which can be defined as an object for indicating the corresponding words in a parallel text, was first introduced as an intermediate result of statistical translation models (Cite-P-13-1-2)."], "ms": ["Penjajahan perkataan adalah masalah utama dalam terjemahan mesin statistik (Smt).", "Penjajahan perkataan, yang boleh ditakrifkan sebagai objek untuk menunjukkan perkataan yang sepadan dalam teks selari, pertama kali diperkenalkan sebagai hasil perantaraan model terjemahan statistik (Cite-P-13-1-2)."]}, {"en": ["In our experiments, we choose to use the published glove Pre-Trained word Embeddings.", "For our experiments, we use 300-Dimensional glove English word Embeddings trained on the cased common crawl."], "ms": ["Dalam eksperimen kami, kami memilih untuk menggunakan sarung tangan yang diterbitkan Embedding perkataan Pra-Latih.", "Untuk eksperimen kami, kami menggunakan perkataan Inggeris sarung tangan 300 dimensi yang dilatih pada merangkak biasa."]}, {"en": ["In this paper, we proposed a novel framework to tackle the problem of List-Only entity linking.", "In this work, we propose to tackle the problem of List-Only entity linking."], "ms": ["Dalam makalah ini, kami mencadangkan rangka kerja baru untuk menangani masalah pautan entiti Senarai-Hanya.", "Dalam kerja ini, kami mencadangkan untuk menangani masalah link entiti Senarai-Hanya."]}, {"en": ["In our work, we use Lda to identify the Subtopics in the given body of texts.", "In our work, we build on Lda, which is often used as a building block for topic models."], "ms": ["Dalam kerja kami, kami menggunakan Lda untuk mengenal pasti Subtopik dalam badan teks yang diberikan.", "Dalam kerja kami, kami membina Lda, yang sering digunakan sebagai blok bangunan untuk model topik."]}, {"en": ["We used SVM Multiclass from Svm-Light Toolkit as the Classifier.", "We used the default parameter in SVM light for all trials."], "ms": ["Kami menggunakan SVM Multiclass dari Svm-Light Toolkit sebagai Classifier.", "Kami menggunakan parameter lalai dalam cahaya SVM untuk semua percubaan."]}, {"en": ["Berland and Charniak used similar Pattern-Based techniques and other Heuristics to extract Meronymy relations.", "Berland and Charniak used a similar method for extracting instances of Meronymy relation."], "ms": ["Berland dan Charniak menggunakan teknik Berasaskan Pola yang serupa dan Heuristik lain untuk mengekstrak hubungan Meronymy.", "Berland dan Charniak menggunakan kaedah yang sama untuk mengekstrak contoh hubungan Meronymy."]}, {"en": ["A hybrid model of the Word-Based and the Character-Based model has also been proposed by Luong and Manning.", "Luong and Manning proposed a hybrid scheme that Consults Character-Level information whenever the model encounters an Oov word."], "ms": ["Model hibrid model Berasaskan Perkataan dan Berasaskan Watak juga telah dicadangkan oleh Luong dan Manning.", "Luong dan Manning mencadangkan skim hibrid yang menghasilkan maklumat Aras-Kadar apabila model itu menemui perkataan Oov."]}, {"en": ["Recently, methods inspired by neural language modeling received much attentions for representation learning.", "Recently, the field has been influenced by the success of neural language models."], "ms": ["Baru-baru ini, kaedah yang diilhamkan oleh pemodelan bahasa saraf mendapat banyak perhatian untuk pembelajaran perwakilan.", "Baru-baru ini, bidang ini telah dipengaruhi oleh kejayaan model bahasa saraf."]}, {"en": ["Hochreiter and Schmidhuber developed long short-term memory to overcome the long term dependency problem.", "To solve the traditional recurrent neural networks, Hochreiter and Schmidhuber proposed the Lstm architecture."], "ms": ["Hochreiter dan Schmidhuber membangunkan ingatan jangka pendek yang panjang untuk mengatasi masalah kebergantungan jangka panjang.", "Untuk menyelesaikan rangkaian neural berulang tradisional, Hochreiter dan Schmidhuber mencadangkan seni bina Lstm."]}, {"en": ["Aspect extraction is a central problem in sentiment analysis.", "However, aspect extraction is a complex task that also requires fine-grained domain Embeddings."], "ms": ["Pengekstrakan aspek adalah masalah utama dalam analisis sentimen.", "Walau bagaimanapun, pengekstrakan aspek adalah tugas yang kompleks yang juga memerlukan pengekodan domain halus."]}, {"en": ["Soricut and Echihabi proposed Document-Aware features in order to rank machine translated documents.", "Soricut and Echihabi explore Pseudo-References and Document-Aware features for Document-Level ranking, using BLEU as quality label."], "ms": ["Soricut dan Echihabi mencadangkan ciri-ciri Dokumen-Aware untuk meletakkan dokumen yang diterjemahkan mesin.", "Soricut dan Echihabi meneroka ciri Pseudo-References dan Document-Aware untuk ranking Document-Level, menggunakan BLEU sebagai label kualiti."]}, {"en": ["We use Srilm to train a 5-Gram language model on the target side of our training corpus with modified Kneser-Ney discounting.", "We train a 4-Gram language model on the Xinhua portion of the English Gigaword corpus using the Srilm Toolkits with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di sisi sasaran korpus latihan kami dengan diskaun Kneser-Ney yang diubahsuai.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword Inggeris menggunakan Srilm Toolkits dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We train a Kn-Smoothed 5-Gram language model on the target side of the parallel training data with Srilm.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing."], "ms": ["Kami melatih model bahasa Kn-Smoothed 5-Gram di sisi sasaran data latihan selari dengan Srilm.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["The Binary syntactic features were automatically extracted using the Stanford Parser.", "English texts were Tokenized by the Stanford Parser 5 with the Pcfg grammar."], "ms": ["Ciri-ciri sintaksis binari diekstrak secara automatik menggunakan Stanford Parser.", "Teks bahasa Inggeris Tokenized oleh Stanford Parser 5 dengan tatabahasa Pcfg."]}, {"en": ["Word sense Disambiguation is the process of determining which sense of a word is used in a given context.", "Word sense Disambiguation is the process of selecting the most appropriate meaning for a word, based on the context in which it occurs."], "ms": ["Kemusykilan perkataan Kemusykilan ialah proses menentukan rasa perkataan yang digunakan dalam konteks tertentu.", "Penyahsulitan erti kata adalah proses memilih makna yang paling sesuai untuk perkataan, berdasarkan konteks di mana ia berlaku."]}, {"en": ["Language models were built with Srilm, modified Kneser-Ney smoothing, default pruning, and order 5.", "An in-house language modeling Toolkit was used to train the 4-Gram language models with modified Kneser-Ney smoothing over the Web-Crawled data."], "ms": ["Model bahasa dibina dengan Srilm, smoothing Kneser-Ney yang diubahsuai, pemangkasan lalai, dan pesanan 5.", "Alat pemodelan bahasa dalaman digunakan untuk melatih model bahasa 4-Gram dengan Kneser-Ney yang diubahsuai melicinkan data Web-Crawled."]}, {"en": ["Our Transition-Based Parser is based on a study by Zhu et al, which ADOPTS the Shift-Reduce Parsing of Sagae and Lavie and Zhang and Clark.", "Our Parser is based on the Shift-Reduce Parsing process from Sagae and Lavie and Wang et al, and therefore it can be classified as a Transition-Based Parser."], "ms": ["Penghuraian Berasaskan Peralihan kami adalah berdasarkan kajian oleh Zhu et al, yang ADOPTS Penghuraian Shift-Reduce Sagae dan Lavie dan Zhang dan Clark.", "Parser kami adalah berdasarkan proses Penghuraian Shift-Reduce dari Sagae dan Lavie dan Wang et al, dan oleh itu ia boleh dikelaskan sebagai Parser Berasaskan Peralihan."]}, {"en": ["In addition, we use an English corpus of roughly 227 million words to build a Target-Side 5-Gram language model with Srilm in combination with Kenlm.", "We use Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting."], "ms": ["Di samping itu, kami menggunakan korpus bahasa Inggeris kira-kira 227 juta perkataan untuk membina model bahasa Target-Side 5-Gram dengan Srilm dalam kombinasi dengan Kenlm.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Gram language model with modified Kneser-Ney smoothing is trained with the Srilm Toolkit on the Epps, Ted, Newscommentary, and the Gigaword Corpora.", "The target language model is trained by the Sri language modeling Toolkit on the news Monolingual corpus."], "ms": ["Model bahasa gram dengan smoothing Kneser-Ney yang diubahsuai dilatih dengan Srilm Toolkit pada Epps, Ted, Newscommentary, dan Gigaword Corpora.", "Model bahasa sasaran dilatih oleh Toolkit pemodelan bahasa Sri pada berita Monolingual corpus."]}, {"en": ["Bannard and Callison-Burch introduced the Pivot approach to extracting paraphrase phrases from bilingual parallel Corpora.", "Bannard and Callison-Burch proposed identifying paraphrases by pivoting through phrases in a bilingual parallel Corpora."], "ms": ["Bannard dan Callison-Burch memperkenalkan pendekatan Pivot untuk mengekstrak frasa parafrasa daripada Corpora selari dwibahasa.", "Bannard dan Callison-Burch mencadangkan mengenal pasti parafrasa dengan berputar melalui frasa dalam Corpora selari dwibahasa."]}, {"en": ["To train the models we use the default stochastic gradient descent Classifier provided by Scikit-Learn.", "We implemented the Algorithms in python using the stochastic gradient descent method for Nmf from the Scikit-Learn package."], "ms": ["Untuk melatih model, kami menggunakan Klasifier keturunan kecerunan stokastik lalai yang disediakan oleh Scikit-Learn.", "Kami melaksanakan Algoritma dalam python menggunakan kaedah keturunan kecerunan stokastik untuk Nmf dari pakej Scikit-Learn."]}, {"en": ["We use the glove word vector representations of dimension 300.", "The dimension of glove word vectors is set as 300."], "ms": ["Kami menggunakan perkataan sarung tangan perwakilan vektor dimensi 300.", "Dimensi kata sarung tangan vektor ditetapkan sebagai 300."]}, {"en": ["To measure the translation quality, we use the BLEU score and the Nist score.", "We measure the translation quality with automatic Metrics including BLEU and Ter."], "ms": ["Untuk mengukur kualiti terjemahan, kami menggunakan skor BLEU dan skor Nist.", "Kami mengukur kualiti terjemahan dengan Metrik automatik termasuk BLEU dan Ter."]}, {"en": ["The language model was constructed using the Srilm Toolkit with interpolated Kneser-Ney discounting.", "Language models were estimated using the Sri language modeling Toolkit with modified Kneser-Ney smoothing."], "ms": ["Model bahasa dibina menggunakan Srilm Toolkit dengan diskaun Kneser-Ney yang saling berkaitan.", "Model bahasa dianggarkan menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We use the 300-Dimensional Pre-Trained Word2Vec 3 word Embeddings and compare the performance with that of glove 4 Embeddings.", "We Initialize the Embedding layer using Embeddings from dedicated word Embedding techniques Word2Vec and glove."], "ms": ["Kami menggunakan Embedding perkataan Pra-Trained 300-Dimensional 2Vec 3 dan membandingkan prestasi dengan sarung tangan 4 Embeddings.", "Kami Memulakan lapisan Embedding menggunakan Embeddings dari teknik Embedding perkataan khusus Word2Vec dan sarung tangan."]}, {"en": ["Chen et al extracted different types of Subtrees from the Auto-Parsed data and used them as new features in standard learning methods.", "Chen et al proposed an approach that extracted partial tree structures from a large amount of data and used them as the additional features to improve dependency Parsing."], "ms": ["Chen et al mengekstrak pelbagai jenis Subtrees dari data Auto-Parsed dan menggunakannya sebagai ciri baru dalam kaedah pembelajaran standard.", "Chen et al mencadangkan pendekatan yang mengekstrak struktur pokok separa daripada sejumlah besar data dan menggunakannya sebagai ciri tambahan untuk meningkatkan penghuraian kebergantungan."]}, {"en": ["We use 300 dimension Word2Vec word Embeddings for the experiments.", "We use Word2Vec from as the Pretrained word Embeddings."], "ms": ["Kami menggunakan 300 dimensi perkataan Embeddings Word2Vec untuk eksperimen.", "Kami menggunakan Word2Vec sebagai Embedding perkataan yang disekat."]}, {"en": ["The probabilistic language model is constructed on Google web 1T 5-Gram corpus by using the Srilm Toolkit.", "The language models are 4-Grams with modified Kneser-Ney smoothing which have been trained with the Srilm Toolkit."], "ms": ["Model bahasa probabilistik dibina di Google web 1T 5-Gram corpus dengan menggunakan Srilm Toolkit.", "Model bahasa adalah 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang telah dilatih dengan Srilm Toolkit."]}, {"en": ["We use Skip-Gram representation for the training of Word2Vec tool.", "We chose the Skip-Gram model provided by Word2Vec tool developed by for training word Embeddings."], "ms": ["Kami menggunakan perwakilan Skip-Gram untuk latihan alat Word2Vec.", "Kami memilih model Skip-Gram yang disediakan oleh alat Word2Vec yang dibangunkan oleh untuk latihan Embedding perkataan."]}, {"en": ["Sentiment analysis is a natural language processing task whose aim is to classify documents according to the opinion (polarity) they express on a given subject (Cite-P-13-8-14).", "Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-1-14) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B)."], "ms": ["Analisis sentimen adalah tugas pemprosesan bahasa semula jadi yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat (kepolaritian) yang mereka nyatakan pada subjek tertentu (Cite-P-13-8-14).", "Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-1-14) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B)."]}, {"en": ["To tune feature weights minimum error rate training is used, Optimized against the Neva metric.", "The parameter weights are Optimized with minimum error rate training."], "ms": ["Untuk menyesuaikan latihan kadar ralat minimum berat digunakan, Optimized against the Neva metrik.", "Berat parameter dioptimumkan dengan latihan kadar ralat minimum."]}, {"en": ["Al-Onaizan and Knight proposed a Spelling-Based model which directly maps English letter sequences into Arabic letter sequences.", "Al-Onaizan and Knight find that a model mapping directly from English to Arabic letters Outperforms the Phoneme-Toletter model."], "ms": ["Al-Onaizan dan Knight mencadangkan model berasaskan Ejaan yang secara langsung memetakan urutan huruf Inggeris ke dalam urutan huruf Arab.", "Al-Onaizan dan Knight mendapati bahawa satu model pemetaan secara langsung dari bahasa Inggeris ke huruf Arab Melebihi model Phoneme-Toletter."]}, {"en": ["Relation extraction is a crucial task in the field of natural language processing (Nlp).", "Relation extraction (re) is the task of recognizing relationships between entities mentioned in text."], "ms": ["Pengekstrakan hubungan adalah tugas penting dalam bidang pemprosesan bahasa semula jadi (Nlp).", "Pengekstrakan hubungan (re) adalah tugas mengenali hubungan antara entiti yang disebut dalam teks."]}, {"en": ["The fundamental work for the Pattern-Based approaches is that of Hearst.", "The seminal work in the field of Hypernym learning was done by Hearst."], "ms": ["Kerja asas untuk pendekatan Berasaskan Pola adalah Hearst.", "Kerja seminal dalam bidang pembelajaran Hypernym dilakukan oleh Hearst."]}, {"en": ["Parameter Optimisation is done by Mini-Batch stochastic gradient descent where Back-Propagation is performed using Adadelta update rule.", "Training is done through stochastic gradient descent over shuffled Mini-Batches with Adadelta update rule."], "ms": ["Parameter Optimization dilakukan oleh Mini-Batch stochastic gradient descent dimana Back-Propagation dilakukan menggunakan aturan update Adadelta.", "Latihan dilakukan melalui keturunan kecerunan stokastik ke atas Mini-Batches yang disempit dengan peraturan kemas kini Adadelta."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit.", "We trained a Tri-Gram Hindi word language model with the Srilm tool."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit.", "Kami melatih model bahasa perkataan Tri-Gram Hindi dengan alat Srilm."]}, {"en": ["For language modeling, we use the English Gigaword corpus with 5-Gram LM implemented with the Kenlm Toolkit.", "For Smt decoding, we use the Moses Toolkit with Kenlm for language model queries."], "ms": ["Untuk pemodelan bahasa, kami menggunakan corpus Gigaword Inggeris dengan 5-Gram LM yang dilaksanakan dengan Kenlm Toolkit.", "Untuk penyahkodan Smt, kami menggunakan Musa Toolkit dengan Kenlm untuk pertanyaan model bahasa."]}, {"en": ["An effective alternative, which however only delivers Unnormalized scores, is to train the network using the noise Contrastive estimation denoted by Nce in the rest of the paper.", "A more effective alternative, which however only delivers Quasinormalized scores, is to train the network using the noise Contrastive estimation or Nce."], "ms": ["Alternatif yang berkesan, yang bagaimanapun hanya memberikan skor yang tidak normal, adalah untuk melatih rangkaian menggunakan anggaran kontrastif bunyi yang dilambangkan oleh Nce di seluruh kertas.", "Alternatif yang lebih berkesan, yang bagaimanapun hanya memberikan skor Quasinormalized, adalah untuk melatih rangkaian menggunakan anggaran kontrastif bunyi atau Nce."]}, {"en": ["We then evaluate the effect of word alignment on machine translation quality using the Phrase-Based translation system Moses.", "With the refined outputs, we build Phrasebased Transliteration systems using Moses, a popular statistical machine translation framework."], "ms": ["Kami kemudian menilai kesan penjajaran perkataan pada kualiti terjemahan mesin menggunakan sistem terjemahan Berasaskan Frasa Musa.", "Dengan output yang halus, kami membina sistem Transliterasi berasaskan frasa menggunakan Moses, kerangka terjemahan mesin statistik yang popular."]}, {"en": ["The basic model of the our system is a Log-Linear model.", "The model is a Log-Linear model over synchronous Cfg derivations."], "ms": ["Model asas sistem kami adalah model Log-Linear.", "Model ini adalah model Log-Linear atas terbitan Cfg yang diselaraskan."]}, {"en": ["Accordingly, we use an Adaptive recurrence mechanism to learn a dynamic Node representation through attention structure.", "We could approach the movie overview generation task using an Attention-Based Encoder-Decoder model."], "ms": ["Oleh itu, kita menggunakan mekanisme rekurrence Adaptive untuk mempelajari perwakilan Node dinamik melalui struktur perhatian.", "Kami boleh mendekati tugas penjanaan gambaran keseluruhan filem menggunakan model Pengekod-Dekoder Berasaskan Perhatian."]}, {"en": ["Our Trigram word language model was trained on the target side of the training corpus using the Srilm Toolkit with modified Kneser-Ney smoothing.", "We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit."], "ms": ["Model bahasa perkataan Trigram kami dilatih di sisi sasaran korpus latihan menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit."]}, {"en": ["We use Mini-Batch update and Adagrad to optimize the parameter learning.", "In both Pre-Training and Fine-Tuning, we adopt Adagrad and L2 Regularizer for optimization."], "ms": ["Kami menggunakan kemas kini Mini-Batch dan Adagrad untuk mengoptimumkan pembelajaran parameter.", "Dalam kedua-dua Pra-Latihan dan Fine-Tuning, kami menggunakan Adagrad dan L2 Regularizer untuk pengoptimuman."]}, {"en": ["We Initialize our word vectors with 300-Dimensional Word2Vec word Embeddings.", "The model parameters of word Embedding are Initialized using Word2Vec."], "ms": ["Kami Memulakan vektor perkataan kami dengan Embedding perkataan 300-Dimensional Word2Vec.", "Parameter model Embedding perkataan Diawalkan menggunakan Word2Vec."]}, {"en": ["Pun is a figure of speech that consists of a deliberate confusion of similar words or phrases for Rhetorical effect, whether humorous or serious.", "Pun is a way of using the characteristics of the language to cause a word, a sentence or a discourse to involve two or more different meanings."], "ms": ["Pun adalah tokoh ucapan yang terdiri daripada kekeliruan yang disengajakan dari kata-kata atau frasa yang serupa untuk kesan Rhetorical, sama ada humor atau serius.", "Pun adalah cara menggunakan ciri-ciri bahasa untuk menyebabkan perkataan, ayat atau wacana melibatkan dua atau lebih makna yang berbeza."]}, {"en": ["In this paper, we explore an implicit Content-Introducing method for Generative Short-Text conversation system.", "We propose an implicit Content-Introducing method which incorporates additional information into the Seq2Seq model."], "ms": ["Dalam makalah ini, kami meneroka kaedah Pengenalan Kandungan tersirat untuk sistem perbualan Generatif Pendek.", "Kami mencadangkan kaedah Pengenalan Kandungan tersirat yang menggabungkan maklumat tambahan ke dalam model Seq2Seq."]}, {"en": ["All the feature weights were trained using our implementation of minimum error rate training.", "The minimum error rate training was used to tune the feature weights."], "ms": ["Semua berat ciri dilatih menggunakan pelaksanaan latihan kadar ralat minimum kami.", "Latihan kadar ralat minimum digunakan untuk menyesuaikan berat ciri."]}, {"en": ["We first train a Word2Vec model on Fr-Wikipedia 11 to obtain non Contextual word vectors.", "We use Skip-Gram with negative sampling for obtaining the word Embeddings."], "ms": ["Kami mula-mula melatih model Word2Vec di Fr-Wikipedia 11 untuk mendapatkan vektor perkataan bukan kontekstual.", "Kami menggunakan Skip-Gram dengan persampelan negatif untuk mendapatkan perkataan Embeddings."]}, {"en": ["Incometo select the most fluent path, we train a 5-Gram language model with the Srilm Toolkit on the English Gigaword corpus.", "For language model scoring, we use the Srilm Toolkit training a 5-Gram language model for English."], "ms": ["Incometo memilih laluan yang paling fasih, kami melatih model bahasa 5-Gram dengan Srilm Toolkit pada corpus Gigaword Inggeris.", "Untuk pemarkahan model bahasa, kami menggunakan Srilm Toolkit melatih model bahasa 5-Gram untuk bahasa Inggeris."]}, {"en": ["We trained a 5-Grams language model by the Srilm Toolkit.", "We use 5-Grams for all language models implemented using the Srilm Toolkit."], "ms": ["Kami melatih model bahasa 5-Gram oleh Srilm Toolkit.", "Kami menggunakan 5-Gram untuk semua model bahasa yang dilaksanakan menggunakan Srilm Toolkit."]}, {"en": ["We used Google Pre-Trained word Embedding with 300 dimensions.", "To Encode the original sentences we used Word2Vec Embeddings Pre-Trained on Google news."], "ms": ["Kami menggunakan perkataan Embedding Pra-Latih Google dengan 300 dimensi.", "Untuk Mengenal pasti ayat asal yang kami gunakan Embedding Word2Vec Pra-Trained pada berita Google."]}, {"en": ["The 'Grammar' consists of a lexicon where each lexical item is associated with a finite number of structures for which that item is the 'Head'.", "Each grammar consists of a set of rules evaluated in a Leftto-Right fashion over the input Annotations, with multiple Grammars Cascaded together and evaluated Bottom-Up."], "ms": ["'Grammar' terdiri daripada leksikon di mana setiap item leksikal dikaitkan dengan bilangan struktur yang terhingga di mana item itu adalah 'Ketua'.", "Setiap tatabahasa terdiri daripada satu set peraturan yang dinilai dalam fesyen Leftto-Right atas Annotations input, dengan pelbagai Grammar Cascaded bersama-sama dan dinilai Bottom-Up."]}, {"en": ["Word sense Disambiguation is the process of determining which sense of a word is used in a given context.", "Word sense Disambiguation is the task of assigning a sense to a word based on the context in which it occurs."], "ms": ["Kemusykilan perkataan Kemusykilan ialah proses menentukan rasa perkataan yang digunakan dalam konteks tertentu.", "Disambiguasi perkataan adalah tugas untuk memberikan rasa kepada perkataan berdasarkan konteks di mana ia berlaku."]}, {"en": ["We measured the overall translation quality with 4-Gram BLEU, which was computed on Tokenized and Lowercased data for all systems.", "We used the BLEU score to evaluate the translation accuracy with and without the Normalization."], "ms": ["Kami mengukur kualiti terjemahan keseluruhan dengan 4-Gram BLEU, yang dikira pada data Tokenized dan Lowercased untuk semua sistem.", "Kami menggunakan skor BLEU untuk menilai ketepatan terjemahan dengan dan tanpa Normalisasi."]}, {"en": ["Parameter tuning was carried out using both K-Best Mira and minimum error rate training on a Held-Out development set.", "Feature weights were set with minimum error rate training on a tuning set using BLEU as the objective function."], "ms": ["Penalaan parameter dijalankan menggunakan kedua-dua K-Best Mira dan latihan kadar ralat minimum pada set pembangunan Held-Out.", "Berat ciri ditetapkan dengan latihan kadar ralat minimum pada set penalaan menggunakan BLEU sebagai fungsi objektif."]}, {"en": ["Coreference resolution is the problem of partitioning a sequence of noun phrases (or mentions), as they occur in a natural language text, into a set of Referential entities.", "Coreference resolution is a set partitioning problem in which each resulting partition refers to an entity."], "ms": ["Resolusi spatial adalah masalah pembahagian urutan frasa kata nama (atau sebutan), kerana ia berlaku dalam teks bahasa semula jadi, ke dalam satu set entiti rujukan.", "Resolusi spatial adalah masalah pembahagian yang ditetapkan di mana setiap partition yang dihasilkan merujuk kepada entiti."]}, {"en": ["Our Cdsm feature is based on word vectors derived using a Skip-Gram model.", "We use a Cws-Oriented model modified from the Skip-Gram model to derive word Embeddings."], "ms": ["Ciri Cdsm kami adalah berdasarkan vektor perkataan yang diperolehi menggunakan model Skip-Gram.", "Kami menggunakan model Berorientasi Cws yang diubahsuai dari model Skip-Gram untuk memperoleh perkataan Embeddings."]}, {"en": ["We used Trigram language models with interpolated Kneser-Kney discounting trained using the Sri language modeling Toolkit.", "We created 5-Gram language models for every domain using Srilm with improved Kneserney smoothing on the target side of the training parallel Corpora."], "ms": ["Kami menggunakan model bahasa Trigram dengan diskaun Kneser-Kney yang diinterpolasi dilatih menggunakan Toolkit pemodelan bahasa Sri.", "Kami mencipta model bahasa 5-Gram untuk setiap domain menggunakan Srilm dengan lancar Kneserney yang lebih baik di sisi sasaran latihan selari Corpora."]}, {"en": ["Twitter is a widely used Microblogging platform, where users post and interact with messages, \u201c Tweets \u201d.", "Twitter is a famous social media platform capable of spreading breaking news, thus most of RUMOUR related research uses Twitter feed as a basis for research."], "ms": ["Twitter adalah platform Microblogging yang digunakan secara meluas, di mana pengguna menyiarkan dan berinteraksi dengan mesej, Tweets dan Twitter.", "Twitter adalah platform media sosial terkenal yang mampu menyebarkan berita terkini, oleh itu kebanyakan penyelidikan berkaitan RUMOUR menggunakan suapan Twitter sebagai asas untuk penyelidikan."]}, {"en": ["For word Embeddings, we trained a Skip-Gram model over Wikipedia, using Word2Vec.", "For feature building, we use Word2Vec Pre-Trained word Embeddings."], "ms": ["Untuk Embedding perkataan, kami melatih model Skip-Gram melalui Wikipedia, menggunakan Word2Vec.", "Untuk bangunan ciri, kami menggunakan Embedding kata Pra-Latihan Word2Vec."]}, {"en": ["We use the long short-term memory architecture for recurrent layers.", "We use long Shortterm memory networks to build another Semanticsbased sentence representation."], "ms": ["Kami menggunakan seni bina memori jangka pendek yang panjang untuk lapisan berulang.", "Kami menggunakan rangkaian memori jangka pendek yang panjang untuk membina perwakilan ayat berasaskan Semantik yang lain."]}, {"en": ["For English posts, we used the 200D glove vectors as word Embeddings.", "For input representation, we used glove word Embeddings."], "ms": ["Untuk catatan bahasa Inggeris, kami menggunakan vektor sarung tangan 200D sebagai Embedding perkataan.", "Untuk perwakilan input, kami menggunakan perkataan sarung tangan Embeddings."]}, {"en": ["Word sense Disambiguation (Wsd) is a particular problem of computational linguistics which consists in determining the correct sense for a given ambiguous word.", "In natural language, a word often assumes different meanings, and the task of determining the correct meaning, or sense, of a word in different contexts is known as word sense Disambiguation (Wsd)."], "ms": ["Kemusykilan kata Kemusykilan perkataan (Wsd) ialah masalah tertentu linguistik komputasi yang terdiri dalam menentukan pengertian yang betul bagi perkataan yang samar-samar.", "Dalam bahasa semula jadi, perkataan sering mengandaikan makna yang berbeza, dan tugas menentukan makna yang betul, atau rasa, perkataan dalam konteks yang berbeza dikenali sebagai kata rasa Disambiguation (Wsd)."]}, {"en": ["We Tokenized and Part-Of-Speech tagged the Tweets with the Carnegie Mellon University Twitter Nlp tool.", "We used the part of speech tagged for Tweets with the Twitter Nlp tool."], "ms": ["Kami Tokenized dan Part-Of-Speech menandai Tweets dengan alat Carnegie Mellon University Twitter Nlp.", "Kami menggunakan bahagian ucapan yang ditandai untuk Tweet dengan alat Twitter Nlp."]}, {"en": ["Semantic role labeling (SRL) is the process of producing such a MARKUP.", "Semantic role labeling (SRL) is the task of labeling Predicate-Argument structure in sentences with shallow semantic information."], "ms": ["Pelabelan peranan semantik (SRL) adalah proses menghasilkan MARKUP sedemikian.", "Pelabelan peranan semantik (SRL) adalah tugas pelabelan struktur Predicate-Argument dalam ayat dengan maklumat semantik cetek."]}, {"en": ["Finally, we combine all the above features using a support vector regression model which is implemented in Scikit-Learn.", "As Classifier we use a traditional model, a support vector machine with linear kernel implemented in Scikit-Learn."], "ms": ["Akhirnya, kami menggabungkan semua ciri di atas menggunakan model regresi vektor sokongan yang dilaksanakan dalam Scikit-Learn.", "Sebagai Classifier kami menggunakan model tradisional, mesin vektor sokongan dengan kernel linear yang dilaksanakan dalam Scikit-Learn."]}, {"en": ["We use the Pre-Trained 300-Dimensional Word2Vec Embeddings trained on Google news 1 as input features.", "We use Word2Vec 1 Toolkit to Pre-Train the character Embeddings on the Chinese Wikipedia corpus."], "ms": ["Kami menggunakan Embedding Word2Vec 300-Dimensional Pra-Latih yang dilatih pada Google News 1 sebagai ciri input.", "Kami menggunakan Word2Vec 1 Toolkit untuk Pra-Latih aksara Embeddings pada korpus Wikipedia Cina."]}, {"en": ["We adapt the models of Mikolov et al and Mikolov et al to infer feature Embeddings.", "We use the popular Word2Vec 1 tool proposed by Mikolov et al to extract the vector representations of words."], "ms": ["Kami menyesuaikan model Mikolov et al dan Mikolov et al untuk menyimpulkan ciri Embeddings.", "Kami menggunakan alat Word2Vec 1 yang popular yang dicadangkan oleh Mikolov et al untuk mengekstrak perwakilan vektor perkataan."]}, {"en": ["Stance detection has been defined as automatically detecting whether the author of a piece of text is in favor of the given target or against it.", "Stance detection is a difficult task since it often requires reasoning in order to determine whether an utterance is in favor of or against a specific issue."], "ms": ["Pengesanan santun telah ditakrifkan sebagai mengesan secara automatik sama ada pengarang sekeping teks memihak kepada sasaran yang diberikan atau menentangnya.", "Pengesanan santun adalah tugas yang sukar kerana sering memerlukan penalaran untuk menentukan sama ada ucapan memihak atau menentang isu tertentu."]}, {"en": ["We used the Moses Toolkit to build mt systems using various alignments.", "We used a Phrase-Based Smt model as implemented in the Moses Toolkit."], "ms": ["Kami menggunakan Musa Toolkit untuk membina sistem mt menggunakan pelbagai penjajaran.", "Kami menggunakan model Smt Berasaskan Frasa seperti yang dilaksanakan dalam Musa Toolkit."]}, {"en": ["Socher et al introduced a family of recursive neural networks to represent Sentence-Level semantic composition.", "Socher et al proposed the recursive neural network that has been proven to be efficient in terms of constructing sentences representations."], "ms": ["Socher et al memperkenalkan keluarga rangkaian neural rekursif untuk mewakili komposisi semantik Tahap Sentence.", "Socher et al mencadangkan rangkaian saraf rekursif yang telah terbukti berkesan dari segi membina perwakilan ayat."]}, {"en": ["Finkel and Manning propose a Discriminative Parsingbased method for nested named entity recognition, employing Crfs as its core.", "Finkel and Manning also proposed a Parsing model for the extraction of nested named entity mentions, which, like this work, Parses just the corresponding semantic Annotations."], "ms": ["Finkel dan Manning mencadangkan kaedah Diskriminatif Parsingbased untuk pengiktirafan entiti bernama bersarang, menggunakan Crfs sebagai terasnya.", "Finkel dan Manning juga mencadangkan model Parsing untuk pengekstrakan sebutan entiti bernama bersarang, yang, seperti karya ini, Parses hanya Annotasi semantik yang sepadan."]}, {"en": ["For generating the translations from English into German, we used the statistical translation Toolkit Moses.", "We translated each German sentence using the Moses statistical machine translation Toolkit."], "ms": ["Untuk menghasilkan terjemahan dari bahasa Inggeris ke bahasa Jerman, kami menggunakan terjemahan statistik Toolkit Musa.", "Kami menterjemahkan setiap ayat Jerman menggunakan Toolkit terjemahan mesin statistik Moses."]}, {"en": ["Socher et al introduce a family of recursive neural networks for Sentence-Level semantic composition.", "Socher et al introduced a family of recursive neural networks to represent Sentence-Level semantic composition."], "ms": ["Socher et al memperkenalkan keluarga rangkaian neural rekursif untuk komposisi semantik Tahap Sentence.", "Socher et al memperkenalkan keluarga rangkaian neural rekursif untuk mewakili komposisi semantik Tahap Sentence."]}, {"en": ["We trained a linear Log-Loss model using stochastic gradient descent learning as implemented in the Scikit learn library.", "Within this Subpart of our ensemble model, we used a SVM model from the Scikit-Learn library."], "ms": ["Kami melatih model Log-Loss linear menggunakan pembelajaran keturunan kecerunan stokastik seperti yang dilaksanakan di perpustakaan pembelajaran Scikit.", "Dalam Subpart model ensemble kami, kami menggunakan model SVM dari perpustakaan Scikit-Learn."]}, {"en": ["We used glove word Embeddings with 300 dimensions Pre-Trained using Commoncrawl to get a vector representation of the evidence sentence.", "We used the 300-Dimensional glove word Embeddings learned from 840 billion tokens in the web crawl data, as general word Embeddings."], "ms": ["Kami menggunakan perkataan sarung tangan Embeddings dengan 300 dimensi Pra-Trained menggunakan Commoncrawl untuk mendapatkan perwakilan vektor ayat bukti.", "Kami menggunakan perkataan sarung tangan 300-Dimensional Embeddings yang dipelajari dari 840 bilion token dalam data merangkak web, sebagai perkataan umum Embeddings."]}, {"en": ["We first train a Word2Vec model on Fr-Wikipedia 11 to obtain non Contextual word vectors.", "Lastly, we populate the Adjacency with a Distributional similarity measure based on Word2Vec."], "ms": ["Kami mula-mula melatih model Word2Vec di Fr-Wikipedia 11 untuk mendapatkan vektor perkataan bukan kontekstual.", "Akhir sekali, kami mengisi Adjacency dengan ukuran persamaan Distributional berdasarkan Word2Vec."]}, {"en": ["Dependency Parsing is the task to assign dependency structures to a given sentence Math-W-4-1-0-14.", "Dependency Parsing is a simpler task than constituent Parsing, since dependency trees do not have extra Non-Terminal nodes and there is no need for a grammar to generate them."], "ms": ["Penghuraian dependensi adalah tugas untuk menetapkan struktur dependensi pada ayat Math-W-4-1-0-14.", "Parsing Dependensi adalah tugas yang lebih mudah daripada Parsing konstituen, kerana pokok dependensi tidak mempunyai nod Bukan Terma tambahan dan tidak perlu tatabahasa untuk menghasilkannya."]}, {"en": ["Here we adopt the greedy feature selection algorithm as described in Jiang and Ng to select useful features empirically and Incrementally according to their contributions on the development data.", "Therefore, we adopt the greedy feature selection algorithm as described in Jiang et al to pick up positive features Incrementally according to their contributions."], "ms": ["Di sini kita menggunakan algoritma pemilihan ciri tamak seperti yang dijelaskan di Jiang dan Ng untuk memilih ciri berguna secara empirikal dan Incrementally mengikut sumbangan mereka pada data pembangunan.", "Oleh itu, kami menggunakan algoritma pemilihan ciri yang tamak seperti yang dijelaskan di Jiang et al untuk mengambil ciri positif Secara bertahap mengikut sumbangan mereka."]}, {"en": ["We used Moses as the Phrase-Based machine translation system.", "We used Moses, a state-of-the-art Phrase-Based Smt model, in decoding."], "ms": ["Kami menggunakan Musa sebagai sistem terjemahan mesin berasaskan frasa.", "Kami menggunakan Musa, model Smt Berasaskan Frasa canggih, dalam penyahkodan."]}, {"en": ["Incometo select the most fluent path, we train a 5-Gram language model with the Srilm Toolkit on the English Gigaword corpus.", "We train a 4-Gram language model on the Xinhua portion of English Gigaword corpus by Srilm Toolkit."], "ms": ["Incometo memilih laluan yang paling fasih, kami melatih model bahasa 5-Gram dengan Srilm Toolkit pada corpus Gigaword Inggeris.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua Gigaword corpus bahasa Inggeris oleh Srilm Toolkit."]}, {"en": ["Once again, Segmentation is the part of the process where the automatic Algorithms most seriously Underperform.", "Since Segmentation is the first stage of discourse Parsing, quality discourse segments are critical to building quality discourse representations (Cite-P-12-1-10)."], "ms": ["Sekali lagi, Segmentasi adalah sebahagian daripada proses di mana Algoritma automatik paling serius Underperform.", "Oleh kerana Segmentasi adalah peringkat pertama wacana Penghuraian, segmen wacana berkualiti adalah penting untuk membina perwakilan wacana berkualiti (Cite-P-12-1-10)."]}, {"en": ["Erbach, Barg and Walther and Fouvry followed a Unification-Based symbolic approach to unknown word processing for Constraint-Based Grammars.", "Cussens and Pulman describe a symbolic approach which employs Inductive logic programming and Barg and Walther and Fouvry follow a Unification-Based approach."], "ms": ["Erbach, Barg dan Walther dan Fouvry mengikuti pendekatan simbolik berasaskan penyatuan untuk pemprosesan perkataan yang tidak diketahui untuk Grammar berasaskan kekangan.", "Cussens dan Pulman menerangkan pendekatan simbolik yang menggunakan pengaturcaraan logik Induktif dan Barg dan Walther dan Fouvry mengikuti pendekatan Berasaskan Penyatuan."]}, {"en": ["Readability is used to provide users with high-quality service in text recommendation or text visualization.", "Readability can be used to provide Satisfiable services in text recommendation or text visualization."], "ms": ["Kebolehbacaan digunakan untuk menyediakan pengguna dengan perkhidmatan berkualiti tinggi dalam cadangan teks atau visualisasi teks.", "Kebolehbacaan boleh digunakan untuk menyediakan perkhidmatan yang memuaskan dalam cadangan teks atau visualisasi teks."]}, {"en": ["We used the SVM implementation provided within Scikit-Learn.", "We used Scikit-Learn library for all the machine learning models."], "ms": ["Kami menggunakan pelaksanaan SVM yang disediakan dalam Scikit-Learn.", "Kami menggunakan perpustakaan Scikit-Learn untuk semua model pembelajaran mesin."]}, {"en": ["In this paper we present a method for using LSA analysis to Initialize a Plsa model.", "We present our method for Initializing a Plsa model using LSA model."], "ms": ["Dalam makalah ini kami membentangkan kaedah untuk menggunakan analisis LSA untuk Memulakan model Plsa.", "Kami membentangkan kaedah kami untuk Memulakan model Plsa menggunakan model LSA."]}, {"en": ["Morphological tagging is the task of assigning a morphological analysis to a token in context.", "Morphological tagging is the process of labeling each word token with its morphological attributes."], "ms": ["Penandaan morfologi adalah tugas untuk memberikan analisis morfologi kepada token dalam konteks.", "Penandaan morfologi adalah proses melabel setiap token perkataan dengan sifat morfologinya."]}, {"en": ["The evaluation metric is the Case-Insensitive Bleu4.", "We use Case-Insensitive BLEU as evaluation metric."], "ms": ["Metrik penilaian ialah Case-Insensitive Bleu4.", "Kami menggunakan Case-Insensitive BLEU sebagai metrik penilaian."]}, {"en": ["Nallapati et al also employed the typical attention modeling based Seq2Seq framework, but utilized a trick to control the vocabulary size to improve the training efficiency.", "Gu et al, cheng and Lapata, and Nallapati et al also utilized Seq2Seq based framework with attention modeling for short text or single document summarization."], "ms": ["Nallapati et al juga menggunakan kerangka Seq2Seq berasaskan pemodelan perhatian yang tipikal, tetapi menggunakan helah untuk mengawal saiz perbendaharaan kata untuk meningkatkan kecekapan latihan.", "Gu et al, cheng dan Lapata, dan Nallapati et al juga menggunakan kerangka berasaskan Seq2Seq dengan pemodelan perhatian untuk teks pendek atau ringkasan dokumen tunggal."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of determining the correct meaning for an ambiguous word from its context.", "Word sense Disambiguation (Wsd) is a problem of finding the relevant clues in a surrounding context."], "ms": ["Kemusykilan erti kata Kemusykilan (Wsd) ialah tugas menentukan makna yang betul bagi perkataan yang samar-samar dari konteksnya.", "Disambiguasi erti kata (Wsd) adalah masalah mencari petunjuk yang berkaitan dalam konteks persekitaran."]}, {"en": ["To implement SVM algorithm, we have used the publicly available python based Scikit-Learn package.", "For this task, we used the SVM implementation provided with the python Scikit-Learn Module."], "ms": ["Untuk melaksanakan algoritma SVM, kami telah menggunakan pakej Scikit-Learn berasaskan python yang tersedia secara terbuka.", "Untuk tugas ini, kami menggunakan pelaksanaan SVM yang disediakan dengan Modul Scikit-Learn python."]}, {"en": ["Segmentation is the task of dividing a stream of data (text or other media) into coherent units.", "Since Segmentation is the first stage of discourse Parsing, quality discourse segments are critical to building quality discourse representations (Cite-P-12-1-10)."], "ms": ["Segmentasi adalah tugas membahagikan aliran data (teks atau media lain) ke dalam unit yang koheren.", "Oleh kerana Segmentasi adalah peringkat pertama wacana Penghuraian, segmen wacana berkualiti adalah penting untuk membina perwakilan wacana berkualiti (Cite-P-12-1-10)."]}, {"en": ["Coreference resolution is the task of determining which mentions in a text refer to the same entity.", "Coreference resolution is a set partitioning problem in which each resulting partition refers to an entity."], "ms": ["Resolusi spatial adalah tugas menentukan sebutan mana dalam teks merujuk kepada entiti yang sama.", "Resolusi spatial adalah masalah pembahagian yang ditetapkan di mana setiap partition yang dihasilkan merujuk kepada entiti."]}, {"en": ["Shen et al proposed a target dependency language model for Smt to employ Target-Side structured information.", "Again, Shen et al explore a dependency language model to improve translation quality."], "ms": ["Shen et al mencadangkan model bahasa dependensi sasaran untuk Smt menggunakan maklumat berstruktur Target-Side.", "Sekali lagi, Shen et al meneroka model bahasa kebergantungan untuk meningkatkan kualiti terjemahan."]}, {"en": ["Word Embeddings have shown promising results in Nlp tasks, such as named entity recognition, sentiment analysis or Parsing.", "Word Embedding has shown promising results in variety of the Nlp applications, such as named entity recognition, sentiment analysis and Parsing."], "ms": ["Embeddings Word telah menunjukkan hasil yang menjanjikan dalam tugas Nlp, seperti pengiktirafan entiti bernama, analisis sentimen atau Penghuraian.", "Word Embedding telah menunjukkan hasil yang menjanjikan dalam pelbagai aplikasi Nlp, seperti pengiktirafan entiti bernama, analisis sentimen dan Parsing."]}, {"en": ["We employ Word2Vec as the Unsupervised feature learning algorithm, based on a raw corpus of over 90 million messages extracted from Chinese Weibo platform.", "To get a dictionary of word Embeddings, we use the Word2Vec tool 2 and train it on the Chinese Gigaword corpus."], "ms": ["Kami menggunakan Word2Vec sebagai algoritma pembelajaran ciri Unsupervised, berdasarkan korpus mentah lebih daripada 90 juta mesej yang diekstrak dari platform Weibo Cina.", "Untuk mendapatkan kamus Embedding kata, kami menggunakan alat Word2Vec 2 dan melatihnya di korpus Gigaword Cina."]}, {"en": ["Relation extraction is the task of predicting semantic relations over entities expressed in structured or Semi-Structured text.", "Relation extraction is the task of detecting and classifying relationships between two entities from text."], "ms": ["Pengekstrakan hubungan adalah tugas meramalkan hubungan semantik ke atas entiti yang dinyatakan dalam teks berstruktur atau Semi-Structured.", "Pengekstrakan hubungan adalah tugas mengesan dan mengklasifikasikan hubungan antara dua entiti dari teks."]}, {"en": ["Twitter is a popular Microblogging service, which, among other things, is used for knowledge sharing among friends and peers.", "Twitter 1 is a Microblogging service, which according to latest statistics, has 284 million active users , 77% outside the us that generate 500 million Tweets a day in 35 different languages."], "ms": ["Twitter adalah perkhidmatan Microblogging yang popular, yang antara lain digunakan untuk perkongsian pengetahuan di kalangan rakan dan rakan sebaya.", "Twitter 1 adalah perkhidmatan Microblogging, yang menurut statistik terkini, mempunyai 284 juta pengguna aktif, 77% di luar AS yang menjana 500 juta Tweet sehari dalam 35 bahasa yang berbeza."]}, {"en": ["Irony is a particular type of figurative language in which the meaning is often the opposite of what is literally said and is not always evident without context or existing knowledge.", "Irony is a form of figurative language, considered as \u201c saying the opposite of what you mean \u201d, where the opposition of literal and intended meanings is very clear (Cite-P-23-1-1, Cite-P-23-3-8)."], "ms": ["Irony adalah sejenis bahasa kiasan tertentu di mana maknanya sering bertentangan dengan apa yang dikatakan secara harfiah dan tidak selalu jelas tanpa konteks atau pengetahuan yang ada.", "Irony adalah satu bentuk bahasa kiasan, dianggap sebagai \"berkata bertentangan dengan apa yang anda maksudkan,\" di mana penentangan makna harfiah dan dimaksudkan sangat jelas (Cite-P-23-1-1, Cite-P-23-3-8)."]}, {"en": ["Xu et al and Yu and Dredze exploited semantic knowledge to improve the semantic representation of word Embeddings.", "Xu et al used the knowledge graph to advance the learning of word Embeddings."], "ms": ["Xu et al dan Yu dan Dredze mengeksploitasi pengetahuan semantik untuk meningkatkan perwakilan semantik Embeddings perkataan.", "Xu et al menggunakan graf pengetahuan untuk memajukan pembelajaran Embedding perkataan."]}, {"en": ["We used Srilm to build a 4-Gram language model with interpolated Kneser-Ney discounting.", "We estimated 5-Gram language models using the Sri Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan Srilm untuk membina model bahasa 4-Gram dengan diskaun Kneser-Ney yang saling berkaitan.", "Kami menganggarkan model bahasa 5-Gram menggunakan Sri Toolkit dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "The probabilistic language model is constructed on Google web 1T 5-Gram corpus by using the Srilm Toolkit."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Model bahasa probabilistik dibina di Google web 1T 5-Gram corpus dengan menggunakan Srilm Toolkit."]}, {"en": ["We use the Srilm Toolkit to compute our language models.", "We use the Sri language modeling Toolkit for language modeling."], "ms": ["Kami menggunakan Srilm Toolkit untuk mengira model bahasa kami.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk pemodelan bahasa."]}, {"en": ["For data preparation and processing we use Scikit-Learn.", "We use the Scikit-Learn Toolkit as our underlying implementation."], "ms": ["Untuk penyediaan dan pemprosesan data, kami menggunakan Scikit-Learn.", "Kami menggunakan Scikit-Learn Toolkit sebagai pelaksanaan asas kami."]}, {"en": ["We estimate a 5-Gram language model using interpolated Kneser-Ney discounting with Srilm.", "We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus."], "ms": ["Kami menganggarkan model bahasa 5-Gram menggunakan diskaun Kneser-Ney yang saling berkaitan dengan Srilm.", "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side."]}, {"en": ["To learn the topics we use latent Dirichlet allocation.", "We have used latent Dirichlet allocation model as our main topic modeling tool."], "ms": ["Untuk mempelajari topik yang kita gunakan peruntukan Dirichlet laten.", "Kami telah menggunakan model peruntukan laten Dirichlet sebagai alat pemodelan topik utama kami."]}, {"en": ["For the Word-Embedding based Classifier, we use the glove Pre-Trained word Embeddings.", "We use glove Pre-Trained word Embeddings, a 100 dimension Embedding layer that is followed by a Bilstm layer of size 32."], "ms": ["Untuk Klasifier berasaskan Word-Embedding, kami menggunakan Embedding perkataan Pra-Trained sarung tangan.", "Kami menggunakan sarung tangan Embedding perkataan Pra-Latih, lapisan Embedding dimensi 100 yang diikuti oleh lapisan Bilstm saiz 32."]}, {"en": ["Word alignment is a fundamental problem in statistical machine translation.", "Word alignment is the problem of Annotating parallel text with Translational correspondence."], "ms": ["Penjajahan perkataan adalah masalah asas dalam terjemahan mesin statistik.", "Penjajahan perkataan adalah masalah Annotating teks selari dengan surat-menyurat Translasional."]}, {"en": ["A Context-Free grammar (Cfg) is a Tuple Math-W-2-5-5-22, where Vn and Vt are finite, Disjoint sets of Nonterminal and terminal symbols, respectively, and s E Vn is the start symbol.", "A Context-Free grammar (Cfg) is a 4-Tuple Math-W-3-1-1-9 where Math-W-3-1-1-21 and Math-W-3-1-1-23 are finite Disjoint sets of Nonterminal and terminal symbols, respectively, Math-W-3-1-1-36 is the start symbol and Math-W-3-1-1-44 is a finite set of rules."], "ms": ["Tatabahasa Bebas Konteks (Cfg) ialah Math-W-2-5-5-22 Tuple, di mana Vn dan Vt adalah terhingga, Set Disjoint simbol Nonterminal dan terminal, masing-masing, dan s E Vn adalah simbol permulaan.", "Tatabahasa Bebas Konteks (Cfg) ialah Math-W-3-1-1-9 4-Tuple di mana Math-W-3-1-21 dan Math-W-3-1-1-23 adalah set Disjoint terhingga simbol Bukanterminal dan terminal, masing-masing, Math-W-3-1-1-36 adalah simbol permulaan dan Math-W-3-1-1-44 adalah set peraturan terhingga."]}, {"en": ["Named entity (NE) recognition is a task in which proper nouns and numerical information in a document are detected and classified into categories such as person, organization, location, and date.", "Named entity recognition is a well established information extraction task with many state of the art systems existing for a variety of languages."], "ms": ["Pengiktirafan entiti yang dinamakan (NE) adalah tugas di mana kata nama yang betul dan maklumat berangka dalam dokumen dikesan dan dikelaskan kepada kategori seperti orang, organisasi, lokasi, dan tarikh.", "Pengecaman entiti yang dinamakan adalah tugas pengekstrakan maklumat yang mantap dengan banyak sistem seni yang ada untuk pelbagai bahasa."]}, {"en": ["We use the Linearsvc Classifier as implemented in Scikit-Learn package 17 with the default parameters.", "For the TF representation, we use the Countvectorizer class from Scikit-Learn to process the text and create the appropriate representation."], "ms": ["Kami menggunakan Classifier Linearsvc seperti yang dilaksanakan dalam pakej Scikit-Learn 17 dengan parameter lalai.", "Untuk perwakilan TF, kami menggunakan kelas Countvectorizer dari Scikit-Learn untuk memproses teks dan mencipta perwakilan yang sesuai."]}, {"en": ["The word Embeddings can provide word vector representation that captures semantic and syntactic information of words.", "The distributed word representation by Word2Vec factors word distance and captures semantic similarities through vector arithmetic."], "ms": ["Perkataan Embeddings boleh memberikan perwakilan vektor perkataan yang menangkap maklumat semantik dan sintaktik perkataan.", "Perwakilan perkataan yang diedarkan oleh faktor Word2Vec jarak perkataan dan menangkap persamaan semantik melalui aritmetik vektor."]}, {"en": ["The Binary syntactic features were automatically extracted using the Stanford Parser.", "All Source-Target sentences were Parsed with the Stanford Parser in order to label the text with syntactic information."], "ms": ["Ciri-ciri sintaksis binari diekstrak secara automatik menggunakan Stanford Parser.", "Semua ayat Sumber-Target telah dihuraikan dengan Stanford Parser untuk melabel teks dengan maklumat sintaksis."]}, {"en": ["The pipeline is based on the Uima framework and contains many text analysis components.", "The Uima project provides an infrastructure to store unstructured documents."], "ms": ["Saluran paip ini berdasarkan kerangka Uima dan mengandungi banyak komponen analisis teks.", "Projek Uima menyediakan infrastruktur untuk menyimpan dokumen yang tidak berstruktur."]}, {"en": ["For learning Coreference decisions, we used a maximum entropy model.", "We use the maximum entropy model for our classification task."], "ms": ["Untuk pembelajaran keputusan Coreference, kami menggunakan model entropi maksimum.", "Kami menggunakan model entropi maksimum untuk tugas pengelasan kami."]}, {"en": ["Relation extraction (re) is the task of extracting semantic relationships between entities in text.", "Relation extraction (re) is the task of extracting instances of semantic relations between entities in unstructured data such as natural language text."], "ms": ["Pengekstrakan hubungan (re) adalah tugas mengekstrak hubungan semantik antara entiti dalam teks.", "Pengekstrakan hubungan (re) adalah tugas mengekstrak contoh hubungan semantik antara entiti dalam data yang tidak tersusun seperti teks bahasa semula jadi."]}, {"en": ["We use word Embeddings of dimension 100 Pretrained using Word2Vec on the training Dataset.", "For feature building, we use Word2Vec Pre-Trained word Embeddings."], "ms": ["Kami menggunakan perkataan Embeddings dimensi 100 Pretrained menggunakan Word2Vec pada Dataset latihan.", "Untuk bangunan ciri, kami menggunakan Embedding kata Pra-Latihan Word2Vec."]}, {"en": ["For the classifiers we use the Scikit-Learn machine learning Toolkit.", "We implement classification models using Keras and Scikit-Learn."], "ms": ["Untuk pengelas, kami menggunakan alat pembelajaran mesin Scikit-Learn.", "Kami melaksanakan model klasifikasi menggunakan Keras dan Scikit-Learn."]}, {"en": ["Part-Of-Speech (Pos) tagging is a fundamental language analysis task.", "Part-Of-Speech (Pos) tagging is a fundamental Natural-Language-Processing problem, and Pos tags are used as input to many important applications."], "ms": ["Penandaan Part-Of-Speech (Pos) adalah tugas analisis bahasa asas.", "Tag Part-Of-Speech (Pos) adalah masalah pemprosesan bahasa semula jadi asas, dan tag Pos digunakan sebagai input kepada banyak aplikasi penting."]}, {"en": ["Twitter is a widely used Microblogging platform, where users post and interact with messages, \u201c Tweets \u201d.", "Twitter is a very popular Micro Blogging site."], "ms": ["Twitter adalah platform Microblogging yang digunakan secara meluas, di mana pengguna menyiarkan dan berinteraksi dengan mesej, Tweets dan Twitter.", "Twitter adalah laman web Micro Blogging yang sangat popular."]}, {"en": ["We evaluated the system using BLEU score on the test set.", "We measured translation performance with BLEU."], "ms": ["Kami menilai sistem menggunakan skor BLEU pada set ujian.", "Kami mengukur prestasi terjemahan dengan BLEU."]}, {"en": ["Lda is a widely used topic model, which views the underlying document distribution as having a Dirichlet prior.", "Lda is a probabilistic model that can be used to model and discover underlying topic structures of documents."], "ms": ["Lda adalah model topik yang digunakan secara meluas, yang memandang pengedaran dokumen asas sebagai mempunyai Dirichlet sebelumnya.", "Lda adalah model probabilistik yang boleh digunakan untuk memodelkan dan menemui struktur topik dokumen yang mendasari."]}, {"en": ["The parameters of the systems were tuned using Mert to optimize BLEU on the development set.", "The system was General-Domain oriented and it was tuned by using Mert with a combination of six In-Domain development Datasets."], "ms": ["Parameter sistem ditala menggunakan Mert untuk mengoptimumkan BLEU pada set pembangunan.", "Sistem ini berorientasikan General-Domain dan ia ditala dengan menggunakan Mert dengan gabungan enam Dataset pembangunan In-Domain."]}, {"en": ["We use Stanford Corenlp for Pos tagging and Lemmatization.", "We use the Stanford Corenlp for obtaining Pos tags and Parse trees from our data."], "ms": ["Kami menggunakan Stanford Corenlp untuk penandaan Pos dan Lemmatization.", "Kami menggunakan Stanford Corenlp untuk mendapatkan tag Pos dan pokok Parse dari data kami."]}, {"en": ["The translation quality is evaluated by Case-Insensitive Bleu-4.", "Translation quality is evaluated by Case-Insensitive Bleu-4 metric."], "ms": ["Kualiti terjemahan dinilai oleh Case-Insensitive Bleu-4.", "Kualiti terjemahan dinilai oleh metrik Case-Insensitive Bleu-4."]}, {"en": ["We used the target side of the parallel corpus and the Srilm Toolkit to train a 5-Gram language model.", "A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit."], "ms": ["Kami menggunakan sisi sasaran korpus selari dan Srilm Toolkit untuk melatih model bahasa 5-Gram.", "Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit."]}, {"en": ["The language model was constructed using the Srilm Toolkit with interpolated Kneser-Ney discounting.", "The language models were interpolated Kneser-Ney discounted Trigram models, all constructed using the Srilm Toolkit."], "ms": ["Model bahasa dibina menggunakan Srilm Toolkit dengan diskaun Kneser-Ney yang saling berkaitan.", "Model bahasa adalah model Trigram diskaun Kneser-Ney yang diinterpolasi, semuanya dibina menggunakan Srilm Toolkit."]}, {"en": ["For the language model, we used Sri language modeling Toolkit to train a Trigram model with modified Kneser-Ney smoothing on the 31 , 149 English sentences.", "We use Srilm Toolkit to train a Trigram language model with modified Kneser-Ney smoothing on the target side of training corpus."], "ms": ["Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Trigram dengan Kneser-Ney yang diubahsuai pada 31, 149 ayat bahasa Inggeris.", "Kami menggunakan Srilm Toolkit untuk melatih model bahasa Trigram dengan smoothing Kneser-Ney yang diubahsuai di sisi sasaran korpus latihan."]}, {"en": ["We employ support vector machines to perform the classification.", "For support vector learning, we use Svm-Light and Svm-Multiclass."], "ms": ["Kami menggunakan mesin vektor sokongan untuk melaksanakan klasifikasi.", "Untuk pembelajaran vektor sokongan, kami menggunakan Svm-Light dan Svm-Multiclass."]}, {"en": ["For word Embeddings, we trained a Skip-Gram model over Wikipedia, using Word2Vec.", "We use a popular Word2Vec neural language model to learn the word Embeddings on an Unsupervised Tweet corpus."], "ms": ["Untuk Embedding perkataan, kami melatih model Skip-Gram melalui Wikipedia, menggunakan Word2Vec.", "Kami menggunakan model bahasa saraf Word2Vec yang popular untuk mempelajari perkataan Embeddings pada korpus Tweet Tidak diawasi."]}, {"en": ["Coreference resolution is a field in which major progress has been made in the last decade.", "Coreference resolution is the process of linking multiple mentions that refer to the same entity."], "ms": ["Resolusi spatial adalah bidang di mana kemajuan besar telah dibuat dalam dekad yang lalu.", "Resolusi spatial adalah proses menghubungkan pelbagai sebutan yang merujuk kepada entiti yang sama."]}, {"en": ["Takamura et al proposed using spin models for extracting semantic orientation of words.", "Takamura et al used the spin model to extract word semantic orientation."], "ms": ["Takamura et al mencadangkan menggunakan model spin untuk mengekstrak orientasi semantik perkataan.", "Takamura et al menggunakan model spin untuk mengekstrak orientasi semantik perkataan."]}, {"en": ["For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided.", "We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus."], "ms": ["Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan.", "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side."]}, {"en": ["We used the Moses Toolkit with its default settings to build three Phrase-Based translation systems.", "For Phrase-Based Smt translation, we used the Moses Decoder and its support training scripts."], "ms": ["Kami menggunakan Musa Toolkit dengan tetapan lalai untuk membina tiga sistem terjemahan berasaskan frasa.", "Untuk terjemahan Smt Berasaskan Frasa, kami menggunakan Moses Decoder dan skrip latihan sokongannya."]}, {"en": ["We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "We train a Kn-Smoothed 5-Gram language model on the target side of the parallel training data with Srilm."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Kami melatih model bahasa Kn-Smoothed 5-Gram di sisi sasaran data latihan selari dengan Srilm."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of assigning sense tags to ambiguous lexical items (Lis) in a text.", "Word sense Disambiguation (Wsd) is a difficult natural language processing task which requires that for every content word (noun, adjective, verb or adverb) the appropriate meaning is automatically selected from the available sense inventory 1."], "ms": ["Disambiguasi kata (Wsd) adalah tugas untuk menetapkan tag deria kepada item leksikal samar (Lis) dalam teks.", "Disambiguasi erti kata (Wsd) adalah tugas pemprosesan bahasa semula jadi yang sukar yang memerlukan bahawa untuk setiap perkataan kandungan (kata nama, kata sifat, kata kerja atau kata kerja) makna yang sesuai dipilih secara automatik dari inventori rasa yang ada 1."]}, {"en": ["The translations were evaluated with the widely used BLEU and Nist scores.", "Results were evaluated with both BLEU and Nist Metrics."], "ms": ["Terjemahan dinilai dengan skor BLEU dan Nist yang digunakan secara meluas.", "Keputusan telah dinilai dengan kedua-dua BLEU dan Nist Metrics."]}, {"en": ["We used 100 dimensional glove Embeddings for this purpose.", "For word Embeddings, we used popular Pre-Trained word vectors from glove."], "ms": ["Kami menggunakan 100 dimensi sarung tangan Embeddings untuk tujuan ini.", "Untuk Embedding perkataan, kami menggunakan vektor perkataan Pra-Latih yang popular dari sarung tangan."]}, {"en": ["Sentence compression is a task of creating a short grammatical sentence by removing extraneous words or phrases from an original sentence while preserving its meaning.", "Sentence compression is a Text-To-Text generation task in which an input sentence must be transformed into a shorter output sentence which accurately reflects the meaning in the input and also remains grammatically Well-Formed."], "ms": ["Pemampatan ayat adalah tugas untuk mencipta ayat tatabahasa pendek dengan mengeluarkan perkataan atau frasa yang luar biasa dari ayat asal sambil mengekalkan maknanya.", "Pemampatan ayat adalah tugas penjanaan Teks-Ke-Teks di mana ayat input mesti diubah menjadi ayat output yang lebih pendek yang mencerminkan makna dalam input dengan tepat dan juga kekal secara tatabahasa Well-Formed."]}, {"en": ["The Trigram models were created using the Srilm Toolkit on the standard training sections of the Ccgbank, with Sentence-Initial words Uncapitalized.", "A 5-Gram language model was built using Srilm on the target side of the corresponding training corpus."], "ms": ["Model Trigram dicipta menggunakan Srilm Toolkit pada bahagian latihan standard Ccgbank, dengan kata-kata Awal Keterangan Tidak dikapitalisasi.", "Model bahasa 5-Gram dibina menggunakan Srilm di sisi sasaran korpus latihan yang sesuai."]}, {"en": ["Zeng et al use a Convolutional deep neural network to extract lexical features learned from word Embeddings and then Fed into a Softmax Classifier to predict the relationship between words.", "Zeng et al proposed a deep Convolutional neural network with Softmax classification, extracting lexical and sentence level features."], "ms": ["Zeng et al menggunakan rangkaian neural mendalam Konvolutional untuk mengekstrak ciri-ciri leksikal yang dipelajari daripada Embedding perkataan dan kemudian Fed ke dalam Klasifier Softmax untuk meramalkan hubungan antara perkataan.", "Zeng et al mencadangkan rangkaian neural Konvolutional yang mendalam dengan pengelasan Softmax, mengekstrak ciri-ciri tahap leksikal dan ayat."]}, {"en": ["We Pre-Processed the data to add Part-Ofspeech tags and Dependencies between words using the Stanford Parser.", "We Preprocess the data using standard Nlp packages to Tokenize, stem, and Pos tag the words."], "ms": ["Kami telah memproses data untuk menambah tag Bahagian Ucapan dan Dependensi antara perkataan menggunakan Stanford Parser.", "Kami memproses data menggunakan pakej Nlp standard untuk Tokenize, batang, dan tag Pos perkataan."]}, {"en": ["We used the First-Stage Pcfg Parser of Charniak and Johnson for English and Bitpar for German.", "We primarily used the Charniak-Johnson Generative Parser to Parse the English Europarl data and the test data."], "ms": ["Kami menggunakan Penghurai Pcfg Peringkat Pertama Charniak dan Johnson untuk Bahasa Inggeris dan Bitpar untuk Bahasa Jerman.", "Kami terutamanya menggunakan Parser Generatif Charniak-Johnson untuk Menghuraikan data bahasa Inggeris Europarl dan data ujian."]}, {"en": ["Sentiment analysis (SA) is the task of analysing opinions, sentiments or emotions expressed towards entities such as products, services, organisations, issues, and the various attributes of these entities (Cite-P-9-3-3).", "Sentiment analysis (SA) is a field of knowledge which deals with the analysis of people \u2019 s opinions, sentiments, evaluations, appraisals, attitudes and emotions towards particular entities (Liu , 2012)."], "ms": ["Analisis sentimen (SA) adalah tugas menganalisis pendapat, sentimen atau emosi yang dinyatakan terhadap entiti seperti produk, perkhidmatan, organisasi, isu, dan pelbagai atribut entiti ini (Cite-P-9-3-3).", "Analisis sentimen (SA) adalah bidang pengetahuan yang berkaitan dengan analisis pendapat, sentimen, penilaian, penilaian, sikap dan emosi orang terhadap entiti tertentu (Liu, 2012)."]}, {"en": ["Choi and Cardie assert that the sentiment polarity of natural language can be better inferred by compositional Semantics.", "Choi and Cardie present a more lightweight approach using compositional Semantics towards classifying the polarity of expressions."], "ms": ["Choi dan Cardie menegaskan bahawa polariti sentimen bahasa semula jadi dapat disimpulkan dengan lebih baik oleh Semantik komposisi.", "Choi dan Cardie mempersembahkan pendekatan yang lebih ringan menggunakan Semantik komposisi ke arah mengklasifikasikan polariti ungkapan."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of determining the correct meaning for an ambiguous word from its context.", "Word sense Disambiguation (Wsd) is a key enabling technology that automatically chooses the intended sense of a word in context."], "ms": ["Kemusykilan erti kata Kemusykilan (Wsd) ialah tugas menentukan makna yang betul bagi perkataan yang samar-samar dari konteksnya.", "Disambiguation Word Sense Disambiguation (Wsd) adalah teknologi yang membolehkan secara automatik memilih rasa yang dimaksudkan perkataan dalam konteks."]}, {"en": ["Since their introduction at the beginning of the twenty-first century, Phrase-Based translation models have become the state-of-the-art for statistical machine translation.", "Phrase-Based models have until recently been a Stateof-The-Art method for statistical machine translation, and Moses is one of the most used Phrase-Based translation systems."], "ms": ["Sejak pengenalan mereka pada awal abad ke-21, model terjemahan berasaskan firase telah menjadi canggih untuk terjemahan mesin statistik.", "Model berasaskan frasa telah sehingga baru-baru ini menjadi kaedah Stateof-The-Art untuk terjemahan mesin statistik, dan Musa adalah salah satu sistem terjemahan berasaskan frasa yang paling banyak digunakan."]}, {"en": ["The language models are 4-Grams with modified Kneser-Ney smoothing which have been trained with the Srilm Toolkit.", "This type of features are based on a Trigram model with Kneser-Ney smoothing."], "ms": ["Model bahasa adalah 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang telah dilatih dengan Srilm Toolkit.", "Ciri-ciri jenis ini berdasarkan model Trigram dengan smoothing Kneser-Ney."]}, {"en": ["Semantic role labeling (SRL) is defined as the task to recognize arguments for a given Predicate and assign semantic role labels to them.", "Semantic role labeling (SRL) is a kind of shallow semantic Parsing task and its goal is to recognize some related phrases and assign a joint structure (who did what to whom, when, where, why, how) to each Predicate of a sentence (Cite-P-24-3-4)."], "ms": ["Pelabelan peranan semantik (SRL) ditakrifkan sebagai tugas untuk mengenali hujah untuk Predicate tertentu dan memberikan label peranan semantik kepada mereka.", "Pelabelan peranan semantik (SRL) adalah sejenis tugas Parsing semantik cetek dan tujuannya adalah untuk mengenali beberapa frasa yang berkaitan dan menetapkan struktur bersama (yang melakukan apa kepada siapa, kapan, di mana, mengapa, bagaimana) untuk setiap Predikat ayat (Cite-P-24-3-4)."]}, {"en": ["Minimum error rate training is applied to tune the Cn weights.", "The parameter weights are Optimized with minimum error rate training."], "ms": ["Latihan kadar ralat minimum digunakan untuk menala berat Cn.", "Berat parameter dioptimumkan dengan latihan kadar ralat minimum."]}, {"en": ["The learning rate was automatically adjusted using Adam.", "The learning rate is automatically tuned by Adam."], "ms": ["Kadar pembelajaran diselaraskan secara automatik menggunakan Adam.", "Kadar pembelajaran secara automatik ditala oleh Adam."]}, {"en": ["We use Mini-Batch update and Adagrad to optimize the parameter learning.", "We found that using Adagrad to update the parameters is very effective."], "ms": ["Kami menggunakan kemas kini Mini-Batch dan Adagrad untuk mengoptimumkan pembelajaran parameter.", "Kami mendapati bahawa menggunakan Adagrad untuk mengemas kini parameter sangat berkesan."]}, {"en": ["Previous work consistently reported that the Word-Based translation models yielded better performance than the traditional methods for question Retrieval.", "Previous work consistently reported that Word-Based translation models yielded better performance than traditional methods for question Retrieval."], "ms": ["Kerja sebelumnya secara konsisten melaporkan bahawa model terjemahan Berasaskan Perkataan menghasilkan prestasi yang lebih baik daripada kaedah tradisional untuk pengambilan soalan.", "Kerja sebelumnya secara konsisten melaporkan bahawa model terjemahan berasaskan perkataan menghasilkan prestasi yang lebih baik daripada kaedah tradisional untuk pengambilan soalan."]}, {"en": ["Semantic Parsing is the task of translating natural language utterances into a Machine-Interpretable meaning representation (Mr).", "Semantic Parsing is the task of mapping a natural language (NL) sentence into a complete, formal meaning representation (Mr) which a computer program can execute to perform some task, like answering Database queries or controlling a robot."], "ms": ["Penghuraian Semantik adalah tugas menterjemahkan ucapan bahasa semula jadi ke dalam perwakilan makna Mesin-Terpretasi (Mr).", "Semantic Parsing adalah tugas pemetaan ayat bahasa semula jadi (NL) ke dalam perwakilan makna formal yang lengkap (Mr) yang boleh dilaksanakan oleh program komputer untuk melaksanakan beberapa tugas, seperti menjawab pertanyaan Pangkalan Data atau mengawal robot."]}, {"en": ["We evaluated the translation quality using the Case-Insensitive Bleu-4 metric.", "We evaluated translation quality with the Case-Insensitive Bleu-4 and Nist."], "ms": ["Kami menilai kualiti terjemahan menggunakan metrik Case-Insensitive Bleu-4.", "Kami menilai kualiti terjemahan dengan Case-Insensitive Bleu-4 dan Nist."]}, {"en": ["Recursive neural network and Convolutional neural network have proven powerful in relation classification.", "Recently, deep learning has also been introduced to propose an end-to-end Convolutional neural network for relation classification."], "ms": ["Rangkaian saraf rekursif dan rangkaian saraf konvolutional telah terbukti kuat dalam pengelasan hubungan.", "Baru-baru ini, pembelajaran mendalam juga telah diperkenalkan untuk mencadangkan rangkaian saraf konvolutional hujung ke hujung untuk pengelasan hubungan."]}, {"en": ["Conditional random fields are a class of graphical models which are Undirected and conditionally trained.", "Conditional random fields are a class of Undirected graphical models with Exponent distribution."], "ms": ["Medan rawak bersyarat adalah kelas model grafik yang tidak diarahkan dan dilatih secara bersyarat.", "Medan rawak bersyarat adalah kelas model grafik Tidak diarahkan dengan pengedaran Eksponen."]}, {"en": ["For the semantic language model, we used the Srilm package and trained a Tri-Gram language model with the default Goodturing smoothing.", "Our Trigram word language model was trained on the target side of the training corpus using the Srilm Toolkit with modified Kneser-Ney smoothing."], "ms": ["Untuk model bahasa semantik, kami menggunakan pakej Srilm dan melatih model bahasa Tri-Gram dengan smoothing Goodturing lalai.", "Model bahasa perkataan Trigram kami dilatih di sisi sasaran korpus latihan menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We utilize minimum error rate training to optimize feature weights of the Paraphrasing model according to Ndcg.", "We then learn Reranking weights using minimum error rate training on the development set for this combined list, using only these two features."], "ms": ["Kami menggunakan latihan kadar ralat minimum untuk mengoptimumkan berat ciri model Paraphrasing mengikut Ndcg.", "Kami kemudian belajar Reranking berat menggunakan latihan kadar ralat minimum pada set pembangunan untuk senarai gabungan ini, menggunakan hanya dua ciri ini."]}, {"en": ["To implement SVM algorithm, we have used the publicly available python based Scikit-Learn package.", "For training the model, we use the linear kernel SVM implemented in the Scikit-Learn Toolkit."], "ms": ["Untuk melaksanakan algoritma SVM, kami telah menggunakan pakej Scikit-Learn berasaskan python yang tersedia secara terbuka.", "Untuk melatih model, kami menggunakan SVM kernel linear yang dilaksanakan dalam Scikit-Learn Toolkit."]}, {"en": ["Our a \u2217 algorithm is 5 times faster than Cky Parsing, with no loss in accuracy.", "A \u2217 Parsing algorithm is 5 times faster than Cky Parsing, without loss of accuracy."], "ms": ["Algoritma kami adalah 5 kali lebih cepat daripada Cky Parsing, tanpa kehilangan ketepatan.", "Algoritma penghuraian adalah 5 kali lebih cepat daripada Cky Parsing, tanpa kehilangan ketepatan."]}, {"en": ["In our implementation, we train a Tri-Gram language model on each phone set using the Srilm Toolkit.", "For all data sets, we trained a 5-Gram language model using the Sri language modeling Toolkit."], "ms": ["Dalam pelaksanaan kami, kami melatih model bahasa Tri-Gram pada setiap set telefon menggunakan Srilm Toolkit.", "Untuk semua set data, kami melatih model bahasa 5-Gram menggunakan Toolkit pemodelan bahasa Sri."]}, {"en": ["Twitter is a huge Microblogging service with more than 500 million Tweets per day from different locations of the world and in different languages (Cite-P-8-1-9).", "Twitter is a well-known social network service that allows users to post short 140 character status update which is called \u201c Tweet \u201d."], "ms": ["Twitter adalah perkhidmatan Microblogging yang besar dengan lebih daripada 500 juta Tweet setiap hari dari lokasi yang berbeza di dunia dan dalam bahasa yang berbeza (Cite-P-8-1-9).", "Twitter adalah perkhidmatan rangkaian sosial yang terkenal yang membolehkan pengguna untuk menyiarkan kemas kini status 140 aksara pendek yang dipanggil \"Tweet\"."]}, {"en": ["We implemented the different Aes models using Scikit-Learn.", "For Nb and SVM, we used their implementation available in Scikit-Learn."], "ms": ["Kami melaksanakan model Aes yang berbeza menggunakan Scikit-Learn.", "Untuk Nb dan SVM, kami menggunakan pelaksanaannya yang terdapat di Scikit-Learn."]}, {"en": ["We use the Scikit-Learn Toolkit as our underlying implementation.", "We used the implementation of the Scikit-Learn 2 Module."], "ms": ["Kami menggunakan Scikit-Learn Toolkit sebagai pelaksanaan asas kami.", "Kami menggunakan pelaksanaan Modul Scikit-Learn 2."]}, {"en": ["Zeng et al use a Convolutional deep neural network to extract lexical features learned from word Embeddings and then Fed into a Softmax Classifier to predict the relationship between words.", "Zeng et al introduce a Convolutional neural network to extract relational facts with automatically learning features from text."], "ms": ["Zeng et al menggunakan rangkaian neural mendalam Konvolutional untuk mengekstrak ciri-ciri leksikal yang dipelajari daripada Embedding perkataan dan kemudian Fed ke dalam Klasifier Softmax untuk meramalkan hubungan antara perkataan.", "Zeng et al memperkenalkan rangkaian saraf Konvolutional untuk mengekstrak fakta hubungan dengan ciri pembelajaran secara automatik dari teks."]}, {"en": ["We use conditional random fields sequence labeling as described in.", "We solve this sequence tagging problem using the Mallet implementation of conditional random fields."], "ms": ["Kami menggunakan pelabelan urutan medan rawak bersyarat seperti yang dijelaskan dalam.", "Kami menyelesaikan masalah penandaan urutan ini menggunakan pelaksanaan Mallet medan rawak bersyarat."]}, {"en": ["We estimate a 5-Gram language model using interpolated Kneser-Ney discounting with Srilm.", "We use Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting."], "ms": ["Kami menganggarkan model bahasa 5-Gram menggunakan diskaun Kneser-Ney yang saling berkaitan dengan Srilm.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Text summarization is the process of generating a short version of a given text to indicate its main topics.", "Text summarization is the task of automatically condensing a piece of text to a shorter version while maintaining the important points."], "ms": ["Ringkasan teks adalah proses menghasilkan versi pendek teks tertentu untuk menunjukkan topik utamanya.", "Ringkasan teks adalah tugas untuk memampatkan sekeping teks secara automatik ke versi yang lebih pendek sambil mengekalkan perkara penting."]}, {"en": ["We use the Linearsvc Classifier as implemented in Scikit-Learn package 17 with the default parameters.", "We use the Selectfrommodel 4 feature selection method as implemented in Scikit-Learn."], "ms": ["Kami menggunakan Classifier Linearsvc seperti yang dilaksanakan dalam pakej Scikit-Learn 17 dengan parameter lalai.", "Kami menggunakan kaedah pemilihan ciri Selectfrommodel 4 seperti yang dilaksanakan dalam Scikit-Learn."]}, {"en": ["For the mix one, we also train word Embeddings of dimension 50 using glove.", "For Word-Level Embedding E W, we utilize Pre-Trained , 300-Dimensional Embedding vectors from glove 6B."], "ms": ["Untuk campuran satu, kami juga melatih perkataan Embeddings dimensi 50 menggunakan sarung tangan.", "Untuk Embedding Word-Level E W, kami menggunakan vektor Embedding Pra-Trained, 300-Dimensional dari sarung tangan 6B."]}, {"en": ["Semantic role labeling (SRL) is a task of analyzing Predicate-Argument structures in texts.", "Semantic role labeling (SRL) is the task of labeling the Predicate-Argument structures of sentences with semantic frames and their roles (Cite-P-18-1-2, Cite-P-18-1-19)."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas menganalisis struktur Predicate-Argument dalam teks.", "Pelabelan peranan semantik (SRL) adalah tugas melabel struktur Predicate-Argument ayat dengan bingkai semantik dan peranannya (Cite-P-18-1-2, Cite-P-18-1-19)."]}, {"en": ["Relation extraction is a traditional information extraction task which aims at detecting and classifying semantic relations between entities in text (Cite-P-10-1-18).", "Relation extraction (re) is the task of assigning a semantic relationship between a pair of arguments."], "ms": ["Pengekstrakan hubungan adalah tugas pengekstrakan maklumat tradisional yang bertujuan untuk mengesan dan mengklasifikasikan hubungan semantik antara entiti dalam teks (Cite-P-10-1-18).", "Pengekstrakan hubungan (re) adalah tugas untuk menetapkan hubungan semantik antara sepasang hujah."]}, {"en": ["The evaluation metric for the overall translation quality is Caseinsensitive Bleu4.", "The translation quality is evaluated by Case-Insensitive BLEU and Ter Metrics using Multeval."], "ms": ["Metrik penilaian untuk kualiti terjemahan keseluruhan adalah Caseinsensitive Bleu4.", "Kualiti terjemahan dinilai oleh Case-Insensitive BLEU dan Ter Metrics menggunakan Multeval."]}, {"en": ["Both systems are Phrase-Based Smt models, trained using the Moses Toolkit.", "Moses is used as a baseline Phrase-Based Smt system."], "ms": ["Kedua-dua sistem ini adalah model Smt Berasaskan Frasa, dilatih menggunakan Musa Toolkit.", "Musa digunakan sebagai sistem Smt Berasaskan Frasa asas."]}, {"en": ["Word sense Disambiguation (Wsd) is a key Enabling-Technology that automatically chooses the intended sense of a word in context.", "Word sense Disambiguation (Wsd) is a difficult natural language processing task which requires that for every content word (noun, adjective, verb or adverb) the appropriate meaning is automatically selected from the available sense inventory 1."], "ms": ["Disambiguation Word Sense Disambiguation (Wsd) ialah kunci Enabling-Technology yang secara automatik memilih pengertian perkataan yang dimaksudkan dalam konteks.", "Disambiguasi erti kata (Wsd) adalah tugas pemprosesan bahasa semula jadi yang sukar yang memerlukan bahawa untuk setiap perkataan kandungan (kata nama, kata sifat, kata kerja atau kata kerja) makna yang sesuai dipilih secara automatik dari inventori rasa yang ada 1."]}, {"en": ["The Srilm Toolkit was used for training the language models using Kneser-Ney smoothing.", "The target language model is built on the target side of the parallel data with Kneser-Ney smoothing using the Irstlm tool."], "ms": ["Srilm Toolkit digunakan untuk melatih model bahasa menggunakan smoothing Kneser-Ney.", "Model bahasa sasaran dibina di sisi sasaran data selari dengan smoothing Kneser-Ney menggunakan alat Irstlm."]}, {"en": ["Our translation model is implemented as an N-Gram model of operations using the Srilm Toolkit with Kneser-Ney smoothing.", "We estimated 5-Gram language models using the Sri Toolkit with modified Kneser-Ney smoothing."], "ms": ["Model terjemahan kami dilaksanakan sebagai model operasi N-Gram menggunakan Srilm Toolkit dengan smoothing Kneser-Ney.", "Kami menganggarkan model bahasa 5-Gram menggunakan Sri Toolkit dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Twitter is a huge Microbloging service with more than 500 million Tweets per day 1 from different locations in the world and in different languages.", "Twitter is a Microblogging site where people express themselves and react to content in real-time."], "ms": ["Twitter adalah perkhidmatan Microbloging yang besar dengan lebih daripada 500 juta Tweets setiap hari 1 dari lokasi yang berbeza di dunia dan dalam bahasa yang berbeza.", "Twitter adalah laman Microblogging di mana orang menyatakan diri mereka dan bertindak balas terhadap kandungan dalam masa nyata."]}, {"en": ["We Initialize the Embedding layer using Embeddings from dedicated word Embedding techniques Word2Vec and glove.", "Meanwhile, we adopt glove Pre-Trained word Embeddings 5 to Initialize the representation of input tokens."], "ms": ["Kami Memulakan lapisan Embedding menggunakan Embeddings dari teknik Embedding perkataan khusus Word2Vec dan sarung tangan.", "Sementara itu, kami menggunakan sarung tangan Embeddings perkataan Pra-Latih 5 untuk Memulakan perwakilan token input."]}, {"en": ["A sentiment lexicon is a list of words and phrases, such as excellent, awful and not bad, each is being assigned with a positive or negative score reflecting its sentiment polarity.", "Sentiment lexicon is a set of words (or phrases) each of which is assigned with a sentiment polarity score."], "ms": ["Leksikon sentimen adalah senarai perkataan dan frasa, seperti cemerlang, mengerikan dan tidak buruk, masing-masing ditugaskan dengan skor positif atau negatif yang mencerminkan polariti sentimennya.", "Leksikon sentimen adalah satu set perkataan (atau frasa) yang masing-masing diberikan dengan skor polariti sentimen."]}, {"en": ["Importantly, word Embeddings have been effectively used for several Nlp tasks.", "Word Embeddings have also been used in several Nlp tasks including SRL."], "ms": ["Yang penting, perkataan Embeddings telah digunakan dengan berkesan untuk beberapa tugas Nlp.", "Embedding Word juga telah digunakan dalam beberapa tugas Nlp termasuk SRL."]}, {"en": ["Distributional semantic models produce vector representations which capture latent meanings hidden in Association of words in documents.", "Distributional semantic models represent the meanings of words by relying on their statistical distribution in text."], "ms": ["Model semantik taburan menghasilkan perwakilan vektor yang menangkap makna terpendam yang tersembunyi dalam Persatuan perkataan dalam dokumen.", "Model semantik pengagihan mewakili makna perkataan dengan bergantung kepada taburan statistik mereka dalam teks."]}, {"en": ["Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-3-0) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B).", "Sentiment analysis is a collection of methods and Algorithms used to infer and measure affection expressed by a writer."], "ms": ["Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-3-0) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B).", "Analisis sentimen adalah koleksi kaedah dan Algoritma yang digunakan untuk menyimpulkan dan mengukur kasih sayang yang dinyatakan oleh seorang penulis."]}, {"en": ["Word Segmentation is a fundamental task for Chinese language processing.", "Word Segmentation is the foremost obligatory task in almost all the Nlp applications where the initial phase requires Tokenization of input into words."], "ms": ["Segmentasi perkataan adalah tugas asas untuk pemprosesan bahasa Cina.", "Segmentasi perkataan adalah tugas wajib utama dalam hampir semua aplikasi Nlp di mana fasa awal memerlukan Tokenisasi input ke dalam perkataan."]}, {"en": ["We used Moses, a Phrase-Based Smt Toolkit, for training the translation model.", "We used Moses as the implementation of the baseline Smt systems."], "ms": ["Kami menggunakan Musa, Alat Alat Smt Berasaskan Frasa, untuk melatih model terjemahan.", "Kami menggunakan Musa sebagai pelaksanaan sistem Smt asas."]}, {"en": ["The Annotation is based on the Google universal Part-Ofspeech tags and the Stanford Dependencies, adapted and Harmonized across languages.", "The Annotation scheme is derived from the universal Stanford Dependencies, the Google universal Part-Of-Speech tags and the Interset Interlingua for morphological Tagsets."], "ms": ["Annotasi ini berdasarkan tag Part-Ofspeech universal Google dan Dependencies Stanford, disesuaikan dan Harmonized merentasi bahasa.", "Skim Annotasi berasal dari Stanford Dependencies universal, tag Part-Of-Speech universal Google dan Interset Interlingua untuk Tagset morfologi."]}, {"en": ["To tackle this problem, Hochreiter and Schmidhuber proposed long short term memory, which uses a cell with input, forget and output gates to prevent the vanishing gradient problem.", "Hochreiter and Schmidhuber proposed long short-term memories as the specific version of Rnn designed to overcome vanishing and exploding gradient problem."], "ms": ["Untuk mengatasi masalah ini, Hochreiter dan Schmidhuber mencadangkan ingatan jangka pendek yang panjang, yang menggunakan sel dengan input, lupa dan gerbang output untuk mengelakkan masalah kecerunan yang hilang.", "Hochreiter dan Schmidhuber mencadangkan kenangan jangka pendek yang panjang sebagai versi Rnn khusus yang direka untuk mengatasi masalah kecerunan yang hilang dan meletup."]}, {"en": ["For the Pos-Tagger, we trained Hunpos 10 with the Wall Street Journal English corpus.", "For testing purposes, we used the Wall Street Journal part of the Penn Treebank corpus."], "ms": ["Untuk Pos-Tagger, kami melatih Hunpos 10 dengan korpus Bahasa Inggeris Wall Street Journal.", "Untuk tujuan ujian, kami menggunakan bahagian Wall Street Journal dari Penn Treebank corpus."]}, {"en": ["We use Opennmt, which is an implementation of the popular Nmt approach that uses an Attentional Encoder-Decoder network.", "We implement our Lstm Encoder-Decoder model using the Opennmt neural machine translation Toolkit."], "ms": ["Kami menggunakan Opennmt, yang merupakan pelaksanaan pendekatan Nmt yang popular yang menggunakan rangkaian Encoder-Decoder Perhatian.", "Kami melaksanakan model Lstm Encoder-Decoder kami menggunakan Toolkit terjemahan mesin neural Opennmt."]}, {"en": ["We used glove word Embeddings with 300 dimensions Pre-Trained using Commoncrawl to get a vector representation of the evidence sentence.", "We use glove vectors with 100 dimensions trained on Wikipedia and Gigaword as word Embeddings, which we do not optimize during training."], "ms": ["Kami menggunakan perkataan sarung tangan Embeddings dengan 300 dimensi Pra-Trained menggunakan Commoncrawl untuk mendapatkan perwakilan vektor ayat bukti.", "Kami menggunakan vektor sarung tangan dengan 100 dimensi yang dilatih di Wikipedia dan Gigaword sebagai Embedding perkataan, yang kami tidak mengoptimumkan semasa latihan."]}, {"en": ["Parsers are reporting impressive numbers these days, but coordination remains an area with room for improvement.", "Parsers trained on the Penn Treebank are reporting impressive numbers these days, but they don \u2019 t do very well on this problem."], "ms": ["Parsers melaporkan jumlah yang mengagumkan hari ini, tetapi koordinasi tetap menjadi kawasan dengan ruang untuk penambahbaikan.", "Parsers yang dilatih di Penn Treebank melaporkan nombor yang mengagumkan hari ini, tetapi mereka tidak berbuat baik pada masalah ini."]}, {"en": ["Finally, we apply several Unsupervised and supervised techniques of sentiment composition to determine their efficacy on this Dataset.", "In this work, we apply several Unsupervised and supervised techniques of sentiment composition."], "ms": ["Akhirnya, kami menggunakan beberapa teknik komposisi sentimen yang tidak diawasi dan diawasi untuk menentukan keberkesanannya pada Dataset ini.", "Dalam kerja ini, kami menggunakan beberapa teknik komposisi sentimen yang tidak diawasi dan diawasi."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit.", "We built a 5-Gram language model from it with the Sri language modeling Toolkit."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit.", "Kami membina model bahasa 5-Gram dari situ dengan Toolkit pemodelan bahasa Sri."]}, {"en": ["We build a 9-Gram LM using Srilm Toolkit with modified Kneser-Ney smoothing.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Kami membina LM 9-Gram menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Blitzer et al used structural correspondence learning to train a Classifier on source data with new features induced from target Unlabeled data.", "For example, Blitzer et al proposed a domain adaptation method based on structural correspondence learning."], "ms": ["Blitzer et al menggunakan pembelajaran menyurat struktur untuk melatih Pengelas pada data sumber dengan ciri-ciri baru yang disebabkan daripada data Unlabeled sasaran.", "Sebagai contoh, Blitzer et al mencadangkan kaedah penyesuaian domain berdasarkan pembelajaran korespondensi struktur."]}, {"en": ["Mimno et al proposed a Closely-Related method for evaluating semantic coherence, replacing PMI with log conditional probability.", "Mimno et al similarly introduced a methodology for computing coherence, replacing PMI with log conditional probability."], "ms": ["Mimno et al mencadangkan kaedah Closely-Related untuk menilai koheren semantik, menggantikan PMI dengan kebarangkalian bersyarat log.", "Mimno et al juga memperkenalkan metodologi untuk pengkomputeran koheren, menggantikan PMI dengan kebarangkalian bersyarat log."]}, {"en": ["Ccgs are a Linguistically-Motivated formalism for modeling a wide range of language phenomena.", "Ccg is a Lexicalized, mildly Context-Sensitive Parsing formalism that models a wide range of linguistic phenomena."], "ms": ["Ccgs adalah formalisme yang bermotivasi linguistik untuk memodelkan pelbagai fenomena bahasa.", "Ccg adalah formalisme Parsing Lexicalized, ringan Konteks-Sensitif yang memodelkan pelbagai fenomena linguistik."]}, {"en": ["We used Moses for Pbsmt and Hpbsmt systems in our experiments.", "We used the Moses Tree-To-String mt system for all of our mt experiments."], "ms": ["Kami menggunakan Musa untuk sistem Pbsmt dan Hpbsmt dalam eksperimen kami.", "Kami menggunakan sistem mt Moses Tree-To-String untuk semua eksperimen mt kami."]}, {"en": ["For language model, we used Sri language modeling Toolkit to train a 4-Gram model with modified Kneser-Ney smoothing.", "In our experiments, we used the Srilm Toolkit to build 5-Gram language model using the LDC Arabic Gigaword corpus."], "ms": ["Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model 4-Gram dengan smoothing Kneser-Ney yang diubahsuai.", "Dalam eksperimen kami, kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram menggunakan LDC Arabic Gigaword corpus."]}, {"en": ["Luong and Manning use transfer learning to adapt a general model to Indomain data.", "We adopt the Domain-Adaptation method used by Luong and Manning to Fine-Tune the trained model using In-Domain data."], "ms": ["Luong dan Manning menggunakan pembelajaran pemindahan untuk menyesuaikan model umum kepada data Indomain.", "Kami menggunakan kaedah Domain-Adaptasi yang digunakan oleh Luong dan Manning untuk Fine-Tune model terlatih menggunakan data In-Domain."]}, {"en": ["Sentiment analysis is a collection of methods and Algorithms used to infer and measure affection expressed by a writer.", "Sentiment analysis is a technique to classify documents based on the polarity of opinion expressed by the author of the document (Cite-P-16-1-13)."], "ms": ["Analisis sentimen adalah koleksi kaedah dan Algoritma yang digunakan untuk menyimpulkan dan mengukur kasih sayang yang dinyatakan oleh seorang penulis.", "Analisis sentimen adalah teknik untuk mengklasifikasikan dokumen berdasarkan polariti pendapat yang dinyatakan oleh pengarang dokumen (Cite-P-16-1-13)."]}, {"en": ["The word Embedding is Pre-Trained using the Skip-Gram model in Word2Vec and Fine-Tuned during the learning process.", "The word vectors are learned using a Skip-Gram model with negative sampling, implemented in the Word2Vec Toolkit."], "ms": ["Perkataan Embedding adalah Pra-Trained menggunakan model Skip-Gram dalam Word2Vec dan Fine-Tuned semasa proses pembelajaran.", "Vektor perkataan dipelajari menggunakan model Skip-Gram dengan persampelan negatif, yang dilaksanakan dalam Word2Vec Toolkit."]}, {"en": ["Coreference resolution is the task of clustering referring expressions in a text so that each resulting cluster represents an entity.", "Coreference resolution is the task of automatically grouping references to the same Real-World entity in a document into a set."], "ms": ["Resolusi spatial adalah tugas pengelompokan merujuk ungkapan dalam teks supaya setiap kluster yang terhasil mewakili entiti.", "Resolusi spatial adalah tugas untuk mengumpulkan rujukan secara automatik ke entiti Dunia Nyata yang sama dalam dokumen ke dalam satu set."]}, {"en": ["Coreference resolution is a fundamental component of natural language processing (Nlp) and has been widely applied in other Nlp tasks (Cite-P-15-3-9).", "Coreference resolution is a set partitioning problem in which each resulting partition refers to an entity."], "ms": ["Resolusi spatial adalah komponen asas pemprosesan bahasa semula jadi (Nlp) dan telah digunakan secara meluas dalam tugas Nlp lain (Cite-P-15-3-9).", "Resolusi spatial adalah masalah pembahagian yang ditetapkan di mana setiap partition yang dihasilkan merujuk kepada entiti."]}, {"en": ["In our experiments the mt system used is Hierarchical Phrase-Based system.", "We built a Hierarchical Phrase-Based mt system based on weighted Scfg."], "ms": ["Dalam eksperimen kami sistem mt yang digunakan adalah sistem Berasaskan Frasa Hierarki.", "Kami membina sistem mt Berasaskan Frasa Hierarki berdasarkan Scfg berwajaran."]}, {"en": ["Stance detection is a difficult task since it often requires reasoning in order to determine whether an utterance is in favor of or against a specific issue.", "Stance detection is the task of assigning stance labels to a piece of text with respect to a topic, I.E . whether a piece of text is in favour of \u201c abortion \u201d, neutral, or against."], "ms": ["Pengesanan santun adalah tugas yang sukar kerana sering memerlukan penalaran untuk menentukan sama ada ucapan memihak atau menentang isu tertentu.", "Pengesanan santun adalah tugas untuk memberikan label pendirian kepada sekeping teks berkenaan dengan topik, I.E. sama ada sekeping teks memihak kepada pengguguran, neutral, atau menentang."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of determining the correct meaning (\u201c sense \u201d) of a word in context, and several efforts have been made to develop automatic Wsd systems.", "Word sense Disambiguation (Wsd) is the problem of assigning a sense to an ambiguous word, using its context."], "ms": ["Disambiguasi perkataan (Wsd) adalah tugas menentukan makna yang betul ( sense ) perkataan dalam konteks, dan beberapa usaha telah dibuat untuk membangunkan sistem Wsd automatik.", "Kemusykilan erti kata Kemusykilan (Wsd) ialah masalah untuk memberikan rasa kepada perkataan yang samar-samar, menggunakan konteksnya."]}, {"en": ["We use 300-Dimensional glove vectors trained on 6B common crawl corpus as word Embeddings, setting the Embeddings of Outof-Vocabulary words to zero.", "We use the 200-Dimensional global vectors, Pre-Trained on 2 billion Tweets, covering over 27-Billion tokens."], "ms": ["Kami menggunakan vektor sarung tangan 300 dimensi yang dilatih pada korpus merangkak biasa 6B sebagai Embedding perkataan, menetapkan Embeddings perkataan Outof-Vocabulary kepada sifar.", "Kami menggunakan 200-Dimensional global vektor, Pra-Trained pada 2 bilion Tweet, yang meliputi lebih daripada 27-Billion token."]}, {"en": ["We use distributed word vectors trained on the Wikipedia corpus using the Word2Vec algorithm.", "We Initialize the Embedding layer using Embeddings from dedicated word Embedding techniques Word2Vec and glove."], "ms": ["Kami menggunakan vektor perkataan diedarkan yang dilatih pada korpus Wikipedia menggunakan algoritma Word2Vec.", "Kami Memulakan lapisan Embedding menggunakan Embeddings dari teknik Embedding perkataan khusus Word2Vec dan sarung tangan."]}, {"en": ["Sentiment classification is a special task of text Categorization that aims to classify documents according to their opinion of, or sentiment toward a given subject (E.G ., if an opinion is supported or not) (Cite-P-11-1-2).", "Sentiment classification is the task of identifying the sentiment polarity of a given text, which is traditionally categorized as either positive or negative."], "ms": ["Klasifikasi sentimen adalah tugas khas Categorization teks yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat mereka, atau sentimen terhadap subjek tertentu (E.G., jika pendapat disokong atau tidak) (Cite-P-11-1-2).", "Klasifikasi sentimen adalah tugas mengenal pasti polariti sentimen teks tertentu, yang secara tradisinya dikategorikan sebagai positif atau negatif."]}, {"en": ["Thus, we propose a new approach based on the Expectation-Maximization algorithm.", "Therefore, we use Em-Based estimation for the hidden parameters."], "ms": ["Oleh itu, kami mencadangkan pendekatan baru berdasarkan algoritma Jangkaan-Maximization.", "Oleh itu, kami menggunakan anggaran berasaskan Em untuk parameter tersembunyi."]}, {"en": ["The latent Dirichlet allocation is a topic model that is assumed to provide useful information for particular Subtasks.", "Latent Dirichlet allocation is a Generative model that overcomes some of the limitations of Plsi by using a Dirichlet prior on the topic distribution."], "ms": ["Peruntukan Dirichlet laten adalah model topik yang diandaikan untuk memberikan maklumat berguna untuk Subtugas tertentu.", "Peruntukan Dirichlet laten adalah model Generatif yang mengatasi beberapa batasan Plsi dengan menggunakan Dirichlet sebelum pengedaran topik."]}, {"en": ["Recently, the field has been influenced by the success of neural language models.", "The use of Unsupervised word Embeddings in various natural language processing tasks has received much attention."], "ms": ["Baru-baru ini, bidang ini telah dipengaruhi oleh kejayaan model bahasa saraf.", "Penggunaan perkataan Embeddings yang tidak diawasi dalam pelbagai tugas pemprosesan bahasa semula jadi telah mendapat banyak perhatian."]}, {"en": ["For the source side we use the Pos tags from Stanford Corenlp mapped to universal Pos tags.", "We map the Pos labels in the Conll Datasets to the universal Pos Tagset."], "ms": ["Untuk bahagian sumber kami menggunakan tag Pos dari Stanford Corenlp yang dipetakan ke tag Pos sejagat.", "Kami memetakan label Pos dalam Set Data Conll ke Tagset Pos sejagat."]}, {"en": ["The process of identifying the correct meaning, or sense of a word in context, is known as word sense Disambiguation (Wsd).", "In natural language, a word often assumes different meanings, and the task of determining the correct meaning, or sense, of a word in different contexts is known as word sense Disambiguation (Wsd)."], "ms": ["Proses mengenal pasti makna yang betul, atau rasa perkataan dalam konteks, dikenali sebagai kata rasa Disambiguation (Wsd).", "Dalam bahasa semula jadi, perkataan sering mengandaikan makna yang berbeza, dan tugas menentukan makna yang betul, atau rasa, perkataan dalam konteks yang berbeza dikenali sebagai kata rasa Disambiguation (Wsd)."]}, {"en": ["Word Segmentation is the foremost obligatory task in almost all the Nlp applications where the initial phase requires Tokenization of input into words.", "Word Segmentation is a fundamental task for processing most East Asian languages, typically Chinese."], "ms": ["Segmentasi perkataan adalah tugas wajib utama dalam hampir semua aplikasi Nlp di mana fasa awal memerlukan Tokenisasi input ke dalam perkataan.", "Segmentasi perkataan adalah tugas asas untuk memproses kebanyakan bahasa Asia Timur, biasanya bahasa Cina."]}, {"en": ["Sentiment classification is the fundamental task of sentiment analysis (Cite-P-15-3-11), where we are to classify the sentiment of a given text.", "Sentiment classification is the task of identifying the sentiment polarity of a given text, which is traditionally categorized as either positive or negative."], "ms": ["Klasifikasi sentimen adalah tugas asas analisis sentimen (Cite-P-15-3-11), di mana kita mengklasifikasikan sentimen teks tertentu.", "Klasifikasi sentimen adalah tugas mengenal pasti polariti sentimen teks tertentu, yang secara tradisinya dikategorikan sebagai positif atau negatif."]}, {"en": ["Semantic role labeling (SRL) is the task of automatically labeling Predicates and arguments in a sentence with shallow semantic labels.", "Semantic role labeling (SRL) consists of finding the arguments of a Predicate and labeling them with semantic roles (Cite-P-9-1-5, Cite-P-9-3-0)."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas pelabelan secara automatik Predicates dan argumen dalam ayat dengan label semantik cetek.", "Pelabelan peranan semantik (SRL) terdiri daripada mencari hujah-hujah Predicate dan melabelkannya dengan peranan semantik (Cite-P-9-1-5, Cite-P-9-3-0)."]}, {"en": ["Sentence compression is the task of compressing long sentences into short and concise ones by deleting words.", "Sentence compression is a Text-To-Text generation task in which an input sentence must be transformed into a shorter output sentence which accurately reflects the meaning in the input and also remains grammatically Well-Formed."], "ms": ["Pemampatan ayat adalah tugas memampatkan ayat panjang menjadi pendek dan ringkas dengan menghapus kata-kata.", "Pemampatan ayat adalah tugas penjanaan Teks-Ke-Teks di mana ayat input mesti diubah menjadi ayat output yang lebih pendek yang mencerminkan makna dalam input dengan tepat dan juga kekal secara tatabahasa Well-Formed."]}, {"en": ["Automatic evaluation shows that our system is both less repetitive and more diverse than Baselines.", "Evaluation demonstrates that text generated by our model is preferred over that of Baselines."], "ms": ["Penilaian automatik menunjukkan bahawa sistem kami kurang berulang dan lebih pelbagai daripada Baselines.", "Penilaian menunjukkan bahawa teks yang dihasilkan oleh model kami lebih disukai daripada Baselines."]}, {"en": ["Barzilay and Mckeown identify Multi-Word paraphrases from a Sentence-Aligned corpus of Monolingual parallel texts.", "Barzilay and Mckeown extracted both Single-And Multiple-Word paraphrases from a Sentence-Aligned corpus for use in Multi-Document summarization."], "ms": ["Barzilay dan Mckeown mengenal pasti parafrasa Multi-Word dari korpus Sentence-Aligned teks selari Monolingual.", "Barzilay dan Mckeown mengekstrak kedua-dua frasa Single-And Multiple-Word dari korpus Sentence-Aligned untuk digunakan dalam ringkasan Multi-Document."]}, {"en": ["As our baseline, we apply a High-Performing Chinese-English mt system based on Hierarchical Phrase-Based translation framework.", "As a baseline Smt system, we use the Hierarchical Phrase-Based translation with an efficient Left-To-Right generation originally proposed by Chiang."], "ms": ["Sebagai asas kami, kami menggunakan sistem mt Cina-Inggeris Berprestasi Tinggi berdasarkan kerangka terjemahan Berasaskan Frasa Hierarki.", "Sebagai sistem asas Smt, kami menggunakan terjemahan Berasaskan Frasa Hierarki dengan generasi Kiri-Ke-Kuasa yang cekap yang pada asalnya dicadangkan oleh Chiang."]}, {"en": ["For this purpose, we used phrase tables learned by the standard statistical mt Toolkit Moses.", "From this, we extract an old domain sense dictionary, using the Moses mt framework."], "ms": ["Untuk tujuan ini, kami menggunakan jadual frasa yang dipelajari oleh statistik standard mt Toolkit Moses.", "Dari ini, kita mengekstrak kamus pengertian domain lama, menggunakan kerangka mt Musa."]}, {"en": ["Relation extraction is the task of finding semantic relations between two entities from text.", "Relation extraction is a challenging task in natural language processing."], "ms": ["Pengekstrakan hubungan adalah tugas mencari hubungan semantik antara dua entiti dari teks.", "Pengekstrakan hubungan adalah tugas yang mencabar dalam pemprosesan bahasa semula jadi."]}, {"en": ["Dependency Parsing is a fundamental task for language processing which has been investigated for decades.", "Dependency Parsing is a valuable form of syntactic processing for Nlp applications due to its transparent Lexicalized representation and robustness with respect to flexible word order languages."], "ms": ["Penghuraian Dependensi adalah tugas asas untuk pemprosesan bahasa yang telah disiasat selama beberapa dekad.", "Penghuraian Dependensi adalah satu bentuk pemprosesan sintaktik yang berharga untuk aplikasi Nlp kerana perwakilan Lexicalized telus dan keteguhan berkenaan dengan bahasa pesanan perkataan yang fleksibel."]}, {"en": ["The experiments of the Phrase-Based Smt systems are carried out using the open source Moses Toolkit.", "All Smt models were developed using the Moses Phrase-Based mt Toolkit and the experiment management system."], "ms": ["Eksperimen sistem Smt Berasaskan Frasa dijalankan menggunakan sumber terbuka Moses Toolkit.", "Semua model Smt dibangunkan menggunakan Musa Phrase-Based mt Toolkit dan sistem pengurusan eksperimen."]}, {"en": ["For the Word-Embedding based Classifier, we use the glove Pre-Trained word Embeddings.", "We use Pre-Trained vectors from glove for Word-Level Embeddings."], "ms": ["Untuk Klasifier berasaskan Word-Embedding, kami menggunakan Embedding perkataan Pra-Trained sarung tangan.", "Kami menggunakan vektor Pra-Trained dari sarung tangan untuk Embeddings Peringkat Perkataan."]}, {"en": ["Word alignment is a natural language processing task that aims to specify the correspondence between words in two languages (Cite-P-19-1-0).", "Word alignment, which can be defined as an object for indicating the corresponding words in a parallel text, was first introduced as an intermediate result of statistical translation models (Cite-P-13-1-2)."], "ms": ["Penjajahan perkataan adalah tugas pemprosesan bahasa semula jadi yang bertujuan untuk menentukan korespondensi antara perkataan dalam dua bahasa (Cite-P-19-1-0).", "Penjajahan perkataan, yang boleh ditakrifkan sebagai objek untuk menunjukkan perkataan yang sepadan dalam teks selari, pertama kali diperkenalkan sebagai hasil perantaraan model terjemahan statistik (Cite-P-13-1-2)."]}, {"en": ["We use the 300-Dimensional Pre-Trained Word2Vec 3 word Embeddings and compare the performance with that of glove 4 Embeddings.", "We use glove 300-Dimension Embedding vectors Pre-Trained on 840 billion tokens of web data."], "ms": ["Kami menggunakan Embedding perkataan Pra-Trained 300-Dimensional 2Vec 3 dan membandingkan prestasi dengan sarung tangan 4 Embeddings.", "Kami menggunakan sarung tangan 300-Dimension Embedding vektor Pra-Trained pada 840 bilion token data web."]}, {"en": ["Sentiment analysis is a Much-Researched area that deals with identification of positive, negative and neutral opinions in text.", "Sentiment analysis is the study of the subjectivity and polarity (positive vs. negative) of a text (Cite-P-7-1-10)."], "ms": ["Analisis sentimen adalah kawasan yang banyak dikaji yang berkaitan dengan pengenalan pendapat positif, negatif dan neutral dalam teks.", "Analisis kepekaan adalah kajian subjektiviti dan polariti (positif vs negatif) teks (Cite-P-7-1-10)."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We use Pre-Trained 50-Dimensional word Embeddings vector from glove.", "We use Pre-Trained vectors from glove for Word-Level Embeddings."], "ms": ["Kami menggunakan perkataan Pra-Trained 50-Dimensional Embeddings vektor dari sarung tangan.", "Kami menggunakan vektor Pra-Trained dari sarung tangan untuk Embeddings Peringkat Perkataan."]}, {"en": ["Sentiment analysis is the task of identifying positive and negative opinions, sentiments, emotions and attitudes expressed in text.", "Sentiment analysis is a Nlp task that deals with extraction of opinion from a piece of text on a topic."], "ms": ["Analisis sentimen adalah tugas mengenal pasti pendapat, sentimen, emosi dan sikap positif dan negatif yang dinyatakan dalam teks.", "Analisis sentimen adalah tugas Nlp yang berkaitan dengan pengekstrakan pendapat dari sekeping teks mengenai topik."]}, {"en": ["For instance, Zeng et al utilized a Cnn-Based model to extract Sentence-Level features for relation classification.", "Zeng et al use Convolutional neural network for learning Sentence-Level features of contexts and obtain good performance even without using syntactic features."], "ms": ["Sebagai contoh, Zeng et al menggunakan model berasaskan Cnn untuk mengekstrak ciri-ciri Tahap Sentence untuk pengelasan hubungan.", "Zeng et al menggunakan rangkaian neural Konvolutional untuk mempelajari ciri-ciri konteks Tahap-Keterangan dan mendapat prestasi yang baik walaupun tanpa menggunakan ciri-ciri sintaksis."]}, {"en": ["For language model, we used Sri language modeling Toolkit to train a 4-Gram model with modified Kneser-Ney smoothing.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing."], "ms": ["Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model 4-Gram dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["To implement SVM algorithm, we have used the publicly available python based Scikit-Learn package.", "We use the logistic regression implementation of Liblinear wrapped by the Scikit-Learn library."], "ms": ["Untuk melaksanakan algoritma SVM, kami telah menggunakan pakej Scikit-Learn berasaskan python yang tersedia secara terbuka.", "Kami menggunakan pelaksanaan regresi logistik Liblinear yang dibungkus oleh perpustakaan Scikit-Learn."]}, {"en": ["We used 300 dimensional Skip-Gram word Embeddings Pre-Trained on Pubmed.", "We trained word Embeddings using Word2Vec on 4 Corpora of different sizes and types."], "ms": ["Kami menggunakan 300 dimensi Skip-Gram perkataan Embeddings Pra-Trained di Pubmed.", "Kami melatih Embedding perkataan menggunakan Word2Vec pada 4 Corpora dengan pelbagai saiz dan jenis."]}, {"en": ["Pseudo-Word is a kind of basic Multi-Word expression that characterizes minimal sequence of consecutive words in sense of translation.", "A Pseudoword is a composite comprised of two or more words chosen at random; the individual occurrences of the original words within a text are replaced by their Conflation."], "ms": ["Pseudo-Word adalah sejenis ungkapan Multi-Word asas yang mencirikan urutan minimum perkataan berturut-turut dalam pengertian terjemahan.", "Pseudoword adalah komposit yang terdiri daripada dua atau lebih perkataan yang dipilih secara rawak; kejadian individu perkataan asal dalam teks digantikan oleh Conflation mereka."]}, {"en": ["Bannard and Callison-Burch used the bilingual pivoting method on parallel Corpora for the same task.", "The method of Bannard and Callison-Burch requires bilingual parallel Corpora, and uses the translations of expressions as its feature."], "ms": ["Bannard dan Callison-Burch menggunakan kaedah pivoting dwibahasa pada Corpora selari untuk tugas yang sama.", "Kaedah Bannard dan Callison-Burch memerlukan Corpora selari dwibahasa, dan menggunakan terjemahan ungkapan sebagai ciri-cirinya."]}, {"en": ["We then evaluate the effect of word alignment on machine translation quality using the Phrase-Based translation system Moses.", "We compare our approach with a standard Phrase-Based mt system, Moses trained using the same 1M sequence pairs constructed from the Wikianswers Dataset."], "ms": ["Kami kemudian menilai kesan penjajaran perkataan pada kualiti terjemahan mesin menggunakan sistem terjemahan Berasaskan Frasa Musa.", "Kami membandingkan pendekatan kami dengan sistem mt Berasaskan Frasa standard, Musa dilatih menggunakan pasangan urutan 1M yang sama yang dibina dari Dataset Wikianswers."]}, {"en": ["We also describe a Perceptron-Style algorithm for training the neural networks, as an alternative to Maximum-Likelihood method, to speed up the training process and make the learning algorithm easier to be implemented.", "We have described a Perceptron-Style algorithm for training the neural networks, which is much easier to be implemented, and has speed advantage over the Maximum-Likelihood scheme."], "ms": ["Kami juga menerangkan algoritma Perceptron-Style untuk melatih rangkaian saraf, sebagai alternatif kepada kaedah Maximum-Likelihood, untuk mempercepat proses latihan dan menjadikan algoritma pembelajaran lebih mudah dilaksanakan.", "Kami telah menerangkan algoritma Perceptron-Style untuk melatih rangkaian saraf, yang lebih mudah dilaksanakan, dan mempunyai kelebihan kelajuan berbanding skim Maksimum-Likelihood."]}, {"en": ["Motivated by this limitation, the study aims to investigate the use of content features in speech scoring systems.", "And thus this study aims to examine the use of content features in speech scoring systems."], "ms": ["Didorong oleh batasan ini, kajian ini bertujuan untuk menyiasat penggunaan ciri kandungan dalam sistem pemarkahan pertuturan.", "Dan dengan itu kajian ini bertujuan untuk mengkaji penggunaan ciri kandungan dalam sistem pemarkahan pertuturan."]}, {"en": ["We obtained distributed word representations using Word2Vec 4 with Skip-Gram.", "We first train a Word2Vec model on Fr-Wikipedia 11 to obtain non Contextual word vectors."], "ms": ["Kami memperoleh perwakilan perkataan yang diedarkan menggunakan Word2Vec 4 dengan Skip-Gram.", "Kami mula-mula melatih model Word2Vec di Fr-Wikipedia 11 untuk mendapatkan vektor perkataan bukan kontekstual."]}, {"en": ["Word sense Disambiguation (Wsd) is a key task in computational lexical Semantics, inasmuch as it addresses the lexical ambiguity of text by making explicit the meaning of words occurring in a given context (Cite-P-18-3-10).", "The process of identifying the correct meaning, or sense of a word in context, is known as word sense Disambiguation (Wsd)."], "ms": ["Disambiguation Word Sense Disambiguation (Wsd) adalah tugas utama dalam Semantik leksikal komputasi, seperti menangani kekaburan leksikal teks dengan membuat makna kata yang eksplisit yang berlaku dalam konteks tertentu (Cite-P-18-3-10).", "Proses mengenal pasti makna yang betul, atau rasa perkataan dalam konteks, dikenali sebagai kata rasa Disambiguation (Wsd)."]}, {"en": ["For training the translation model and for decoding we used the Moses Toolkit.", "We adapted the Moses Phrase-Based Decoder to translate word Lattices."], "ms": ["Untuk melatih model terjemahan dan untuk penyahkodan, kami menggunakan Musa Toolkit.", "Kami mengadaptasi Decoder Berasaskan Frasa Musa untuk menterjemahkan perkataan Lattices."]}, {"en": ["Framing is further related to works which analyze Biased language and subjectivity.", "Issue framing is related to both analyzing Biased language and subjectivity."], "ms": ["Pembingkaian lebih berkaitan dengan kerja-kerja yang menganalisis bahasa Biased dan subjektiviti.", "Pembingkaian isu berkaitan dengan kedua-dua menganalisis bahasa Biased dan subjektiviti."]}, {"en": ["Morphological analysis is the basis for many Nlp applications, including syntax Parsing, machine translation and automatic indexing.", "We assume that a morphological analysis consists of three processes: Tokenization, dictionary lookup, and Disambiguation."], "ms": ["Analisis morfologi adalah asas bagi banyak aplikasi Nlp, termasuk penghuraian sintaks, terjemahan mesin dan pengindeksan automatik.", "Kami menganggap bahawa analisis morfologi terdiri daripada tiga proses: Tokenisasi, carian kamus, dan Disambiguasi."]}, {"en": ["The Parsing algorithm is extended to handle translation candidates and to incorporate language model scores via cube pruning.", "The Decoder uses a Ckystyle Parsing algorithm and cube pruning to integrate the language model scores."], "ms": ["Algoritma Parsing diperluaskan untuk mengendalikan calon terjemahan dan untuk menggabungkan skor model bahasa melalui pemangkasan kiub.", "Decoder menggunakan algoritma Penghuraian Ckystyle dan pemangkasan kiub untuk mengintegrasikan skor model bahasa."]}, {"en": ["We use a Bidirectional long short-term memory Rnn to Encode a sentence.", "We use a standard long short-term memory model to learn the document representation."], "ms": ["Kami menggunakan Rnn ingatan jangka pendek panjang Bidirectional untuk Mengenal pasti ayat.", "Kami menggunakan model memori jangka pendek yang panjang untuk mempelajari perwakilan dokumen."]}, {"en": ["We use the Moses software package 5 to train a Pbmt model.", "We use the Moses software to train a Pbmt model."], "ms": ["Kami menggunakan pakej perisian Musa 5 untuk melatih model Pbmt.", "Kami menggunakan perisian Moses untuk melatih model Pbmt."]}, {"en": ["Bleu is widely used for automatic evaluation of machine translation systems.", "Bleu is a system for automatic evaluation of machine translation."], "ms": ["Bleu digunakan secara meluas untuk penilaian automatik sistem terjemahan mesin.", "Bleu adalah sistem untuk penilaian automatik terjemahan mesin."]}, {"en": ["Table 1 shows the evaluation of all the systems in terms of BLEU score with the best score highlighted.", "Table 2 presents the results from the automatic evaluation, in terms of BLEU and Nist scores, of 4 system Setups."], "ms": ["Jadual 1 menunjukkan penilaian semua sistem dari segi skor BLEU dengan skor terbaik yang diserlahkan.", "Jadual 2 membentangkan hasil daripada penilaian automatik, dari segi skor BLEU dan Nist, daripada 4 Setup sistem."]}, {"en": ["We first trained a Trigram Bnlm as the baseline with interpolated Kneser-Ney smoothing, using Srilm Toolkit.", "We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit."], "ms": ["Kami pertama kali melatih Trigram Bnlm sebagai garis dasar dengan smoothing Kneser-Ney yang saling berkaitan, menggunakan Srilm Toolkit.", "Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit."]}, {"en": ["We Optimise the feature weights of the model with minimum error rate training against the BLEU evaluation metric.", "To obtain their corresponding weights, we adapted the Minimum-Error-Rate training algorithm to train the Outside-Layer model."], "ms": ["Kami Mengoptimumkan berat ciri model dengan latihan kadar ralat minimum terhadap metrik penilaian BLEU.", "Untuk mendapatkan berat yang sepadan, kami menyesuaikan algoritma latihan Minimum-Ralat untuk melatih model Luar Ruang."]}, {"en": ["Semantic role labeling (SRL) has been defined as a Sentence-Level Natural-Language processing task in which semantic roles are assigned to the syntactic arguments of a Predicate (Cite-P-14-1-7).", "Semantic role labeling (SRL) is the task of labeling the Predicate-Argument structures of sentences with semantic frames and their roles (Cite-P-18-1-2, Cite-P-18-1-19)."], "ms": ["Pelabelan peranan semantik (SRL) telah ditakrifkan sebagai tugas pemprosesan Bahasa Semulajadi Tahap Sentence di mana peranan semantik ditugaskan kepada hujah sintaktik Predicate (Cite-P-14-1-7).", "Pelabelan peranan semantik (SRL) adalah tugas melabel struktur Predicate-Argument ayat dengan bingkai semantik dan peranannya (Cite-P-18-1-2, Cite-P-18-1-19)."]}, {"en": ["We utilize a maximum entropy model to design the basic Classifier used in active learning for Wsd.", "Preparing an aligned abbreviation corpus, we obtain the optimal combination of the features by using the maximum entropy framework."], "ms": ["Kami menggunakan model entropi maksimum untuk mereka bentuk Klasifier asas yang digunakan dalam pembelajaran aktif untuk Wsd.", "Menyediakan korpus singkatan yang diselaraskan, kami memperoleh kombinasi optimum ciri-ciri dengan menggunakan rangka kerja entropi maksimum."]}, {"en": ["In addition, mixed feature SETS also show potential for Scaling well when dealing with larger number of verbs and verb classes.", "To their syntactic expressions, these mixed feature SETS are potentially useful for building verb classifications."], "ms": ["Selain itu, ciri campuran SETS juga menunjukkan potensi untuk Skala dengan baik apabila berurusan dengan bilangan kata kerja yang lebih besar dan kelas kata kerja.", "Untuk ungkapan sintaksis mereka, ciri campuran SETS ini berpotensi berguna untuk membina klasifikasi kata kerja."]}, {"en": ["Coreference resolution is the task of determining which mentions in a text refer to the same entity.", "Coreference resolution is the next step on the way towards discourse understanding."], "ms": ["Resolusi spatial adalah tugas menentukan sebutan mana dalam teks merujuk kepada entiti yang sama.", "Resolusi sumbang mahram adalah langkah seterusnya dalam perjalanan ke arah pemahaman wacana."]}, {"en": ["Regarding word Embeddings, we use the ones trained by Baziotis et al using Word2Vec and 550 million Tweets.", "We use the Pre-Trained Word2Vec Embeddings provided by Mikolov et al as model input."], "ms": ["Mengenai perkataan Embeddings, kami menggunakan yang dilatih oleh Baziotis et al menggunakan Word2Vec dan 550 juta Tweets.", "Kami menggunakan Embedding Word2Vec Pra-Trained yang disediakan oleh Mikolov et al sebagai input model."]}, {"en": ["Hochreiter and Schmidhuber developed long short-term memory to overcome the long term dependency problem.", "The long short-term memory was first proposed by Hochreiter and Schmidhuber that can learn long-term Dependencies."], "ms": ["Hochreiter dan Schmidhuber membangunkan ingatan jangka pendek yang panjang untuk mengatasi masalah kebergantungan jangka panjang.", "Ingatan jangka pendek yang panjang pertama kali dicadangkan oleh Hochreiter dan Schmidhuber yang boleh mempelajari Dependensi jangka panjang."]}, {"en": ["We use conditional random fields sequence labeling as described in.", "As a sequence Labeler we use conditional random fields."], "ms": ["Kami menggunakan pelabelan urutan medan rawak bersyarat seperti yang dijelaskan dalam.", "Sebagai Label jujukan kita menggunakan medan rawak bersyarat."]}, {"en": ["This paper presents our approach for the Subtask of message polarity classification of Semeval 2013.", "In this paper, we describe our contribution at task 2 of Semeval 2013."], "ms": ["Kertas ini membentangkan pendekatan kami untuk Subtugas klasifikasi polariti mesej Semeval 2013.", "Dalam makalah ini, kami menerangkan sumbangan kami pada tugas 2 Semeval 2013."]}, {"en": ["We used Moses to train an alignment model on the created paraphrase Dataset.", "We ran mt experiments using the Moses Phrase-Based translation system."], "ms": ["Kami menggunakan Musa untuk melatih model penjajaran pada Set Data parafrasa yang dicipta.", "Kami menjalankan eksperimen mt menggunakan sistem terjemahan berasaskan frasa Musa."]}, {"en": ["Goldwasser et al took an Unsupervised approach for semantic Parsing based on Self-Training driven by confidence estimation.", "Finally, Goldwasser et al presented an Unsupervised approach of learning a semantic Parser by using an Em-Like retraining loop."], "ms": ["Goldwasser et al mengambil pendekatan yang tidak diawasi untuk Parsing semantik berdasarkan Latihan Sendiri yang didorong oleh anggaran keyakinan.", "Akhirnya, Goldwasser et al menyampaikan pendekatan Unsupervised untuk mempelajari Parser semantik dengan menggunakan gelung latihan semula Em-Like."]}, {"en": ["Pcfg Parsing features were generated on the output of the Berkeley Parser, trained over an English and a Spanish Treebank.", "The Parsing was performed with the Berkeley Parser and features were extracted from both source and target."], "ms": ["Ciri-ciri Pcfg Parsing dihasilkan pada output Berkeley Parser, dilatih melalui Treebank Bahasa Inggeris dan Sepanyol.", "Parsing dilakukan dengan Berkeley Parser dan ciri-ciri diekstrak dari kedua-dua sumber dan sasaran."]}, {"en": ["We use Srilm to train a 5-Gram language model on the Xinhua portion of the English Gigaword corpus 5th edition with modified Kneser-Ney discounting.", "We train a 4-Gram language model on the Xinhua portion of the Gigaword corpus using the Sri language Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di bahagian Xinhua dari edisi ke-5 Gigaword corpus Inggeris dengan diskaun Kneser-Ney yang diubahsuai.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword menggunakan Toolkit bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit.", "The language models used were 7-Gram Srilm with Kneser-Ney smoothing and linear interpolation."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit.", "Model bahasa yang digunakan ialah Srilm 7-Gram dengan smoothing Kneser-Ney dan interpolasi linear."]}, {"en": ["We define the left Descriptor of word type Math-W-3-3-3-87 as: Math-P-3-4-0", "The latent Descriptor for Math-W-2-4-3-110 consists of the pair (Math-W-2-4-3-116), Math-W-2-4-3-122) ) \u00a1\u00aa."], "ms": ["Kami mentakrifkan kiri Deskriptor bagi jenis perkataan Math-W-3-3-3-87 sebagai: Math-P-3-4-0", "Penyampai terpendam untuk Math-W-2-4-3-110 terdiri daripada pasangan (Math-W-2-4-3-116), Math-W-2-4-3-122) a."]}, {"en": ["Transliteration is the task of converting a word from one alphabetic script to another.", "Phonetic translation across these pairs is called Transliteration."], "ms": ["Transliterasi adalah tugas menukar perkataan dari satu skrip abjad ke yang lain.", "Terjemahan fonetik merentasi pasangan ini dipanggil Transliterasi."]}, {"en": ["The classic work on this task was by Bagga and Baldwin, who adapted the vector space model.", "Bagga and Baldwin used the vector space model together with summarization techniques to tackle the Cross-Document Coreference problem."], "ms": ["Karya klasik pada tugas ini adalah oleh Bagga dan Baldwin, yang menyesuaikan model ruang vektor.", "Bagga dan Baldwin menggunakan model ruang vektor bersama-sama dengan teknik-teknik ringkasan untuk menangani masalah Coreference Cross-Document."]}, {"en": ["As a point of comparison, we will also present results from the Word2Vec model of Mikolov et al trained on the same underlying corpus as our models.", "To train the link Embeddings, we use the speedy, Skip-Gram neural language model of Mikolov et al via their Toolkit Word2Vec."], "ms": ["Sebagai titik perbandingan, kami juga akan membentangkan hasil daripada model Word2Vec Mikolov et al yang dilatih pada korpus asas yang sama dengan model kami.", "Untuk melatih pautan Embeddings, kami menggunakan model bahasa saraf Skip-Gram Mikolov et al yang pantas melalui Toolkit Word2Vec mereka."]}, {"en": ["We used the Moses Toolkit for performing statistical machine translation.", "We used the Moses Pbsmt system for all of our mt experiments."], "ms": ["Kami menggunakan Musa Toolkit untuk melaksanakan terjemahan mesin statistik.", "Kami menggunakan sistem Moses Pbsmt untuk semua eksperimen mt kami."]}, {"en": ["We evaluated the translation quality of the system using the BLEU metric.", "We measure translation quality via the BLEU score."], "ms": ["Kami menilai kualiti terjemahan sistem menggunakan metrik BLEU.", "Kami mengukur kualiti terjemahan melalui skor BLEU."]}, {"en": ["We trained a 3-Gram language model on the Spanish side using Srilm.", "Our 5-Gram language model was trained by Srilm Toolkit."], "ms": ["Kami melatih model bahasa 3-Gram di sebelah Sepanyol menggunakan Srilm.", "Model bahasa 5-Gram kami dilatih oleh Srilm Toolkit."]}, {"en": ["The core machinery of our system is driven by a latent Dirichlet allocation topic model.", "In our work, we use latent Dirichlet allocation to identify the Sub-Topics in the given body of texts."], "ms": ["Jentera teras sistem kami didorong oleh model topik peruntukan Dirichlet laten.", "Dalam kerja kami, kami menggunakan peruntukan Dirichlet laten untuk mengenal pasti Sub-Topik dalam badan teks yang diberikan."]}, {"en": ["Costa-Juss\u813f and Fonollosa , 2006) view the source reordering as a translation task that translate the source language into a Reordered source language.", "Costa-Juss\u813f and Fonollosa , 2006) consider Part-Of-Speech based source reordering as a translation task."], "ms": ["Costa-Juss dan Fonollosa, 2006) melihat penyusunan semula sumber sebagai tugas terjemahan yang menterjemahkan bahasa sumber ke dalam bahasa sumber yang disusun semula.", "Costa-Juss dan Fonollosa, 2006) menganggap penyusunan semula sumber berasaskan Part-Of-Speech sebagai tugas terjemahan."]}, {"en": ["We use the Word2Vec vectors with 300 dimensions, Pre-Trained on 100 billion words of Google news.", "As textual features, we use the Pretrained Google news word Embeddings, obtained by training the Skip-Gram model with negative sampling."], "ms": ["Kami menggunakan vektor Word2Vec dengan 300 dimensi, Pra-Trained pada 100 bilion perkataan berita Google.", "Sebagai ciri teks, kami menggunakan Embedding perkataan berita Google Pretrained, yang diperoleh dengan melatih model Skip-Gram dengan persampelan negatif."]}, {"en": ["For MSA, we use the Penn Arabic Treebank.", "Labeled data for MSA we use the Penn Arabic Treebank."], "ms": ["Untuk MSA, kami menggunakan Penn Arabic Treebank.", "Data yang dilabelkan untuk MSA kami menggunakan Penn Arabic Treebank."]}, {"en": ["Recently, Mikolov et al presented a shallow network architecture that is specifically for learning word Embeddings, known as the Word2Vec model.", "In 2013, Mikolov et al generated phrase representation using the same method used for word representation in Word2Vec."], "ms": ["Baru-baru ini, Mikolov et al membentangkan seni bina rangkaian cetek yang khusus untuk pembelajaran Embedding kata, yang dikenali sebagai model Word2Vec.", "Pada tahun 2013, Mikolov et al menghasilkan perwakilan frasa menggunakan kaedah yang sama digunakan untuk perwakilan perkataan dalam Word2Vec."]}, {"en": ["We used the implementation provided by without tuning any Hyper-Parameters.", "We used the Svd implementation provided in the Scikit-Learn Toolkit."], "ms": ["Kami menggunakan pelaksanaan yang disediakan dengan tanpa menyesuaikan sebarang Hyper-Parameters.", "Kami menggunakan pelaksanaan Svd yang disediakan dalam Scikit-Learn Toolkit."]}, {"en": ["Syntactic Parsing is a Computationally intensive and slow task.", "Syntactic Parsing is the task of identifying the phrases and clauses in natural language sentences."], "ms": ["Penghuraian Syntactic adalah tugas yang intensif dan perlahan secara komputasi.", "Penghuraian sintaktik adalah tugas mengenal pasti frasa dan klausa dalam ayat bahasa semula jadi."]}, {"en": ["We used the SVM implementation provided within Scikit-Learn.", "We used SVM Classifier that implements Linearsvc from the Scikit-Learn library."], "ms": ["Kami menggunakan pelaksanaan SVM yang disediakan dalam Scikit-Learn.", "Kami menggunakan SVM Classifier yang melaksanakan Linearsvc dari perpustakaan Scikit-Learn."]}, {"en": ["For this supervised structure learning task, we choose the approach conditional random fields.", "For the Token-Level sequence labeling tasks we use hidden Markov models and conditional random fields appear sentences."], "ms": ["Untuk tugas pembelajaran struktur yang diselia ini, kami memilih pendekatan medan rawak bersyarat.", "Untuk tugas pelabelan urutan Token-Level kami menggunakan model Markov tersembunyi dan medan rawak bersyarat muncul ayat."]}, {"en": ["We use the K-Best batch Mira to tune mt systems.", "In order to tune all systems, we use the K-Best batch Mira."], "ms": ["Kami menggunakan batch K-Best Mira untuk menala sistem mt.", "Untuk menyesuaikan semua sistem, kami menggunakan batch K-Best Mira."]}, {"en": ["For English, we used the Pre-Trained Word2Vec by on Google news.", "We used the Google news Pretrained Word2Vec word Embeddings for our model."], "ms": ["Untuk bahasa Inggeris, kami menggunakan Word2Vec Pra-Trained oleh berita Google.", "Kami menggunakan perkataan Embedding Word2Vec Pretrained Google untuk model kami."]}, {"en": ["Following Li et al, we define our model in the well-known Log-Linear framework.", "Following och and Ney, we adopt a general Loglinear model."], "ms": ["Berikutan Li et al, kami mentakrifkan model kami dalam rangka Log-Linear yang terkenal.", "Berikutan och dan Ney, kami menggunakan model Loglinear umum."]}, {"en": ["We generate dependency structures from the Ptb constituency trees using the head rules of Yamada and Matsumoto.", "We use the English Penn Treebank to evaluate our model Implementations and Yamada and Matsumoto head rules are used to extract dependency trees."], "ms": ["Kami menjana struktur kebergantungan dari pokok konstituen Ptb menggunakan peraturan ketua Yamada dan Matsumoto.", "Kami menggunakan English Penn Treebank untuk menilai model kami Pelaksanaan dan peraturan kepala Yamada dan Matsumoto digunakan untuk mengekstrak pokok dependensi."]}, {"en": ["The statistical significance test is performed by the Re-Sampling approach.", "Statistical significance is computed using the Bootstrap Re-Sampling approach proposed by Koehn."], "ms": ["Ujian kepentingan statistik dilakukan oleh pendekatan Pensampelan Semula.", "Kepentingan statistik dikira menggunakan pendekatan Bootstrap Re-Sampling yang dicadangkan oleh Koehn."]}, {"en": ["Sentiment analysis is a collection of methods and Algorithms used to infer and measure affection expressed by a writer.", "Sentiment analysis is the process of identifying and extracting subjective information using natural language processing (Nlp)."], "ms": ["Analisis sentimen adalah koleksi kaedah dan Algoritma yang digunakan untuk menyimpulkan dan mengukur kasih sayang yang dinyatakan oleh seorang penulis.", "Analisis kepekaan adalah proses mengenal pasti dan mengekstrak maklumat subjektif menggunakan pemprosesan bahasa semula jadi (Nlp)."]}, {"en": ["We use the Stanford Pos Tagger to obtain the Lemmatized Corpora for the Parss task.", "We use the Stanford Nlp Pos Tagger to generate the tagged text."], "ms": ["Kami menggunakan Stanford Pos Tagger untuk mendapatkan Lemmatized Corpora untuk tugas Parss.", "Kami menggunakan Stanford Nlp Pos Tagger untuk menghasilkan teks yang ditandai."]}, {"en": ["We perform minimum error rate training to tune various feature weights.", "We tune the systems using minimum error rate training."], "ms": ["Kami melakukan latihan kadar ralat minimum untuk menyesuaikan pelbagai berat ciri.", "Kami menyesuaikan sistem menggunakan latihan kadar ralat minimum."]}, {"en": ["We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "The language model Pis implemented as an N-Gram model using the Srilm-Toolkit with Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Model bahasa Pis dilaksanakan sebagai model N-Gram menggunakan Srilm-Toolkit dengan smoothing Kneser-Ney."]}, {"en": ["Ganchev et al , 2010) describes a method based on posterior Regularization that incorporates additional constraints within the em algorithm for estimation of IBM models.", "Ganchev et al propose a posterior Regularization framework for weakly supervised learning to derive a Multi-View learning algorithm."], "ms": ["Ganchev et al, 2010) menerangkan kaedah berdasarkan Regularisasi posterior yang menggabungkan kekangan tambahan dalam algoritma em untuk anggaran model IBM.", "Ganchev et al mengusulkan kerangka Regularisasi posterior untuk pembelajaran yang diawasi lemah untuk memperoleh algoritma pembelajaran Multi-View."]}, {"en": ["Mihalcea et al combine Pointwise mutual information, latent semantic analysis and Wordnet-Based measures of word semantic similarity into an arbitrary Text-To-Text similarity metric.", "Mihalcea et al compared Knowledgebased and Corpus-Based methods, using word similarity and word specificity to define one general measure of text semantic similarity."], "ms": ["Mihalcea et al menggabungkan maklumat bersama Pointwise, analisis semantik laten dan langkah-langkah berasaskan Wordnet persamaan semantik perkataan ke dalam metrik persamaan Teks-Ke-Teks sewenang-wenangnya.", "Mihalcea et al membandingkan kaedah berasaskan pengetahuan dan berasaskan Corpus, menggunakan persamaan perkataan dan kekhususan perkataan untuk menentukan satu ukuran umum persamaan semantik teks."]}, {"en": ["To solve this problem, Hochreiter and Schmidhuber introduced the long short-term memory Rnn.", "To solve the traditional recurrent neural networks, Hochreiter and Schmidhuber proposed the Lstm architecture."], "ms": ["Untuk menyelesaikan masalah ini, Hochreiter dan Schmidhuber memperkenalkan ingatan jangka pendek panjang Rnn.", "Untuk menyelesaikan rangkaian neural berulang tradisional, Hochreiter dan Schmidhuber mencadangkan seni bina Lstm."]}, {"en": ["Additionally, Coreference resolution is a pervasive problem in Nlp and many Nlp applications could benefit from an effective Coreference Resolver that can be easily Configured and customized.", "Coreference resolution is a key task in natural language processing (Cite-P-13-1-8) aiming to detect the Referential expressions (mentions) in a text that point to the same entity."], "ms": ["Selain itu, resolusi Coreference adalah masalah yang meluas di Nlp dan banyak aplikasi Nlp boleh mendapat manfaat daripada Coreference Resolver yang berkesan yang boleh dengan mudah dikonfigurasi dan disesuaikan.", "Resolusi spatial adalah tugas utama dalam pemprosesan bahasa semula jadi (Cite-P-13-1-8) yang bertujuan untuk mengesan ungkapan rujukan (mention) dalam teks yang menunjuk kepada entiti yang sama."]}, {"en": ["Feature weights were set with minimum error rate training on a development set using BLEU as the objective function.", "The ape system for each target language was tuned on comparable development sets, optimizing Ter with minimum error rate training."], "ms": ["Berat ciri ditetapkan dengan latihan kadar ralat minimum pada set pembangunan menggunakan BLEU sebagai fungsi objektif.", "Sistem kera bagi setiap bahasa sasaran ditala pada set pembangunan setanding, mengoptimumkan Ter dengan latihan kadar ralat minimum."]}, {"en": ["We adopted the Case-Insensitive Bleu-4 as the evaluation metric.", "The evaluation metric is Case-Sensitive Bleu-4."], "ms": ["Kami menggunakan Case-Insensitive Bleu-4 sebagai metrik penilaian.", "Metrik penilaian ialah Case-Sensitive Bleu-4."]}, {"en": ["Word sense Disambiguation (Wsd) is a task to identify the intended sense of a word based on its context.", "Word sense Disambiguation (Wsd) is the problem of assigning a sense to an ambiguous word, using its context."], "ms": ["Disambiguasi erti kata (Wsd) adalah tugas untuk mengenal pasti pengertian perkataan yang dimaksudkan berdasarkan konteksnya.", "Kemusykilan erti kata Kemusykilan (Wsd) ialah masalah untuk memberikan rasa kepada perkataan yang samar-samar, menggunakan konteksnya."]}, {"en": ["Bilingual Dictionaries are an essential resource in many Multilingual natural language processing tasks such as machine translation and Cross-Language information Retrieval.", "Bilingual Lexicons are an important resource in Multilingual natural language processing tasks such as statistical machine translation and Cross-Language information Retrieval."], "ms": ["Kamus dwibahasa merupakan sumber penting dalam banyak tugas pemprosesan bahasa semula jadi pelbagai bahasa seperti terjemahan mesin dan Retrieval maklumat Cross-Language.", "Leksikon dwibahasa merupakan sumber penting dalam tugas pemprosesan bahasa semula jadi berbilang bahasa seperti terjemahan mesin statistik dan Retrieval maklumat Cross-Language."]}, {"en": ["Word Embeddings are Low-Dimensional vector representations of words such as Word2Vec that recently gained much attention in various semantic tasks.", "Word vectors are vector representations of the words learned from their raw form, using models such as Word2Vec."], "ms": ["Embeddings Word adalah perwakilan vektor rendah dimensi perkataan seperti Word2Vec yang baru-baru ini mendapat banyak perhatian dalam pelbagai tugas semantik.", "Vektor perkataan adalah perwakilan vektor perkataan yang dipelajari dari bentuk mentah mereka, menggunakan model seperti Word2Vec."]}, {"en": ["We use the glove Pre-Trained word Embeddings for the vectors of the content words.", "In this task, we use the 300-Dimensional 840B glove word Embeddings."], "ms": ["Kami menggunakan sarung tangan Embeddings perkataan Pra-Latih untuk vektor perkataan kandungan.", "Dalam tugas ini, kami menggunakan perkataan sarung tangan 300-Dimensional 840B Embeddings."]}, {"en": ["The translation quality is evaluated by Case-Insensitive BLEU and Ter Metrics using Multeval.", "The evaluation metric for the overall translation quality was Case-Insensitive Bleu4."], "ms": ["Kualiti terjemahan dinilai oleh Case-Insensitive BLEU dan Ter Metrics menggunakan Multeval.", "Metrik penilaian untuk kualiti terjemahan keseluruhan adalah Case-Insensitive Bleu4."]}, {"en": ["A 3-Gram language model is trained on the target side of the training data by the Srilm Toolkits with modified Kneser-Ney smoothing.", "The Phrase-Based translation model uses the Con- the baseline LM was a regular N-Gram LM with Kneser-Ney smoothing and interpolation by means of the Srilm Toolkit."], "ms": ["Model bahasa 3-Gram dilatih pada sisi sasaran data latihan oleh Srilm Toolkits dengan smoothing Kneser-Ney yang diubahsuai.", "Model terjemahan Berfiksyen menggunakan Con- LM asas adalah LM N-Gram biasa dengan smoothing Kneser-Ney dan interpolasi melalui Srilm Toolkit."]}, {"en": ["We also use a 4-Gram language model trained using Srilm with Kneser-Ney smoothing.", "Markov models were trained with modified Kneser-Ney smoothing as implemented in Srilm."], "ms": ["Kami juga menggunakan model bahasa 4-Gram yang dilatih menggunakan Srilm dengan smoothing Kneser-Ney.", "Model Markov dilatih dengan smoothing Kneser-Ney yang diubahsuai seperti yang dilaksanakan di Srilm."]}, {"en": ["Coreference resolution is a fundamental component of natural language processing (Nlp) and has been widely applied in other Nlp tasks (Cite-P-15-3-9).", "Coreference resolution is a central problem in natural language processing with a broad range of applications such as summarization (Cite-P-16-3-24), textual Entailment (Cite-P-16-3-12), information extraction (Cite-P-16-3-11), and dialogue systems (Cite-P-16-3-25)."], "ms": ["Resolusi spatial adalah komponen asas pemprosesan bahasa semula jadi (Nlp) dan telah digunakan secara meluas dalam tugas Nlp lain (Cite-P-15-3-9).", "Resolusi spatial adalah masalah utama dalam pemprosesan bahasa semula jadi dengan pelbagai aplikasi seperti ringkasan (Cite-P-16-3-24), Entailment teks (Cite-P-16-3-12), pengekstrakan maklumat (Cite-P-16-3-11), dan sistem dialog (Cite-P-16-3-25)."]}, {"en": ["Rhetorical structure theory Posits a Hierarchical structure of discourse relations between spans of text.", "Rhetorical structure theory is one of the most influential approaches for Document-Level discourse analysis."], "ms": ["Teori struktur rhetorik Mempunyai struktur hierarki hubungan wacana antara rentang teks.", "Teori struktur rhetorikal adalah salah satu pendekatan yang paling berpengaruh untuk analisis wacana Tahap Dokumen."]}, {"en": ["Sentiment analysis (SA) is the task of determining the sentiment of a given piece of text.", "Sentiment analysis (SA) is the task of prediction of opinion in text."], "ms": ["Analisis sentimen (SA) adalah tugas menentukan sentimen sekeping teks tertentu.", "Analisis sentimen (SA) adalah tugas ramalan pendapat dalam teks."]}, {"en": ["We used the Scikit-Learn implementation of Svrs and the Skll Toolkit.", "We used standard classifiers available in Scikit-Learn package."], "ms": ["Kami menggunakan pelaksanaan Scikit-Learn Svrs dan Skll Toolkit.", "Kami menggunakan pengelas standard yang terdapat dalam pakej Scikit-Learn."]}, {"en": ["We used the Sri language modeling Toolkit with Kneser-Kney smoothing.", "We used the Disambig tool provided by the Srilm Toolkit."], "ms": ["Kami menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Kney.", "Kami menggunakan alat Disambig yang disediakan oleh Srilm Toolkit."]}, {"en": ["Our model is a first order linear chain conditional random field.", "We selected conditional random fields as the baseline model."], "ms": ["Model kami adalah medan rawak bersyarat rantai linear pesanan pertama.", "Kami memilih medan rawak bersyarat sebagai model asas."]}, {"en": ["We use the Moses Toolkit to create a statistical Phrase-Based machine translation model built on the best Pre-Processed data, as described above.", "With the refined outputs, we build Phrasebased Transliteration systems using Moses, a popular statistical machine translation framework."], "ms": ["Kami menggunakan Musa Toolkit untuk mencipta model terjemahan mesin berasaskan frasa statistik yang dibina berdasarkan data Pra-proses terbaik, seperti yang dijelaskan di atas.", "Dengan output yang halus, kami membina sistem Transliterasi berasaskan frasa menggunakan Moses, kerangka terjemahan mesin statistik yang popular."]}, {"en": ["Information extraction (Ie) is the task of generating structured information, often in the form of Subject-Predicate-Object relation triples, from unstructured information such as natural language text.", "Information extraction (Ie) is a main Nlp aspects for analyzing scientific papers, which includes named entity recognition (NER) and relation extraction (re)."], "ms": ["Pengekstrakan maklumat (Ie) adalah tugas menghasilkan maklumat berstruktur, selalunya dalam bentuk tiga kali hubungan Subjek-Predicate-Object, dari maklumat yang tidak berstruktur seperti teks bahasa semula jadi.", "Pengekstrakan maklumat (Ie) adalah aspek utama Nlp untuk menganalisis kertas saintifik, yang merangkumi pengiktirafan entiti bernama (NER) dan pengekstrakan hubungan (re)."]}, {"en": ["The sentiment analysis is a field of study that investigates feelings present in texts.", "Sentiment analysis is a research area where does a computational analysis of people \u2019 s feelings or beliefs expressed in texts such as emotions, opinions, attitudes, appraisals, etc . (Cite-P-12-1-3)."], "ms": ["Analisis sentimen adalah bidang kajian yang menyiasat perasaan yang terdapat dalam teks.", "Analisis sentimen adalah bidang penyelidikan di mana analisis pengiraan perasaan atau kepercayaan orang yang dinyatakan dalam teks seperti emosi, pendapat, sikap, penilaian, dan lain-lain (Cite-P-12-1-3)."]}, {"en": ["We used the Srilm Toolkit to build Unpruned 5-Gram models using interpolated modified Kneser-Ney smoothing.", "We used the Srilm Toolkit to simulate the behavior of Flexgram models by using count files as input."], "ms": ["Kami menggunakan Srilm Toolkit untuk membina model 5-Gram Unpruned menggunakan smoothing Kneser-Ney yang diubahsuai secara interpolated.", "Kami menggunakan Srilm Toolkit untuk mensimulasikan tingkah laku model Flexgram dengan menggunakan fail kiraan sebagai input."]}, {"en": ["Mikolov et al presents a neural Network-Based architecture which learns a word representation by learning to predict its context words.", "Mikolov et al uses a continuous Skip-Gram model to learn a distributed vector representation that captures both syntactic and semantic word relationships."], "ms": ["Mikolov et al menyajikan seni bina berasaskan rangkaian saraf yang mempelajari perwakilan perkataan dengan belajar meramalkan perkataan konteksnya.", "Mikolov et al menggunakan model Skip-Gram yang berterusan untuk mempelajari perwakilan vektor yang diedarkan yang menangkap kedua-dua hubungan perkataan sintaktik dan semantik."]}, {"en": ["And while discourse Parsing is a document level task, discourse Segmentation is done at the sentence level, assuming that sentence boundaries are known.", "Discourse Parsing is the process of assigning a discourse structure to the input provided in the form of natural language."], "ms": ["Dan sementara wacana Parsing adalah tugas peringkat dokumen, wacana Segmentasi dilakukan pada tahap ayat, dengan anggapan bahawa batas ayat diketahui.", "Parsing Wacana adalah proses menetapkan struktur wacana kepada input yang disediakan dalam bentuk bahasa semula jadi."]}, {"en": ["We apply Sri language modeling Toolkit to train a 4-Gram language model with Kneser-Ney smoothing.", "We use Sri language modeling Toolkit to train a 5-Gram language model on the English sentences of Fbis corpus."], "ms": ["Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model bahasa 4-Gram dengan smoothing Kneser-Ney.", "Kami menggunakan Sri bahasa pemodelan Toolkit untuk melatih model bahasa 5-Gram pada ayat bahasa Inggeris Fbis corpus."]}, {"en": ["We use Srilm for training a Trigram language model on the English side of the training corpus.", "We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa Trigram di sisi bahasa Inggeris korpus latihan.", "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side."]}, {"en": ["As a Classifier, we employ support vector machines as implemented in SVM light.", "We use support vector machines, a Maximum-Margin Classifier that realizes a linear Discriminative model."], "ms": ["Sebagai Classifier, kami menggunakan mesin vektor sokongan seperti yang dilaksanakan dalam cahaya SVM.", "Kami menggunakan mesin vektor sokongan, Klasifikasi Maksimum-Margin yang merealisasikan model Diskriminatif linear."]}, {"en": ["The Nnlm weights are Optimized as the other feature weights using minimum error rate training.", "The model weights are automatically tuned using minimum error rate training."], "ms": ["Berat Nnlm dioptimumkan sebagai berat ciri lain menggunakan latihan kadar ralat minimum.", "Berat model ditala secara automatik menggunakan latihan kadar ralat minimum."]}, {"en": ["We used the Srilm Toolkit to train a 4-Gram language model on the English side of the training corpus.", "We used the Sri language modeling Toolkit to train LMS on our training data for each Ilr level."], "ms": ["Kami menggunakan Srilm Toolkit untuk melatih model bahasa 4-Gram di sisi bahasa Inggeris korpus latihan.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih LMS pada data latihan kami untuk setiap peringkat Ilr."]}, {"en": ["We perform Smt experiments in all language pairs of the Wmt13 and obtain Smt performance close to the baseline Moses system using less resources for training.", "We run Parfda Smt experiments using Moses in all language pairs in Wmt15 and obtain Smt performance close to the top constrained Moses systems."], "ms": ["Kami melakukan eksperimen Smt dalam semua pasangan bahasa Wmt13 dan mendapatkan prestasi Smt dekat dengan sistem Moses asas menggunakan sumber yang kurang untuk latihan.", "Kami menjalankan eksperimen Parfda Smt menggunakan Musa dalam semua pasangan bahasa dalam Wmt15 dan mendapatkan prestasi Smt berhampiran dengan sistem Musa yang terkekang atas."]}, {"en": ["The N-Gram language models are trained using the Srilm Toolkit or similar software developed at hut.", "The English side of the parallel corpus is trained into a language model using Srilm."], "ms": ["Model bahasa N-Gram dilatih menggunakan Srilm Toolkit atau perisian serupa yang dibangunkan di pondok.", "Bahagian Inggeris korpus selari dilatih menjadi model bahasa menggunakan Srilm."]}, {"en": ["We use the WSJ portion of the Penn Treebank 4, augmented with Head-Dependant information using the rules of Yamada and Matsumoto.", "We use the English Penn Treebank to evaluate our model Implementations and Yamada and Matsumoto head rules are used to extract dependency trees."], "ms": ["Kami menggunakan bahagian WSJ Penn Treebank 4, ditambah dengan maklumat Head-Dependant menggunakan peraturan Yamada dan Matsumoto.", "Kami menggunakan English Penn Treebank untuk menilai model kami Pelaksanaan dan peraturan kepala Yamada dan Matsumoto digunakan untuk mengekstrak pokok dependensi."]}, {"en": ["As Embedding vectors, we used the publicly available representations obtained from the Word2Vec Cbow model.", "The word Embeddings are Initialized with 100-Dimensions vectors Pre-Trained by the Cbow model."], "ms": ["Sebagai vektor Embedding, kami menggunakan perwakilan yang tersedia secara terbuka yang diperoleh daripada model Word2Vec Cbow.", "Perkataan Embeddings Dimulakan dengan vektor 100-Dimensions Pra-Trained oleh model Cbow."]}, {"en": ["For improving the word alignment, we use the Word-Classes that are trained from a Monolingual corpus using the Srilm Toolkit.", "We train a 4-Gram language model on the Xinhua portion of English Gigaword corpus by Srilm Toolkit."], "ms": ["Untuk meningkatkan penjajaran perkataan, kami menggunakan Word-Classes yang dilatih dari korpus Monolingual menggunakan Srilm Toolkit.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua Gigaword corpus bahasa Inggeris oleh Srilm Toolkit."]}, {"en": ["Word alignment is the task of identifying Translational relations between words in parallel Corpora, in which a word at one language is usually translated into several words at the other language (fertility model) (Cite-P-18-1-0).", "Word alignment is a central problem in statistical machine translation (Smt)."], "ms": ["Penjajahan perkataan adalah tugas mengenal pasti hubungan Translasional antara perkataan dalam Corpora selari, di mana perkataan pada satu bahasa biasanya diterjemahkan ke dalam beberapa perkataan pada bahasa lain (model kesuburan) (Cite-P-18-1-0).", "Penjajahan perkataan adalah masalah utama dalam terjemahan mesin statistik (Smt)."]}, {"en": ["The target language model is trained by the Sri language modeling Toolkit on the news Monolingual corpus.", "The Pre-Processed Monolingual sentences will be used by Srilm or Berkeleylm to train a N-Gram language model."], "ms": ["Model bahasa sasaran dilatih oleh Toolkit pemodelan bahasa Sri pada berita Monolingual corpus.", "Kalimat Monolingual Pra-Proses akan digunakan oleh Srilm atau Berkeleylm untuk melatih model bahasa N-Gram."]}, {"en": ["We used minimum error rate training to tune the feature weights for maximum BLEU on the development set.", "To set the weights, \u4f4d M, we performed minimum error rate training on the development set using BLEU as the objective function."], "ms": ["Kami menggunakan latihan kadar ralat minimum untuk menyesuaikan berat ciri untuk BLEU maksimum pada set pembangunan.", "Untuk menetapkan berat, M, kami melakukan latihan kadar ralat minimum pada set pembangunan menggunakan BLEU sebagai fungsi objektif."]}, {"en": ["We implement an In-Domain language model using the Sri language modeling Toolkit.", "We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing."], "ms": ["Kami melaksanakan model bahasa In-Domain menggunakan Toolkit pemodelan bahasa Sri.", "Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["For this supervised structure learning task, we choose the approach conditional random fields.", "As a Classifier, we choose a first-order conditional random field model."], "ms": ["Untuk tugas pembelajaran struktur yang diselia ini, kami memilih pendekatan medan rawak bersyarat.", "Sebagai Pengelas, kami memilih model medan rawak bersyarat pesanan pertama."]}, {"en": ["We used the Svd implementation provided in the Scikit-Learn Toolkit.", "We used Scikit-Learn library for all the machine learning models."], "ms": ["Kami menggunakan pelaksanaan Svd yang disediakan dalam Scikit-Learn Toolkit.", "Kami menggunakan perpustakaan Scikit-Learn untuk semua model pembelajaran mesin."]}, {"en": ["We utilize the Nematus implementation to build Encoder-Decoder Nmt systems with attention and Gated recurrent units.", "Our Nmt baseline is an Encoder-Decoder model with attention and dropout implemented with Nematus and Amunmt."], "ms": ["Kami menggunakan pelaksanaan Nematus untuk membina sistem Encoder-Decoder Nmt dengan perhatian dan unit berulang.", "Garis dasar Nmt kami adalah model Encoder-Decoder dengan perhatian dan putus sekolah yang dilaksanakan dengan Nematus dan Amunmt."]}, {"en": ["Our translation system is an in-house Phrasebased system analogous to Moses.", "We use a Phrase-Based translation system similar to Moses."], "ms": ["Sistem terjemahan kami adalah sistem berasaskan firase dalaman yang serupa dengan Musa.", "Kita menggunakan sistem terjemahan berasaskan frasa yang serupa dengan Musa."]}, {"en": ["Twitter is a famous social media platform capable of spreading breaking news, thus most of RUMOUR related research uses Twitter feed as a basis for research.", "Twitter is a social platform which contains rich textual content."], "ms": ["Twitter adalah platform media sosial terkenal yang mampu menyebarkan berita terkini, oleh itu kebanyakan penyelidikan berkaitan RUMOUR menggunakan suapan Twitter sebagai asas untuk penyelidikan.", "Twitter adalah platform sosial yang mengandungi kandungan teks yang kaya."]}, {"en": ["We briefly review the path ranking algorithm, described in more detail by Lao and Cohen.", "We now review the path ranking algorithm introduced by Lao and Cohen."], "ms": ["Kami mengkaji secara ringkas algoritma ranking laluan, yang dijelaskan dengan lebih terperinci oleh Lao dan Cohen.", "Kami kini mengkaji algoritma ranking laluan yang diperkenalkan oleh Lao dan Cohen."]}, {"en": ["The resulting model is an instance of a conditional random field.", "We define a conditional random field for this task."], "ms": ["Model yang dihasilkan adalah contoh medan rawak bersyarat.", "Kami menentukan medan rawak bersyarat untuk tugas ini."]}, {"en": ["We use glove word Embeddings, which are 50-Dimension word vectors trained with a crawled large corpus with 840 billion tokens.", "We used glove word Embeddings with 300 dimensions Pre-Trained using Commoncrawl to get a vector representation of the evidence sentence."], "ms": ["Kami menggunakan Embedding kata sarung tangan, yang merupakan vektor perkataan 50 dimensi yang dilatih dengan korpus besar yang merangkak dengan 840 bilion token.", "Kami menggunakan perkataan sarung tangan Embeddings dengan 300 dimensi Pra-Trained menggunakan Commoncrawl untuk mendapatkan perwakilan vektor ayat bukti."]}, {"en": ["We used the 300-Dimensional Fasttext Embedding model Pretrained on Wikipedia with Skip-Gram to Initialize the word Embeddings in the Embedding layer.", "For this paper, we directly utilize the Pre-Trained Fasttext word Embeddings model which is trained on Wikipedia data."], "ms": ["Kami menggunakan model Embedding Fasttext 300 Dimensional Pretrained di Wikipedia dengan Skip-Gram untuk Memulakan Embedding perkataan dalam lapisan Embedding.", "Untuk kertas ini, kami menggunakan model Embedding Perkataan Pra-Trained Fasttext yang dilatih pada data Wikipedia."]}, {"en": ["To prevent Overfitting, we apply dropout operators to Non-Recurrent connections between Lstm layers.", "For all methods, we applied dropout to the input of the Lstm layers."], "ms": ["Untuk mengelakkan Overfitting, kami menggunakan operator putus asa untuk sambungan Non-Recurrent antara lapisan Lstm.", "Untuk semua kaedah, kami menggunakan keciciran ke input lapisan Lstm."]}, {"en": ["Among them, Lexicalized reordering models have been widely used in practical Phrase-Based systems.", "These approaches range from distortion models to lexical reordering models."], "ms": ["Antaranya, model penyusunan semula Lexicalized telah digunakan secara meluas dalam sistem berasaskan frasa praktikal.", "Pendekatan ini terdiri daripada model distortion hingga model penyusunan semula leksikal."]}, {"en": ["Therefore, for both Chinese and English SRL systems, we use the 3-Best Parse trees of Berkeley Parser and 1-Best Parse trees of Bikel Parser and Stanford Parser as inputs.", "We use 2-Best Parse trees of Berkeley Parser and 1-Best Parse tree of Bikel Parser and Stanford Parser as inputs to the full Parsing based system."], "ms": ["Oleh itu, untuk sistem SRL Cina dan Inggeris, kami menggunakan pokok Parse 3-Best Berkeley Parser dan pokok Parse 1-Best Bikel Parser dan Stanford Parser sebagai input.", "Kami menggunakan pokok Parse 2-Best Berkeley Parser dan pokok Parse 1-Best Bikel Parser dan Stanford Parser sebagai input kepada sistem berasaskan Parsing penuh."]}, {"en": ["Marcu and Echihabi proposed a method for cheap acquisition of training data for discourse relation sense prediction.", "Marcu and Echihabi propose an approach considering Word-Based pairs as useful features."], "ms": ["Marcu dan Echihabi mengusulkan metode untuk pemerolehan data pelatihan yang murah untuk ramalan pengertian hubungan wacana.", "Marcu dan Echihabi mencadangkan pendekatan yang menganggap pasangan Berasaskan Perkataan sebagai ciri berguna."]}, {"en": ["Zeng et al proposed an approach for relation classification where Sentence-Level features are learned through a CNN, which has word Embedding and position features as its input.", "Zeng et al proposed a deep Convolutional neural network with Softmax classification, extracting lexical and sentence level features."], "ms": ["Zeng et al mencadangkan pendekatan untuk pengelasan hubungan di mana ciri-ciri Sentence-Level dipelajari melalui CNN, yang mempunyai ciri Embedding perkataan dan kedudukan sebagai inputnya.", "Zeng et al mencadangkan rangkaian neural Konvolutional yang mendalam dengan pengelasan Softmax, mengekstrak ciri-ciri tahap leksikal dan ayat."]}, {"en": ["For the semantic language model, we used the Srilm package and trained a Tri-Gram language model with the default Goodturing smoothing.", "We use Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting."], "ms": ["Untuk model bahasa semantik, kami menggunakan pakej Srilm dan melatih model bahasa Tri-Gram dengan smoothing Goodturing lalai.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["The Metrics that were used to evaluate the model were BLEU, NE DIST and Nist.", "The objective measures used were the BLEU score, the Nist score and Multi-Reference word error rate."], "ms": ["Metrik yang digunakan untuk menilai model ialah BLEU, NE DIST dan Nist.", "Langkah-langkah objektif yang digunakan adalah skor BLEU, skor Nist dan kadar ralat perkataan Multi-Reference."]}, {"en": ["We implemented linear models with the Scikit learn package.", "We used the implementation of the Scikit-Learn 2 Module."], "ms": ["Kami melaksanakan model linear dengan pakej pembelajaran Scikit.", "Kami menggunakan pelaksanaan Modul Scikit-Learn 2."]}, {"en": ["Reisinger and Mooney and Huang et al also presented methods that learn multiple Embeddings per word by clustering the contexts.", "Reisinger and Mooney and Huang et al use context clustering to induce multiple word senses for a target word type, where each sense is represented by a different context feature vector."], "ms": ["Reisinger dan Mooney dan Huang et al juga menyampaikan kaedah yang mempelajari pelbagai Embeddings setiap perkataan dengan mengelompokkan konteks.", "Reisinger dan Mooney dan Huang et al menggunakan pengelompokan konteks untuk mendorong pelbagai deria perkataan untuk jenis kata sasaran, di mana setiap deria diwakili oleh vektor ciri konteks yang berbeza."]}, {"en": ["We used the Srilm Toolkit to train a 4-Gram language model on the English side of the training corpus.", "We used the target side of the parallel corpus and the Srilm Toolkit to train a 5-Gram language model."], "ms": ["Kami menggunakan Srilm Toolkit untuk melatih model bahasa 4-Gram di sisi bahasa Inggeris korpus latihan.", "Kami menggunakan sisi sasaran korpus selari dan Srilm Toolkit untuk melatih model bahasa 5-Gram."]}, {"en": ["Recently, neural networks, and in particular recurrent neural networks have shown excellent performance in language modeling.", "In particular, neural language models have demonstrated impressive performance at the task of language modeling."], "ms": ["Baru-baru ini, rangkaian saraf, dan khususnya rangkaian saraf berulang telah menunjukkan prestasi yang sangat baik dalam pemodelan bahasa.", "Khususnya, model bahasa saraf telah menunjukkan prestasi yang mengagumkan pada tugas pemodelan bahasa."]}, {"en": ["We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "We train a 4-Gram language model on the Xinhua portion of the Gigaword corpus using the Sri language Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword menggunakan Toolkit bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Numerous studies suggest that translated texts are different from original ones.", "That suggests that original texts are significantly different from translated ones in various aspects."], "ms": ["Banyak kajian menunjukkan bahawa teks yang diterjemahkan berbeza dari teks asal.", "Ini menunjukkan bahawa teks asli jauh berbeza dengan teks yang diterjemahkan dalam pelbagai aspek."]}, {"en": ["Galley and Manning propose a Shift-Reduce algorithm to integrate a Hierarchical reordering model into Phrase-Based systems.", "Galley and Manning use the Shift-Reduce algorithm to conduct Hierarchical phrase reordering so as to capture long-distance reordering."], "ms": ["Galley dan Manning mencadangkan algoritma Shift-Reduce untuk mengintegrasikan model penyusunan semula Hierarki ke dalam sistem Berasaskan Frasa.", "Galley dan Manning menggunakan algoritma Shift-Reduce untuk menjalankan penyusunan semula frasa Hierarki untuk menangkap penyusunan semula jarak jauh."]}, {"en": ["Word sense Disambiguation (Wsd) is a widely studied task in natural language processing: given a word and its context, assign the correct sense of the word based on a predefined sense inventory (Cite-P-15-3-4).", "Word sense Disambiguation (Wsd) is the task of identifying the correct meaning of a word in context."], "ms": ["Disambiguasi deria perkataan (Wsd) adalah tugas yang dikaji secara meluas dalam pemprosesan bahasa semula jadi: diberikan perkataan dan konteksnya, memberikan rasa yang betul perkataan berdasarkan inventori deria yang telah ditetapkan (Cite-P-15-3-4).", "Disambiguasi erti kata (Wsd) adalah tugas mengenal pasti makna yang betul perkataan dalam konteks."]}, {"en": ["The Anaphor is a definite noun phrase and the referent is in focus, that is.", "The Anaphor is a pronoun and the referent is in the cache (in focus)."], "ms": ["Anafor adalah frasa kata nama yang pasti dan rujukan adalah dalam tumpuan, iaitu.", "Anafor adalah kata ganti dan rujuk berada dalam cache (dalam fokus)."]}, {"en": ["For the language model, we used Sri language modeling Toolkit to train a Trigram model with modified Kneser-Ney smoothing on the 31 , 149 English sentences.", "We used Trigram language models with interpolated Kneser-Kney discounting trained using the Sri language modeling Toolkit."], "ms": ["Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Trigram dengan Kneser-Ney yang diubahsuai pada 31, 149 ayat bahasa Inggeris.", "Kami menggunakan model bahasa Trigram dengan diskaun Kneser-Kney yang diinterpolasi dilatih menggunakan Toolkit pemodelan bahasa Sri."]}, {"en": ["Visual question answering (Vqa) is a well-known and challenging task that requires systems to jointly reason about natural language and vision.", "Visual question answering (Vqa) is the task of predicting a suitable answer given an image and a question about it."], "ms": ["Jawapan soalan visual (Vqa) adalah tugas yang terkenal dan mencabar yang memerlukan sistem untuk bersama-sama membuat alasan mengenai bahasa dan visi semula jadi.", "Jawapan soalan visual (Vqa) adalah tugas meramalkan jawapan yang sesuai diberikan imej dan soalan mengenainya."]}, {"en": ["We use 300-Dimensional word Embeddings from glove to Initialize the model.", "For input representation, we used glove word Embeddings."], "ms": ["Kami menggunakan Embedding perkataan 300 dimensi dari sarung tangan untuk Memulakan model.", "Untuk perwakilan input, kami menggunakan perkataan sarung tangan Embeddings."]}, {"en": ["Discourse Parsing is a challenging task and plays a critical role in discourse analysis.", "Discourse Parsing is a difficult, Multifaceted problem involving the understanding and modeling of various semantic and pragmatic phenomena as well as understanding the structural properties that a discourse graph can have."], "ms": ["Parsing wacana adalah tugas yang mencabar dan memainkan peranan penting dalam analisis wacana.", "Parsing wacana adalah masalah yang sukar, Multifaceted yang melibatkan pemahaman dan pemodelan pelbagai fenomena semantik dan pragmatik serta memahami sifat struktur yang boleh dimiliki oleh graf wacana."]}, {"en": ["We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "In addition, we use an English corpus of roughly 227 million words to build a Target-Side 5-Gram language model with Srilm in combination with Kenlm."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Di samping itu, kami menggunakan korpus bahasa Inggeris kira-kira 227 juta perkataan untuk membina model bahasa Target-Side 5-Gram dengan Srilm dalam kombinasi dengan Kenlm."]}, {"en": ["Information extraction (Ie) is the Nlp field of research that is concerned with obtaining structured information from unstructured text.", "Information extraction (Ie) is the task of extracting factual assertions from text."], "ms": ["Pengekstrakan maklumat (Ie) adalah bidang penyelidikan Nlp yang berkaitan dengan mendapatkan maklumat berstruktur dari teks yang tidak berstruktur.", "Pengekstrakan maklumat (Ie) adalah tugas untuk mengekstrak pernyataan fakta dari teks."]}, {"en": ["We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing.", "We use Srilm to train a 5-Gram language model on the target side of our training corpus with modified Kneser-Ney discounting."], "ms": ["Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di sisi sasaran korpus latihan kami dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Li et al and Dhingra et al also proposed end-to-end Task-Oriented dialog models that can be trained with hybrid supervised learning and Rl.", "Dhingra et al proposed a Multi-Turn dialogue agent which helps users search knowledge base by soft KB lookup."], "ms": ["Li et al dan Dhingra et al juga mencadangkan model dialog Task-Oriented hujung-ke-hujung yang boleh dilatih dengan pembelajaran hibrid yang diawasi dan Rl.", "Dhingra et al mengusulkan agen dialog Multi-Turn yang membantu pengguna mencari basis pengetahuan dengan pencarian KB yang lembut."]}, {"en": ["Uedin has used the Srilm Toolkit to train the language model and relies on Kenlm for language model scoring during decoding.", "The probabilistic language model is constructed on Google web 1T 5-Gram corpus by using the Srilm Toolkit."], "ms": ["Uedin telah menggunakan Srilm Toolkit untuk melatih model bahasa dan bergantung kepada Kenlm untuk pemarkahan model bahasa semasa penyahkodan.", "Model bahasa probabilistik dibina di Google web 1T 5-Gram corpus dengan menggunakan Srilm Toolkit."]}, {"en": ["Table 2 gives the results measured by Caseinsensitive Bleu-4.", "Table 4 shows the BLEU scores of the output descriptions."], "ms": ["Jadual 2 memberikan keputusan yang diukur oleh Caseinsensitive Bleu-4.", "Jadual 4 menunjukkan skor BLEU bagi keterangan output."]}, {"en": ["We used Moses with the default configuration for Phrase-Based translation.", "Our translation system is an in-house Phrasebased system analogous to Moses."], "ms": ["Kami menggunakan Musa dengan konfigurasi lalai untuk terjemahan Berasaskan Frasa.", "Sistem terjemahan kami adalah sistem berasaskan firase dalaman yang serupa dengan Musa."]}, {"en": ["We automatically Parsed the French side of the corpus with the Berkeley Parser, while we used the fast vanilla Pcfg model of the Stanford Parser for the English side.", "For French, we used 300,000 parallel sentences from the Europarl training data Parsed on the English side with the Stanford Parser and on the French side with the Xerox Xip Parser."], "ms": ["Kami secara automatik Parsed sisi Perancis korpus dengan Berkeley Parser, sementara kami menggunakan model Pcfg vanila pantas Stanford Parser untuk sisi Inggeris.", "Untuk bahasa Perancis, kami menggunakan 300,000 ayat selari dari data latihan Europarl yang dihuraikan di sebelah Inggeris dengan Stanford Parser dan di sebelah Perancis dengan Xerox Xip Parser."]}, {"en": ["Previous work showed that word clusters derived from an Unlabelled Dataset can improve the performance of many Nlp applications.", "Using word or phrase representations as extra features has been proven to be an effective and simple way to improve the predictive performance of an Nlp system."], "ms": ["Kerja sebelumnya menunjukkan bahawa kluster perkataan yang berasal dari Dataset Tidak Berlabel dapat meningkatkan prestasi banyak aplikasi Nlp.", "Menggunakan perwakilan perkataan atau frasa sebagai ciri tambahan telah terbukti sebagai cara yang berkesan dan mudah untuk meningkatkan prestasi ramalan sistem Nlp."]}, {"en": ["Named entity recognition (NER) is a frequently needed technology in Nlp applications.", "Named entity recognition (NER) is the task of identifying named entities in free Text\u2014Typically personal names, organizations, Gene-Protein entities, and so on."], "ms": ["Pengecaman entiti yang dinamakan (NER) adalah teknologi yang sering diperlukan dalam aplikasi Nlp.", "Pengecaman entiti dinamakan (NER) adalah tugas mengenal pasti entiti yang dinamakan dalam nama peribadi, organisasi, entiti Gene-Protein, dan sebagainya."]}, {"en": ["We use latent Dirichlet allocation to obtain the topic words for each lexical Pos.", "We use the Term-Sentence matrix to train a simple Generative topic model based on Lda."], "ms": ["Kami menggunakan peruntukan Dirichlet laten untuk mendapatkan perkataan topik untuk setiap Pos leksikal.", "Kami menggunakan matriks Terma-Sentence untuk melatih model topik Generatif yang mudah berdasarkan Lda."]}, {"en": ["A Bunsetsu is a Japanese grammatical and Phonological unit that consists of one or more content words such as a noun, verb, or adverb followed by a sequence of zero or more function words such as auxiliary verbs, Postpositional particles, or Sentence-Final particles.", "1 a Bunsetsu is the linguistic unit in Japanese that roughly corresponds to a basic phrase in English."], "ms": ["Bunsetsu ialah unit tatabahasa dan Phonologi Jepun yang terdiri daripada satu atau lebih perkataan kandungan seperti kata nama, kata kerja, atau kata kerja diikuti dengan urutan kata kerja sifar atau lebih fungsi seperti kata kerja tambahan, zarah Postpositional, atau zarah Sentence-Final.", "Bunsetsu adalah unit linguistik dalam bahasa Jepun yang secara kasarnya sesuai dengan frasa asas dalam bahasa Inggeris."]}, {"en": ["Lda is a representative probabilistic topic model of document collections.", "Lda is a Generative model that learns a set of latent topics for a document collection."], "ms": ["Lda adalah model topik probabilistik perwakilan koleksi dokumen.", "Lda adalah model Generatif yang mempelajari satu set topik laten untuk koleksi dokumen."]}, {"en": ["The models are built using the Sri language modeling Toolkit.", "Trigram language models are implemented using the Srilm Toolkit."], "ms": ["Model-model ini dibina menggunakan Toolkit pemodelan bahasa Sri.", "Model bahasa Trigram dilaksanakan menggunakan Srilm Toolkit."]}, {"en": ["Sentiment analysis is a growing research field, especially on web social networks.", "Sentiment analysis is a Multi-Faceted problem."], "ms": ["Analisis sentimen adalah bidang penyelidikan yang semakin meningkat, terutamanya di rangkaian sosial web.", "Analisis kepekaan adalah masalah pelbagai aspek."]}, {"en": ["The decoding weights were Optimized with minimum error rate training.", "The minimum error rate training was used to tune the feature weights."], "ms": ["Berat penyahkodan dioptimumkan dengan latihan kadar ralat minimum.", "Latihan kadar ralat minimum digunakan untuk menyesuaikan berat ciri."]}, {"en": ["Moreover, Arabic is a Morphologically complex language.", "First, Arabic is a Morphologically rich language (Cite-P-19-3-7)."], "ms": ["Bahasa Arab adalah bahasa yang kompleks secara Morfologi.", "Pertama, bahasa Arab adalah bahasa yang kaya dengan Morfologi (Cite-P-19-3-7)."]}, {"en": ["Relation extraction (re) is the task of extracting instances of semantic relations between entities in unstructured data such as natural language text.", "Relation extraction is a fundamental step in many natural language processing applications such as learning Ontologies from texts (Cite-P-12-1-0) and question answering (Cite-P-12-3-6)."], "ms": ["Pengekstrakan hubungan (re) adalah tugas mengekstrak contoh hubungan semantik antara entiti dalam data yang tidak tersusun seperti teks bahasa semula jadi.", "Pengekstrakan hubungan adalah langkah asas dalam banyak aplikasi pemprosesan bahasa semula jadi seperti pembelajaran Ontologi dari teks (Cite-P-12-1-0) dan jawapan soalan (Cite-P-12-3-6)."]}, {"en": ["In our experiments, we use 300-Dimension word vectors Pre-Trained by glove.", "For word Embedding, we used Pre-Trained glove word vectors with 300 dimensions, and froze them during training."], "ms": ["Dalam eksperimen kami, kami menggunakan vektor perkataan 300 dimensi yang Dilatih dengan sarung tangan.", "Untuk Embedding perkataan, kami menggunakan vektor perkataan sarung tangan Pra-Trained dengan dimensi 300, dan membekukannya semasa latihan."]}, {"en": ["Collobert et al used word Embeddings as the input of various Nlp tasks, including Part-Of-Speech tagging, Chunking, NER, and semantic role labeling.", "Collobert et al used word Embeddings as inputs of a Multilayer neural network for Part-Of-Speech tagging, Chunking, named entity recognition and semantic role labelling."], "ms": ["Collobert et al menggunakan perkataan Embeddings sebagai input pelbagai tugas Nlp, termasuk penandaan Part-Of-Speech, Chunking, NER, dan pelabelan peranan semantik.", "Collobert et al menggunakan perkataan Embeddings sebagai input rangkaian neural Multilayer untuk penandaan Part-Of-Speech, Chunking, pengiktirafan entiti dinamakan dan pelabelan peranan semantik."]}, {"en": ["Huang et al proposed a learning model based on Chinese phonemic alphabet to detect Chinese spelling errors.", "The method proposed by Huang et al incorporates the Sinica word Segmentation system to detect Typos."], "ms": ["Huang et al mencadangkan model pembelajaran berdasarkan abjad fonetik Cina untuk mengesan kesilapan ejaan Cina.", "Kaedah yang dicadangkan oleh Huang et al menggabungkan sistem Segmentasi perkataan Sinica untuk mengesan Typos."]}, {"en": ["We implemented linear models with the Scikit learn package.", "We use Scikitlearn as machine learning library."], "ms": ["Kami melaksanakan model linear dengan pakej pembelajaran Scikit.", "Kami menggunakan Scikitlearn sebagai perpustakaan pembelajaran mesin."]}, {"en": ["Dropout is performed at the input of each Lstm layer, including the first layer.", "For Regularization, dropout is applied to the input and hidden layers."], "ms": ["Dropout dilakukan pada input setiap lapisan Lstm, termasuk lapisan pertama.", "Untuk Regularization, putus asa digunakan pada input dan lapisan tersembunyi."]}, {"en": ["We regularize our network using dropout with the dropout rate tuned using the development set.", "We regularize our network using dropout with the Drop-Out rate tuned using development set."], "ms": ["Kami mengatur rangkaian kami menggunakan dropout dengan kadar dropout yang ditala menggunakan set pembangunan.", "Kami mengatur rangkaian kami menggunakan dropout dengan kadar Drop-Out yang ditala menggunakan set pembangunan."]}, {"en": ["We use the glove vectors of 300 dimension to represent the input words.", "For input representation, we used glove word Embeddings."], "ms": ["Kami menggunakan vektor sarung tangan 300 dimensi untuk mewakili perkataan input.", "Untuk perwakilan input, kami menggunakan perkataan sarung tangan Embeddings."]}, {"en": ["Luong et al , 2013) utilized recursive neural networks in which inputs are Morphemes of words.", "Luong et al break words into Morphemes, and use recursive neural networks to compose word meanings from Morpheme meanings."], "ms": ["Luong et al, 2013) menggunakan rangkaian saraf rekursif di mana input adalah Morphemes perkataan.", "Luong et al memecahkan perkataan ke dalam Morphemes, dan menggunakan rangkaian saraf rekursif untuk mengarang makna perkataan dari makna Morpheme."]}, {"en": ["We use the Pre-Trained glove 50-Dimensional word Embeddings to represent words found in the glove Dataset.", "We use the 100-Dimensional glove 4 Embeddings trained on 2 billions Tweets to Initialize the lookup table and do Fine-Tuning during training."], "ms": ["Kami menggunakan sarung tangan Pra-Latih 50-Dimensional Embedding perkataan untuk mewakili perkataan yang terdapat dalam Dataset sarung tangan.", "Kami menggunakan sarung tangan 100 dimensi 4 Embeddings yang dilatih pada 2 bilion Tweet untuk Memulakan jadual carian dan melakukan Fine-Tuning semasa latihan."]}, {"en": ["Relation extraction is a Subtask of information extraction that finds various predefined semantic relations, such as location, affiliation, rival, etc ., between pairs of entities in text.", "Relation extraction (re) is a task of identifying typed relations between known entity mentions in a sentence."], "ms": ["Pengekstrakan hubungan adalah Subtugas pengekstrakan maklumat yang menemui pelbagai hubungan semantik yang telah ditentukan, seperti lokasi, gabungan, saingan, dll., Antara pasangan entiti dalam teks.", "Pengekstrakan hubungan (re) adalah tugas untuk mengenal pasti hubungan yang ditaip antara sebutan entiti yang diketahui dalam ayat."]}, {"en": ["To measure the translation quality, we use the BLEU score and the Nist score.", "Instead, we use BLEU scores since it is one of the primary Metrics for machine translation evaluation."], "ms": ["Untuk mengukur kualiti terjemahan, kami menggunakan skor BLEU dan skor Nist.", "Sebaliknya, kami menggunakan skor BLEU kerana ia adalah salah satu metrik utama untuk penilaian terjemahan mesin."]}, {"en": ["We use 300-Dimensional word Embeddings from glove to Initialize the model.", "We use Pre-Trained 50 dimensional glove vectors 4 for word Embeddings Initialization."], "ms": ["Kami menggunakan Embedding perkataan 300 dimensi dari sarung tangan untuk Memulakan model.", "Kami menggunakan vektor sarung tangan 50 dimensi Pra-Trained 4 untuk Pengawalan Embeddings perkataan."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit.", "The language model was constructed using the Srilm Toolkit with interpolated Kneser-Ney discounting."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit.", "Model bahasa dibina menggunakan Srilm Toolkit dengan diskaun Kneser-Ney yang saling berkaitan."]}, {"en": ["In this paper we applied several probabilistic topic models to discourse within political Blogs.", "In this paper we attempt to deliver a framework useful for analyzing text in Blogs."], "ms": ["Dalam makalah ini kami menerapkan beberapa model topik probabilistik untuk wacana dalam Blog politik.", "Dalam makalah ini, kami berusaha menyampaikan kerangka kerja yang berguna untuk menganalisis teks di Blog."]}, {"en": ["System tuning was carried out using minimum error rate training Optimised with K-Best Mira on a held out development set.", "Parameter tuning was carried out using both K-Best Mira and minimum error rate training on a Held-Out development set."], "ms": ["Penalaan sistem dijalankan menggunakan latihan kadar ralat minimum Optimized dengan K-Best Mira pada set pembangunan yang diadakan.", "Penalaan parameter dijalankan menggunakan kedua-dua K-Best Mira dan latihan kadar ralat minimum pada set pembangunan Held-Out."]}, {"en": ["We implement classification models using Keras and Scikit-Learn.", "The standard classifiers are implemented with Scikit-Learn."], "ms": ["Kami melaksanakan model klasifikasi menggunakan Keras dan Scikit-Learn.", "Pengelas standard dilaksanakan dengan Scikit-Learn."]}, {"en": ["We trained a linear Log-Loss model using stochastic gradient descent learning as implemented in the Scikit learn library.", "We implemented the Algorithms in python using the stochastic gradient descent method for Nmf from the Scikit-Learn package."], "ms": ["Kami melatih model Log-Loss linear menggunakan pembelajaran keturunan kecerunan stokastik seperti yang dilaksanakan di perpustakaan pembelajaran Scikit.", "Kami melaksanakan Algoritma dalam python menggunakan kaedah keturunan kecerunan stokastik untuk Nmf dari pakej Scikit-Learn."]}, {"en": ["We use glove vectors with 100 dimensions trained on Wikipedia and Gigaword as word Embeddings, which we do not optimize during training.", "For the neural models, we use 100-Dimensional glove Embeddings, Pre-Trained on Wikipedia and Gigaword."], "ms": ["Kami menggunakan vektor sarung tangan dengan 100 dimensi yang dilatih di Wikipedia dan Gigaword sebagai Embedding perkataan, yang kami tidak mengoptimumkan semasa latihan.", "Untuk model neural, kami menggunakan Embedding sarung tangan 100-Dimensional, Pra-Trained di Wikipedia dan Gigaword."]}, {"en": ["For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided.", "Further, we apply a 4-Gram language model trained with the Srilm Toolkit on the target side of the training corpus."], "ms": ["Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan.", "Selanjutnya, kami menerapkan model bahasa 4-Gram yang dilatih dengan Srilm Toolkit di sisi target korpus pelatihan."]}, {"en": ["We also run our systems on the Ontonotes Dataset, which was used for evaluation in Conll 2011 shared task.", "We use the Datasets, experimental setup, and scoring program from the Conll 2011 shared task, based on the Ontonotes corpus."], "ms": ["Kami juga menjalankan sistem kami pada Ontonotes Dataset, yang digunakan untuk penilaian dalam tugas bersama Conll 2011.", "Kami menggunakan Dataset, persediaan eksperimen, dan program pemarkahan dari tugas bersama Conll 2011, berdasarkan Ontonotes corpus."]}, {"en": ["The model was built using the Srilm Toolkit with Backoff and Kneser-Ney smoothing.", "The language model used was a 5-Gram with modified Kneserney smoothing, built with Srilm Toolkit."], "ms": ["Model ini dibina menggunakan Srilm Toolkit dengan Backoff dan Kneser-Ney smoothing.", "Model bahasa yang digunakan ialah 5-Gram dengan smoothing Kneserney yang diubahsuai, dibina dengan Srilm Toolkit."]}, {"en": ["For our implementation we use 300-Dimensional Part-Of-Speech-Specific word Embeddings V I generated using the Gensim Word2Vec package.", "For the Cluster- based method, we use Word2Vec 2 which provides the word vectors trained on the Google news corpus."], "ms": ["Untuk pelaksanaan kami, kami menggunakan Embedding perkataan Bahagian-Daripada-Pertuturan-Spesifik 300 Dimensional V I yang dihasilkan menggunakan pakej Gensim Word2Vec.", "Untuk kaedah berasaskan Cluster, kami menggunakan Word2Vec 2 yang menyediakan vektor perkataan yang dilatih pada korpus berita Google."]}, {"en": ["We use word Embeddings of dimension 100 Pretrained using Word2Vec on the training Dataset.", "This baseline uses Pre-Trained word Embeddings using Word2Vec Cbow and Fasttext."], "ms": ["Kami menggunakan perkataan Embeddings dimensi 100 Pretrained menggunakan Word2Vec pada Dataset latihan.", "Garis dasar ini menggunakan Embedding kata Pra-Latihan menggunakan Word2Vec Cbow dan Fasttext."]}, {"en": ["Coreference resolution is the task of partitioning a set of mentions (I.E . person, organization and location) into entities.", "Coreference resolution is the process of linking together multiple expressions of a given entity."], "ms": ["Resolusi spatial adalah tugas pembahagian satu set sebutan (I.E. orang, organisasi dan lokasi) ke dalam entiti.", "Resolusi spatial adalah proses menghubungkan pelbagai ungkapan entiti tertentu."]}, {"en": ["We trained Kneser-Ney discounted 5-Gram language models on each available corpus using the Srilm Toolkit.", "We train a 4-Gram language model on the Xinhua portion of the Gigaword corpus using the Sri language Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami melatih model bahasa 5-Gram Kneser-Ney didiskaun pada setiap korpus yang tersedia menggunakan Srilm Toolkit.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword menggunakan Toolkit bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["The sentiment analysis is a field of study that investigates feelings present in texts.", "Sentiment analysis is the computational analysis of people \u2019 s feelings or beliefs expressed in texts such as emotions, opinions, attitudes, appraisals, etc . (Cite-P-11-3-3)."], "ms": ["Analisis sentimen adalah bidang kajian yang menyiasat perasaan yang terdapat dalam teks.", "Analisis sentimen adalah analisis pengiraan perasaan atau kepercayaan orang yang dinyatakan dalam teks seperti emosi, pendapat, sikap, penilaian, dan lain-lain (Cite-P-11-3-3)."]}, {"en": ["We trained a 5-Gram language model on the Xinhua portion of Gigaword corpus using the Srilm Toolkit.", "We created 5-Gram language models for every domain using Srilm with improved Kneserney smoothing on the target side of the training parallel Corpora."], "ms": ["Kami melatih model bahasa 5-Gram di bahagian Xinhua Gigaword corpus menggunakan Srilm Toolkit.", "Kami mencipta model bahasa 5-Gram untuk setiap domain menggunakan Srilm dengan lancar Kneserney yang lebih baik di sisi sasaran latihan selari Corpora."]}, {"en": ["Twitter is a widely used Microblogging platform, where users post and interact with messages, \u201c Tweets \u201d.", "Among them, Twitter is the most popular service by far due to its ease for real-time sharing of information."], "ms": ["Twitter adalah platform Microblogging yang digunakan secara meluas, di mana pengguna menyiarkan dan berinteraksi dengan mesej, Tweets dan Twitter.", "Antaranya, Twitter adalah perkhidmatan yang paling popular setakat ini kerana kemudahannya untuk perkongsian maklumat masa nyata."]}, {"en": ["Plda is an extension of Lda which is an Unsupervised machine learning method that models topics of a document collection.", "Lda is a probabilistic model of text data which provides a Generative analog of Plsa, and is primarily meant to reveal hidden topics in text documents."], "ms": ["Plda adalah lanjutan Lda yang merupakan kaedah pembelajaran mesin yang tidak diawasi yang memodelkan topik koleksi dokumen.", "Lda adalah model probabilistik data teks yang menyediakan analog Generatif Plsa, dan terutamanya bertujuan untuk mendedahkan topik tersembunyi dalam dokumen teks."]}, {"en": ["We use Stanford Log-Linear Partof-Speech Tagger to produce Pos tags for the English side.", "In our Wok, we have used the Stanford Log-Linear Part-Of-Speech to do Pos tagging."], "ms": ["Kami menggunakan Stanford Log-Linear Partof-Speech Tagger untuk menghasilkan tag Pos untuk bahagian Inggeris.", "Dalam Wok kami, kami telah menggunakan Stanford Log-Linear Part-Of-Speech untuk melakukan penandaan Pos."]}, {"en": ["Sentiment classification is a special task of text Categorization that aims to classify documents according to their opinion of, or sentiment toward a given subject (E.G ., if an opinion is supported or not) (Cite-P-11-1-2).", "Sentiment classification is a hot research topic in natural language processing field, and has many applications in both academic and industrial areas (Cite-P-17-1-16, Cite-P-17-1-12, Cite-P-17-3-4, Cite-P-17-3-3)."], "ms": ["Klasifikasi sentimen adalah tugas khas Categorization teks yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat mereka, atau sentimen terhadap subjek tertentu (E.G., jika pendapat disokong atau tidak) (Cite-P-11-1-2).", "Klasifikasi sentimen adalah topik penyelidikan panas dalam bidang pemprosesan bahasa semula jadi, dan mempunyai banyak aplikasi dalam bidang akademik dan perindustrian (Cite-P-17-1-16, Cite-P-17-1-12, Cite-P-17-3-4, Cite-P-17-3-3)."]}, {"en": ["In a second baseline model, we also incorporate 300-Dimensional glove word Embeddings trained on Wikipedia and the Gigaword corpus.", "We use glove vectors with 100 dimensions trained on Wikipedia and Gigaword as word Embeddings, which we do not optimize during training."], "ms": ["Dalam model asas kedua, kami juga menggabungkan Embedding perkataan sarung tangan 300 dimensi yang dilatih di Wikipedia dan Gigaword corpus.", "Kami menggunakan vektor sarung tangan dengan 100 dimensi yang dilatih di Wikipedia dan Gigaword sebagai Embedding perkataan, yang kami tidak mengoptimumkan semasa latihan."]}, {"en": ["Part-Of-Speech (Pos) tagging is a crucial task for natural language processing (Nlp) tasks, providing basic information about syntax.", "Part-Of-Speech (Pos) tagging is a fundamental Nlp task, used by a wide variety of applications."], "ms": ["Penandaan Part-Of-Speech (Pos) adalah tugas penting untuk tugas pemprosesan bahasa semula jadi (Nlp), memberikan maklumat asas mengenai sintaks.", "Tag Part-Of-Speech (Pos) adalah tugas asas Nlp, yang digunakan oleh pelbagai aplikasi."]}, {"en": ["Twitter is a popular Microblogging service, which, among other things, is used for knowledge sharing among friends and peers.", "Among them, Twitter is the most popular service by far due to its ease for real-time sharing of information."], "ms": ["Twitter adalah perkhidmatan Microblogging yang popular, yang antara lain digunakan untuk perkongsian pengetahuan di kalangan rakan dan rakan sebaya.", "Antaranya, Twitter adalah perkhidmatan yang paling popular setakat ini kerana kemudahannya untuk perkongsian maklumat masa nyata."]}, {"en": ["Table 4 shows end-to-end translation BLEU score results.", "Table 4 shows the BLEU scores of the output descriptions."], "ms": ["Jadual 4 menunjukkan hasil skor BLEU terjemahan hujung ke hujung.", "Jadual 4 menunjukkan skor BLEU bagi keterangan output."]}, {"en": ["We used the target side of the parallel corpus and the Srilm Toolkit to train a 5-Gram language model.", "In our experiments, we used the Srilm Toolkit to build 5-Gram language model using the LDC Arabic Gigaword corpus."], "ms": ["Kami menggunakan sisi sasaran korpus selari dan Srilm Toolkit untuk melatih model bahasa 5-Gram.", "Dalam eksperimen kami, kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram menggunakan LDC Arabic Gigaword corpus."]}, {"en": ["The combination of Multi-Task learning and neural networks has shown its advantages in many tasks, ranging from computer vision to natural language processing.", "Multi-Task learning has been used with success in applications of machine learning, from natural language processing and speech recognition."], "ms": ["Gabungan pembelajaran Multi-Task dan rangkaian saraf telah menunjukkan kelebihannya dalam banyak tugas, mulai dari penglihatan komputer hingga pemprosesan bahasa semula jadi.", "Pembelajaran Multi-Task telah digunakan dengan kejayaan dalam aplikasi pembelajaran mesin, dari pemprosesan bahasa semula jadi dan pengiktirafan pertuturan."]}, {"en": ["For the task of event trigger prediction, we train a Multi-Class logistic regression Classifier using Liblinear.", "Unlike Lemma prediction, we use a Liblinear Classifier to build linear SVM classification models for GNP and case prediction."], "ms": ["Untuk tugas ramalan pencetus peristiwa, kami melatih Classifier regresi logistik Multi-Class menggunakan Liblinear.", "Tidak seperti ramalan Lemma, kami menggunakan Klasifier Liblinear untuk membina model klasifikasi SVM linear untuk ramalan GNP dan kes."]}, {"en": ["The 5-Gram target language model was trained using Kenlm.", "We used 4-Gram language models, trained using Kenlm."], "ms": ["Model bahasa sasaran 5-Gram dilatih menggunakan Kenlm.", "Kami menggunakan model bahasa 4-Gram, dilatih menggunakan Kenlm."]}, {"en": ["Coreference resolution is the task of partitioning the set of mentions of discourse Referents in a text into classes (or \u2018 chains \u2019) corresponding to those Referents (Cite-P-12-3-14).", "Coreference resolution is the task of clustering a sequence of textual entity mentions into a set of maximal Non-Overlapping clusters, such that mentions in a cluster refer to the same discourse entity."], "ms": ["Resolusi spatial adalah tugas pembahagian set sebutan rujukan wacana dalam teks ke dalam kelas (atau rantai ) yang sepadan dengan rujukan tersebut (Cite-P-12-3-14).", "Resolusi spatial adalah tugas untuk mengelompokkan urutan sebutan entiti teks ke dalam satu set kluster Non-Overlapping maksima, seperti sebutan dalam kluster merujuk kepada entiti wacana yang sama."]}, {"en": ["Sentiment analysis is a research area in the field of natural language processing.", "Sentiment analysis is the task of identifying the polarity (positive, negative or neutral) of review."], "ms": ["Analisis kepekaan adalah bidang penyelidikan dalam bidang pemprosesan bahasa semula jadi.", "Analisis kepekaan adalah tugas mengenal pasti polariti (positif, negatif atau neutral) kajian semula."]}, {"en": ["To evaluate our approach, we classically adopted the Rouge 2 framework, which estimates a summary score by its N-Gram overlap with several reference summaries.", "To evaluate the quality of our generated summaries, we choose to use the Rouge 3 evaluation Toolkit, that has been found to be highly correlated with human judgments."], "ms": ["Untuk menilai pendekatan kami, kami secara klasik menggunakan rangka kerja Rouge 2, yang menganggarkan skor ringkasan oleh N-Gram bertindih dengan beberapa ringkasan rujukan.", "Untuk menilai kualiti ringkasan yang dihasilkan, kami memilih untuk menggunakan Alat Penilaian Rouge 3, yang telah didapati sangat berkaitan dengan penghakiman manusia."]}, {"en": ["Our method involved using the machine translation software Moses.", "Our system is based on the Phrase-Based part of the statistical machine translation system Moses."], "ms": ["Kaedah kami melibatkan menggunakan perisian terjemahan mesin Moses.", "Sistem kami adalah berdasarkan bahagian berasaskan frasa sistem terjemahan mesin statistik Moses."]}, {"en": ["Coreference resolution is the process of linking together multiple referring expressions of a given entity in the world.", "Coreference resolution is a key task in natural language processing (Cite-P-13-1-8) aiming to detect the Referential expressions (mentions) in a text that point to the same entity."], "ms": ["Resolusi spatial adalah proses menghubungkan pelbagai ungkapan merujuk entiti tertentu di dunia.", "Resolusi spatial adalah tugas utama dalam pemprosesan bahasa semula jadi (Cite-P-13-1-8) yang bertujuan untuk mengesan ungkapan rujukan (mention) dalam teks yang menunjuk kepada entiti yang sama."]}, {"en": ["Translation scores are reported using Caseinsensitive BLEU with a single reference translation.", "Translation performances are measured with Case-Insensitive Bleu4 score."], "ms": ["Skor terjemahan dilaporkan menggunakan Caseinsensitive BLEU dengan terjemahan rujukan tunggal.", "Persembahan terjemahan diukur dengan skor Case-Insensitive Bleu4."]}, {"en": ["We use a Count-Based Distributional Semantics model and the continuous Bag-Of-Words model to learn word vectors.", "We use the Skipgram model with negative sampling to learn word Embeddings on the Twitter reference corpus."], "ms": ["Kami menggunakan model Semantik Pengedaran Berasaskan Count dan model Bag-Of-Words yang berterusan untuk mempelajari vektor perkataan.", "Kami menggunakan model Skipgram dengan persampelan negatif untuk mempelajari perkataan Embeddings di korpus rujukan Twitter."]}, {"en": ["The language models were interpolated Kneser-Ney discounted Trigram models, all constructed using the Srilm Toolkit.", "The target language model was a Trigram language model with modified Kneser-Ney smoothing trained on the English side of the Bitext using the Srilm Tookit."], "ms": ["Model bahasa adalah model Trigram diskaun Kneser-Ney yang diinterpolasi, semuanya dibina menggunakan Srilm Toolkit.", "Model bahasa sasaran adalah model bahasa Trigram dengan smoothing Kneser-Ney yang diubahsuai dilatih di sisi bahasa Inggeris Bitext menggunakan Srilm Tookit."]}, {"en": ["We use the Chunker Yamcha, which is based on Svms.", "We used Yamcha 1, which is a general purpose Svm-Based Chunker."], "ms": ["Kami menggunakan Chunker Yamcha, yang berasaskan Svms.", "Kami menggunakan Yamcha 1, yang merupakan tujuan umum Svm-Based Chunker."]}, {"en": ["For the textual sources, we populate word Embeddings from the Google Word2Vec Embeddings trained on roughly 100 billion words from Google news.", "Following Mirza and Tonelli, we use the three million 300-Dimensional Word2Vec vectors 5 Pre-Trained on part of the Google news Dataset."], "ms": ["Untuk sumber teks, kami mengisi Embedding perkataan dari Embeddings Google Word2Vec yang dilatih pada kira-kira 100 bilion perkataan dari berita Google.", "Berikutan Mirza dan Tonelli, kami menggunakan tiga juta 300-Dimensional Word2Vec vektor 5 Pra-Trained di sebahagian daripada Dataset berita Google."]}, {"en": ["We used Nwjc2Vec 10, which is a 200 dimensional Word2Vec model.", "We obtained these scores by training a Word2Vec model on the Wiki corpus."], "ms": ["Kami menggunakan Nwjc2Vec 10, yang merupakan model Word2Vec 200 dimensi.", "Kami memperoleh skor ini dengan melatih model Word2Vec di korpus Wiki."]}, {"en": ["Part-Of-Speech tagging is the process of assigning to a word the category that is most probable given the Sentential context (Cite-P-4-1-2).", "Part-Of-Speech tagging is a crucial preliminary process in many natural language processing applications."], "ms": ["Penandaan Part-Of-Speech adalah proses menetapkan perkataan kategori yang paling mungkin diberikan konteks Sentential (Cite-P-4-1-2).", "Penandaan Part-Of-Speech adalah proses awal yang penting dalam banyak aplikasi pemprosesan bahasa semula jadi."]}, {"en": ["Relation extraction is the task of detecting and characterizing semantic relations between entities from free text.", "Relation extraction is a core task in information extraction and natural language understanding."], "ms": ["Pengekstrakan hubungan adalah tugas mengesan dan mencirikan hubungan semantik antara entiti dari teks percuma.", "Pengekstrakan hubungan adalah tugas utama dalam pengekstrakan maklumat dan pemahaman bahasa semula jadi."]}, {"en": ["The Targetside 4-Gram language model was estimated using the Srilm Toolkit and modified Kneser-Ney discounting with interpolation.", "We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing."], "ms": ["Model bahasa Targetside 4-Gram dianggarkan menggunakan Srilm Toolkit dan diskaun Kneser-Ney yang diubahsuai dengan interpolasi.", "Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Semantic Parsing is the task of mapping natural language to a formal meaning representation.", "Semantic Parsing is the task of Transducing natural language (NL) utterances into formal meaning representations (Mrs), commonly represented as tree structures."], "ms": ["Penghuraian Semantik adalah tugas pemetaan bahasa semula jadi kepada perwakilan makna formal.", "Penghuraian Semantik adalah tugas Transducing bahasa semula jadi (NL) ucapan ke dalam perwakilan makna formal (Puan), biasanya diwakili sebagai struktur pokok."]}, {"en": ["In this work, we present a framework for information recommendation in such social media as Internet forums and Blogs.", "In this article, we present a framework to recommend relevant information in Internet forums and Blogs."], "ms": ["Dalam kerja ini, kami membentangkan rangka kerja untuk cadangan maklumat dalam media sosial seperti forum Internet dan Blog.", "Dalam artikel ini, kami membentangkan rangka kerja untuk mengesyorkan maklumat yang berkaitan dalam forum Internet dan Blog."]}, {"en": ["Sentence compression is the task of generating a grammatical and shorter summary for a long sentence while preserving its most important information.", "Sentence compression is the task of compressing long, Verbose sentences into short, concise ones."], "ms": ["Pemampatan ayat adalah tugas menghasilkan ringkasan tatabahasa dan pendek untuk ayat yang panjang sambil mengekalkan maklumat yang paling penting.", "Pemampatan ayat adalah tugas memampatkan ayat panjang, ayat Verbose menjadi pendek, ringkas."]}, {"en": ["We used the Moses Decoder, with default settings, to obtain the translations.", "We used the Moseschart Decoder and the Moses Toolkit for tuning and decoding."], "ms": ["Kami telah menggunakan Musa sebagai khalifah untuk menyembah berhala.", "Kami menggunakan Musachart Decoder dan Musa Toolkit untuk penalaan dan penyahkodan."]}, {"en": ["We used Nltk Wordnet Synsets for obtaining the ambiguity of the word.", "To identify content words, we used the Nltk-Lite Tagger to assign a part of speech to each word."], "ms": ["Kami menggunakan Nltk Wordnet Synsets untuk mendapatkan kekaburan perkataan.", "Untuk mengenal pasti perkataan kandungan, kami menggunakan Nltk-Lite Tagger untuk memberikan sebahagian ucapan kepada setiap perkataan."]}, {"en": ["As a Classifier, we employ support vector machines as implemented in SVM light.", "As a Classifier we use an SVM as implemented in SVM light."], "ms": ["Sebagai Classifier, kami menggunakan mesin vektor sokongan seperti yang dilaksanakan dalam cahaya SVM.", "Sebagai Classifier kami menggunakan SVM seperti yang dilaksanakan dalam cahaya SVM."]}, {"en": ["We trained a 4-Gram language model on the Xinhua portion of Gigaword corpus using the Sri language modeling Toolkit with modified Kneser-Ney smoothing.", "We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit."], "ms": ["Kami melatih model bahasa 4-Gram di bahagian Xinhua Gigaword corpus menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit."]}, {"en": ["We Initialize the word Embeddings for our deep learning architecture with the 100-Dimensional glove vectors.", "We Initialize the word Embedding matrix with Pre-Trained glove Embeddings."], "ms": ["Kami Memulakan perkataan Embeddings untuk seni bina pembelajaran mendalam kami dengan vektor sarung tangan 100 dimensi.", "Kami Memulakan perkataan Embedding matrix dengan Embedding sarung tangan Pra-Trained."]}, {"en": ["Zhu et al propose to use a Tree-Based translation model which covers splitting, dropping, reordering and substitution.", "Zhu et al suggest a probabilistic, Syntaxbased approach to text simplification."], "ms": ["Zhu et al mencadangkan untuk menggunakan model terjemahan berasaskan pokok yang meliputi pemisahan, penurunan, penyusunan semula dan penggantian.", "Zhu et al mencadangkan pendekatan probabilistik, Syntax berasaskan kepada penyederhanaan teks."]}, {"en": ["Named entity recognition (NER) is a key technique for Ie and other natural language processing tasks.", "Named entity recognition (NER) is the first step for many tasks in the fields of natural language processing and information Retrieval."], "ms": ["Pengiktirafan entiti yang dinamakan (NER) adalah teknik utama untuk Ie dan tugas pemprosesan bahasa semula jadi yang lain.", "Pengiktirafan entiti yang dinamakan (NER) adalah langkah pertama untuk banyak tugas dalam bidang pemprosesan bahasa semula jadi dan pengambilan maklumat."]}, {"en": ["Word representations, especially Brown clustering, have been shown to improve the performance of NER system when added as a feature.", "Distributed representations for words and sentences have been shown to significantly boost the performance of a Nlp system."], "ms": ["Perwakilan perkataan, terutamanya pengelompokan Brown, telah ditunjukkan untuk meningkatkan prestasi sistem NER apabila ditambah sebagai ciri.", "Perwakilan yang diedarkan untuk perkataan dan ayat telah ditunjukkan untuk meningkatkan prestasi sistem Nlp dengan ketara."]}, {"en": ["For representing words, we used 100 dimensional Pre-Trained glove Embeddings.", "For the sick and Msrvid experiments, we used 300-Dimension glove word Embeddings."], "ms": ["Untuk mewakili perkataan, kami menggunakan 100 dimensi Embedding sarung tangan Pra-Trained.", "Untuk eksperimen yang sakit dan Msrvid, kami menggunakan perkataan sarung tangan 300 Dimensi Embeddings."]}, {"en": ["The translation quality is evaluated by Case-Insensitive Bleu-4.", "Results are reported using Case-Insensitive BLEU with a single reference."], "ms": ["Kualiti terjemahan dinilai oleh Case-Insensitive Bleu-4.", "Keputusan dilaporkan menggunakan Case-Insensitive BLEU dengan rujukan tunggal."]}, {"en": ["A 5-Gram language model with Kneser-Ney smoothing is trained using S-Rilm on the target language.", "A 4-Gram language model is trained on the Monolingual data by Srilm Toolkit."], "ms": ["Model bahasa 5-Gram dengan smoothing Kneser-Ney dilatih menggunakan S-Rilm pada bahasa sasaran.", "Model bahasa 4-Gram dilatih pada data Monolingual oleh Srilm Toolkit."]}, {"en": ["Our system learns word and sentence Embeddings jointly by training a Multilingual Skip-Gram model together with a Cross-Lingual sentence similarity model.", "We learn word and sentence Embeddings jointly by training a Multilingual Skip-Gram model together with a Cross-Lingual sentence similarity model."], "ms": ["Sistem kami mempelajari perkataan dan ayat Embeddings bersama dengan melatih model Skip-Gram Multilingual bersama dengan model persamaan ayat Cross-Lingual.", "Kami belajar perkataan dan ayat Embeddings bersama dengan melatih model Skip-Gram Multilingual bersama dengan model persamaan ayat Cross-Lingual."]}, {"en": ["Srilm Toolkit was used to create up to 5-Gram language models using the mentioned resources.", "The language models are 4-Grams with modified Kneser-Ney smoothing which have been trained with the Srilm Toolkit."], "ms": ["Srilm Toolkit digunakan untuk mencipta model bahasa 5-Gram menggunakan sumber yang disebutkan.", "Model bahasa adalah 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang telah dilatih dengan Srilm Toolkit."]}, {"en": ["Pichotta and Mooney applied a Lstm recurrent neural network, coupled with beam search, to model event sequences and their representations.", "Pichotta and Mooney showed that the Lstm-Based event sequence model outperformed previous Co-Occurrence-Based methods for event prediction."], "ms": ["Pichotta dan Mooney menggunakan rangkaian neural berulang Lstm, ditambah dengan carian rasuk, untuk model urutan peristiwa dan perwakilan mereka.", "Pichotta dan Mooney menunjukkan bahawa model urutan peristiwa berasaskan Lstm mengatasi kaedah berasaskan Co-Occurrence sebelumnya untuk ramalan acara."]}, {"en": ["We trained a specific language model using Srilm from each of these Corpora in order to estimate N-Gram Log-Probabilities.", "We created 5-Gram language models for every domain using Srilm with improved Kneserney smoothing on the target side of the training parallel Corpora."], "ms": ["Kami melatih model bahasa tertentu menggunakan Srilm dari setiap Corpora ini untuk menganggarkan N-Gram Log-Probabilities.", "Kami mencipta model bahasa 5-Gram untuk setiap domain menggunakan Srilm dengan lancar Kneserney yang lebih baik di sisi sasaran latihan selari Corpora."]}, {"en": ["We achieve this by following Goldberg and Nivre in using a dynamic Oracle to create partially labelled training data.", "We follow Honnibal et al in using the dynamic Oracle-Based Search-And-Learn training strategy introduced by Goldberg and Nivre."], "ms": ["Kami mencapai ini dengan mengikuti Goldberg dan Nivre dalam menggunakan Oracle dinamik untuk mencipta data latihan berlabel sebahagiannya.", "Kami mengikuti Honnibal et al dalam menggunakan strategi latihan Oracle-Based Search-And-Learn dinamik yang diperkenalkan oleh Goldberg dan Nivre."]}, {"en": ["Our model is a first order linear chain conditional random field.", "We trained Linear-Chain conditional random fields as the baseline."], "ms": ["Model kami adalah medan rawak bersyarat rantai linear pesanan pertama.", "Kami melatih medan rawak bersyarat Linear-Chain sebagai garis dasar."]}, {"en": ["The state of the art suggests that the use of heterogeneous measures can improve the evaluation reliability.", "Improvements with additional measures always increases the overall reliability of the evaluation process."], "ms": ["Keadaan seni menunjukkan bahawa penggunaan langkah-langkah heterogen dapat meningkatkan kebolehpercayaan penilaian.", "Peningkatan dengan langkah-langkah tambahan sentiasa meningkatkan kebolehpercayaan keseluruhan proses penilaian."]}, {"en": ["The Penn discourse Treebank is the largest available Discourseannotated resource in English.", "Major discourse Annotated resources in English include the Rst Treebank and the Penn discourse Treebank."], "ms": ["Penn discourse Treebank adalah sumber Discourseannotated yang terbesar dalam bahasa Inggeris.", "Wacana utama Sumber-sumber yang diberi perhatian dalam bahasa Inggeris termasuk Rst Treebank dan Penn discourse Treebank."]}, {"en": ["Relation extraction is the task of predicting semantic relations over entities expressed in structured or Semi-Structured text.", "Relation extraction (re) is the task of recognizing the assertion of a particular relationship between two or more entities in text."], "ms": ["Pengekstrakan hubungan adalah tugas meramalkan hubungan semantik ke atas entiti yang dinyatakan dalam teks berstruktur atau Semi-Structured.", "Pengekstrakan hubungan (re) adalah tugas untuk mengiktiraf penegasan hubungan tertentu antara dua atau lebih entiti dalam teks."]}, {"en": ["The Nnlm weights are Optimized as the other feature weights using minimum error rate training.", "The Log-Linear parameter weights are tuned with Mert on the development set."], "ms": ["Berat Nnlm dioptimumkan sebagai berat ciri lain menggunakan latihan kadar ralat minimum.", "Berat parameter Log-Linear ditala dengan Mert pada set pembangunan."]}, {"en": ["The Srilm Toolkit is used to train 5-Gram language model.", "We apply Srilm to train the 3-Gram language model of target side."], "ms": ["Srilm Toolkit digunakan untuk melatih model bahasa 5-Gram.", "Kami menggunakan Srilm untuk melatih model bahasa 3-Gram dari sisi sasaran."]}, {"en": ["Sarcasm is a sophisticated speech act which commonly Manifests on social communities such as Twitter and Reddit.", "Since sarcasm is a refined and indirect form of speech, its interpretation may be challenging for certain populations."], "ms": ["Sarcasm adalah tindakan ucapan yang canggih yang biasanya Manifests pada komuniti sosial seperti Twitter dan Reddit.", "Oleh kerana sindiran adalah bentuk ucapan yang halus dan tidak langsung, tafsirannya mungkin mencabar bagi populasi tertentu."]}, {"en": ["According to Lakoff and Johnson, metaphors are cognitive Mappings of concepts from a source to a target domain.", "According to Lakoff and Johnson, humans use one concept in metaphors to describe another concept for reasoning and communication."], "ms": ["Menurut Lakoff dan Johnson, metafora adalah pemetaan kognitif konsep dari sumber ke domain sasaran.", "Menurut Lakoff dan Johnson, manusia menggunakan satu konsep dalam metafora untuk menggambarkan konsep lain untuk penalaran dan komunikasi."]}, {"en": ["Twitter is a huge Microbloging service with more than 500 million Tweets per day 1 from different locations in the world and in different languages.", "Twitter is the medium where people post real time messages to discuss on the different topics, and express their sentiments."], "ms": ["Twitter adalah perkhidmatan Microbloging yang besar dengan lebih daripada 500 juta Tweets setiap hari 1 dari lokasi yang berbeza di dunia dan dalam bahasa yang berbeza.", "Twitter adalah media di mana orang menghantar mesej masa nyata untuk membincangkan topik yang berbeza, dan menyatakan sentimen mereka."]}, {"en": ["Transliteration is the task of converting a word from one writing script to another, usually based on the phonetics of the original word.", "Transliteration is a process of translating a foreign word into a native language by preserving its Pronunciation in the original language, otherwise known as Translationby-Sound."], "ms": ["Transliterasi adalah tugas menukar perkataan dari satu skrip penulisan ke yang lain, biasanya berdasarkan fonetik perkataan asal.", "Transliterasi adalah proses menterjemahkan perkataan asing ke dalam bahasa ibunda dengan memelihara sebutannya dalam bahasa asal, atau dikenali sebagai Translationby-Sound."]}, {"en": ["Metaphor is a natural consequence of our ability to reason by analogy (Cite-P-16-1-12).", "Linguistically, metaphor is defined as a language expression that uses one or several words to represent another concept, rather than taking their literal meanings of the given words in the context (Cite-P-14-1-6)."], "ms": ["Metafora adalah akibat semula jadi keupayaan kita untuk membuat alasan dengan analogi (Cite-P-16-1-12).", "Secara linguistik, metafora ditakrifkan sebagai ungkapan bahasa yang menggunakan satu atau beberapa perkataan untuk mewakili konsep lain, dan bukannya mengambil makna harfiah mereka dari perkataan yang diberikan dalam konteks (Cite-P-14-1-6)."]}, {"en": ["Furthermore, we train a 5-Gram language model using the Sri language Toolkit.", "We used Kenlm with Srilm to train a 5-Gram language model based on all available target language training data."], "ms": ["Tambahan pula, kami melatih model bahasa 5-Gram menggunakan Toolkit bahasa Sri.", "Kami menggunakan Kenlm dengan Srilm untuk melatih model bahasa 5-Gram berdasarkan semua data latihan bahasa sasaran yang ada."]}, {"en": ["Morphological analysis is a staple of natural language processing for broad languages.", "Morphological analysis is the first step for most natural language processing applications."], "ms": ["Analisis morfologi adalah pokok pemprosesan bahasa semula jadi untuk bahasa yang luas.", "Analisis morfologi adalah langkah pertama untuk kebanyakan aplikasi pemprosesan bahasa semula jadi."]}, {"en": ["We Initialize the Embedding weights by the Pre-Trained word Embeddings with 200 dimensional vectors.", "We use Pre-Trained glove vector for Initialization of word Embeddings."], "ms": ["Kami Memulakan berat Embedding oleh perkataan Pra-Trained Embeddings dengan 200 vektor dimensi.", "Kami menggunakan vektor sarung tangan pra-latihan untuk Permulaan Embedding perkataan."]}, {"en": ["We used the 200-Dimensional word vectors for Twitter produced by glove.", "For representing words, we used 100 dimensional Pre-Trained glove Embeddings."], "ms": ["Kami menggunakan vektor perkataan 200 dimensi untuk Twitter yang dihasilkan oleh sarung tangan.", "Untuk mewakili perkataan, kami menggunakan 100 dimensi Embedding sarung tangan Pra-Trained."]}, {"en": ["The BLEU, Rouge and Ter scores by comparing the abstracts before and after human editing are presented in Table 5.", "Exact BLEU and Ter scores of the optimum on Dev and the baseline are given in Table 2."], "ms": ["Skor BLEU, Rouge dan Ter dengan membandingkan abstrak sebelum dan selepas penyuntingan manusia dibentangkan dalam Jadual 5.", "Skor BLEU dan Ter yang tepat optimum pada Dev dan garis dasar diberikan dalam Jadual 2."]}, {"en": ["The challenge is to enforce the One-To-One topic correspondence.", "In which a One-To-One topic correspondence is enforced between the LSA models."], "ms": ["Cabarannya ialah untuk menguatkuasakan surat-menyurat topik Satu-Ke-Satu.", "Di mana surat-menyurat topik Satu-Ke-Satu dikuatkuasakan antara model LSA."]}, {"en": ["Sometimes a noun can refer to the entity denoted by a noun that has a different modifier.", "Noun phrase can refer to the entity denoted by a noun phrase that has already appeared."], "ms": ["Kadang-kadang kata nama boleh merujuk kepada entiti yang ditandakan oleh kata nama yang mempunyai pengubah yang berbeza.", "Ungkapan kata nama boleh merujuk kepada entiti yang ditandakan dengan frasa kata nama yang telah muncul."]}, {"en": ["In this paper, we propose a variant of Annotation scheme for uncertainty identification and construct the first uncertainty corpus based on Tweets.", "In this paper, we propose a novel uncertainty classification scheme and construct the first uncertainty corpus based on social media data \u00a8C Tweets in specific."], "ms": ["Dalam makalah ini, kami mencadangkan varian skema Annotasi untuk pengenalan ketidakpastian dan membina korpus ketidakpastian pertama berdasarkan Tweets.", "Dalam makalah ini, kami mencadangkan skema klasifikasi ketidakpastian novel dan membina korpus ketidakpastian pertama berdasarkan data media sosial C Tweets secara khusus."]}, {"en": ["We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing.", "For this language model, we built a Trigram language model with Kneser-Ney smoothing using Srilm from the same automatically Segmented corpus."], "ms": ["Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai.", "Untuk model bahasa ini, kami membina model bahasa Trigram dengan smoothing Kneser-Ney menggunakan Srilm dari korpus Segmen yang sama secara automatik."]}, {"en": ["Our experimental results show that this approach can accurately predict missing topic preferences of users accurately (80\u00a8C94 %).", "Through our experimental results, we demonstrated that our approach was able to accurately predict missing topic preferences of users (80 \u00a8C 94 %)."], "ms": ["Hasil eksperimen kami menunjukkan bahawa pendekatan ini dapat meramalkan keutamaan topik yang hilang dengan tepat pengguna (80 C 94%).", "Melalui hasil eksperimen kami, kami menunjukkan bahawa pendekatan kami dapat meramalkan keutamaan topik pengguna yang hilang dengan tepat (80 C 94 %)."]}, {"en": ["We use the Wn similarity Jcn score since this gave reasonable results for and it is efficient at run time given Precompilation of frequency information.", "We use the Wn similarity Jcn score on nouns since this gave reasonable results for McCarthy et al and it is efficient at run time given Precompilation of frequency information."], "ms": ["Kami menggunakan skor Wn persamaan Jcn kerana ini memberikan hasil yang munasabah dan ia berkesan pada masa berjalan memandangkan penyusunan maklumat frekuensi.", "Kami menggunakan skor Wn persamaan Jcn pada kata nama kerana ini memberikan hasil yang munasabah untuk McCarthy et al dan ia cekap pada masa berjalan memandangkan penyusunan maklumat frekuensi."]}, {"en": ["Text Categorization is a classical text information processing task which has been studied adequately (Cite-P-18-1-9).", "Text Categorization is the classification of documents with respect to a set of predefined categories."], "ms": ["Teks Categorization adalah tugas pemprosesan maklumat teks klasik yang telah dikaji dengan secukupnya (Cite-P-18-1-9).", "Categorization Teks adalah pengelasan dokumen berkenaan dengan satu set kategori yang telah ditetapkan."]}, {"en": ["Coreference resolution is the task of automatically grouping references to the same Real-World entity in a document into a set.", "Coreference resolution is the task of partitioning a set of mentions (I.E . person, organization and location) into entities."], "ms": ["Resolusi spatial adalah tugas untuk mengumpulkan rujukan secara automatik ke entiti Dunia Nyata yang sama dalam dokumen ke dalam satu set.", "Resolusi spatial adalah tugas pembahagian satu set sebutan (I.E. orang, organisasi dan lokasi) ke dalam entiti."]}, {"en": ["Wiebe et al analyze linguistic Annotator agreement Statistics to find bias, and use a similar model to correct labels.", "Wiebe et al use statistical methods to automatically correct the biases in Annotations of Speaker subjectivity."], "ms": ["Wiebe et al menganalisis statistik perjanjian Annotator linguistik untuk mencari bias, dan menggunakan model yang sama untuk membetulkan label.", "Wiebe et al menggunakan kaedah statistik untuk membetulkan bias secara automatik dalam Anotasi subjektiviti Speaker."]}, {"en": ["Text classification is a crucial and Well-Proven method for organizing the collection of large scale documents.", "Text classification is a Well-Studied problem in machine learning, natural language processing, and information Retrieval."], "ms": ["Pengelasan teks adalah kaedah penting dan terbukti untuk mengatur pengumpulan dokumen berskala besar.", "Pengelasan teks adalah masalah yang dikaji dengan baik dalam pembelajaran mesin, pemprosesan bahasa semula jadi, dan pengambilan maklumat."]}, {"en": ["Conditional random fields are a type of Discriminative probabilistic model proposed for labeling sequential data.", "Conditional random fields are a class of Undirected graphical models with Exponent distribution."], "ms": ["Medan rawak bersyarat adalah sejenis model kebarangkalian Diskriminatif yang dicadangkan untuk melabel data berurutan.", "Medan rawak bersyarat adalah kelas model grafik Tidak diarahkan dengan pengedaran Eksponen."]}, {"en": ["We evaluate our proposed technique on a benchmark Dataset of Semeval-2017 shared task on financial sentiment analysis.", "We use Datasets of Semeval-2017 \u2018 fine-grained sentiment analysis on financial Microblogs and news \u2019 shared task."], "ms": ["Kami menilai teknik yang dicadangkan kami pada Dataset penanda aras Semeval-2017 tugas bersama mengenai analisis sentimen kewangan.", "Kami menggunakan Dataset Semeval-2017 analisis sentimen halus pada Microblogs kewangan dan berita tugas bersama."]}, {"en": ["Semantic Parsing is the task of converting natural language utterances into their complete formal meaning representations which are Executable for some application.", "Semantic Parsing is the task of mapping natural language sentences to a formal representation of meaning."], "ms": ["Penghuraian Semantik adalah tugas menukar ucapan bahasa semula jadi menjadi perwakilan makna formal lengkap mereka yang boleh dilaksanakan untuk beberapa aplikasi.", "Penghuraian Semantik adalah tugas pemetaan ayat bahasa semula jadi kepada perwakilan makna formal."]}, {"en": ["As a strong baseline, we trained the Skip-Gram model of Mikolov et al using the publicly available Word2Vec 5 software.", "Our second method is based on the recurrent neural network language model approach to learning word Embeddings of Mikolov et al and Mikolov et al, using the Word2Vec package."], "ms": ["Sebagai asas yang kuat, kami melatih model Skip-Gram Mikolov et al menggunakan perisian Word2Vec 5 yang tersedia secara terbuka.", "Kaedah kedua kami adalah berdasarkan pendekatan model bahasa rangkaian neural berulang untuk mempelajari Embedding perkataan Mikolov et al dan Mikolov et al, menggunakan pakej Word2Vec."]}, {"en": ["To do this we examine the Dataset created for the English lexical substitution task in Semeval.", "We derive our gold standard from the Semeval 2007 lexical substitution task Dataset."], "ms": ["Untuk melakukan ini, kami mengkaji Dataset yang dicipta untuk tugas penggantian leksikal Inggeris di Semeval.", "Kami memperoleh standard emas kami dari Dataset tugas penggantian leksikal Semeval 2007."]}, {"en": ["Following, we minimize the objective by the diagonal variant of Adagrad with Minibatchs.", "To minimize the objective, we use stochastic gradient descent with the diagonal variant of Adagrad."], "ms": ["Seterusnya, kami meminimumkan objektif oleh varian pepenjuru Adagrad dengan Minibatchs.", "Untuk meminimumkan objektif, kita menggunakan keturunan kecerunan stokastik dengan varian pepenjuru Adagrad."]}, {"en": ["Our system is based on the Phrase-Based part of the statistical machine translation system Moses.", "We ran mt experiments using the Moses Phrase-Based translation system."], "ms": ["Sistem kami adalah berdasarkan bahagian berasaskan frasa sistem terjemahan mesin statistik Moses.", "Kami menjalankan eksperimen mt menggunakan sistem terjemahan berasaskan frasa Musa."]}, {"en": ["We applied a supervised Machine-Learning approach, based on conditional random fields.", "We trained Linear-Chain conditional random fields as the baseline."], "ms": ["Kami menggunakan pendekatan pembelajaran mesin yang diawasi, berdasarkan medan rawak bersyarat.", "Kami melatih medan rawak bersyarat Linear-Chain sebagai garis dasar."]}, {"en": ["We use the Mallet implementation of conditional random fields.", "For simplicity, we use the well-known conditional random fields for sequential labeling."], "ms": ["Kami menggunakan pelaksanaan Mallet medan rawak bersyarat.", "Untuk kesederhanaan, kami menggunakan medan rawak bersyarat yang terkenal untuk pelabelan berurutan."]}, {"en": ["Rambow et al proposed a sentence extraction summarization approach for Email threads.", "Rambow et al addressed the challenge of summarizing entire threads by treating it as a Binary sentence classification task."], "ms": ["Rambow et al mengusulkan pendekatan summarisasi ekstraksi ayat untuk utas E-mel.", "Rambow et al menangani cabaran meringkaskan keseluruhan benang dengan menganggapnya sebagai tugas pengelasan ayat binari."]}, {"en": ["Culotta and Sorensen extended this work to estimate similarity between augmented dependency trees.", "This tree kernel was slightly generalized by Culotta and Sorensen to compute similarity between two dependency trees."], "ms": ["Culotta dan Sorensen melanjutkan kerja ini untuk menganggarkan persamaan antara pokok dependensi tambahan.", "Kernel pokok ini sedikit digeneralisasikan oleh Culotta dan Sorensen untuk mengira persamaan antara dua pokok dependensi."]}, {"en": ["Twitter is a popular Microblogging service which provides real-time information on events happening across the world.", "Twitter is a rich resource for information about everyday events \u2013 people post their Tweets to Twitter publicly in real-time as they conduct their activities throughout the day, resulting in a significant amount of mundane information about common events."], "ms": ["Twitter adalah perkhidmatan Microblogging yang popular yang menyediakan maklumat masa nyata mengenai peristiwa yang berlaku di seluruh dunia.", "Twitter adalah sumber yang kaya untuk maklumat mengenai peristiwa sehari-hari - orang menghantar Tweet mereka ke Twitter secara terbuka dalam masa nyata kerana mereka menjalankan aktiviti mereka sepanjang hari, menghasilkan sejumlah besar maklumat biasa mengenai peristiwa biasa."]}, {"en": ["Domain adaptation is a challenge for NER and other Nlp applications.", "Domain adaptation is a common concern when optimizing empirical Nlp applications."], "ms": ["Penyesuaian domain adalah cabaran untuk aplikasi NER dan Nlp lain.", "Penyesuaian domain adalah kebimbangan umum apabila mengoptimumkan aplikasi Nlp empirikal."]}, {"en": ["We implemented the different Aes models using Scikit-Learn.", "For data preparation and processing we use Scikit-Learn."], "ms": ["Kami melaksanakan model Aes yang berbeza menggunakan Scikit-Learn.", "Untuk penyediaan dan pemprosesan data, kami menggunakan Scikit-Learn."]}, {"en": ["Part-Of-Speech tagging is the Act of assigning each word in a sentence a tag that describes how that word is used in the sentence.", "Part-Of-Speech tagging is the process of assigning to a word the category that is most probable given the Sentential context (Cite-P-4-1-2)."], "ms": ["Penandaan Part-Of-Speech adalah Akta menetapkan setiap perkataan dalam ayat tag yang menerangkan bagaimana perkataan itu digunakan dalam ayat.", "Penandaan Part-Of-Speech adalah proses menetapkan perkataan kategori yang paling mungkin diberikan konteks Sentential (Cite-P-4-1-2)."]}, {"en": ["We use the collapsed tree formalism of the Stanford dependency Parser.", "We extract the corresponding feature from the output of the Stanford Parser."], "ms": ["Kami menggunakan formalisme pokok runtuh dari Stanford dependency Parser.", "Kami mengekstrak ciri yang sepadan dari output Stanford Parser."]}, {"en": ["Combinatory Categorial grammar Ccg is a Categorial formalism that provides a transparent interface between syntax and Semantics, Steedman , 1996, Steedman , 2000.", "Ccgs are a Linguistically-Motivated formalism for modeling a wide range of language phenomena, Steedman , 1996, Steedman , 2000."], "ms": ["Tatabahasa Categorial Kombinatorial Ccg ialah formalisme Categorial yang menyediakan antara muka yang telus antara sintaks dan Semantik, Steedman, 1996, Steedman, 2000.", "Ccgs adalah formalisme yang bermotivasi linguistik untuk memodelkan pelbagai fenomena bahasa, Steedman, 1996, Steedman, 2000."]}, {"en": ["We use different Pretrained word Embeddings such as glove 1 and Fasttext 2 as the initial word Embeddings.", "We employ the glove and Node2Vec to generate the Pre-Trained word Embedding, obtaining two distinct Embedding for each word."], "ms": ["Kami menggunakan perkataan Pretrained Embeddings yang berbeza seperti sarung tangan 1 dan Fasttext 2 sebagai perkataan awal Embeddings.", "Kami menggunakan sarung tangan dan Node2Vec untuk menghasilkan Embedding perkataan Pra-Latih, memperoleh dua Embedding yang berbeza untuk setiap perkataan."]}, {"en": ["Named entity recognition (NER) is the task of detecting named entity mentions in text and assigning them to their corresponding type.", "Named entity recognition (NER) is a well-known problem in Nlp which feeds into many other related tasks such as information Retrieval (Ir) and machine translation (mt) and more recently social network discovery and opinion mining."], "ms": ["Pengecaman entiti dinamakan (NER) adalah tugas mengesan sebutan entiti yang dinamakan dalam teks dan menugaskannya kepada jenis yang sepadan.", "Pengiktirafan entiti yang dinamakan (NER) adalah masalah yang terkenal di Nlp yang memakan banyak tugas lain yang berkaitan seperti pengambilan maklumat (Ir) dan terjemahan mesin (mt) dan penemuan rangkaian sosial dan perlombongan pendapat baru-baru ini."]}, {"en": ["Word sense Disambiguation (Wsd) is a widely studied task in natural language processing: given a word and its context, assign the correct sense of the word based on a predefined sense inventory (Cite-P-15-3-4).", "Word sense Disambiguation (Wsd) is the task to identify the intended sense of a word in a computational manner based on the context in which it appears (Cite-P-13-3-4)."], "ms": ["Disambiguasi deria perkataan (Wsd) adalah tugas yang dikaji secara meluas dalam pemprosesan bahasa semula jadi: diberikan perkataan dan konteksnya, memberikan rasa yang betul perkataan berdasarkan inventori deria yang telah ditetapkan (Cite-P-15-3-4).", "Disambiguasi erti kata (Wsd) adalah tugas untuk mengenal pasti pengertian perkataan yang dimaksudkan dengan cara pengiraan berdasarkan konteks di mana ia muncul (Cite-P-13-3-4)."]}, {"en": ["To exploit these kind of labeling constraints, we resort to conditional random fields.", "In particular, we consider conditional random fields and a variation of Autoslog."], "ms": ["Untuk mengeksploitasi kekangan pelabelan seperti ini, kami menggunakan medan rawak bersyarat.", "Khususnya, kita mempertimbangkan medan rawak bersyarat dan variasi Autoslog."]}, {"en": ["Word Segmentation is a fundamental task for Chinese language processing.", "Therefore, word Segmentation is a crucial first step for many Chinese language processing tasks such as syntactic Parsing, information Retrieval and machine translation."], "ms": ["Segmentasi perkataan adalah tugas asas untuk pemprosesan bahasa Cina.", "Oleh itu, Segmentasi perkataan adalah langkah pertama yang penting untuk banyak tugas pemprosesan bahasa Cina seperti Penghuraian sintaktik, Pengambilan maklumat dan terjemahan mesin."]}, {"en": ["We used the Sri language modeling Toolkit with Kneser-Kney smoothing.", "We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit."], "ms": ["Kami menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Kney.", "Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit."]}, {"en": ["We use the Pre-Trained glove vectors to Initialize word Embeddings.", "We use Pre-Trained vectors from glove for Word-Level Embeddings."], "ms": ["Kami menggunakan vektor sarung tangan Pra-Latih untuk Memulakan Embedding perkataan.", "Kami menggunakan vektor Pra-Trained dari sarung tangan untuk Embeddings Peringkat Perkataan."]}, {"en": ["We used the Srilm Toolkit to train a 4-Gram language model on the Xinhua portion of the Gigaword corpus, which contains 238M English words.", "We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit."], "ms": ["Kami menggunakan Srilm Toolkit untuk melatih model bahasa 4-Gram di bahagian Xinhua dari Gigaword corpus, yang mengandungi 238M perkataan Inggeris.", "Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit."]}, {"en": ["Named entity recognition (NER) is the task of identifying named entities in free Text\u2014Typically personal names, organizations, Gene-Protein entities, and so on.", "Named entity recognition (NER) is the task of identifying and typing phrases that contain the names of persons, organizations, locations, and so on."], "ms": ["Pengecaman entiti dinamakan (NER) adalah tugas mengenal pasti entiti yang dinamakan dalam nama peribadi, organisasi, entiti Gene-Protein, dan sebagainya.", "Pengiktirafan entiti yang dinamakan (NER) adalah tugas mengenal pasti dan menaip frasa yang mengandungi nama orang, organisasi, lokasi, dan sebagainya."]}, {"en": ["Our Cdsm feature is based on word vectors derived using a Skip-Gram model.", "We use the Word2Vec tool with the Skip-Gram learning scheme."], "ms": ["Ciri Cdsm kami adalah berdasarkan vektor perkataan yang diperolehi menggunakan model Skip-Gram.", "Kami menggunakan alat Word2Vec dengan skema pembelajaran Skip-Gram."]}, {"en": ["To generate dependency links, we use the Stanford Pos Tagger 18 and the malt Parser.", "We also extract Subject-Verbobject event representations, using the Stanford Partof-Speech Tagger and Maltparser."], "ms": ["Untuk menjana pautan dependensi, kami menggunakan Stanford Pos Tagger 18 dan malt Parser.", "Kami juga mengekstrak perwakilan acara Subjek-Verbobject, menggunakan Stanford Partof-Speech Tagger dan Maltparser."]}, {"en": ["The Scaling factors are tuned with Mert with BLEU as optimization criterion on the development sets.", "These parameters are tuned using Mert algorithm on development data using a criterion of accuracy maximization."], "ms": ["Faktor Skala diselaraskan dengan Mert dengan BLEU sebagai kriteria pengoptimuman pada set pembangunan.", "Parameter ini ditala menggunakan algoritma Mert pada data pembangunan menggunakan kriteria pemaksiman ketepatan."]}, {"en": ["Relation extraction (re) has been defined as the task of identifying a given set of semantic Binary relations in text.", "Relation extraction is a challenging task in natural language processing."], "ms": ["Pengekstrakan hubungan (re) telah ditakrifkan sebagai tugas mengenal pasti set hubungan semantik yang diberikan dalam teks.", "Pengekstrakan hubungan adalah tugas yang mencabar dalam pemprosesan bahasa semula jadi."]}, {"en": ["The Treebank consists of approximately 30,000 sentences Annotated with syntactic roles in addition to Morphosyntactic features.", "The Treebank consists of poems from the tang dynasty (618 \u2013 907 Ce), considered one of the crowning achievements in traditional Chinese literature."], "ms": ["Treebank terdiri daripada kira-kira 30,000 ayat yang diberi nama peranan sintaksis sebagai tambahan kepada ciri-ciri Morfosintaktik.", "Treebank terdiri daripada puisi dari dinasti tang (618 907 Ce), dianggap sebagai salah satu pencapaian mahkota dalam kesusasteraan tradisional Cina."]}, {"en": ["In our implementation, we use the Binary SVM light developed by Joachims.", "For these Implementations, we use Mallet and Svm-Light package 3."], "ms": ["Dalam pelaksanaan kami, kami menggunakan cahaya SVM binari yang dibangunkan oleh Joachims.", "Untuk Pelaksanaan ini, kami menggunakan pakej Mallet dan Svm-Light 3."]}, {"en": ["The probability of a word is governed by its latent topic, which is modeled as a categorical distribution in Lda.", "In the conditional distribution of a word, it is not only influenced by its context words, but also by a topic, which is an Embedding vector."], "ms": ["Kebarangkalian perkataan ditadbir oleh topik terpendamnya, yang dimodelkan sebagai pengedaran kategori dalam Lda.", "Dalam pengedaran bersyarat perkataan, ia bukan sahaja dipengaruhi oleh perkataan konteksnya, tetapi juga oleh topik, yang merupakan vektor Embedding."]}, {"en": ["We implement the Pbsmt system with the Moses Toolkit.", "We use the popular Moses Toolkit to build the Smt system."], "ms": ["Kita melaksanakan sistem Pbsmt dengan Musa Toolkit.", "Kami menggunakan Musa Toolkit yang popular untuk membina sistem Smt."]}, {"en": ["To optimize model parameters, we use the Adagrad algorithm of Duchi et al with L2 Regularization.", "We use stochastic gradient descent with Adagrad, L 2 Regularization and Minibatch training."], "ms": ["Untuk mengoptimumkan parameter model, kami menggunakan algoritma Adagrad Duchi et al dengan L2 Regularization.", "Kami menggunakan keturunan kecerunan stokastik dengan latihan Adagrad, L 2 Regularization dan Minibatch."]}, {"en": ["We use word Embedding Pre-Trained on Newswire with 300 dimensions from Word2Vec.", "We use Word2Vec tool for learning distributed word Embeddings."], "ms": ["Kami menggunakan perkataan Embedding Pre-Trained pada Newswire dengan 300 dimensi dari Word2Vec.", "Kami menggunakan alat Word2Vec untuk pembelajaran Embedding perkataan yang diedarkan."]}, {"en": ["Lda is a representative probabilistic topic model of document collections.", "Rel-Lda is an application of the Lda topic model to the relation discovery task."], "ms": ["Lda adalah model topik probabilistik perwakilan koleksi dokumen.", "Rel-Lda adalah aplikasi model topik Lda untuk tugas penemuan hubungan."]}, {"en": ["We use the Adagrad algorithm to optimize the conditional, marginal Log-Likelihood of the data.", "We instead use Adagrad, a variant of stochastic gradient descent in which the learning rate is adapted to the data."], "ms": ["Kami menggunakan algoritma Adagrad untuk mengoptimumkan Log-Likelihood data yang bersyarat dan marginal.", "Kami sebaliknya menggunakan Adagrad, varian keturunan kecerunan stokastik di mana kadar pembelajaran disesuaikan dengan data."]}, {"en": ["We adopt Berkeley Parser 1 to train our Sub-Models.", "We Parsed all Corpora using the Berkeley Parser."], "ms": ["Kami menggunakan Berkeley Parser 1 untuk melatih Sub-Model kami.", "Kami menghuraikan semua Corpora menggunakan Berkeley Parser."]}, {"en": ["Conditional random fields are Discriminative structured classification models for sequential tagging and Segmentation.", "Conditional random fields are Undirected graphical models trained to maximize a conditional probability."], "ms": ["Medan rawak bersyarat adalah model klasifikasi berstruktur Discriminatif untuk penandaan berurutan dan Segmentasi.", "Medan rawak bersyarat adalah model grafik tidak diarahkan yang dilatih untuk memaksimumkan kebarangkalian bersyarat."]}, {"en": ["We obtained distributed word representations using Word2Vec 4 with Skip-Gram.", "We Initialize our word vectors with 300-Dimensional Word2Vec word Embeddings."], "ms": ["Kami memperoleh perwakilan perkataan yang diedarkan menggunakan Word2Vec 4 dengan Skip-Gram.", "Kami Memulakan vektor perkataan kami dengan Embedding perkataan 300-Dimensional Word2Vec."]}, {"en": ["For the Actioneffect Embedding model, we use Pre-Trained glove word Embeddings as input to the Lstm.", "For the neural models, we use 100-Dimensional glove Embeddings, Pre-Trained on Wikipedia and Gigaword."], "ms": ["Untuk model Embedding Kesan Tindakan, kami menggunakan Embedding perkataan sarung tangan Pra-Latih sebagai input ke Lstm.", "Untuk model neural, kami menggunakan Embedding sarung tangan 100-Dimensional, Pra-Trained di Wikipedia dan Gigaword."]}, {"en": ["The special difficulty of this task is the length disparity between the two semantic comparison texts.", "The special difficulty of this task is the length disparity between the compared pair."], "ms": ["Kesukaran khas tugas ini adalah perbezaan panjang antara dua teks perbandingan semantik.", "Kesukaran khas tugas ini adalah perbezaan panjang antara pasangan yang dibandingkan."]}, {"en": ["This is effectively what Bilmes and Kirchhoff did in Generalizing N-Gram language models to factored language models.", "Bilmes and Kirchhoff generalize Lattice-Based language models further by allowing arbitrary factors in addition to words and classes."], "ms": ["Ini adalah berkesan apa yang Bilmes dan Kirchhoff lakukan dalam Generalizing N-Gram model bahasa kepada model bahasa yang difaktorkan.", "Bilmes dan Kirchhoff menggeneralisasikan model bahasa Lattice-Based dengan membenarkan faktor-faktor sewenang-wenangnya selain perkataan dan kelas."]}, {"en": ["Coreference resolution is the task of clustering a sequence of textual entity mentions into a set of maximal Non-Overlapping clusters, such that mentions in a cluster refer to the same discourse entity.", "Coreference resolution is the task of grouping all the mentions of entities 1 in a document into equivalence classes so that all the mentions in a given class refer to the same discourse entity."], "ms": ["Resolusi spatial adalah tugas untuk mengelompokkan urutan sebutan entiti teks ke dalam satu set kluster Non-Overlapping maksima, seperti sebutan dalam kluster merujuk kepada entiti wacana yang sama.", "Resolusi spatial adalah tugas untuk mengumpulkan semua sebutan entiti 1 dalam dokumen ke dalam kelas kesetaraan supaya semua sebutan dalam kelas tertentu merujuk kepada entiti wacana yang sama."]}, {"en": ["To compensate this Shortcoming, we performed smoothing of the phrase table using the Good-Turing smoothing technique.", "To alleviate this Shortcoming, we performed smoothing of the phrase table using the Good-Turing smoothing technique."], "ms": ["Untuk mengimbangi Shortcoming ini, kami melakukan smoothing jadual frasa menggunakan teknik smoothing Good-Turing.", "Untuk mengurangkan Shortcoming ini, kami melakukan smoothing jadual frasa menggunakan teknik smoothing Good-Turing."]}, {"en": ["For this reason, previous work often included qualitative analyses and carefully defined Heuristics to address these problems.", "Previous works illustrated the need for qualitative analysis to identify error sources."], "ms": ["Atas sebab ini, kerja terdahulu sering termasuk analisis kualitatif dan Heuristik yang ditakrifkan dengan teliti untuk menangani masalah ini.", "Kerja-kerja terdahulu menggambarkan keperluan untuk analisis kualitatif untuk mengenal pasti sumber ralat."]}, {"en": ["We use a conditional random field sequence model, which allows for globally optimal training and decoding.", "For simplicity, we use the well-known conditional random fields for sequential labeling."], "ms": ["Kami menggunakan model urutan medan rawak bersyarat, yang membolehkan latihan dan penyahkodan optimum di seluruh dunia.", "Untuk kesederhanaan, kami menggunakan medan rawak bersyarat yang terkenal untuk pelabelan berurutan."]}, {"en": ["We use Binary Cross-Entropy as the objective function and the Adam optimization algorithm with the parameters suggested by Kingma and BA for training the network.", "We train each model on the training set for 10 Epochs using Word-Level Log-Likelihood, Minibatches of size 50, and the Adam optimization method with the default parameters suggested by Kingma and BA."], "ms": ["Kami menggunakan Binary Cross-Entropy sebagai fungsi objektif dan algoritma pengoptimuman Adam dengan parameter yang dicadangkan oleh Kingma dan BA untuk melatih rangkaian.", "Kami melatih setiap model pada set latihan untuk 10 Epoch menggunakan Word-Level Log-Likelihood, Minibatches saiz 50, dan kaedah pengoptimuman Adam dengan parameter lalai yang dicadangkan oleh Kingma dan BA."]}, {"en": ["Coreference resolution is the process of determining whether two expressions in natural language refer to the same entity in the world.", "Coreference resolution is the task of determining which mentions in a text are used to refer to the same Real-World entity."], "ms": ["Resolusi spatial adalah proses menentukan sama ada dua ungkapan dalam bahasa semula jadi merujuk kepada entiti yang sama di dunia.", "Resolusi spatial adalah tugas menentukan sebutan mana dalam teks yang digunakan untuk merujuk kepada entiti Dunia Nyata yang sama."]}, {"en": ["We train the model using the Adam Optimizer with the default hyper parameters.", "For all tasks, we use the Adam Optimizer to train models, and the Relu activation function for fast calculation."], "ms": ["Kami melatih model menggunakan Adam Optimizer dengan parameter hiper lalai.", "Untuk semua tugas, kami menggunakan Adam Optimizer untuk melatih model, dan fungsi pengaktifan Relu untuk pengiraan pantas."]}, {"en": ["Sentiment classification is the task of classifying an opinion document as expressing a positive or negative sentiment.", "Sentiment classification is a very Domain-Specific problem; training a Classifier using the data from one domain may fail when testing against data from another."], "ms": ["Klasifikasi sentimen adalah tugas mengklasifikasikan dokumen pendapat sebagai menyatakan sentimen positif atau negatif.", "Klasifikasi sentimen adalah masalah yang sangat Domain-Specific; melatih pengelas menggunakan data dari satu domain mungkin gagal apabila menguji terhadap data dari domain lain."]}, {"en": ["We used the Srilm Toolkit to create 5-Gram language models with interpolated modified Kneser-Ney discounting.", "We used Srilm to build a 4-Gram language model with Kneser-Ney discounting."], "ms": ["Kami menggunakan Srilm Toolkit untuk mencipta model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai.", "Kami menggunakan Srilm untuk membina model bahasa 4-Gram dengan diskaun Kneser-Ney."]}, {"en": ["Stemming is a popular way to reduce the size of a vocabulary in natural language tasks by Conflating words with related meanings.", "This rough stemming is a preliminary technique, but it avoids the need for hand-crafted morphological information."], "ms": ["Stemming adalah cara yang popular untuk mengurangkan saiz perbendaharaan kata dalam tugas bahasa semula jadi dengan mengkonklamirkan perkataan dengan makna yang berkaitan.", "Pemberhentian kasar ini adalah teknik awal, tetapi ia mengelakkan keperluan untuk maklumat morfologi buatan tangan."]}, {"en": ["It has been empirically shown that word Embeddings can capture semantic and syntactic similarities between words.", "Linear combinations of word Embedding vectors have been shown to correspond well to the semantic composition of the individual words."], "ms": ["Telah ditunjukkan secara empirikal bahawa perkataan Embeddings dapat menangkap persamaan semantik dan sintaksis antara perkataan.", "Gabungan linear perkataan Embedding vektor telah ditunjukkan sesuai dengan komposisi semantik perkataan individu."]}, {"en": ["Socher et al introduce a Matrix-Vector recursive neural network model that learns compositional vector representations for phrases and sentences.", "Socher et al used an Rnn-Based architecture to generate compositional vector representations of sentences."], "ms": ["Socher et al memperkenalkan model rangkaian neural rekursif Matrix-Vector yang mempelajari perwakilan vektor komposisi untuk frasa dan ayat.", "Socher et al menggunakan seni bina Berasaskan Rnn untuk menghasilkan perwakilan vektor komposisi ayat."]}, {"en": ["Semantic Parsing is the task of mapping natural language to machine interpretable meaning representations.", "Semantic Parsing is the task of mapping a natural language query to a logical form (LF) such as Prolog or Lambda Calculus, which can be executed directly through Database query (Zettlemoyer and Collins , 2005 , 2007; Haas and Riezler , 2016; Kwiatkowksi et al . , 2010)."], "ms": ["Penghuraian Semantik adalah tugas pemetaan bahasa semula jadi kepada perwakilan makna yang boleh ditafsirkan mesin.", "Semantik Penghuraian adalah tugas pemetaan pertanyaan bahasa semula jadi ke bentuk logik (LF) seperti Prolog atau Kalkulus Lambda, yang boleh dilaksanakan secara langsung melalui pertanyaan Pangkalan Data (Zettlemoyer dan Collins, 2005, 2007; Haas dan Riezler, 2016; Kwiatkowksi et al., 2010)."]}, {"en": ["Metonymy is a figure of speech, in which one expression is used to refer to the standard referent of a related one (Cite-P-18-1-13).", "Metonymy is defined as the use of a word or a phrase to stand for a related concept which is not explicitly mentioned."], "ms": ["Metonymy adalah tokoh pertuturan, di mana satu ungkapan digunakan untuk merujuk kepada rujukan standard yang berkaitan (Cite-P-18-1-13).", "Metonymy ditakrifkan sebagai penggunaan perkataan atau frasa untuk berdiri untuk konsep yang berkaitan yang tidak disebut secara jelas."]}, {"en": ["Link grammar is a Context-Free Lexicalized grammar without explicit constituents.", "Link grammar is a grammar theory that is strongly Dependencybased."], "ms": ["Tatabahasa pautan ialah tatabahasa Leksikan Bebas Konteks tanpa juzuk yang jelas.", "Tatabahasa pautan ialah teori tatabahasa yang sangat bergantung."]}, {"en": ["A particular Generative model, which is well suited for the modeling of text, is called latent Dirichlet allocation.", "Latent Dirichlet allocation is a widely adopted Generative model for topic modeling."], "ms": ["Model Generatif tertentu, yang sangat sesuai untuk pemodelan teks, dipanggil peruntukan Dirichlet laten.", "Peruntukan Dirichlet laten adalah model Generatif yang diterima pakai secara meluas untuk pemodelan topik."]}, {"en": ["We tuned parameters of the Smt system using minimum Error-Rate training.", "The parameters of our mt system were tuned on a development corpus using minimum error rate training."], "ms": ["Kami menala parameter sistem Smt menggunakan latihan Ralat-Rate minimum.", "Parameter sistem mt kami ditala pada korpus pembangunan menggunakan latihan kadar ralat minimum."]}, {"en": ["We used the Google news Pretrained Word2Vec word Embeddings for our model.", "We used the Pre-Trained Google Embedding to Initialize the word Embedding matrix."], "ms": ["Kami menggunakan perkataan Embedding Word2Vec Pretrained Google untuk model kami.", "Kami menggunakan Embedding Google Pra-Trained untuk Memulakan perkataan Embedding matriks."]}, {"en": ["Some of the very effective ml approaches used in NER are Hmm, me, Crfs and SVM.", "The representative ml approaches used in NER are hidden Markov model, me, Crfs and SVM."], "ms": ["Antara pendekatan ml yang sangat berkesan yang digunakan dalam NER ialah Hmm, saya, Crfs dan SVM.", "Pendekatan Ml perwakilan yang digunakan dalam NER adalah model Markov tersembunyi, saya, Crfs dan SVM."]}, {"en": ["We use the Pre-Trained 300-Dimensional Word2Vec Embeddings trained on Google news 1 as input features.", "For the Embeddings trained on stack overflow corpus, we use the Word2Vec implementation of Gensim 8 Toolkit."], "ms": ["Kami menggunakan Embedding Word2Vec 300-Dimensional Pra-Latih yang dilatih pada Google News 1 sebagai ciri input.", "Untuk Embeddings yang dilatih pada korpus limpahan timbunan, kami menggunakan pelaksanaan Word2Vec Gensim 8 Toolkit."]}, {"en": ["In our implementation, we train a Tri-Gram language model on each phone set using the Srilm Toolkit.", "We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit."], "ms": ["Dalam pelaksanaan kami, kami melatih model bahasa Tri-Gram pada setiap set telefon menggunakan Srilm Toolkit.", "Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit."]}, {"en": ["We used the Opennmt-Tf framework 4 to train a Bidirectional Encoder-Decoder model with attention.", "We implement our Lstm Encoder-Decoder model using the Opennmt neural machine translation Toolkit."], "ms": ["Kami menggunakan kerangka Opennmt-Tf 4 untuk melatih model Pengekod-Pengekod Bidirectional dengan perhatian.", "Kami melaksanakan model Lstm Encoder-Decoder kami menggunakan Toolkit terjemahan mesin neural Opennmt."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit.", "We used Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting ,."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai interpolated."]}, {"en": ["We trained a 4-Gram language model on the Xinhua portion of Gigaword corpus using the Sri language modeling Toolkit with modified Kneser-Ney smoothing.", "We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami melatih model bahasa 4-Gram di bahagian Xinhua Gigaword corpus menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Semeval is a yearly event in which teams compete in natural language processing tasks.", "Semeval 2014 is a semantic evaluation of natural language processing (Nlp) that comprises several tasks."], "ms": ["Semeval adalah acara tahunan di mana pasukan bersaing dalam tugas pemprosesan bahasa semula jadi.", "Semeval 2014 adalah penilaian semantik pemprosesan bahasa semula jadi (Nlp) yang terdiri daripada beberapa tugas."]}, {"en": ["Relation extraction (re) is a task of identifying typed relations between known entity mentions in a sentence.", "Relation extraction is the task of automatically detecting occurrences of expressed relations between entities in a text and structuring the detected information in a Tabularized form."], "ms": ["Pengekstrakan hubungan (re) adalah tugas untuk mengenal pasti hubungan yang ditaip antara sebutan entiti yang diketahui dalam ayat.", "Pengekstrakan hubungan adalah tugas mengesan kejadian hubungan yang dinyatakan secara automatik antara entiti dalam teks dan menyusun maklumat yang dikesan dalam bentuk Tabularized."]}, {"en": ["We Initialize the Embedding layer using Embeddings from dedicated word Embedding techniques Word2Vec and glove.", "We represent input words using Pre-Trained glove Wikipedia 6B word Embeddings."], "ms": ["Kami Memulakan lapisan Embedding menggunakan Embeddings dari teknik Embedding perkataan khusus Word2Vec dan sarung tangan.", "Kami mewakili perkataan input menggunakan sarung tangan Pra-Trained Wikipedia 6B Embedding perkataan."]}, {"en": ["We use a Fourgram language model with modified Kneser-Ney smoothing as implemented in the Srilm Toolkit.", "We train a 4-Gram language model on the Xinhua portion of the Gigaword corpus using the Sri language Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa Fourgram dengan smoothing Kneser-Ney yang diubahsuai seperti yang dilaksanakan dalam Srilm Toolkit.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword menggunakan Toolkit bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Relation extraction (re) is the task of extracting instances of semantic relations between entities in unstructured data such as natural language text.", "Relation extraction is the task of automatically detecting occurrences of expressed relations between entities in a text and structuring the detected information in a Tabularized form."], "ms": ["Pengekstrakan hubungan (re) adalah tugas mengekstrak contoh hubungan semantik antara entiti dalam data yang tidak tersusun seperti teks bahasa semula jadi.", "Pengekstrakan hubungan adalah tugas mengesan kejadian hubungan yang dinyatakan secara automatik antara entiti dalam teks dan menyusun maklumat yang dikesan dalam bentuk Tabularized."]}, {"en": ["In addition, we use an English corpus of roughly 227 million words to build a Target-Side 5-Gram language model with Srilm in combination with Kenlm.", "We therefore use Kenlm to train a 6-Gram language model with the Monolingual data outlined in Table 1."], "ms": ["Di samping itu, kami menggunakan korpus bahasa Inggeris kira-kira 227 juta perkataan untuk membina model bahasa Target-Side 5-Gram dengan Srilm dalam kombinasi dengan Kenlm.", "Oleh itu, kami menggunakan Kenlm untuk melatih model bahasa 6-Gram dengan data Monolingual yang digariskan dalam Jadual 1."]}, {"en": ["For the Pos-Tagger, we trained Hunpos 10 with the Wall Street Journal English corpus.", "We trained the initial Parser on the Ccgbank training set, consisting of 39603 sentences of Wall Street Journal text."], "ms": ["Untuk Pos-Tagger, kami melatih Hunpos 10 dengan korpus Bahasa Inggeris Wall Street Journal.", "Kami melatih Parser awal pada set latihan Ccgbank, yang terdiri daripada 39603 ayat teks Wall Street Journal."]}, {"en": ["We investigate linguistic features that correlate with the Readability of texts for adults with intellectual disabilities (Id).", "We seek to produce an automatic Readability metric that is tailored to the literacy skills of adults with Id."], "ms": ["Kami menyiasat ciri-ciri linguistik yang berkaitan dengan Kebolehbacaan teks untuk orang dewasa dengan kecacatan intelektual (Id).", "Kami berusaha untuk menghasilkan metrik Readability automatik yang disesuaikan dengan kemahiran literasi orang dewasa dengan Id."]}, {"en": ["We then Lowercase all data and use all unique headlines in the training data to train a language model with the Srilm Toolkit.", "We then Lowercase all data and use all sentences from the modern Dutch part of the corpus to train an N-Gram language model with the Srilm Toolkit."], "ms": ["Kami kemudian menurunkan semua data dan menggunakan semua tajuk utama yang unik dalam data latihan untuk melatih model bahasa dengan Srilm Toolkit.", "Kami kemudian menurunkan semua data dan menggunakan semua ayat dari bahagian Belanda moden korpus untuk melatih model bahasa N-Gram dengan Srilm Toolkit."]}, {"en": ["Relation extraction (re) is the task of identifying instances of relations, such as nationality (person, country) or place of birth (person, location), in passages of natural text.", "Relation extraction (re) is the task of recognizing relationships between entities mentioned in text."], "ms": ["Pengekstrakan hubungan (re) adalah tugas mengenal pasti contoh hubungan, seperti kewarganegaraan (orang, negara) atau tempat kelahiran (orang, lokasi), dalam petikan teks semula jadi.", "Pengekstrakan hubungan (re) adalah tugas mengenali hubungan antara entiti yang disebut dalam teks."]}, {"en": ["Information extraction (Ie) is a technology that can be applied to identifying both sources and targets of new Hyperlinks.", "Information extraction (Ie) is a main Nlp aspects for analyzing scientific papers, which includes named entity recognition (NER) and relation extraction (re)."], "ms": ["Pengekstrakan maklumat (Ie) adalah teknologi yang boleh digunakan untuk mengenal pasti kedua-dua sumber dan sasaran Hyperlinks baru.", "Pengekstrakan maklumat (Ie) adalah aspek utama Nlp untuk menganalisis kertas saintifik, yang merangkumi pengiktirafan entiti bernama (NER) dan pengekstrakan hubungan (re)."]}, {"en": ["A 5-Gram language model with Kneser-Ney smoothing was trained with Srilm on Monolingual English data.", "For the Tree-Based system, we applied a 4-Gram language model with Kneserney smoothing using Srilm Toolkit trained on the whole Monolingual corpus."], "ms": ["Model bahasa 5-Gram dengan smoothing Kneser-Ney dilatih dengan Srilm pada data Bahasa Inggeris Monolingual.", "Untuk sistem Berasaskan Pokok, kami menggunakan model bahasa 4-Gram dengan smoothing Kneserney menggunakan Srilm Toolkit yang dilatih pada keseluruhan korpus Monolingual."]}, {"en": ["Minimum error rate training is used for tuning to optimize BLEU.", "Tuning is performed to maximize BLEU score using minimum error rate training."], "ms": ["Latihan kadar ralat minimum digunakan untuk penalaan untuk mengoptimumkan BLEU.", "Tuning dilakukan untuk memaksimumkan skor BLEU menggunakan latihan kadar ralat minimum."]}, {"en": ["We use Liblinear 9 to solve the Lr and SVM classification problems.", "We followed Tiedemann by using linear Svms implemented in Liblinear."], "ms": ["Kami menggunakan Liblinear 9 untuk menyelesaikan masalah klasifikasi Lr dan SVM.", "Kami mengikuti Tiedemann dengan menggunakan Svms linear yang dilaksanakan dalam Liblinear."]}, {"en": ["The Embedding layer in the model is Initialized with 300-Dimensional glove word vectors obtained from common crawl.", "The word vectors of vocabulary words are trained from a large corpus using the glove Toolkit."], "ms": ["Lapisan Embedding dalam model ini Dimulakan dengan vektor perkataan sarung tangan 300 dimensi yang diperoleh daripada merangkak biasa.", "Vektor perkataan perbendaharaan kata dilatih dari korpus besar menggunakan alat sarung tangan."]}, {"en": ["We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Each sentence in the Dataset is Parsed using Stanford dependency Parser.", "The Stanford Parser was used to generate the dependency Parse information for each sentence."], "ms": ["Setiap ayat dalam Dataset dihuraikan menggunakan Stanford dependency Parser.", "Stanford Parser digunakan untuk menghasilkan maklumat Parse dependensi untuk setiap ayat."]}, {"en": ["Coreference resolution is the task of partitioning the set of mentions of discourse Referents in a text into classes (or \u2018 chains \u2019) corresponding to those Referents (Cite-P-12-3-14).", "Coreference resolution is the task of determining whether two or more noun phrases refer to the same entity in a text."], "ms": ["Resolusi spatial adalah tugas pembahagian set sebutan rujukan wacana dalam teks ke dalam kelas (atau rantai ) yang sepadan dengan rujukan tersebut (Cite-P-12-3-14).", "Resolusi spatial adalah tugas menentukan sama ada dua atau lebih frasa kata nama merujuk kepada entiti yang sama dalam teks."]}, {"en": ["We adapted the Moses Phrase-Based Decoder to translate word Lattices.", "We used Moses as the implementation of the baseline Smt systems."], "ms": ["Kami mengadaptasi Decoder Berasaskan Frasa Musa untuk menterjemahkan perkataan Lattices.", "Kami menggunakan Musa sebagai pelaksanaan sistem Smt asas."]}, {"en": ["We use word Embedding Pre-Trained on Newswire with 300 dimensions from Word2Vec.", "The word Embeddings are Word2Vec of dimension 300 Pre-Trained on Google news."], "ms": ["Kami menggunakan perkataan Embedding Pre-Trained pada Newswire dengan 300 dimensi dari Word2Vec.", "Perkataan Embeddings adalah Word2Vec dimensi 300 Pra-Trained pada berita Google."]}, {"en": ["Fader et al recently presented a Scalable approach to learning an open domain Qa system, where ontological Mismatches are resolved with learned paraphrases.", "Fader et al present a question answering system that learns to paraphrase a question so that it can be answered using a corpus of open Ie triples."], "ms": ["Fader et al baru-baru ini membentangkan pendekatan Scalable untuk mempelajari sistem Qa domain terbuka, di mana ketidakcocokan ontologi diselesaikan dengan parafrasa yang dipelajari.", "Fader et al membentangkan sistem jawapan soalan yang belajar untuk mentafsirkan soalan supaya ia boleh dijawab menggunakan korpus tiga Ie terbuka."]}, {"en": ["The English side of the parallel corpus is trained into a language model using Srilm.", "A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit from Stolcke."], "ms": ["Bahagian Inggeris korpus selari dilatih menjadi model bahasa menggunakan Srilm.", "Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit dari Stolcke."]}, {"en": ["Classifier we use the L2-Regularized logistic regression from the Liblinear package, which we accessed through Weka.", "For all machine learning results, we train a logistic regression Classifier implemented in Scikitlearn with L2 Regularization and the Liblinear Solver."], "ms": ["Pengelasan kami menggunakan regresi logistik L2-Regularized dari pakej Liblinear, yang kami akses melalui Weka.", "Untuk semua hasil pembelajaran mesin, kami melatih Classifier regresi logistik yang dilaksanakan di Scikitlearn dengan L2 Regularization dan Liblinear Solver."]}, {"en": ["In addition, a 5-Gram LM with Kneser-Ney smoothing and interpolation was built using the Srilm Toolkit.", "The 5-Gram Kneser-Ney smoothed language models were trained by Srilm, with Kenlm used at Runtime."], "ms": ["Selain itu, LM 5-Gram dengan smoothing dan interpolasi Kneser-Ney dibina menggunakan Srilm Toolkit.", "Model bahasa 5-Gram Kneser-Ney yang dilicinkan dilatih oleh Srilm, dengan Kenlm digunakan di Runtime."]}, {"en": ["The parameters of the Log-Linear model are tuned by optimizing BLEU on the development data using Mert.", "The log linear weights for the baseline systems are Optimized using Mert provided in the Moses Toolkit."], "ms": ["Parameter model Log-Linear ditala dengan mengoptimumkan BLEU pada data pembangunan menggunakan Mert.", "Berat linier log bagi sistem garis dasar dioptimumkan menggunakan Mert yang disediakan dalam Moses Toolkit."]}, {"en": ["In this and our other N-Gram models, we used Kneser-Ney smoothing.", "In our implementation, we use a Kn-Smoothed Trigram model."], "ms": ["Dalam model N-Gram kami yang lain, kami menggunakan smoothing Kneser-Ney.", "Dalam pelaksanaan kami, kami menggunakan model Kn-Smoothed Trigram."]}, {"en": ["A Knsmoothed 5-Gram language model is trained on the target side of the parallel data with Srilm.", "We use Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting."], "ms": ["Model bahasa 5-Gram Knsmoothed dilatih pada sisi sasaran data selari dengan Srilm.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Our Smt system is a Phrase-Based system based on the Moses Smt Toolkit.", "Our machine translation system is a Phrase-Based system using the Moses Toolkit."], "ms": ["Sistem Smt kami adalah sistem Berasaskan Frasa berdasarkan Musa Smt Toolkit.", "Sistem terjemahan mesin kami adalah sistem berasaskan frasa menggunakan Musa Toolkit."]}, {"en": ["Ding and Palmer introduced a version of probabilistic extension of synchronous dependency insertion Grammars to deal with the pervasive structure divergence.", "Ding and Palmer propose a Syntax-Based translation model based on a probabilistic synchronous dependency insertion grammar."], "ms": ["Ding dan Palmer memperkenalkan versi lanjutan probabilistik dari penyisipan dependensi segerak Grammars untuk menangani perbezaan struktur yang meluas.", "Ding dan Palmer mencadangkan model terjemahan berasaskan Syntax berdasarkan tatabahasa pemasukan kebergantungan bersegera probabilistik."]}, {"en": ["Continuous representation of words and phrases are proven effective in many Nlp tasks.", "Distributed representations for words and sentences have been shown to significantly boost the performance of a Nlp system."], "ms": ["Perwakilan berterusan kata-kata dan frasa terbukti berkesan dalam banyak tugas Nlp.", "Perwakilan yang diedarkan untuk perkataan dan ayat telah ditunjukkan untuk meningkatkan prestasi sistem Nlp dengan ketara."]}, {"en": ["Sentence compression is a Paraphrasing task where the goal is to generate sentences shorter than given while preserving the essential content.", "Sentence compression is the task of compressing long, Verbose sentences into short, concise ones."], "ms": ["Pemampatan ayat adalah tugas Paraphrasing di mana matlamatnya adalah untuk menghasilkan ayat yang lebih pendek daripada yang diberikan sambil mengekalkan kandungan penting.", "Pemampatan ayat adalah tugas memampatkan ayat panjang, ayat Verbose menjadi pendek, ringkas."]}, {"en": ["We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit.", "We train a 4-Gram language model on the Xinhua portion of the Gigaword corpus using the Sri language Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit.", "Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword menggunakan Toolkit bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Word sense Disambiguation (Wsd) is a widely studied task in natural language processing: given a word and its context, assign the correct sense of the word based on a predefined sense inventory (Cite-P-15-3-4).", "Word sense Disambiguation (Wsd) is the task of determining the correct meaning (\u201c sense \u201d) of a word in context, and several efforts have been made to develop automatic Wsd systems."], "ms": ["Disambiguasi deria perkataan (Wsd) adalah tugas yang dikaji secara meluas dalam pemprosesan bahasa semula jadi: diberikan perkataan dan konteksnya, memberikan rasa yang betul perkataan berdasarkan inventori deria yang telah ditetapkan (Cite-P-15-3-4).", "Disambiguasi perkataan (Wsd) adalah tugas menentukan makna yang betul ( sense ) perkataan dalam konteks, dan beberapa usaha telah dibuat untuk membangunkan sistem Wsd automatik."]}, {"en": ["However, Polysemy is a fundamental problem for Distributional models.", "Polysemy is a major characteristic of natural languages."], "ms": ["Walau bagaimanapun, Polisemy adalah masalah asas untuk model pengedaran.", "Polisemy adalah ciri utama bahasa semula jadi."]}, {"en": ["Relation extraction is a traditional information extraction task which aims at detecting and classifying semantic relations between entities in text (Cite-P-10-1-18).", "Relation extraction is the key component for building relation knowledge graphs, and it is of crucial significance to natural language processing applications such as structured search, sentiment analysis, question answering, and summarization."], "ms": ["Pengekstrakan hubungan adalah tugas pengekstrakan maklumat tradisional yang bertujuan untuk mengesan dan mengklasifikasikan hubungan semantik antara entiti dalam teks (Cite-P-10-1-18).", "Pengekstrakan hubungan adalah komponen utama untuk membina graf pengetahuan hubungan, dan ia sangat penting untuk aplikasi pemprosesan bahasa semula jadi seperti carian berstruktur, analisis sentimen, jawapan soalan, dan ringkasan."]}, {"en": ["We trained a Phrase-Based Smt engine to translate known words and phrases using the training tools available with Moses.", "For our baseline we use the Moses software to train a phrase based machine translation model."], "ms": ["Kami melatih enjin Smt Berasaskan Frasa untuk menterjemahkan perkataan dan frasa yang diketahui menggunakan alat latihan yang ada dengan Musa.", "Untuk asas kami, kami menggunakan perisian Moses untuk melatih model terjemahan mesin berasaskan frasa."]}, {"en": ["Relation extraction (re) is the task of extracting instances of semantic relations between entities in unstructured data such as natural language text.", "Relation extraction (re) is the task of recognizing relationships between entities mentioned in text."], "ms": ["Pengekstrakan hubungan (re) adalah tugas mengekstrak contoh hubungan semantik antara entiti dalam data yang tidak tersusun seperti teks bahasa semula jadi.", "Pengekstrakan hubungan (re) adalah tugas mengenali hubungan antara entiti yang disebut dalam teks."]}, {"en": ["We perform Pre-Training using the Skipgram Nn architecture available in the Word2Vec tool.", "For the Embeddings trained on stack overflow corpus, we use the Word2Vec implementation of Gensim 8 Toolkit."], "ms": ["Kami melakukan Pra-Latihan menggunakan seni bina Skipgram Nn yang terdapat dalam alat Word2Vec.", "Untuk Embeddings yang dilatih pada korpus limpahan timbunan, kami menggunakan pelaksanaan Word2Vec Gensim 8 Toolkit."]}, {"en": ["We use the Moses software package 5 to train a Pbmt model.", "We use the Moses Smt Toolkit to test the augmented Datasets."], "ms": ["Kami menggunakan pakej perisian Musa 5 untuk melatih model Pbmt.", "Kami menggunakan Musa Smt Toolkit untuk menguji Dataset yang ditambah."]}, {"en": ["Coreference resolution is the process of finding discourse entities (Markables) referring to the same Real-World entity or concept.", "Coreference resolution is the task of determining which mentions in a text refer to the same entity."], "ms": ["Resolusi spatial adalah proses mencari entiti wacana (Markables) merujuk kepada entiti atau konsep Dunia Nyata yang sama.", "Resolusi spatial adalah tugas menentukan sebutan mana dalam teks merujuk kepada entiti yang sama."]}, {"en": ["For Word-Level Embeddings, we Pre-Train the word vectors using Word2Vec on the Gigaword corpus mentioned in section 4, and the text of the training Dataset.", "Thus, we Pre-Train the Embeddings on a huge Unlabeled data, the Chinese Wikipedia corpus, with Word2Vec Toolkit."], "ms": ["Untuk Embedding Tahap Word, kami Pra-Latih vektor perkataan menggunakan Word2Vec pada korpus Gigaword yang disebutkan dalam bahagian 4, dan teks Dataset latihan.", "Oleh itu, kami Pra-Latih Embeddings pada data Unlabeled yang besar, korpus Wikipedia Cina, dengan Word2Vec Toolkit."]}, {"en": ["The Sri language modeling Toolkit was used to build 4-Gram Word-And Character-Based language models.", "The Target-Side language models were estimated using the Srilm Toolkit."], "ms": ["Alat pemodelan bahasa Sri digunakan untuk membina model bahasa 4-Gram Word-And Character-Based.", "Model bahasa Target-Side dianggarkan menggunakan Srilm Toolkit."]}, {"en": ["Stance detection is the task of classifying the attitude previous work has assumed that either the target is mentioned in the text or that training data for every target is given.", "Stance detection is the task of automatically determining from text whether the author of the text is in favor of, against, or neutral towards a proposition or target."], "ms": ["Pengesanan santun adalah tugas mengklasifikasikan sikap kerja terdahulu telah mengandaikan bahawa sama ada sasaran disebut dalam teks atau data latihan untuk setiap sasaran diberikan.", "Pengesanan santun adalah tugas menentukan secara automatik dari teks sama ada pengarang teks memihak kepada, menentang, atau neutral terhadap cadangan atau sasaran."]}, {"en": ["Coreference resolution is a task aimed at identifying phrases (mentions) referring to the same entity.", "Coreference resolution is the task of grouping mentions to entities."], "ms": ["Resolusi spatial adalah tugas yang bertujuan untuk mengenal pasti frasa (mention) yang merujuk kepada entiti yang sama.", "Resolusi spatial adalah tugas untuk mengumpulkan sebutan kepada entiti."]}, {"en": ["Table 2 presents the results from the automatic evaluation, in terms of BLEU and Nist scores, of 4 system Setups.", "Table 2 summarizes machine translation performance, as measured by BLEU, calculated on the full corpus with the systems resulting from each Iteration."], "ms": ["Jadual 2 membentangkan hasil daripada penilaian automatik, dari segi skor BLEU dan Nist, daripada 4 Setup sistem.", "Jadual 2 meringkaskan prestasi terjemahan mesin, seperti yang diukur oleh BLEU, dikira pada korpus penuh dengan sistem yang dihasilkan dari setiap Iterasi."]}, {"en": ["Recently, neural networks, and in particular recurrent neural networks have shown excellent performance in language modeling.", "Neural models, with various neural architectures, have recently achieved great success."], "ms": ["Baru-baru ini, rangkaian saraf, dan khususnya rangkaian saraf berulang telah menunjukkan prestasi yang sangat baik dalam pemodelan bahasa.", "Model saraf, dengan pelbagai seni bina saraf, baru-baru ini mencapai kejayaan besar."]}, {"en": ["Relation extraction is the task of finding relationships between two entities from text.", "Relation extraction is a traditional information extraction task which aims at detecting and classifying semantic relations between entities in text (Cite-P-10-1-18)."], "ms": ["Pengekstrakan hubungan adalah tugas mencari hubungan antara dua entiti dari teks.", "Pengekstrakan hubungan adalah tugas pengekstrakan maklumat tradisional yang bertujuan untuk mengesan dan mengklasifikasikan hubungan semantik antara entiti dalam teks (Cite-P-10-1-18)."]}, {"en": ["However, we use a large 4-Gram LM with modified Kneser-Ney smoothing, trained with the Srilm Toolkit, Stolcke , 2002 and LDC English Gigaword Corpora.", "We use Srilm for training the 5-Gram language model with interpolated modified Kneser-Ney discounting."], "ms": ["Walau bagaimanapun, kami menggunakan LM 4-Gram yang besar dengan smoothing Kneser-Ney yang diubahsuai, dilatih dengan Srilm Toolkit, Stolcke, 2002 dan LDC English Gigaword Corpora.", "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Relation extraction is a fundamental task in information extraction.", "Relation extraction is the task of finding relational facts in unstructured text and putting them into a structured (Tabularized) knowledge base."], "ms": ["Pengekstrakan hubungan adalah tugas asas dalam pengekstrakan maklumat.", "Pengekstrakan hubungan adalah tugas mencari fakta hubungan dalam teks yang tidak berstruktur dan memasukkannya ke dalam pangkalan pengetahuan berstruktur (Tabularized)."]}, {"en": ["Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-3-0) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B).", "Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-1-14) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B)."], "ms": ["Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-3-0) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B).", "Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-1-14) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B)."]}, {"en": ["Word Embeddings have proven to be effective models of semantic representation of words in various Nlp tasks.", "Experiments have shown that word Embedding models are superior to conventional Distributional models."], "ms": ["Embedding Word telah terbukti menjadi model berkesan perwakilan semantik perkataan dalam pelbagai tugas Nlp.", "Eksperimen telah menunjukkan bahawa model Embedding perkataan lebih unggul daripada model Distributional konvensional."]}, {"en": ["Distributional semantic models represent the meanings of words by relying on their statistical distribution in text.", "Traditional semantic space models represent meaning on the basis of word Co-Occurrence statistics in large text Corpora."], "ms": ["Model semantik pengagihan mewakili makna perkataan dengan bergantung kepada taburan statistik mereka dalam teks.", "Model ruang semantik tradisional mewakili makna berdasarkan statistik perkataan Co-Occurrence dalam teks besar Corpora."]}, {"en": ["To measure the importance of the generated questions, we use Lda to identify the important Subtopics 9 from the given body of texts.", "To get the the Sub-Fields of the community, we use latent Dirichlet allocation to find topics and label them by hand."], "ms": ["Untuk mengukur kepentingan soalan yang dihasilkan, kami menggunakan Lda untuk mengenal pasti Subtopik 9 penting dari badan teks yang diberikan.", "Untuk mendapatkan Sub-Fields komuniti, kami menggunakan peruntukan Dirichlet laten untuk mencari topik dan melabelnya dengan tangan."]}, {"en": ["Shallow semantic representations can prevent the weakness of Cosine similarity based models.", "Shallow semantic representations could prevent the Sparseness of deep structural approaches and the weakness of bow models."], "ms": ["Perwakilan semantik yang lembut boleh menghalang kelemahan model berasaskan persamaan Cosine.", "Perwakilan semantik yang lembut dapat menghalang Keparahan pendekatan struktur yang mendalam dan kelemahan model busur."]}, {"en": ["Text Segmentation is the task of determining the positions at which topics change in a stream of text.", "Text Segmentation can be defined as the automatic identification of boundaries between distinct textual units (segments) in a textual document."], "ms": ["Segmentasi teks adalah tugas menentukan kedudukan di mana topik berubah dalam aliran teks.", "Segmentasi teks boleh ditakrifkan sebagai pengenalan automatik sempadan antara unit teks yang berbeza (segmen) dalam dokumen teks."]}, {"en": ["Luong et al created a Hierarchical language model that uses Rnn to combine Morphemes of a word to obtain a word representation.", "Luong et al break words into Morphemes, and use recursive neural networks to compose word meanings from Morpheme meanings."], "ms": ["Luong et al mencipta model bahasa Hierarki yang menggunakan Rnn untuk menggabungkan Morphemes sesebuah perkataan untuk mendapatkan perwakilan perkataan.", "Luong et al memecahkan perkataan ke dalam Morphemes, dan menggunakan rangkaian saraf rekursif untuk mengarang makna perkataan dari makna Morpheme."]}, {"en": ["We used latent Dirichlet allocation to perform the classification.", "To do so, we utilized the popular latent Dirichlet allocation, topic modeling method."], "ms": ["Kami menggunakan peruntukan Dirichlet laten untuk melaksanakan klasifikasi.", "Untuk berbuat demikian, kami menggunakan peruntukan Dirichlet laten yang popular, kaedah pemodelan topik."]}, {"en": ["We train a 4-Gram language model on the Xinhua portion of the English Gigaword corpus using the Srilm Toolkits with modified Kneser-Ney smoothing.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword Inggeris menggunakan Srilm Toolkits dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Word alignment is the task of identifying Translational relations between words in parallel Corpora, in which a word at one language is usually translated into several words at the other language (fertility model) (Cite-P-18-1-0).", "Word alignment is the problem of Annotating parallel text with Translational correspondence."], "ms": ["Penjajahan perkataan adalah tugas mengenal pasti hubungan Translasional antara perkataan dalam Corpora selari, di mana perkataan pada satu bahasa biasanya diterjemahkan ke dalam beberapa perkataan pada bahasa lain (model kesuburan) (Cite-P-18-1-0).", "Penjajahan perkataan adalah masalah Annotating teks selari dengan surat-menyurat Translasional."]}, {"en": ["We present a novel approach to Fsd that operates in Math-W-2-1-0-91 per Tweet.", "We present a novel approach to Fsd, which operates in constant time / space."], "ms": ["Kami membentangkan pendekatan novel untuk Fsd yang beroperasi dalam Math-W-2-1-0-91 setiap Tweet.", "Kami membentangkan pendekatan novel untuk Fsd, yang beroperasi dalam masa / ruang yang tetap."]}, {"en": ["Twitter is a widely used Microblogging environment which serves as a medium to share opinions on various events and products.", "Twitter is a well-known social network service that allows users to post short 140 character status update which is called \u201c Tweet \u201d."], "ms": ["Twitter adalah persekitaran Microblogging yang banyak digunakan yang berfungsi sebagai medium untuk berkongsi pendapat mengenai pelbagai acara dan produk.", "Twitter adalah perkhidmatan rangkaian sosial yang terkenal yang membolehkan pengguna untuk menyiarkan kemas kini status 140 aksara pendek yang dipanggil \"Tweet\"."]}, {"en": ["We use Srilm for training a Trigram language model on the English side of the training data.", "We use Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa Trigram di sisi bahasa Inggeris data latihan.", "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side."]}, {"en": ["Relation extraction is the task of recognizing and extracting relations between entities or concepts in texts.", "Relation extraction is a Subtask of information extraction that finds various predefined semantic relations, such as location, affiliation, rival, etc ., between pairs of entities in text."], "ms": ["Pengekstrakan hubungan adalah tugas mengenali dan mengekstrak hubungan antara entiti atau konsep dalam teks.", "Pengekstrakan hubungan adalah Subtugas pengekstrakan maklumat yang menemui pelbagai hubungan semantik yang telah ditentukan, seperti lokasi, gabungan, saingan, dll., Antara pasangan entiti dalam teks."]}, {"en": ["A Back-Off 2-Gram model with Good-Turing discounting and no lexical classes was also created from the training set, using the Srilm Toolkit ,.", "Additionally, a Back-Off 2-Gram model with Goodturing discounting and no lexical classes was built from the same training data, using the Srilm Toolkit."], "ms": ["Model Back-Off 2-Gram dengan diskaun Good-Turing dan tiada kelas leksikal juga dicipta dari set latihan, menggunakan Srilm Toolkit,.", "Selain itu, model Back-Off 2-Gram dengan diskaun Goodturing dan tiada kelas leksikal dibina daripada data latihan yang sama, menggunakan Srilm Toolkit."]}, {"en": ["For the Fst representation, we used the the Opengrm-Ngram language modeling Toolkit and used an N-Gram order of 4, with Kneser-Ney smoothing.", "For all the systems we train, we build N-Gram language model with modified Kneserney smoothing using Kenlm."], "ms": ["Untuk perwakilan Fst, kami menggunakan Toolkit pemodelan bahasa Opengrm-Ngram dan menggunakan urutan N-Gram 4, dengan smoothing Kneser-Ney.", "Untuk semua sistem yang kami latih, kami membina model bahasa N-Gram dengan smoothing Kneserney yang diubahsuai menggunakan Kenlm."]}, {"en": ["Twitter consists of a massive number of posts on a wide range of subjects, making it very interesting to extract information and sentiments from them.", "Twitter is a popular Microblogging service, which, among other things, is used for knowledge sharing among friends and peers."], "ms": ["Twitter terdiri daripada sejumlah besar jawatan pada pelbagai subjek, menjadikannya sangat menarik untuk mengekstrak maklumat dan sentimen dari mereka.", "Twitter adalah perkhidmatan Microblogging yang popular, yang antara lain digunakan untuk perkongsian pengetahuan di kalangan rakan dan rakan sebaya."]}, {"en": ["Semantic role labeling (SRL) has been defined as a Sentence-Level Natural-Language processing task in which semantic roles are assigned to the syntactic arguments of a Predicate (Cite-P-14-1-7).", "Semantic role labeling (SRL) is the task of identifying the semantic arguments of a Predicate and labeling them with their semantic roles."], "ms": ["Pelabelan peranan semantik (SRL) telah ditakrifkan sebagai tugas pemprosesan Bahasa Semulajadi Tahap Sentence di mana peranan semantik ditugaskan kepada hujah sintaktik Predicate (Cite-P-14-1-7).", "Pelabelan peranan semantik (SRL) adalah tugas mengenal pasti hujah semantik Predicate dan melabelkannya dengan peranan semantik mereka."]}, {"en": ["Minimum error rate training is applied to tune the Cn weights.", "Tuning is performed to maximize BLEU score using minimum error rate training."], "ms": ["Latihan kadar ralat minimum digunakan untuk menala berat Cn.", "Tuning dilakukan untuk memaksimumkan skor BLEU menggunakan latihan kadar ralat minimum."]}, {"en": ["Semantic Parsing is the task of mapping natural language to a formal meaning representation.", "Semantic Parsing is a Domain-Dependent process by nature, as its output is defined over a set of domain symbols."], "ms": ["Penghuraian Semantik adalah tugas pemetaan bahasa semula jadi kepada perwakilan makna formal.", "Penghuraian Semantik adalah proses Domain-Dependen secara semula jadi, kerana outputnya ditakrifkan melalui satu set simbol domain."]}, {"en": ["Word alignment is a key component of most Endto-End statistical machine translation systems.", "Word alignment is a fundamental problem in statistical machine translation."], "ms": ["Penjajahan perkataan merupakan komponen utama kebanyakan sistem terjemahan mesin statistik Endto-End.", "Penjajahan perkataan adalah masalah asas dalam terjemahan mesin statistik."]}, {"en": ["We learn our word Embeddings by using Word2Vec 3 on Unlabeled review data.", "In our experiments we use Word2Vec as a representative Scalable model for Unsupervised Embeddings."], "ms": ["Kami mempelajari perkataan Embeddings kami dengan menggunakan Word2Vec 3 pada data ulasan yang tidak berlabel.", "Dalam eksperimen kami, kami menggunakan Word2Vec sebagai model Scalable yang mewakili untuk Embeddings Tidak Diselia."]}, {"en": ["For estimating Monolingual word vector models, we use the Cbow algorithm as implemented in the Word2Vec package using a 5-Token window.", "We use the popular Word2Vec 1 tool proposed by Mikolov et al to extract the vector representations of words."], "ms": ["Untuk menganggarkan model vektor perkataan Monolingual, kami menggunakan algoritma Cbow seperti yang dilaksanakan dalam pakej Word2Vec menggunakan tetingkap 5-Token.", "Kami menggunakan alat Word2Vec 1 yang popular yang dicadangkan oleh Mikolov et al untuk mengekstrak perwakilan vektor perkataan."]}, {"en": ["We use the Word2Vec Skip-Gram model to learn initial word representations on Wikipedia.", "We use the Skipgram model with negative sampling to learn word Embeddings on the Twitter reference corpus."], "ms": ["Kami menggunakan model Skip-Gram Word2Vec untuk mempelajari perwakilan perkataan awal di Wikipedia.", "Kami menggunakan model Skipgram dengan persampelan negatif untuk mempelajari perkataan Embeddings di korpus rujukan Twitter."]}, {"en": ["We Initialize the Embedding layer using Embeddings from dedicated word Embedding techniques Word2Vec and glove.", "We Initialize our word vectors with 300-Dimensional Word2Vec word Embeddings."], "ms": ["Kami Memulakan lapisan Embedding menggunakan Embeddings dari teknik Embedding perkataan khusus Word2Vec dan sarung tangan.", "Kami Memulakan vektor perkataan kami dengan Embedding perkataan 300-Dimensional Word2Vec."]}, {"en": ["We use Sri language modeling Toolkit to train a 5-Gram language model on the English sentences of Fbis corpus.", "We use Srilm train a 5-Gram language model on the Xinhua portion of the English Gigaword corpus 5th edition with modified Kneser-Ney discounting."], "ms": ["Kami menggunakan Sri bahasa pemodelan Toolkit untuk melatih model bahasa 5-Gram pada ayat bahasa Inggeris Fbis corpus.", "Kami menggunakan Srilm melatih model bahasa 5-Gram di bahagian Xinhua dari edisi ke-5 Gigaword corpus Inggeris dengan diskaun Kneser-Ney yang diubahsuai."]}, {"en": ["Relation extraction is a fundamental task in information extraction.", "Relation extraction is the task of automatically detecting occurrences of expressed relations between entities in a text and structuring the detected information in a Tabularized form."], "ms": ["Pengekstrakan hubungan adalah tugas asas dalam pengekstrakan maklumat.", "Pengekstrakan hubungan adalah tugas mengesan kejadian hubungan yang dinyatakan secara automatik antara entiti dalam teks dan menyusun maklumat yang dikesan dalam bentuk Tabularized."]}, {"en": ["For Pos tagging, we used the Stanford Pos Tagger.", "For tagging, we use the Stanford Pos Tagger package."], "ms": ["Untuk penandaan Pos, kami menggunakan Stanford Pos Tagger.", "Untuk tag, kami menggunakan pakej Stanford Pos Tagger."]}, {"en": ["Gru and Lstm have been shown to yield comparable performance.", "Gru has been shown to achieve comparable performance with less parameters than Lstm."], "ms": ["Gru dan Lstm telah ditunjukkan untuk menghasilkan prestasi yang setanding.", "Gru telah ditunjukkan untuk mencapai prestasi yang setanding dengan parameter yang kurang daripada Lstm."]}, {"en": ["We used the Stanford Parser to extract dependency features for each quote and response.", "As a further test, we ran the Stanford Parser on the queries to generate syntactic Parse trees."], "ms": ["Kami menggunakan Stanford Parser untuk mengekstrak ciri kebergantungan untuk setiap petikan dan respons.", "Sebagai ujian lanjut, kami menjalankan Stanford Parser pada pertanyaan untuk menghasilkan pokok Parse sintaktik."]}, {"en": ["We use Moses, a statistical machine translation system that allows training of translation models.", "We compare the final system to Moses 3, an Open-Source translation Toolkit."], "ms": ["Kami menggunakan Moses, sistem terjemahan mesin statistik yang membolehkan latihan model terjemahan.", "Kami membandingkan sistem akhir dengan Musa 3, alat terjemahan Sumber Terbuka."]}, {"en": ["We use distributed word vectors trained on the Wikipedia corpus using the Word2Vec algorithm.", "We use the Word2Vec tool to train Monolingual vectors , 6 and the Cca-Based tool for projecting word vectors."], "ms": ["Kami menggunakan vektor perkataan diedarkan yang dilatih pada korpus Wikipedia menggunakan algoritma Word2Vec.", "Kami menggunakan alat Word2Vec untuk melatih vektor Monolingual, 6 dan alat Cca-Based untuk memproyeksikan vektor perkataan."]}, {"en": ["For input representation, we used glove word Embeddings.", "In this task, we use the 300-Dimensional 840B glove word Embeddings."], "ms": ["Untuk perwakilan input, kami menggunakan perkataan sarung tangan Embeddings.", "Dalam tugas ini, kami menggunakan perkataan sarung tangan 300-Dimensional 840B Embeddings."]}, {"en": ["Coreference resolution is the task of determining when two textual mentions name the same individual.", "Coreference resolution is the process of linking multiple mentions that refer to the same entity."], "ms": ["Resolusi spatial adalah tugas menentukan apabila dua sebutan teks menamakan individu yang sama.", "Resolusi spatial adalah proses menghubungkan pelbagai sebutan yang merujuk kepada entiti yang sama."]}, {"en": ["Relation extraction (re) has been defined as the task of identifying a given set of semantic Binary relations in text.", "Relation extraction is a crucial task in the field of natural language processing (Nlp)."], "ms": ["Pengekstrakan hubungan (re) telah ditakrifkan sebagai tugas mengenal pasti set hubungan semantik yang diberikan dalam teks.", "Pengekstrakan hubungan adalah tugas penting dalam bidang pemprosesan bahasa semula jadi (Nlp)."]}, {"en": ["We used minimum error rate training to optimize the feature weights.", "We used minimum error rate training Mert for tuning the feature weights."], "ms": ["Kami menggunakan latihan kadar ralat minimum untuk mengoptimumkan berat ciri.", "Kami menggunakan latihan kadar ralat minimum Mert untuk menyesuaikan berat ciri."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of determining the meaning of a word in a given context.", "Word sense Disambiguation (Wsd) is the problem of assigning a sense to an ambiguous word, using its context."], "ms": ["Disambiguasi erti kata (Wsd) ialah tugas menentukan makna sesuatu perkataan dalam konteks tertentu.", "Kemusykilan erti kata Kemusykilan (Wsd) ialah masalah untuk memberikan rasa kepada perkataan yang samar-samar, menggunakan konteksnya."]}, {"en": ["Importantly, word Embeddings have been effectively used for several Nlp tasks, such as named entity recognition, machine translation and Part-Of-Speech tagging.", "Word Embeddings have proved useful in downstream Nlp tasks such as part of speech tagging, named entity recognition, and machine translation."], "ms": ["Yang penting, perkataan Embeddings telah digunakan dengan berkesan untuk beberapa tugas Nlp, seperti pengiktirafan entiti dinamakan, terjemahan mesin dan penandaan Part-Of-Speech.", "Embeddings Word telah terbukti berguna dalam tugas hiliran Nlp seperti sebahagian daripada penandaan pertuturan, pengiktirafan entiti dinamakan, dan terjemahan mesin."]}, {"en": ["For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided.", "To calculate language model features, we train traditional N-Gram language models with Ngram lengths of four and five using the Srilm Toolkit."], "ms": ["Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan.", "Untuk mengira ciri model bahasa, kami melatih model bahasa tradisional N-Gram dengan panjang Ngram empat dan lima menggunakan Srilm Toolkit."]}, {"en": ["Pitler et al demonstrated that features developed to capture word polarity, verb classes and orientation, as well as some lexical features are strong indicator of the type of discourse relation.", "Pitler et al experiment with polarity tags, verb classes, length of verb phrases, modality, context and lexical features and found that word pairs with Non-Zero information gain yield best results."], "ms": ["Pitler et al menunjukkan bahawa ciri-ciri yang dibangunkan untuk menangkap polariti perkataan, kelas kata kerja dan orientasi, serta beberapa ciri leksikal adalah penunjuk kuat jenis hubungan wacana.", "Pitler et al experiment dgn polarity tags, kelas kata kerja, panjang frasa kata kerja, modaliti, konteks dan ciri-ciri leksikal dan mendapati bahawa pasangan kata dengan maklumat Non-Zero mendapat hasil terbaik."]}, {"en": ["Relation extraction is the task of recognizing and extracting relations between entities or concepts in texts.", "Relation extraction is a fundamental step in many natural language processing applications such as learning Ontologies from texts (Cite-P-12-1-0) and question answering (Cite-P-12-3-6)."], "ms": ["Pengekstrakan hubungan adalah tugas mengenali dan mengekstrak hubungan antara entiti atau konsep dalam teks.", "Pengekstrakan hubungan adalah langkah asas dalam banyak aplikasi pemprosesan bahasa semula jadi seperti pembelajaran Ontologi dari teks (Cite-P-12-1-0) dan jawapan soalan (Cite-P-12-3-6)."]}, {"en": ["After standard Preprocessing of the data, we train a 3-Gram language model using Kenlm.", "For all the systems we train, we build N-Gram language model with modified Kneserney smoothing using Kenlm."], "ms": ["Selepas pemprosesan data standard, kami melatih model bahasa 3-Gram menggunakan Kenlm.", "Untuk semua sistem yang kami latih, kami membina model bahasa N-Gram dengan smoothing Kneserney yang diubahsuai menggunakan Kenlm."]}, {"en": ["We used Moses with the default configuration for Phrase-Based translation.", "We used Moses, a Phrase-Based Smt Toolkit, for training the translation model."], "ms": ["Kami menggunakan Musa dengan konfigurasi lalai untuk terjemahan Berasaskan Frasa.", "Kami menggunakan Musa, Alat Alat Smt Berasaskan Frasa, untuk melatih model terjemahan."]}, {"en": ["For all experiments, we used a 4-Gram language model with modified Kneser-Ney smoothing which was trained with the Srilm Toolkit.", "We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit."], "ms": ["Untuk semua eksperimen, kami menggunakan model bahasa 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilatih dengan Srilm Toolkit.", "Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit."]}, {"en": ["We used the Moses mt Toolkit with default settings and features for both Phrase-Based and Hierarchical systems.", "Our system is built using the Open-Source Moses Toolkit with default settings."], "ms": ["Kami menggunakan Musa mt Toolkit dengan tetapan lalai dan ciri untuk kedua-dua sistem Berasaskan Frasa dan Hierarki.", "Sistem kami dibina menggunakan Open-Source Moses Toolkit dengan tetapan lalai."]}, {"en": ["The well-known Phrase-Based statistical translation model extends the basic translation units from single words to continuous phrases to capture local phenomena.", "The Phrase-Based approach developed for statistical machine translation is designed to overcome the restrictions of Many-To-Many Mappings in Word-Based translation models."], "ms": ["Model terjemahan statistik Berasaskan Frasa yang terkenal meluaskan unit terjemahan asas dari perkataan tunggal kepada frasa berterusan untuk menangkap fenomena tempatan.", "Pendekatan Berasaskan Frasa yang dibangunkan untuk terjemahan mesin statistik direka untuk mengatasi sekatan Pemetaan Banyak-Ke-Banyak dalam model terjemahan Berasaskan Perkataan."]}, {"en": ["We use the Linearsvc Classifier as implemented in Scikit-Learn package 17 with the default parameters.", "To train the models we use the default stochastic gradient descent Classifier provided by Scikit-Learn."], "ms": ["Kami menggunakan Classifier Linearsvc seperti yang dilaksanakan dalam pakej Scikit-Learn 17 dengan parameter lalai.", "Untuk melatih model, kami menggunakan Klasifier keturunan kecerunan stokastik lalai yang disediakan oleh Scikit-Learn."]}, {"en": ["For English, we use the Stanford Parser for both Pos tagging and Cfg Parsing.", "For collapsed syntactic Dependencies we use the Stanford dependency Parser."], "ms": ["Untuk bahasa Inggeris, kami menggunakan Stanford Parser untuk kedua-dua penandaan Pos dan Cfg Parsing.", "Untuk Dependensi sintaksis runtuh, kita menggunakan Parser dependensi Stanford."]}, {"en": ["The language models are trained on the corresponding target parts of this corpus using the Sri language model tool.", "All feature models are estimated in the In-Domain corpus with standard techniques."], "ms": ["Model bahasa dilatih pada bahagian sasaran yang sesuai dengan korpus ini menggunakan alat model bahasa Sri.", "Semua model ciri dianggarkan dalam korpus In-Domain dengan teknik standard."]}, {"en": ["We use the 300-Dimensional Skip-Gram word Embeddings built on the Google-News corpus.", "We used 300 dimensional Skip-Gram word Embeddings Pre-Trained on Pubmed."], "ms": ["Kami menggunakan Embedding perkataan Skip-Gram 300-Dimensional yang dibina di korpus Google-News.", "Kami menggunakan 300 dimensi Skip-Gram perkataan Embeddings Pra-Trained di Pubmed."]}, {"en": ["We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "A 4-Gram language model is trained on the Xinhua portion of the Gigaword corpus with the Srilm Toolkit."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Model bahasa 4-Gram dilatih di bahagian Xinhua korpus Gigaword dengan Srilm Toolkit."]}, {"en": ["Firstly, we built a forward 5-Gram language model using the Srilm Toolkit with modified Kneser-Ney smoothing.", "We created 5-Gram language models for every domain using Srilm with improved Kneserney smoothing on the target side of the training parallel Corpora."], "ms": ["Pertama, kami membina model bahasa 5-Gram maju menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami mencipta model bahasa 5-Gram untuk setiap domain menggunakan Srilm dengan lancar Kneserney yang lebih baik di sisi sasaran latihan selari Corpora."]}, {"en": ["Sentiment analysis is the task in natural language processing (Nlp) that deals with classifying opinions according to the polarity of the sentiment they Express.", "Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-1-14) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B)."], "ms": ["Analisis sentimen adalah tugas dalam pemprosesan bahasa semula jadi (Nlp) yang berkaitan dengan mengklasifikasikan pendapat mengikut polariti sentimen yang mereka Express.", "Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-1-14) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B)."]}, {"en": ["We used the target side of the parallel corpus and the Srilm Toolkit to train a 5-Gram language model.", "We trained a Trigram language model on the Chinese side, with the Srilm Toolkit, using the modified Kneser-Ney smoothing option."], "ms": ["Kami menggunakan sisi sasaran korpus selari dan Srilm Toolkit untuk melatih model bahasa 5-Gram.", "Kami melatih model bahasa Trigram di sisi Cina, dengan Srilm Toolkit, menggunakan pilihan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Morphological Disambiguation is a well studied problem in the literature, but Lstm-Based contributions are still relatively scarce.", "Morphological Disambiguation is the task of selecting the correct morphological Parse for a given word in a given context."], "ms": ["Keterangkuman Morfologi adalah masalah yang dikaji dengan baik dalam kesusasteraan, tetapi sumbangan berasaskan Lstm masih agak jarang.", "Penyahsiran Morfologi adalah tugas memilih Parse morfologi yang betul untuk perkataan yang diberikan dalam konteks yang diberikan."]}, {"en": ["The BLEU is a classical automatic evaluation method for the translation quality of an mt system.", "The BLEU score, introduced in, is a Highly-Adopted method for automatic evaluation of machine translation systems."], "ms": ["BLEU adalah kaedah penilaian automatik klasik untuk kualiti terjemahan sistem mt.", "Skor BLEU, diperkenalkan pada tahun 2003, adalah kaedah yang sangat disesuaikan untuk penilaian automatik sistem terjemahan mesin."]}, {"en": ["Sequence labeling is a structured prediction task where systems need to assign the correct label to every token in the input sequence.", "Sequence labeling is a widely used method for named entity recognition and information extraction from unstructured natural language data."], "ms": ["Pelabelan jujukan adalah tugas ramalan berstruktur di mana sistem perlu menetapkan label yang betul untuk setiap token dalam urutan input.", "Pelabelan jujukan adalah kaedah yang digunakan secara meluas untuk pengiktirafan entiti bernama dan pengekstrakan maklumat dari data bahasa semula jadi yang tidak tersusun."]}, {"en": ["Word alignment is a key component in most statistical machine translation systems.", "Word alignment is a Well-Studied problem in natural language computing."], "ms": ["Penjajahan perkataan merupakan komponen utama dalam kebanyakan sistem terjemahan mesin statistik.", "Penjajahan perkataan adalah masalah yang dikaji dengan baik dalam pengkomputeran bahasa semula jadi."]}, {"en": ["The syntax tree features were calculated using the Stanford Parser trained using the English Caseless model.", "English Annotations were all produced using the Stanford Core-Nlp Toolkit."], "ms": ["Ciri-ciri pokok sintaks dikira menggunakan Stanford Parser yang dilatih menggunakan model Caseless Inggeris.", "Annotasi Bahasa Inggeris dihasilkan menggunakan Stanford Core-Nlp Toolkit."]}, {"en": ["The Penn discourse tree bank is the largest resource to date that provides a discourse Annotated corpus in English.", "The Pdtb is the largest corpus Annotated for discourse relations, formed by newspaper articles from the Wall Street Journal."], "ms": ["Penn discourse tree bank adalah sumber terbesar setakat ini yang menyediakan wacana Annotated corpus dalam bahasa Inggeris.", "Pdtb adalah korpus terbesar Annotated untuk hubungan wacana, yang dibentuk oleh artikel akhbar dari Wall Street Journal."]}, {"en": ["Twitter is a widely used Microblogging platform, where users post and interact with messages, \u201c Tweets \u201d.", "Twitter is a rich resource for information about everyday events \u2013 people post their Tweets to Twitter publicly in real-time as they conduct their activities throughout the day, resulting in a significant amount of mundane information about common events."], "ms": ["Twitter adalah platform Microblogging yang digunakan secara meluas, di mana pengguna menyiarkan dan berinteraksi dengan mesej, Tweets dan Twitter.", "Twitter adalah sumber yang kaya untuk maklumat mengenai peristiwa sehari-hari - orang menghantar Tweet mereka ke Twitter secara terbuka dalam masa nyata kerana mereka menjalankan aktiviti mereka sepanjang hari, menghasilkan sejumlah besar maklumat biasa mengenai peristiwa biasa."]}, {"en": ["We used standard classifiers available in Scikit-Learn package.", "We used the implementation of the Scikit-Learn 2 Module."], "ms": ["Kami menggunakan pengelas standard yang terdapat dalam pakej Scikit-Learn.", "Kami menggunakan pelaksanaan Modul Scikit-Learn 2."]}, {"en": ["Named entity Disambiguation (Ned) is the task of linking mentions of entities in text to a given knowledge base, such as Freebase or Wikipedia.", "Named entity Disambiguation (Ned) is the task of resolving ambiguous mentions of entities to their referent entities in a knowledge base (KB) (E.G ., Wikipedia)."], "ms": ["Disambiguation entiti dinamakan (Ned) ialah tugas menghubungkan sebutan entiti dalam teks kepada pangkalan pengetahuan tertentu, seperti Freebase atau Wikipedia.", "Disambiguation (Ned) adalah tugas menyelesaikan sebutan entiti yang tidak jelas kepada entiti rujukan mereka dalam pangkalan pengetahuan (KB) (E.G., Wikipedia)."]}, {"en": ["For the semantic language model, we used the Srilm package and trained a Tri-Gram language model with the default Goodturing smoothing.", "For language model, we used Sri language modeling Toolkit to train a 4-Gram model with modified Kneser-Ney smoothing."], "ms": ["Untuk model bahasa semantik, kami menggunakan pakej Srilm dan melatih model bahasa Tri-Gram dengan smoothing Goodturing lalai.", "Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model 4-Gram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We trained a 4-Gram language model on this data with Kneser-Ney discounting using Srilm.", "For the language model, we used Srilm with modified Kneser-Ney smoothing."], "ms": ["Kami melatih model bahasa 4-Gram pada data ini dengan diskaun Kneser-Ney menggunakan Srilm.", "Untuk model bahasa, kami menggunakan Srilm dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Table 2 presents the results from the automatic evaluation, in terms of BLEU and Nist scores, of 4 system Setups.", "Table 4 presents Case-Insensitive evaluation results on the test set according to the automatic Metrics BLEU, Ter, and meteor."], "ms": ["Jadual 2 membentangkan hasil daripada penilaian automatik, dari segi skor BLEU dan Nist, daripada 4 Setup sistem.", "Jadual 4 membentangkan keputusan penilaian Case-Insensitive pada ujian yang ditetapkan mengikut Metrik automatik BLEU, Ter, dan meteor."]}, {"en": ["As shown, these distributions are efficiently Estimable from positive data.", "In part because such distributions can be estimated from positive data."], "ms": ["Seperti yang ditunjukkan, pengedaran ini dapat dianggarkan dengan cekap dari data positif.", "Sebahagiannya kerana pengedaran tersebut dapat dianggarkan dari data positif."]}, {"en": ["We train a 4-Gram language model on the Xinhua portion of English Gigaword corpus by Srilm Toolkit.", "We build an Open-Vocabulary language model with Kneser-Ney smoothing using the Srilm Toolkit."], "ms": ["Kami melatih model bahasa 4-Gram di bahagian Xinhua Gigaword corpus bahasa Inggeris oleh Srilm Toolkit.", "Kami membina model bahasa Open-Vocabulary dengan smoothing Kneser-Ney menggunakan Srilm Toolkit."]}, {"en": ["Li et al proposed a hybrid method based on Wordnet and the Brown corpus to incorporate semantic similarity between words, semantic similarity between sentences, and word order similarity to measure overall sentence similarity.", "Li et al propose a hybrid method based on Wordnet and the Brown corpus to incorporate semantic similarity between words, semantic similarity between sentences, and word order similarity to measure the overall sentence similarity."], "ms": ["Li et al mencadangkan kaedah hibrid berdasarkan Wordnet dan korpus Brown untuk menggabungkan persamaan semantik antara perkataan, persamaan semantik antara ayat, dan persamaan pesanan perkataan untuk mengukur persamaan keseluruhan ayat.", "Li et al mencadangkan kaedah hibrid berdasarkan Wordnet dan korpus Brown untuk menggabungkan persamaan semantik antara perkataan, persamaan semantik antara ayat, dan persamaan pesanan perkataan untuk mengukur persamaan keseluruhan ayat."]}, {"en": ["We use the Term-Sentence matrix to train a simple Generative topic model based on Lda.", "To support this point, we further train a topic model based on Lda by treating each poem as a document."], "ms": ["Kami menggunakan matriks Terma-Sentence untuk melatih model topik Generatif yang mudah berdasarkan Lda.", "Untuk menyokong perkara ini, kami melatih model topik berdasarkan Lda dengan memperlakukan setiap puisi sebagai dokumen."]}, {"en": ["We evaluated the translation quality using the Case-Insensitive Bleu-4 metric.", "We used the BLEU score to evaluate the translation accuracy with and without the Normalization."], "ms": ["Kami menilai kualiti terjemahan menggunakan metrik Case-Insensitive Bleu-4.", "Kami menggunakan skor BLEU untuk menilai ketepatan terjemahan dengan dan tanpa Normalisasi."]}, {"en": ["Case-Insensitive Bleu-4 is our evaluation metric.", "Our evaluation metric is Case-Insensitive Bleu-4."], "ms": ["Bleu-4 adalah metrik penilaian kami.", "Metrik penilaian kami ialah Case-Insensitive Bleu-4."]}, {"en": ["The language model Pis implemented as an N-Gram model using the Srilm-Toolkit with Kneser-Ney smoothing.", "The N-Gram models are created using the Srilm Toolkit with Good-Turning smoothing for both the Chinese and English data."], "ms": ["Model bahasa Pis dilaksanakan sebagai model N-Gram menggunakan Srilm-Toolkit dengan smoothing Kneser-Ney.", "Model N-Gram dicipta menggunakan Srilm Toolkit dengan smoothing Good-Turning untuk kedua-dua data Cina dan Inggeris."]}, {"en": ["Semantic role labeling (SRL) is the task of identifying the Predicate-Argument structure of a sentence.", "Semantic role labeling (SRL) is a form of shallow semantic Parsing whose goal is to discover the Predicate-Argument structure of each Predicate in a given input sentence."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas mengenal pasti struktur Predicate-Argument ayat.", "Pelabelan peranan semantik (SRL) adalah satu bentuk Parsing semantik cetek yang matlamatnya adalah untuk menemui struktur Predicate-Argument setiap Predicate dalam ayat input yang diberikan."]}, {"en": ["To test this hypothesis, we extended our model to incorporate Bigram Dependencies using a Hierarchical Dirichlet process.", "We implement this proposal with a Hierarchical Dirichlet process, which allows for sharing categories across data groups."], "ms": ["Untuk menguji hipotesis ini, kami memperluaskan model kami untuk menggabungkan Bigram Dependencies menggunakan proses Hierarki Dirichlet.", "Kami melaksanakan cadangan ini dengan proses Hierarki Dirichlet, yang membolehkan untuk berkongsi kategori merentasi kumpulan data."]}, {"en": ["We use Word2Vec tool which efficiently captures the semantic properties of words in the corpus.", "To get a dictionary of word Embeddings, we use the Word2Vec tool 2 and train it on the Chinese Gigaword corpus."], "ms": ["Kami menggunakan alat Word2Vec yang cekap menangkap sifat semantik perkataan dalam korpus.", "Untuk mendapatkan kamus Embedding kata, kami menggunakan alat Word2Vec 2 dan melatihnya di korpus Gigaword Cina."]}, {"en": ["Pang and Lee propose a Graph-Based method which finds minimum cuts in a document graph to classify the sentences into subjective or objective.", "Pang and Lee attempted to improve the performance of an SVM Classifier by identifying and removing objective sentences from the texts."], "ms": ["Pang dan Lee mencadangkan kaedah Berasaskan Grafik yang mendapati pemotongan minimum dalam graf dokumen untuk mengklasifikasikan ayat menjadi subjektif atau objektif.", "Pang dan Lee cuba meningkatkan prestasi Classifier SVM dengan mengenal pasti dan mengeluarkan ayat objektif daripada teks."]}, {"en": ["We train a Word2Vec Cbow model on raw 517 , 400 Emails from the En-Ron Email Dataset to obtain the word Embeddings.", "We Pre-Trained word Embeddings using Word2Vec over Tweet text of the full training data."], "ms": ["Kami melatih model Word2Vec Cbow pada mentah 517, 400 E-mel dari En-Ron Email Dataset untuk mendapatkan perkataan Embeddings.", "Kami Embedding perkataan Pra-Latih menggunakan Word2Vec melalui teks Tweet data latihan penuh."]}, {"en": ["We used small portions of the Penn WSJ Treebank for the experiments.", "We use the Penn WSJ Treebank for our experiments."], "ms": ["Kami menggunakan sebahagian kecil Penn WSJ Treebank untuk eksperimen.", "Kami menggunakan Penn WSJ Treebank untuk percubaan kami."]}, {"en": ["We set the feature weights by optimizing the BLEU score directly using minimum error rate training on the development set.", "Minimum error rate training under BLEU criterion is used to estimate 20 feature function weights over the larger development set."], "ms": ["Kami menetapkan berat ciri dengan mengoptimumkan skor BLEU secara langsung menggunakan latihan kadar ralat minimum pada set pembangunan.", "Latihan kadar ralat minimum di bawah kriteria BLEU digunakan untuk menganggarkan 20 berat fungsi ciri berbanding set pembangunan yang lebih besar."]}, {"en": ["We trained word vectors with the two architectures included in the Word2Vec software.", "We then used Word2Vec to train word Embeddings with 512 dimensions on each of the prepared Corpora."], "ms": ["Kami melatih vektor perkataan dengan dua seni bina yang termasuk dalam perisian Word2Vec.", "Kami kemudian menggunakan Word2Vec untuk melatih Embedding perkataan dengan 512 dimensi pada setiap Corpora yang disediakan."]}, {"en": ["Shen et al propose the Well-Formed dependency structure to filter the Hierarchical rule table.", "Shen et al describe the result of filtering rules by insisting that Target-Side rules are Well-Formed dependency trees."], "ms": ["Shen et al mencadangkan struktur dependensi Well-Formed untuk menapis jadual peraturan Hierarki.", "Shen et al menerangkan hasil daripada peraturan penapisan dengan menegaskan bahawa peraturan Target-Side adalah pokok dependensi yang baik."]}, {"en": ["Semeval 2014 is a semantic evaluation of natural language processing (Nlp) that comprises several tasks.", "Semeval is a yearly event in which international teams of researchers work on tasks in a competition format where they tackle open research questions in the field of semantic analysis."], "ms": ["Semeval 2014 adalah penilaian semantik pemprosesan bahasa semula jadi (Nlp) yang terdiri daripada beberapa tugas.", "Semeval adalah acara tahunan di mana pasukan penyelidik antarabangsa bekerja pada tugas dalam format pertandingan di mana mereka menangani soalan penyelidikan terbuka dalam bidang analisis semantik."]}, {"en": ["To train the models we use the default stochastic gradient descent Classifier provided by Scikit-Learn.", "We implement logistic regression with Scikit-Learn and use the Lbfgs Solver."], "ms": ["Untuk melatih model, kami menggunakan Klasifier keturunan kecerunan stokastik lalai yang disediakan oleh Scikit-Learn.", "Kami melaksanakan regresi logistik dengan Scikit-Learn dan menggunakan Lbfgs Solver."]}, {"en": ["User affect parameters can increase the usefulness of these models.", "User affect parameters increase the usefulness of these models."], "ms": ["Parameter kesan pengguna boleh meningkatkan kegunaan model ini.", "Pengguna mempengaruhi parameter meningkatkan kegunaan model ini."]}, {"en": ["Structured syntactic knowledge is important for phrase reordering.", "Syntactic information is a useful feature to phrase reordering."], "ms": ["Pengetahuan sintaksis yang tersusun adalah penting untuk penyusunan semula frasa.", "Maklumat sintaksis adalah ciri berguna untuk penyusunan semula frasa."]}, {"en": ["We used the Pre-Trained word Embeddings that were learned using the Word2Vec Toolkit on Google news Dataset.", "In this baseline, we applied the word Embedding trained by Skipgram on Wiki2014."], "ms": ["Kami menggunakan Embedding perkataan Pra-Latih yang dipelajari menggunakan Word2Vec Toolkit pada Dataset berita Google.", "Dalam asas ini, kami menggunakan perkataan Embedding yang dilatih oleh Skipgram di Wiki2014."]}, {"en": ["Wikipedia is a free Multilingual Online encyclopedia and a rapidly growing resource.", "Wikipedia is a large, Multilingual, highly structured, Multi-Domain encyclopedia, providing an increasingly large wealth of knowledge."], "ms": ["Wikipedia adalah ensiklopedia Online Multilingual percuma dan sumber yang berkembang pesat.", "Wikipedia adalah ensiklopedia Multi-Domain yang besar, berbilang bahasa, sangat berstruktur, yang menyediakan kekayaan pengetahuan yang semakin besar."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of determining the correct meaning for an ambiguous word from its context.", "In natural language, a word often assumes different meanings, and the task of determining the correct meaning, or sense, of a word in different contexts is known as word sense Disambiguation (Wsd)."], "ms": ["Kemusykilan erti kata Kemusykilan (Wsd) ialah tugas menentukan makna yang betul bagi perkataan yang samar-samar dari konteksnya.", "Dalam bahasa semula jadi, perkataan sering mengandaikan makna yang berbeza, dan tugas menentukan makna yang betul, atau rasa, perkataan dalam konteks yang berbeza dikenali sebagai kata rasa Disambiguation (Wsd)."]}, {"en": ["A Bunsetsu consists of one independent word and zero or more ancillary words.", "A Bunsetsu consists of one independent word and more than zero ancillary words."], "ms": ["Bunsetsu terdiri daripada satu perkataan bebas dan sifar atau lebih perkataan sampingan.", "Bunsetsu terdiri daripada satu perkataan bebas dan lebih daripada sifar perkataan sampingan."]}, {"en": ["A semantic Parser is learned given a set of sentences and their correct logical forms using Smt methods.", "Context-Free grammar augmented with \u00a6\u00cb-Operators is learned given a set of training sentences and their correct logical forms."], "ms": ["Penghurai semantik dipelajari diberikan satu set ayat dan bentuk logik yang betul menggunakan kaedah Smt.", "Tatabahasa Bebas Konteks ditambah dengan -Operator dipelajari diberikan satu set ayat latihan dan bentuk logik yang betul."]}, {"en": ["We Preprocessed the training Corpora with scripts included in the Moses Toolkit.", "We trained the statistical Phrase-Based systems using the Moses Toolkit with Mert tuning."], "ms": ["Kami memproses latihan Corpora dengan skrip yang termasuk dalam Musa Toolkit.", "Kami melatih sistem berasaskan frasa statistik menggunakan Musa Toolkit dengan penalaan Mert."]}, {"en": ["Relation extraction is the task of finding semantic relations between entities from text.", "Relation extraction (re) is a task of identifying typed relations between known entity mentions in a sentence."], "ms": ["Pengekstrakan hubungan adalah tugas mencari hubungan semantik antara entiti dari teks.", "Pengekstrakan hubungan (re) adalah tugas untuk mengenal pasti hubungan yang ditaip antara sebutan entiti yang diketahui dalam ayat."]}, {"en": ["We measured translation performance with BLEU.", "We evaluated our models using BLEU and Ter."], "ms": ["Kami mengukur prestasi terjemahan dengan BLEU.", "Kami menilai model kami menggunakan BLEU dan Ter."]}, {"en": ["We follow the neural machine translation architecture by Bahdanau et al, which we will briefly summarize here.", "We use the Attention-Based Nmt model introduced by Bahdanau et al as our Text-Only Nmt baseline."], "ms": ["Kami mengikuti seni bina terjemahan mesin saraf oleh Bahdanau et al, yang akan kita ringkaskan di sini.", "Kami menggunakan model Nmt Berasaskan Perhatian yang diperkenalkan oleh Bahdanau et al sebagai garis dasar Text-Only Nmt kami."]}, {"en": ["The parameters of the Log-Linear model are tuned by optimizing BLEU on the development data using Mert.", "The parameter for each feature function in Log-Linear model is Optimized by Mert training."], "ms": ["Parameter model Log-Linear ditala dengan mengoptimumkan BLEU pada data pembangunan menggunakan Mert.", "Parameter bagi setiap fungsi ciri dalam model Log-Linear dioptimumkan oleh latihan Mert."]}, {"en": ["For language modeling, we used the Trigram model of Stolcke.", "For language models, we use the Srilm linear interpolation feature."], "ms": ["Untuk pemodelan bahasa, kami menggunakan model Trigram Stolcke.", "Untuk model bahasa, kami menggunakan ciri interpolasi linear Srilm."]}, {"en": ["Jiang et al , 2007) put forward a PTC framework based on support vector machine.", "Jiang et al , 2007) put forward a PTC framework based on the SVM model."], "ms": ["Jiang et al, 2007) mengemukakan rangka kerja PTC berdasarkan mesin vektor sokongan.", "Jiang et al, 2007) mengemukakan rangka kerja PTC berdasarkan model SVM."]}, {"en": ["Sentiment analysis is a natural language processing (Nlp) task (Cite-P-10-3-0) which aims at classifying documents according to the opinion expressed about a given subject (Federici and Dragoni , 2016A, B).", "Sentiment analysis is the computational analysis of people \u2019 s feelings or beliefs expressed in texts such as emotions, opinions, attitudes, appraisals, etc . (Cite-P-11-3-3)."], "ms": ["Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) (Cite-P-10-3-0) yang bertujuan untuk mengklasifikasikan dokumen mengikut pendapat yang dinyatakan mengenai subjek tertentu (Federici dan Dragoni, 2016A, B).", "Analisis sentimen adalah analisis pengiraan perasaan atau kepercayaan orang yang dinyatakan dalam teks seperti emosi, pendapat, sikap, penilaian, dan lain-lain (Cite-P-11-3-3)."]}, {"en": ["We report BLEU scores computed using Sacrebleu.", "We also measure overall performance with Uncased BLEU."], "ms": ["Kami melaporkan skor BLEU yang dikira menggunakan Sacrebleu.", "Kami juga mengukur prestasi keseluruhan dengan Uncased BLEU."]}, {"en": ["Sentiment analysis is the study of the subjectivity and polarity (positive vs. negative) of a text (Cite-P-7-1-10).", "Sentiment analysis is a fundamental problem aiming to give a machine the ability to understand the emotions and opinions expressed in a written text."], "ms": ["Analisis kepekaan adalah kajian subjektiviti dan polariti (positif vs negatif) teks (Cite-P-7-1-10).", "Analisis sentimen adalah masalah asas yang bertujuan untuk memberi mesin keupayaan untuk memahami emosi dan pendapat yang dinyatakan dalam teks bertulis."]}, {"en": ["Our word Embeddings is Initialized with 100-Dimensional glove word Embeddings.", "We use the Pre-Trained glove 50-Dimensional word Embeddings to represent words found in the glove Dataset."], "ms": ["Perkataan Embeddings kami Dimulakan dengan perkataan sarung tangan 100-Dimensional Embeddings.", "Kami menggunakan sarung tangan Pra-Latih 50-Dimensional Embedding perkataan untuk mewakili perkataan yang terdapat dalam Dataset sarung tangan."]}, {"en": ["Hence, we use the Cmu Twitter Pos-Tagger to obtain the Part-Of-Speech tags.", "We use the Cmu Twitter Part-Of-Speech Tagger to select only instances in the verb sense."], "ms": ["Oleh itu, kami menggunakan Cmu Twitter Pos-Tagger untuk mendapatkan tag Bahagian-Daripada-Pertuturan.", "Kami menggunakan Cmu Twitter Part-Of-Speech Tagger untuk memilih hanya contoh dalam erti kata kata."]}, {"en": ["A 4-Grams language model is trained by the Srilm Toolkit.", "Language models were built using the Srilm Toolkit 16."], "ms": ["Model bahasa 4-Gram dilatih oleh Srilm Toolkit.", "Model bahasa dibina menggunakan Srilm Toolkit 16."]}, {"en": ["Word sense Disambiguation (Wsd) is the task of determining the correct meaning or sense of a word in context.", "In natural language, a word often assumes different meanings, and the task of determining the correct meaning, or sense, of a word in different contexts is known as word sense Disambiguation (Wsd)."], "ms": ["Kemusykilan kata Kemusykilan perkataan (Wsd) ialah tugas menentukan makna atau rasa yang betul sesuatu perkataan dalam konteks.", "Dalam bahasa semula jadi, perkataan sering mengandaikan makna yang berbeza, dan tugas menentukan makna yang betul, atau rasa, perkataan dalam konteks yang berbeza dikenali sebagai kata rasa Disambiguation (Wsd)."]}, {"en": ["We use the well-known word Embedding model that is a robust framework to incorporate word representation features.", "We use the 300-Dimensional Skip-Gram word Embeddings built on the Google-News corpus."], "ms": ["Kami menggunakan model Embedding perkataan yang terkenal yang merupakan rangka kerja yang mantap untuk menggabungkan ciri perwakilan perkataan.", "Kami menggunakan Embedding perkataan Skip-Gram 300-Dimensional yang dibina di korpus Google-News."]}, {"en": ["Relation extraction is the task of finding relationships between two entities from text.", "Relation extraction (re) is the task of assigning a semantic relationship between a pair of arguments."], "ms": ["Pengekstrakan hubungan adalah tugas mencari hubungan antara dua entiti dari teks.", "Pengekstrakan hubungan (re) adalah tugas untuk menetapkan hubungan semantik antara sepasang hujah."]}, {"en": ["Relation extraction is the task of detecting and characterizing semantic relations between entities from free text.", "Relation extraction is a fundamental step in many natural language processing applications such as learning Ontologies from texts (Cite-P-12-1-0) and question answering (Cite-P-12-3-6)."], "ms": ["Pengekstrakan hubungan adalah tugas mengesan dan mencirikan hubungan semantik antara entiti dari teks percuma.", "Pengekstrakan hubungan adalah langkah asas dalam banyak aplikasi pemprosesan bahasa semula jadi seperti pembelajaran Ontologi dari teks (Cite-P-12-1-0) dan jawapan soalan (Cite-P-12-3-6)."]}, {"en": ["Discourse Parsing is a challenging task and is crucial for discourse analysis.", "Discourse Parsing is a fundamental task in natural language processing that entails the discovery of the latent relational structure in a Multi-Sentence piece of text."], "ms": ["Parsing wacana adalah tugas yang mencabar dan penting untuk analisis wacana.", "Parsing Wacana adalah tugas asas dalam pemprosesan bahasa semula jadi yang melibatkan penemuan struktur hubungan terpendam dalam sekeping teks Multi-Sentence."]}, {"en": ["A 3-Gram language model is trained on the target side of the training data by the Srilm Toolkits with modified Kneser-Ney smoothing.", "The language model is a large interpolated 5-Gram LM with modified Kneser-Ney smoothing."], "ms": ["Model bahasa 3-Gram dilatih pada sisi sasaran data latihan oleh Srilm Toolkits dengan smoothing Kneser-Ney yang diubahsuai.", "Model bahasa adalah LM 5-Gram interpolated besar dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["Turney and Littman use Pointwise mutual information and latent semantic analysis to determine the similarity of the word of unknown polarity with the words in both positive and negative seed sets.", "Turney and Littman compute the point wise mutual information of the target term with each seed positive and negative term as a measure of their semantic Association."], "ms": ["Turney dan Littman menggunakan maklumat bersama Pointwise dan analisis semantik laten untuk menentukan persamaan perkataan polariti yang tidak diketahui dengan perkataan dalam kedua-dua set benih positif dan negatif.", "Turney dan Littman mengira titik maklumat bersama bijak istilah sasaran dengan setiap istilah positif dan negatif sebagai ukuran Persatuan semantik mereka."]}, {"en": ["Our translation model is implemented as an N-Gram model of operations using the Srilm Toolkit with Kneser-Ney smoothing.", "We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus."], "ms": ["Model terjemahan kami dilaksanakan sebagai model operasi N-Gram menggunakan Srilm Toolkit dengan smoothing Kneser-Ney.", "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side."]}, {"en": ["Marcu and Wong , 2002) presents a joint probability model for Phrase-Based translation.", "Marcu and Wong present a joint probability model for Phrase-Based translation."], "ms": ["Marcu dan Wong (2002) membentangkan model kebarangkalian bersama untuk terjemahan Berasaskan Frasa.", "Marcu dan Wong mempersembahkan model kebarangkalian bersama untuk terjemahan Berasaskan Frasa."]}, {"en": ["For the Word-Embedding based Classifier, we use the glove Pre-Trained word Embeddings.", "We use Pre-Trained glove vector for Initialization of word Embeddings."], "ms": ["Untuk Klasifier berasaskan Word-Embedding, kami menggunakan Embedding perkataan Pra-Trained sarung tangan.", "Kami menggunakan vektor sarung tangan pra-latihan untuk Permulaan Embedding perkataan."]}, {"en": ["We used the Moses machine translation Decoder, using the default features and decoding settings.", "For decoding, we used the state-of-the-art Phrasebased Smt Toolkit Moses with default options, except for the distortion limit."], "ms": ["Kami menggunakan Decoder terjemahan mesin Moses, menggunakan ciri lalai dan tetapan penyahkodan.", "Untuk penyahkodan, kami menggunakan Moses Smt Toolkit berasaskan Phrase dengan pilihan lalai, kecuali had penyelewengan."]}, {"en": ["Coreference resolution is a challenging task, that involves identification and clustering of noun phrases mentions that refer to the same Real-World entity.", "Coreference resolution is the task of partitioning a set of mentions (I.E . person, organization and location) into entities."], "ms": ["Resolusi spatial adalah tugas yang mencabar, yang melibatkan pengenalan dan pengelompokan frasa kata nama yang menyebut yang merujuk kepada entiti Dunia Nyata yang sama.", "Resolusi spatial adalah tugas pembahagian satu set sebutan (I.E. orang, organisasi dan lokasi) ke dalam entiti."]}, {"en": ["For the mix one, we also train word Embeddings of dimension 50 using glove.", "For all models, we use the 300-Dimensional glove word Embeddings."], "ms": ["Untuk campuran satu, kami juga melatih perkataan Embeddings dimensi 50 menggunakan sarung tangan.", "Untuk semua model, kami menggunakan perkataan sarung tangan 300 dimensi Embeddings."]}, {"en": ["The word Embeddings are Initialized with 100-Dimensions vectors Pre-Trained by the Cbow model.", "The character Embeddings are computed using a method similar to Word2Vec."], "ms": ["Perkataan Embeddings Dimulakan dengan vektor 100-Dimensions Pra-Trained oleh model Cbow.", "Embedding watak dikira menggunakan kaedah yang serupa dengan Word2Vec."]}, {"en": ["We use BLEU to evaluate translation quality.", "Translation quality can be measured in terms of the BLEU metric."], "ms": ["Kami menggunakan BLEU untuk menilai kualiti terjemahan.", "Kualiti terjemahan boleh diukur dari segi metrik BLEU."]}, {"en": ["For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided.", "We use Srilm for training a Trigram language model on the English side of the training corpus."], "ms": ["Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan.", "Kami menggunakan Srilm untuk melatih model bahasa Trigram di sisi bahasa Inggeris korpus latihan."]}, {"en": ["Part-Of-Speech (Pos) tagging is the task of assigning each of the words in a given piece of text a Contextually suitable grammatical category.", "Part-Of-Speech (Pos) tagging is a fundamental Nlp task, used by a wide variety of applications."], "ms": ["Penandaan Part-Of-Speech (Pos) adalah tugas untuk menetapkan setiap perkataan dalam sekeping teks tertentu kategori tatabahasa yang sesuai secara kontekstual.", "Tag Part-Of-Speech (Pos) adalah tugas asas Nlp, yang digunakan oleh pelbagai aplikasi."]}, {"en": ["We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus.", "We use Sri language modeling Toolkit to train a 5-Gram language model on the English sentences of Fbis corpus."], "ms": ["Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side.", "Kami menggunakan Sri bahasa pemodelan Toolkit untuk melatih model bahasa 5-Gram pada ayat bahasa Inggeris Fbis corpus."]}, {"en": ["For the semantic language model, we used the Srilm package and trained a Tri-Gram language model with the default Goodturing smoothing.", "We trained a 5-Gram language model on the Xinhua portion of Gigaword corpus using the Srilm Toolkit."], "ms": ["Untuk model bahasa semantik, kami menggunakan pakej Srilm dan melatih model bahasa Tri-Gram dengan smoothing Goodturing lalai.", "Kami melatih model bahasa 5-Gram di bahagian Xinhua Gigaword corpus menggunakan Srilm Toolkit."]}, {"en": ["The training of the classifiers has been performed with Scikit-Learn.", "The standard classifiers are implemented with Scikit-Learn."], "ms": ["Latihan pengelas telah dilakukan dengan Scikit-Learn.", "Pengelas standard dilaksanakan dengan Scikit-Learn."]}, {"en": ["To learn the topics we use latent Dirichlet allocation.", "We used latent Dirichlet allocation to construct our topics."], "ms": ["Untuk mempelajari topik yang kita gunakan peruntukan Dirichlet laten.", "Kami menggunakan peruntukan Dirichlet laten untuk membina topik kami."]}, {"en": ["We report Case-Sensitive BLEU and Ter as the mt evaluation Metrics.", "We also report the results using BLEU and Ter Metrics."], "ms": ["Kami melaporkan Case-Sensitive BLEU dan Ter sebagai Metrik penilaian mt.", "Kami juga melaporkan hasil menggunakan BLEU dan Ter Metrics."]}, {"en": ["These features are the output from the Srilm Toolkit.", "The Trigram language model is implemented in the Srilm Toolkit."], "ms": ["Ciri-ciri ini adalah keluaran dari Srilm Toolkit.", "Model bahasa Trigram dilaksanakan dalam Srilm Toolkit."]}, {"en": ["Sentiment analysis (SA) is a field of knowledge which deals with the analysis of people \u2019 s opinions, sentiments, evaluations, appraisals, attitudes and emotions towards particular entities (Cite-P-17-1-0).", "Sentiment analysis (SA) is the determination of the polarity of a piece of text (positive, negative, neutral)."], "ms": ["Analisis sentimen (SA) adalah bidang pengetahuan yang berkaitan dengan analisis pendapat, sentimen, penilaian, penilaian, sikap dan emosi orang terhadap entiti tertentu (Cite-P-17-1-0).", "Analisis kepekaan (SA) adalah penentuan polariti sekeping teks (positif, negatif, neutral)."]}, {"en": ["Early work in Frame-Semantic analysis was pioneered by Gildea and Jurafsky.", "Semantic role labeling was pioneered by Gildea and Jurafsky."], "ms": ["Kerja awal dalam analisis Frame-Semantik dipelopori oleh Gildea dan Jurafsky.", "Pelabelan peranan semantik dipelopori oleh Gildea dan Jurafsky."]}, {"en": ["We used Trigram language models with interpolated Kneser-Kney discounting trained using the Sri language modeling Toolkit.", "We estimated lexical Surprisal using Trigram models trained on 1 million Hindi sentences from Emille corpus using the Srilm Toolkit."], "ms": ["Kami menggunakan model bahasa Trigram dengan diskaun Kneser-Kney yang diinterpolasi dilatih menggunakan Toolkit pemodelan bahasa Sri.", "Kami menganggarkan Kejutan leksikal menggunakan model Trigram yang dilatih pada 1 juta ayat Hindi dari Emille corpus menggunakan Srilm Toolkit."]}, {"en": ["Semantic role labeling (SRL) is the task of automatic recognition of individual Predicates together with their major roles (E.G . frame elements) as they are grammatically realized in input sentences.", "Semantic role labeling (SRL) is a task of analyzing Predicate-Argument structures in texts."], "ms": ["Pelabelan peranan semantik (SRL) adalah tugas pengiktirafan automatik individu Predicates bersama-sama dengan peranan utama mereka (unsur bingkai G) kerana mereka direalisasikan secara tatabahasa dalam ayat input.", "Pelabelan peranan semantik (SRL) adalah tugas menganalisis struktur Predicate-Argument dalam teks."]}, {"en": ["Ccg is a Lexicalized, mildly Context-Sensitive Parsing formalism that models a wide range of linguistic phenomena.", "Ccg is a Linguistically-Motivated Categorial formalism for modeling a wide range of language phenomena."], "ms": ["Ccg adalah formalisme Parsing Lexicalized, ringan Konteks-Sensitif yang memodelkan pelbagai fenomena linguistik.", "Ccg adalah formalisme Categorial Bermotivasi Linguistik untuk memodelkan pelbagai fenomena bahasa."]}, {"en": ["We used the Wapiti Toolkit, based on the Linear-Chain Crfs framework.", "For the implementation of Discriminative sequential model, we chose the Wapiti 4 Toolkit."], "ms": ["Kami menggunakan Wapiti Toolkit, berdasarkan kerangka Linear-Chain Crfs.", "Untuk pelaksanaan model berurutan Discriminative, kami memilih Wapiti 4 Toolkit."]}, {"en": ["Arabic is a Morphologically complex language.", "In Arabic, there is a reasonable number of sentiment Lexicons but with major deficiencies."], "ms": ["Bahasa Arab merupakan bahasa yang kompleks secara Morfologi.", "Dalam bahasa Arab, terdapat sebilangan sentimen Lexicon yang munasabah tetapi dengan kekurangan yang besar."]}, {"en": ["We train a Trigram language model with modified Kneser-Ney smoothing from the training Dataset using the Srilm Toolkit, and use the same language model for all three systems.", "We use Srilm Toolkit to train a Trigram language model with modified Kneser-Ney smoothing on the target side of training corpus."], "ms": ["Kami melatih model bahasa Trigram dengan Kneser-Ney yang diubahsuai dari Dataset latihan menggunakan Srilm Toolkit, dan menggunakan model bahasa yang sama untuk ketiga-tiga sistem.", "Kami menggunakan Srilm Toolkit untuk melatih model bahasa Trigram dengan smoothing Kneser-Ney yang diubahsuai di sisi sasaran korpus latihan."]}, {"en": ["We use the glove Pre-Trained word Embeddings for the vectors of the content words.", "We use glove vectors with 200 dimensions as Pre-Trained word Embeddings, which are tuned during training."], "ms": ["Kami menggunakan sarung tangan Embeddings perkataan Pra-Latih untuk vektor perkataan kandungan.", "Kami menggunakan vektor sarung tangan dengan 200 dimensi sebagai Embedding perkataan Pra-Latih, yang ditala semasa latihan."]}, {"en": ["We trained a 5-Gram language model on the Xinhua portion of Gigaword corpus using the Srilm Toolkit.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing."], "ms": ["Kami melatih model bahasa 5-Gram di bahagian Xinhua Gigaword corpus menggunakan Srilm Toolkit.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["The translation quality is evaluated by Case-Insensitive Bleu-4.", "All systems are evaluated using Case-Insensitive BLEU."], "ms": ["Kualiti terjemahan dinilai oleh Case-Insensitive Bleu-4.", "Semua sistem dinilai menggunakan Case-Insensitive BLEU."]}, {"en": ["The probabilistic language model is constructed on Google web 1T 5-Gram corpus by using the Srilm Toolkit.", "A 4-Gram language model generated by Sri language modeling Toolkit is used in the Cube-Pruning process."], "ms": ["Model bahasa probabilistik dibina di Google web 1T 5-Gram corpus dengan menggunakan Srilm Toolkit.", "Model bahasa 4-Gram yang dihasilkan oleh pemodelan bahasa Sri Toolkit digunakan dalam proses Cube-Pruning."]}, {"en": ["We chose the Skip-Gram model provided by Word2Vec tool developed by for training word Embeddings.", "For a fair comparison to our model, we used Word2Vec, that Pretrain word Embeddings at a token level."], "ms": ["Kami memilih model Skip-Gram yang disediakan oleh alat Word2Vec yang dibangunkan oleh untuk latihan Embedding perkataan.", "Untuk perbandingan yang adil dengan model kami, kami menggunakan Word2Vec, bahawa Embedding perkataan Pretrain pada tahap token."]}, {"en": ["Inversion Transduction grammar is a well studied synchronous grammar formalism.", "Bracketing Transduction grammar is a special case of synchronous context free grammar."], "ms": ["Tatabahasa Transduksi ialah formalisme tatabahasa segerak yang dikaji dengan baik.", "Tatabahasa Transduksi jujukan adalah kes khas tatabahasa bebas konteks segerak."]}, {"en": ["Our Smt system is a Phrase-Based system based on the Moses Smt Toolkit.", "The baseline system is a Phrase-Based Smt system, built almost entirely using freely available components."], "ms": ["Sistem Smt kami adalah sistem Berasaskan Frasa berdasarkan Musa Smt Toolkit.", "Sistem asas adalah sistem Smt Berasaskan Frasa, dibina hampir sepenuhnya menggunakan komponen yang tersedia secara bebas."]}, {"en": ["The Optimisation of the feature weights of the model is done with minimum error rate training against the BLEU evaluation metric.", "The parameter for each feature function in Log-Linear model is Optimized by Mert training."], "ms": ["Pengoptimuman berat ciri model dilakukan dengan latihan kadar ralat minimum terhadap metrik penilaian BLEU.", "Parameter bagi setiap fungsi ciri dalam model Log-Linear dioptimumkan oleh latihan Mert."]}, {"en": ["Semantic Parsing is the task of translating text to a formal meaning representation such as logical forms or structured queries.", "Semantic Parsing is the task of converting natural language utterances into their complete formal meaning representations which are Executable for some application."], "ms": ["Penghuraian Semantik adalah tugas menterjemahkan teks kepada perwakilan makna formal seperti bentuk logik atau pertanyaan berstruktur.", "Penghuraian Semantik adalah tugas menukar ucapan bahasa semula jadi menjadi perwakilan makna formal lengkap mereka yang boleh dilaksanakan untuk beberapa aplikasi."]}, {"en": ["Coreference resolution is a Multi-Faceted task: humans resolve references by exploiting Contextual and grammatical clues, as well as semantic information and world knowledge, so capturing each of these will be necessary for an automatic system to fully solve the problem.", "Coreference resolution is the process of linking multiple mentions that refer to the same entity."], "ms": ["Resolusi spatial adalah tugas Multi-Faceted: manusia menyelesaikan rujukan dengan mengeksploitasi petunjuk Kontekstual dan tatabahasa, serta maklumat semantik dan pengetahuan dunia, jadi menangkap setiap ini akan diperlukan untuk sistem automatik menyelesaikan sepenuhnya masalah.", "Resolusi spatial adalah proses menghubungkan pelbagai sebutan yang merujuk kepada entiti yang sama."]}, {"en": ["We use Srilm for training a Trigram language model on the English side of the training data.", "We used Kenlm with Srilm to train a 5-Gram language model based on all available target language training data."], "ms": ["Kami menggunakan Srilm untuk melatih model bahasa Trigram di sisi bahasa Inggeris data latihan.", "Kami menggunakan Kenlm dengan Srilm untuk melatih model bahasa 5-Gram berdasarkan semua data latihan bahasa sasaran yang ada."]}, {"en": ["We apply Online training, where model parameters are Optimized by using Adagrad.", "We use stochastic gradient descent with Adagrad, L 2 Regularization and Minibatch training."], "ms": ["Kami menggunakan latihan dalam talian, di mana parameter model dioptimumkan dengan menggunakan Adagrad.", "Kami menggunakan keturunan kecerunan stokastik dengan latihan Adagrad, L 2 Regularization dan Minibatch."]}, {"en": ["For language model, we use a Trigram language model trained with the Srilm Toolkit on the English side of the training corpus.", "We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus."], "ms": ["Untuk model bahasa, kami menggunakan model bahasa Trigram yang dilatih dengan Srilm Toolkit di sisi bahasa Inggeris korpus latihan.", "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side."]}, {"en": ["We employed the machine learning tool of Scikit-Learn 3, for training the Classifier.", "We used the implementation of the Scikit-Learn 2 Module."], "ms": ["Kami menggunakan alat pembelajaran mesin Scikit-Learn 3, untuk melatih Pengelas.", "Kami menggunakan pelaksanaan Modul Scikit-Learn 2."]}, {"en": ["We also use a 4-Gram language model trained using Srilm with Kneser-Ney smoothing.", "The language models are 4-Grams with modified Kneser-Ney smoothing which have been trained with the Srilm Toolkit."], "ms": ["Kami juga menggunakan model bahasa 4-Gram yang dilatih menggunakan Srilm dengan smoothing Kneser-Ney.", "Model bahasa adalah 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang telah dilatih dengan Srilm Toolkit."]}, {"en": ["We implement an In-Domain language model using the Sri language modeling Toolkit.", "We use 5-Grams for all language models implemented using the Srilm Toolkit."], "ms": ["Kami melaksanakan model bahasa In-Domain menggunakan Toolkit pemodelan bahasa Sri.", "Kami menggunakan 5-Gram untuk semua model bahasa yang dilaksanakan menggunakan Srilm Toolkit."]}, {"en": ["For the semantic language model, we used the Srilm package and trained a Tri-Gram language model with the default Goodturing smoothing.", "We use a Fourgram language model with modified Kneser-Ney smoothing as implemented in the Srilm Toolkit."], "ms": ["Untuk model bahasa semantik, kami menggunakan pakej Srilm dan melatih model bahasa Tri-Gram dengan smoothing Goodturing lalai.", "Kami menggunakan model bahasa Fourgram dengan smoothing Kneser-Ney yang diubahsuai seperti yang dilaksanakan dalam Srilm Toolkit."]}, {"en": ["It is a standard Phrasebased Smt system built using the Moses Toolkit.", "Our mt Decoder is a proprietary engine similar to Moses."], "ms": ["Ia merupakan sistem Smt berasaskan Phrase standard yang dibina menggunakan Musa Toolkit.", "Decoder mt kami adalah enjin proprietari yang serupa dengan Musa."]}, {"en": ["We also use a 4-Gram language model trained using Srilm with Kneser-Ney smoothing.", "The language models were trained with Kneser-Ney Backoff smoothing using the Sri language modeling Toolkit ,."], "ms": ["Kami juga menggunakan model bahasa 4-Gram yang dilatih menggunakan Srilm dengan smoothing Kneser-Ney.", "Model bahasa dilatih dengan Kneser-Ney Backoff melicinkan menggunakan Toolkit pemodelan bahasa Sri,."]}, {"en": ["Zelenko et al and Culotta and Sorensen proposed kernels for dependency trees inspired by string kernels.", "Zelenko et al used the kernel methods for extracting relations from text."], "ms": ["Zelenko et al dan Culotta dan Sorensen mencadangkan kernel untuk pokok dependensi yang diilhamkan oleh kernel rentetan.", "Zelenko et al menggunakan kaedah kernel untuk mengekstrak hubungan dari teks."]}, {"en": ["This paper presents a novel framework called error case frames for correcting preposition errors.", "In view of this background, this paper presents a novel error correction framework called error case frames."], "ms": ["Kertas ini membentangkan rangka kerja novel yang dipanggil rangka kes ralat untuk membetulkan kesilapan preposisi.", "Memandangkan latar belakang ini, kertas ini membentangkan rangka kerja pembetulan ralat novel yang dipanggil rangka kes ralat."]}, {"en": ["To this end, we propose a new Annotation scheme to study how preferences are linguistically expressed in dialogues.", "To this end, we propose a new Annotation scheme to study how preferences are linguistically expressed in two different corpus."], "ms": ["Untuk tujuan ini, kami mencadangkan skim Annotasi baru untuk mengkaji bagaimana keutamaan dinyatakan secara linguistik dalam dialog.", "Untuk tujuan ini, kami mencadangkan skim Annotasi baru untuk mengkaji bagaimana keutamaan dinyatakan secara linguistik dalam dua korpus yang berbeza."]}, {"en": ["We employ a neural method, specifically the continuous Bag-Of-Words model to learn high-quality vector representations for words.", "Following, we develop a continuous Bag-Of-Words model that can effectively model the surrounding Contextual information."], "ms": ["Kami menggunakan kaedah saraf, khususnya model Bag-Of-Words yang berterusan untuk mempelajari perwakilan vektor berkualiti tinggi untuk perkataan.", "Berikutan itu, kami membangunkan model Bag-Of-Words yang berterusan yang dapat memodelkan maklumat Kontekstual di sekitarnya dengan berkesan."]}, {"en": ["Semantic Parsing is the task of converting a sentence into a representation of its meaning, usually in a logical form grounded in the symbols of some fixed Ontology or relational Database (Cite-P-21-3-3, Cite-P-21-3-4, Cite-P-21-1-11).", "Semantic Parsing is the task of mapping natural language sentences to a formal representation of meaning."], "ms": ["Penghuraian Semantik adalah tugas menukar ayat menjadi perwakilan maknanya, biasanya dalam bentuk logik yang didasarkan pada simbol beberapa Ontologi tetap atau Pangkalan Data hubungan (Cite-P-21-3-3, Cite-P-21-3-4, Cite-P-21-1-11).", "Penghuraian Semantik adalah tugas pemetaan ayat bahasa semula jadi kepada perwakilan makna formal."]}, {"en": ["We build an Open-Vocabulary language model with Kneser-Ney smoothing using the Srilm Toolkit.", "We use Sri language modeling Toolkit to train a 5-Gram language model on the English sentences of Fbis corpus."], "ms": ["Kami membina model bahasa Open-Vocabulary dengan smoothing Kneser-Ney menggunakan Srilm Toolkit.", "Kami menggunakan Sri bahasa pemodelan Toolkit untuk melatih model bahasa 5-Gram pada ayat bahasa Inggeris Fbis corpus."]}, {"en": ["Kalchbrenner et al propose a dynamic CNN model using a dynamic K-Max pooling mechanism which is able to generate a feature graph which captures a variety of word relations.", "Kalchbrenner et al show that a CNN for modeling sentences can achieve competitive results in polarity classification."], "ms": ["Kalchbrenner et al mengusulkan model CNN yang dinamis menggunakan mekanisme pooling K-Max yang dinamis yang mampu menghasilkan graf fitur yang menangkap berbagai hubungan kata.", "Kalchbrenner et al menunjukkan bahawa CNN untuk pemodelan ayat dapat mencapai hasil yang kompetitif dalam klasifikasi polarity."]}, {"en": ["We use the Stanford named entity Recognizer for this purpose.", "We use Stanford NER for named entity recognition."], "ms": ["Kami menggunakan Stanford dinamakan entiti Pengiktirafan untuk tujuan ini.", "Kami menggunakan Stanford NER untuk pengiktirafan entiti yang dinamakan."]}, {"en": ["We trained word vectors with the two architectures included in the Word2Vec software.", "We perform Pre-Training using the Skipgram Nn architecture available in the Word2Vec tool."], "ms": ["Kami melatih vektor perkataan dengan dua seni bina yang termasuk dalam perisian Word2Vec.", "Kami melakukan Pra-Latihan menggunakan seni bina Skipgram Nn yang terdapat dalam alat Word2Vec."]}, {"en": ["We build a 9-Gram LM using Srilm Toolkit with modified Kneser-Ney smoothing.", "We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing."], "ms": ["Kami membina LM 9-Gram menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.", "Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai."]}, {"en": ["We use Liblinear 9 to solve the Lr and SVM classification problems.", "We use the Liblinear package with the linear kernel 5."], "ms": ["Kami menggunakan Liblinear 9 untuk menyelesaikan masalah klasifikasi Lr dan SVM.", "Kami menggunakan pakej Liblinear dengan kernel linear 5."]}, {"en": ["We used the target side of the parallel corpus and the Srilm Toolkit to train a 5-Gram language model.", "We used the Srilm Toolkit to simulate the behavior of Flexgram models by using count files as input."], "ms": ["Kami menggunakan sisi sasaran korpus selari dan Srilm Toolkit untuk melatih model bahasa 5-Gram.", "Kami menggunakan Srilm Toolkit untuk mensimulasikan tingkah laku model Flexgram dengan menggunakan fail kiraan sebagai input."]}, {"en": ["Coreference resolution is a key task in natural language processing (Cite-P-13-1-8) aiming to detect the Referential expressions (mentions) in a text that point to the same entity.", "Coreference resolution is the problem of identifying which mentions (I.E ., noun phrases) refer to which Real-World entities."], "ms": ["Resolusi spatial adalah tugas utama dalam pemprosesan bahasa semula jadi (Cite-P-13-1-8) yang bertujuan untuk mengesan ungkapan rujukan (mention) dalam teks yang menunjuk kepada entiti yang sama.", "Resolusi spatial adalah masalah mengenal pasti sebutan mana (I.E., frasa kata nama) merujuk kepada entiti Dunia Nyata mana."]}, {"en": ["We use a standard Phrasebased translation system.", "Our baseline is a standard Phrase-Based Smt system."], "ms": ["Kami menggunakan sistem terjemahan berasaskan frasa standard.", "Asas kami adalah sistem Smt Berasaskan Frasa standard."]}, {"en": ["Twitter is a huge Microblogging service with more than 500 million Tweets per day from different locations of the world and in different languages (Cite-P-8-1-9).", "Twitter is a Microblogging site where people express themselves and react to content in real-time."], "ms": ["Twitter adalah perkhidmatan Microblogging yang besar dengan lebih daripada 500 juta Tweet setiap hari dari lokasi yang berbeza di dunia dan dalam bahasa yang berbeza (Cite-P-8-1-9).", "Twitter adalah laman Microblogging di mana orang menyatakan diri mereka dan bertindak balas terhadap kandungan dalam masa nyata."]}, {"en": ["We use the glove word vector representations of dimension 300.", "For all models, we use the 300-Dimensional glove word Embeddings."], "ms": ["Kami menggunakan perkataan sarung tangan perwakilan vektor dimensi 300.", "Untuk semua model, kami menggunakan perkataan sarung tangan 300 dimensi Embeddings."]}, {"en": ["We feed our features to a Multinomial naive Bayes Classifier in Scikit-Learn.", "We use a set of 318 English function words from the Scikit-Learn package."], "ms": ["Kami memberi ciri-ciri kami kepada Multinomial naive Bayes Classifier dalam Scikit-Learn.", "Kami menggunakan satu set 318 perkataan fungsi bahasa Inggeris dari pakej Scikit-Learn."]}, {"en": ["Relation extraction (re) is the process of generating structured relation knowledge from unstructured natural language texts.", "Relation extraction is a fundamental step in many natural language processing applications such as learning Ontologies from texts (Cite-P-12-1-0) and question answering (Cite-P-12-3-6)."], "ms": ["Pengekstrakan hubungan (re) adalah proses menghasilkan pengetahuan hubungan berstruktur dari teks bahasa semula jadi yang tidak berstruktur.", "Pengekstrakan hubungan adalah langkah asas dalam banyak aplikasi pemprosesan bahasa semula jadi seperti pembelajaran Ontologi dari teks (Cite-P-12-1-0) dan jawapan soalan (Cite-P-12-3-6)."]}, {"en": ["Our Cdsm feature is based on word vectors derived using a Skip-Gram model.", "The model parameters of word Embedding are Initialized using Word2Vec."], "ms": ["Ciri Cdsm kami adalah berdasarkan vektor perkataan yang diperolehi menggunakan model Skip-Gram.", "Parameter model Embedding perkataan Diawalkan menggunakan Word2Vec."]}, {"en": ["Ambiguity is a central issue in natural language processing.", "Ambiguity is the task of building up multiple alternative linguistic structures for a single input."], "ms": ["Ambiguity adalah isu utama dalam pemprosesan bahasa semula jadi.", "Ambiguity adalah tugas membina pelbagai struktur linguistik alternatif untuk input tunggal."]}, {"en": ["Similarly, Turian et al collectively used Brown clusters, Cw and Hlbl Embeddings, to improve the performance of named entity recognition and Chucking tasks.", "Turian et al used Unsupervised word representations as extra word features to improve the accuracy of both NER and Chunking."], "ms": ["Begitu juga, Turian et al secara kolektif menggunakan kluster Brown, Cw dan Hlbl Embeddings, untuk meningkatkan prestasi pengiktirafan entiti dinamakan dan tugas Chucking.", "Turian et al menggunakan perwakilan perkataan Unsupervised sebagai ciri perkataan tambahan untuk meningkatkan ketepatan kedua-dua NER dan Chunking."]}, {"en": ["The improved decision list can raise the F-Measure of error detection.", "Improved decision list can raise the F-Measure of error detection."], "ms": ["Senarai keputusan yang lebih baik boleh meningkatkan F-Measure pengesanan ralat.", "Senarai keputusan yang lebih baik boleh meningkatkan F-Measure pengesanan ralat."]}, {"en": ["Regarding SVM we used linear kernels implemented in Svm-Light.", "For the support vector machine, we used Svm-Light."], "ms": ["Mengenai SVM kami menggunakan kernel linear yang dilaksanakan dalam Svm-Light.", "Untuk mesin vektor sokongan, kami menggunakan Svm-Light."]}, {"en": ["We employ the glove and Node2Vec to generate the Pre-Trained word Embedding, obtaining two distinct Embedding for each word.", "To keep consistent, we Initialize the Embedding weight with Pre-Trained word Embeddings."], "ms": ["Kami menggunakan sarung tangan dan Node2Vec untuk menghasilkan Embedding perkataan Pra-Latih, memperoleh dua Embedding yang berbeza untuk setiap perkataan.", "Untuk memastikan konsisten, kami Memulakan berat Embedding dengan Embedding perkataan Pra-Trained."]}, {"en": ["Word sense Disambiguation (Wsd) is a task to identify the intended sense of a word based on its context.", "Word sense Disambiguation (Wsd) is a key task in computational lexical Semantics, inasmuch as it addresses the lexical ambiguity of text by making explicit the meaning of words occurring in a given context (Cite-P-18-3-10)."], "ms": ["Disambiguasi erti kata (Wsd) adalah tugas untuk mengenal pasti pengertian perkataan yang dimaksudkan berdasarkan konteksnya.", "Disambiguation Word Sense Disambiguation (Wsd) adalah tugas utama dalam Semantik leksikal komputasi, seperti menangani kekaburan leksikal teks dengan membuat makna kata yang eksplisit yang berlaku dalam konteks tertentu (Cite-P-18-3-10)."]}, {"en": ["We use Pre-Trained 100 dimensional glove word Embeddings.", "We use Pre-Trained Embeddings from glove."], "ms": ["Kami menggunakan perkataan sarung tangan 100 dimensi Pra-Trained Embeddings.", "Kami menggunakan Embeddings Pra-Trained daripada sarung tangan."]}, {"en": ["In order to measure translation quality, we use BLEU 7 and Ter scores.", "We will show translation quality measured with the BLEU score as a function of the phrase table size."], "ms": ["Untuk mengukur kualiti terjemahan, kami menggunakan skor BLEU 7 dan Ter.", "Kami akan menunjukkan kualiti terjemahan yang diukur dengan skor BLEU sebagai fungsi saiz jadual frasa."]}, {"en": ["Our Cdsm feature is based on word vectors derived using a Skip-Gram model.", "We use the 300-Dimensional Skip-Gram word Embeddings built on the Google-News corpus."], "ms": ["Ciri Cdsm kami adalah berdasarkan vektor perkataan yang diperolehi menggunakan model Skip-Gram.", "Kami menggunakan Embedding perkataan Skip-Gram 300-Dimensional yang dibina di korpus Google-News."]}, {"en": ["We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit.", "An in-house language modeling Toolkit was used to train the 4-Gram language models with modified Kneser-Ney smoothing over the Web-Crawled data."], "ms": ["Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit.", "Alat pemodelan bahasa dalaman digunakan untuk melatih model bahasa 4-Gram dengan Kneser-Ney yang diubahsuai melicinkan data Web-Crawled."]}, {"en": ["As with our original refined language model, we estimate each coarse language model using the Srilm Toolkit.", "We use the Srilm Toolkit to obtain the Per-Word-Perplexity of each suggested phrase, and normalize it by the maximal perplexity of the language model."], "ms": ["Seperti model bahasa halus asal kami, kami menganggarkan setiap model bahasa kasar menggunakan Srilm Toolkit.", "Kami menggunakan Srilm Toolkit untuk mendapatkan Per-Word-Perplexity setiap frasa yang dicadangkan, dan menormalkannya dengan kebingungan maksimum model bahasa."]}, {"en": ["Recurrent neural network architectures have proven to be well suited for many natural language generation tasks.", "Rnns have proven to be a very powerful model in many natural language tasks."], "ms": ["Seni bina rangkaian saraf berulang telah terbukti sangat sesuai untuk banyak tugas penjanaan bahasa semula jadi.", "Rnns telah terbukti menjadi model yang sangat kuat dalam banyak tugas bahasa semula jadi."]}, {"en": ["Specifically, we automatically reconstruct Phylogenetic language trees from Monolingual texts (translated from several source languages).", "By extracting structures from translated texts, we can generate a Phylogenetic tree that reflects the \u00a1\u00b0 true \u00a1\u00b1 distances among the source languages."], "ms": ["Secara khusus, kita secara automatik membina semula pokok bahasa filogenetik dari teks Monolingual (diterjemahkan dari beberapa bahasa sumber).", "Dengan mengekstrak struktur dari teks yang diterjemahkan, kita boleh menjana pokok filogenetik yang mencerminkan jarak \"benar\" di antara bahasa sumber."]}, {"en": ["Translation results are evaluated using the Word-Based BLEU score.", "The evaluation metric for the overall translation quality is Caseinsensitive Bleu4."], "ms": ["Hasil terjemahan dinilai menggunakan skor BLEU berasaskan perkataan.", "Metrik penilaian untuk kualiti terjemahan keseluruhan adalah Caseinsensitive Bleu4."]}, {"en": ["For our purpose we use Word2Vec Embeddings trained on a Google news Dataset and find the Pairwise Cosine distances for all words.", "On all Datasets and models, we use 300-Dimensional word vectors Pre-Trained on Google news."], "ms": ["Untuk tujuan kami, kami menggunakan Embeddings Word2Vec yang dilatih pada Dataset berita Google dan mencari jarak Pairwise Cosine untuk semua perkataan.", "Pada semua Dataset dan model, kami menggunakan 300-Dimensional vektor perkataan Pra-Trained pada berita Google."]}, {"en": ["In this task, we use the 300-Dimensional 840B glove word Embeddings.", "We used glove vectors trained on common crawl 840B 4 with 300 dimensions as fixed word Embeddings."], "ms": ["Dalam tugas ini, kami menggunakan perkataan sarung tangan 300-Dimensional 840B Embeddings.", "Kami menggunakan vektor sarung tangan yang dilatih pada merangkak biasa 840B 4 dengan dimensi 300 sebagai perkataan tetap Embeddings."]}, {"en": ["Many words have multiple meanings, and the process of identifying the correct meaning, or sense of a word in context, is known as word sense Disambiguation (Wsd).", "Word sense Disambiguation (Wsd) is the task of determining the meaning of a word in a given context."], "ms": ["Banyak perkataan mempunyai pelbagai makna, dan proses mengenal pasti makna yang betul, atau rasa perkataan dalam konteks, dikenali sebagai kata rasa Disambiguation (Wsd).", "Disambiguasi erti kata (Wsd) ialah tugas menentukan makna sesuatu perkataan dalam konteks tertentu."]}, {"en": ["Word sense Disambiguation is the task of assigning a sense to a word based on the context in which it occurs.", "Word sense Disambiguation is the process of determining which sense of a Homograph is correct in a given context."], "ms": ["Disambiguasi perkataan adalah tugas untuk memberikan rasa kepada perkataan berdasarkan konteks di mana ia berlaku.", "Kemusykilan kata Kemusykilan ialah proses menentukan rasa mana satu Homograf adalah betul dalam konteks tertentu."]}, {"en": ["Since text Categorization is a task based on predefined categories, we know the categories for classifying documents.", "Text Categorization is the classification of documents with respect to a set of predefined categories."], "ms": ["Oleh kerana teks Categorization adalah tugas berdasarkan kategori yang telah ditentukan, kami tahu kategori untuk mengklasifikasikan dokumen.", "Categorization Teks adalah pengelasan dokumen berkenaan dengan satu set kategori yang telah ditetapkan."]}, {"en": ["We learn our word Embeddings by using Word2Vec 3 on Unlabeled review data.", "We use the Word2Vec Skip-Gram model to learn initial word representations on Wikipedia."], "ms": ["Kami mempelajari perkataan Embeddings kami dengan menggunakan Word2Vec 3 pada data ulasan yang tidak berlabel.", "Kami menggunakan model Skip-Gram Word2Vec untuk mempelajari perwakilan perkataan awal di Wikipedia."]}, {"en": ["Such approaches, for example, Transition-Based and Graph-Based models have attracted the most attention in dependency Parsing in recent works.", "Transition-Based methods have given competitive Accuracies and efficiencies for dependency Parsing."], "ms": ["Pendekatan sedemikian, sebagai contoh, model Berasaskan Peralihan dan Berasaskan Grafik telah menarik perhatian paling dalam Parsing dependensi dalam karya-karya baru-baru ini.", "Kaedah berasaskan peralihan telah memberikan Ketepatan dan kecekapan yang kompetitif untuk Penggantungan dependensi."]}, {"en": ["Discourse Parsing is a natural language processing (Nlp) task with the potential utility for many other natural language processing tasks (Webber et al . , 2011).", "Discourse Parsing is the process of discovering the latent relational structure of a long form piece of text and remains a significant open challenge."], "ms": ["Wacana Parsing adalah tugas pemprosesan bahasa semula jadi (Nlp) dengan utiliti yang berpotensi untuk banyak tugas pemprosesan bahasa semula jadi yang lain (Webber et al., 2011).", "Parsing Wacana adalah proses menemui struktur hubungan terpendam sekeping teks bentuk panjang dan kekal sebagai cabaran terbuka yang penting."]}, {"en": ["In addition, we use an English corpus of roughly 227 million words to build a Target-Side 5-Gram language model with Srilm in combination with Kenlm.", "To calculate language model features, we train traditional N-Gram language models with Ngram lengths of four and five using the Srilm Toolkit."], "ms": ["Di samping itu, kami menggunakan korpus bahasa Inggeris kira-kira 227 juta perkataan untuk membina model bahasa Target-Side 5-Gram dengan Srilm dalam kombinasi dengan Kenlm.", "Untuk mengira ciri model bahasa, kami melatih model bahasa tradisional N-Gram dengan panjang Ngram empat dan lima menggunakan Srilm Toolkit."]}, {"en": ["The present paper is the first to use a Reranking Parser and the first to address the adaptation scenario for this problem.", "The present paper is a report of these investigations, their results and conclusions drawn therefrom."], "ms": ["Kertas masa kini adalah yang pertama menggunakan Parser Reranking dan yang pertama untuk menangani senario penyesuaian untuk masalah ini.", "Kertas kerja ini adalah laporan penyiasatan ini, hasil dan kesimpulan mereka yang diambil daripadanya."]}, {"en": ["These language models were built up to an order of 5 with Kneser-Ney smoothing using the Srilm Toolkit.", "The Target-Side language models were estimated using the Srilm Toolkit."], "ms": ["Model bahasa ini dibina sehingga urutan 5 dengan smoothing Kneser-Ney menggunakan Srilm Toolkit.", "Model bahasa Target-Side dianggarkan menggunakan Srilm Toolkit."]}, {"en": ["The parameter weights are Optimized with minimum error rate training.", "These models can be tuned using minimum error rate training."], "ms": ["Berat parameter dioptimumkan dengan latihan kadar ralat minimum.", "Model-model ini boleh ditala menggunakan latihan kadar ralat minimum."]}, {"en": ["Event Coreference resolution is the task of determining which event mentions in a text refer to the same Real-World event.", "More importantly, event Coreference resolution is a necessary component in any reasonable, broadly applicable computational model of natural language understanding (Cite-P-18-3-4)."], "ms": ["Resolusi Resolusi Peristiwa ialah tugas menentukan sebutan peristiwa mana dalam teks merujuk kepada peristiwa Dunia Nyata yang sama.", "Lebih penting lagi, resolusi Coreference peristiwa adalah komponen yang diperlukan dalam mana-mana model pengiraan yang munasabah dan luas pemahaman bahasa semulajadi (Cite-P-18-3-4)."]}, {"en": ["Model parameters \u4f4d I are estimated using Numer-Ical optimization methods so as to maximize the Log-Likelihood of the training data.", "Model parameters that maximize the Loglikelihood of the training data are computed using a numerical optimization method."], "ms": ["Parameter model Saya dianggarkan menggunakan kaedah pengoptimuman Numer-Ical untuk memaksimumkan Log-Likelihood data latihan.", "Parameter model yang memaksimumkan Loglikelihood data latihan dikira menggunakan kaedah pengoptimuman berangka."]}, {"en": ["Relation extraction (re) is the task of recognizing the assertion of a particular relationship between two or more entities in text.", "Relation extraction is the task of finding relational facts in unstructured text and putting them into a structured (Tabularized) knowledge base."], "ms": ["Pengekstrakan hubungan (re) adalah tugas untuk mengiktiraf penegasan hubungan tertentu antara dua atau lebih entiti dalam teks.", "Pengekstrakan hubungan adalah tugas mencari fakta hubungan dalam teks yang tidak berstruktur dan memasukkannya ke dalam pangkalan pengetahuan berstruktur (Tabularized)."]}, {"en": ["We implement an In-Domain language model using the Sri language modeling Toolkit.", "We apply Sri language modeling Toolkit to train a 4-Gram language model with Kneser-Ney smoothing."], "ms": ["Kami melaksanakan model bahasa In-Domain menggunakan Toolkit pemodelan bahasa Sri.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model bahasa 4-Gram dengan smoothing Kneser-Ney."]}, {"en": ["Dependency Parsing is a simpler task than constituent Parsing, since dependency trees do not have extra Non-Terminal nodes and there is no need for a grammar to generate them.", "Dependency Parsing is a topic that has engendered increasing interest in recent years."], "ms": ["Parsing Dependensi adalah tugas yang lebih mudah daripada Parsing konstituen, kerana pokok dependensi tidak mempunyai nod Bukan Terma tambahan dan tidak perlu tatabahasa untuk menghasilkannya.", "Penghuraian Dependensi adalah topik yang telah menimbulkan minat yang semakin meningkat dalam beberapa tahun kebelakangan ini."]}, {"en": ["Coreference resolution is a well known clustering task in natural language processing.", "Coreference resolution is the task of partitioning the set of mentions of discourse Referents in a text into classes (or \u2018 chains \u2019) corresponding to those Referents (Cite-P-12-3-14)."], "ms": ["Resolusi spatial adalah tugas clustering yang terkenal dalam pemprosesan bahasa semula jadi.", "Resolusi spatial adalah tugas pembahagian set sebutan rujukan wacana dalam teks ke dalam kelas (atau rantai ) yang sepadan dengan rujukan tersebut (Cite-P-12-3-14)."]}, {"en": ["For our purpose we use Word2Vec Embeddings trained on a Google news Dataset and find the Pairwise Cosine distances for all words.", "We adopt Pretrained Embeddings for word forms with the provided training data by Word2Vec."], "ms": ["Untuk tujuan kami, kami menggunakan Embeddings Word2Vec yang dilatih pada Dataset berita Google dan mencari jarak Pairwise Cosine untuk semua perkataan.", "Kami menggunakan Embedding Pretrained untuk bentuk perkataan dengan data latihan yang disediakan oleh Word2Vec."]}, {"en": ["Popular topic modeling techniques include latent Dirichlet allocation and probabilistic latent semantic analysis.", "Latent variable models such as latent Dirichlet allocation and latent semantic analysis have been widely used to extract topic models from Corpora."], "ms": ["Teknik pemodelan topik popular termasuk peruntukan Dirichlet laten dan analisis semantik laten probabilistik.", "Model pembolehubah laten seperti peruntukan Dirichlet dan analisis semantik laten telah digunakan secara meluas untuk mengekstrak model topik dari Corpora."]}, {"en": ["Coreference resolution is the task of clustering referring expressions in a text so that each resulting cluster represents an entity.", "Additionally, Coreference resolution is a pervasive problem in Nlp and many Nlp applications could benefit from an effective Coreference Resolver that can be easily Configured and customized."], "ms": ["Resolusi spatial adalah tugas pengelompokan merujuk ungkapan dalam teks supaya setiap kluster yang terhasil mewakili entiti.", "Selain itu, resolusi Coreference adalah masalah yang meluas di Nlp dan banyak aplikasi Nlp boleh mendapat manfaat daripada Coreference Resolver yang berkesan yang boleh dengan mudah dikonfigurasi dan disesuaikan."]}, {"en": ["For this, we utilize the publicly available glove 1 word Embeddings, specifically ones trained on the common crawl Dataset.", "For this task, we use glove Pre-Trained word Embedding trained on common crawl corpus."], "ms": ["Untuk ini, kami menggunakan sarung tangan 1 perkataan Embeddings yang tersedia secara terbuka, khususnya yang dilatih pada Dataset merangkak biasa.", "Untuk tugas ini, kami menggunakan sarung tangan Embedding perkataan Pra-Latih yang dilatih pada korpus merangkak biasa."]}]