{"text": "## 12 Auto _encoder_\n\n```\n“The goal is to turn data into\ninformation, and information\ninto insight.”\n```\n```\nCarly Fiorina\n```\nBab ini memuat materi yang relatif sulit (karena agakhigh level). Bab\nini memuat materi _autoencoder_ serta penerapannya pada pemrosesan bahasa\nalami ( _natural language processing_ –NLP). Berhubung aplikasi yang diceritakan\nadalah aplikasi pada NLP, kami akan memberi sedikit materi (background\n_knowledge_ ) agar bisa mendapat gambaran tentang persoalan pada\ndomain tersebut. Bagi yang tertarik belajar NLP, kami sa _rank_ an untuk membaca\nbuku [64]. Teknik yang dibahas pada bab ini adalah _representation_\n_learning_ untuk melakukan pengurangan dimensi pada _feature vector_ (dimensionality\nreduction), teknik ini biasanya digolongkan sebagai _unsupervised_\n_learning_. Artinya, _representation learning_ adalah mengubah suatu representasi\nmenjadi bentuk representasi lain yang ekuvalen, tetapi berdimensi lebih\nrendah; sedemikian sehingga informasi yang terdapat pada representasi asli\ntidak hilang/terjaga. Ide dasar teknik ini bermula dari dekomposisi matriks\npada aljabar linear.\n\n"} {"text": "## 11 Feed _forward_ Neural Network\n\n```\n“If you want to make\ninformation stick, it’s best to\nlearn it, go away from it for a\nwhile, come back to it later,\nleave it behind again, and once\nagain return to it–to engage with\nit deeply across time. Our\nmemories naturally degrade, but\neach time you return to a\n_memory_, you reactivate its neural\n_network_ and help to lock it in.”\nJoshua Foer\n```\nPenulis cukup yakin pembaca sudah menanti-nanti bagian ini. Bagian\nketiga membahas algoritma _machine learning_ yang sedang populer belakangan\nini, yaitu _artificial neural network_. Buku ini lebih berfokus pada penggunaan\nartifical neural networkuntuk _supervised learning_. Pembahasan dimulai dari\nhal-hal sederhana ( _single perceptron_, _multilayer perceptron_ ) sampai yang lebih\nkompleks. Sebelum membaca bab ini, ada baiknya kamu mengulang membaca\nbab 5 karena memberikan fondasi matematis untuk mengerti bab ini.\n\n"} {"text": "## 10 Clustering\n\n```\n“Most of us cluster somewhere in\nthe middle of most statistical\ndistributions. But there are lots\nof bell curves, and pretty much\neveryone is on a tail of at least\none of them. We may collect\nst _range_ memorabillia or read\nesoteric books, hold unsual\nreligious beliefs or wear\nodd-sized shoes, suffer rare\ndiseases or enjoy obscure\nmoveis.”\nVirginia Postrel\n```\nPada bab 4, kamu sudah mempelajari salah satu teknik _clustering_ yang\ncukup umum yaitu K- _mean_ s. Bab ini akan mengupas _clustering_ secara lebih\ndalam. Kami sa _rank_ an kamu untuk membaca paper [41], walaupun relatif\nlama, tetapi paper tersebut memberikan penjelasan yang mudah dimengerti\ntentang _clustering_. Selain itu, kamu juga dapat membaca _paper_ oleh Saad et\nal. [42].\n_Clustering_ adalah pengelompokkan data dengan sifat yang mirip. Data\nuntuk _clustering_ tidak memiliki label (kelas). Secara umum, algoritma _clustering_ dapat\ndikategorikan menjadi dua macam berdasarkan hasil yang dinginkan\n[43]: (1) _partitional_, yaitu menentukan partisi sebanyakKdan (2) _hierarchical_,\nyaitu mengelompokan data berdasarkan struktur taksonomi. Contoh algoritma _partitional_ adalah _K-means_ pada\nsubbab 10.1, sementara contoh\nalgoritma _hierarchical_ adalah _agglomerative clustering_ pada subbab 10.2.\n\n\n136 10 Clustering\n\n"} {"text": "## 6 Pohon Keputusan\n\n```\n“Some _time_ s you make the right\ndecision, some _time_ s you make\nthe decision right.”\nPhil McGraw\n```\nBab ini akan menjelaskan salah satu varian pohon keputusan yaitu ID3\noleh Quinlan [33, 34] yang terinspirasi oleh teori informasi [35]. Algoritma ini\nsudah cukup tua, tetapi layak dimengerti. ID3 adalah salah satu varian dari\n_supervised learning_.\n\n"} {"text": "## Bagian III Artificial Neural Network\n\n\n\n"} {"text": "## 7 Support Vector Classifier\n\n```\n“More data beats clever\nalgorithms, but better data\nbeats more data.”\nPeter Norvig\n```\nSaat membaca judul bab ini, kamu mungkin berpikir bahwa _support vector_\nmachineakan dibahas.Support vector classifierdan _support vector machine_ adalah\ndua hal yang berbeda, walau kedua istilah tersebut sering digunakan\npada konteks yang mirip [20].Support vector classifiersesungguhnya\nadalah konsep yang lebih sederhana. Walaupun bab ini menyinggung kulit\n_support vector machine_, kami tidak membahas secara rinci. Akan tetapi, kami\nberharap pembaca mampu mendapatkan intuisi. Kamu dapat menganggap\nbab ini sebagai kelanjutan cerita bab 5. Referensi utama bab ini adalah buku\nkarangan James et al. [20].\n\n"} {"text": "## 3 Data Analytics\n\n```\n“Hiding within those mounds of\n_data_ is knowl _edge_ that could\nchange the life of a patient, or\nchange the world”\nAtul Butte\n```\nBab ini memuat penjelasan tahapan-tahapan umum untuk analisis data,\nserta beberapa karakteristik tipe data. Materi pada bab ini dapat dianggap\nsebagai kerangka berpikir ( _framework_ ) atau langkah kerja. Karena buku ini\nhanya bersifat pengantar, materi yang disampaikan mungkin kurang lengkap.\nPenulis menya _rank_ an pembaca untuk membaca buku oleh Witten et al. [21]\ndan Jeff Leek [22].\n\n"} {"text": "## 2 Fondasi Matematis\n\n```\n“He uses statistics as a drunken\nman uses lamp posts – for\nsupport rather than for\nillumination.”\n```\n```\nAndrew Lang\n```\nMungkin saat pertama kali membaca bab ini, kamu merasa bab ini tidak\nmasuk akal atau kurang dibutuhkan. Seiring membaca buku ini, mungkin\nbab ini akan sering dikunjungi kembali. Bab ini hanyalah pengingat materi\nyang sudah kamu pernah pelajari saja (semacamcheatsheet). Kamu boleh\nmelewati bab ini apabila sudah familiar dengan materi probabilitas, statistika,\nserta aljabar linier. Seharusnya, bab ini memang diberikan paling awal. Tetapi\npenulis khawatir pembaca mungkin merasa buku ini tidak menarik apabila\nbab ini diberikan paling awal.\nBab ini memuat sekilas tentang probabilitas, statistika, dan operasi matriks.\nTentunya untuk mengerti materi tersebut sebaiknya kamu mengambil\nkuliah khusus berkaitan karena kamu diharapkan sudah memiliki cukup\nlatar pengetahuan, bab ini sebenarnya hanyalah sekilas pengingat. Kami akan\nbanyak memakai contoh-contoh dari buku Bishop [8] untuk materi probabilitas.\nPenulis merekomendasikan untuk menonton kuliah _statistical inference_\n(coursera) oleh Professor Brian Caffo.\n\n"} {"text": "## Biografi Penulis\n\nJanWiraGotama Putra adalah PhD Candidate (JSPS Research Fellow)\ndi Computational Linguistics laboratory, Artificial Intelligence Major, Department\nof Computer Science, Tokyo Institute of Technology. Sebelumnya,\npenulis mendapatkan gelar sarjana di jurusan Teknik Informatika, Institut\nTeknologi Bandung. Kemudian, melanjutkan magister di Tokyo Institute of\nTechnology dengan pendanaan MEXT scholarship. Penulis memiliki pengalaman\nmenulis makalah ilmiah pada bidang pemrosesan bahasa alami dan menerapkan\nteknik pembelajaran mesin untuk perusahaan IT (saat _internship_ ),\ne.g., _discourse processing_, klasifikasi teks, peringkasan teks, _automatic hashtag-ing_,\ndan _content filtering_ ( _moderation_ ). Penulis pernah mendapatkanbest\n_paper_ awarddi workshop internasional dan memenangkan lomba _data mining_\n(terbuka untuk publik) di Indonesia. Penulis masih terus mempelajari teknik\n_machine learning_. Buku ini adalah catatan yang ingin ia bagikan.\n\n```\nhttps://wiragotama.github.io/\n```\n\n"} {"text": "## Bagian II Algoritma Pembelajaran Mesin\n\n\n\n"} {"text": "## 1 Pengenalan\n\n```\n“People worry that computers\nwill get too smart and take over\nthe world, but the real problem\nis that they’re too stupid and\nthey’ve al _ready_ taken over the\nworld.”\nPedro Domingos\n```\nPenulis yakin istilah _machine learning_ atau _deep learning_ sudah tidak asing\ndi telinga pembaca. _Machine learning_ dan _deep learning_ adalah salah satu\nmateri kuliah pada jurusan Teknik Informatika atau Ilmu Komputer. Selain\nmengenal kedua istilah tersebut dari perkuliahan, pembaca mungkin mengenal\nistilah tersebut karena digunakan untuk pemasaran (marketing). Sebagai\npermulaan, _machine learning_ dan _deep learning_ bukanlah kedua hal yang\nberbeda.^1 Perlu diingat, _deep learning_ adalah bagian dari _machine learning_.\n_Machine learning_ sudah diaplikasikan pada banyak hal, baik untuk klasifikasi\ngambar, mobil tanpa pengemudi, klasifikasi berita, dsb. Bab ini menjelaskan\nkonsep paling dasar dan utama _machine learning_.\n\n"} {"text": "## 𝐄 𝐗#\n\nGambar 12.2: Hubungan auto _encoder_ dan singular value decomposition\n(analogi).\n\nPerhatikan, _hidden layer_ / _coding_ dapat dianalogikan sebagaiE=Uˆ Vˆ.\nDengan kata lain, kita dapat melakukan operasi _dot-product_ pada _coding_ untuk\nmerepresentasikan _dot-product_ pada data asliX. Ini adalah ide utama\n\n(^5) Pada banyak literatur, kumpulan _weight matrices_ ANN sering dilambangkan den-\nganθ\n(^6) Hanya sebuah analogi.\n\n\n168 12 Auto _encoder_\n\n_autoencoder_, yaitu meng-aproksimasi/meng _kompresi data_ asli menjadi bentuk\nlebih kecil _coding_. Kemudian, operasi pada bentuk _coding_ merepresentasikan\noperasi pada data sebenarnya.\n_Autoencoder_ terdiri dari _encoder_ (sebuah _neural network_ ) dan _decoder_\n(sebuah _neural network_ ). _Encoder_ merubah _input_ ke dalam bentuk dimensi\nlebih kecil (dapat dianggap sebagai kompresi). _Decoder_ berusaha merekonstruksi _coding_ menjadi\nbentuk aslinya. Secara matematis, kita dapat menulis\n_autoencoder_ sebagai persamaan 12.6, dimana dec melambangkan _decoder_, enc\nmelambangkan _encoder_ danx adalah _input_. _Encoder_ diberikan pada persamaan\n12.7 yang berarti melewatkan _input_ pada suatu _layer_ di _neural network_ untuk\nmenghasilkan representasixberdimensi rendah, disebut _coding_\nc.Udanαmelambangkan _weight matrix_ dan _bias_.\n\n```\nf(d,θ) = dec(enc(x)) (12.6)\n```\n```\nc= enc(x) =g(x,U,α) (12.7)\n```\nRepresentasicini kemudian dilewatkan lagi pada suatu _layer_ untuk merekonstruksi\nkembali _input_, kita sebut sebagai _decoder_. _Decoder_ diberikan pada persamaan\n12.8 dimanaWdanβmelambangkan _weight matrix_ dan _bias_. Baik\npada fungsi _encoder_ dan _decoder_,σmelambangkan fungsi aktivasi.\n\n```\nf(d,θ) = dec(c) =h(c,W,β) (12.8)\n```\nPada contoh sederhana ini, _encoder_ dan _decoder_ diilustrasikan sebagai sebuah\n_layer_. Kenyataannya, _encoder_ dan _decoder_ dapat diganti menggunakan sebuah\n_neural network_ dengan arsitektur kompleks.\nSekarang kamu mungkin bertanya-tanya, bila auto _encoder_ melakukan\nhal serupa seperti _singular value decomposition_, untuk apa kita menggunakan _autoencoder_ ?\n(mengapa tidak menggunakan aljabar saja?) Berbeda\ndengan teknik SVD, teknik _autoencoder_ dapat juga mempelajari fitur nonlinear.^7\nPada penggunaan praktis, _autoencoder_ adalah _neural network_ yang\ncukup kompleks (memiliki banyak _hidden layer_ ). Dengan demikian, kita dapat\n”mengetahui”berbagai macam representasiatau transformasi data.\n_Framework autoencoder_ yang disampaikan sebelumnya adalah framework\ndasar. Pada kenyataannya, masih banyak ide lainnya yang bekerja dengan\nprinsip yang sama untuk mencari _coding_ pada permasalahan khusus. _Output_\ndari _neural network_ juga bisa tidak sama _input_ -nya, tetapi tergantung permasalahan\n(kami akan memberikan contoh persoalan _word embedding_ ). Selain\nitu, _autoencoder_ juga relatif fleksibel; dalam artian saat menambahkan data\nbaru, kita hanya perlu memperbaharui parameter _autoencoder_ saja. Kami\nsa _rank_ an untuk membaca _paper_ [72, 73] perihal penjelasan lebih lengkap tentang\nperbedaan dan persamaan SVD dan _autoencoder_ secara lebih matematis.\nSecara sederhana, _representation learning_ adalah teknik untuk mengkompresi _input_ ke\ndalam dimensi lebih rendah tanpa (diharapkan) ada kehilangan\n\n(^7) Hal ini abstrak untuk dijelaskan karena membutuhkan pengalaman.\n\n\n```\n12.4 Resisting Perturbation 169\n```\ninformasi. Operasi vektor (dan lainnya) pada level _coding_ merepresentasikan\noperasi pada bentuk aslinya. Untuk pembahasan _autoencoder_ secara lebih\nmatematis, kamu dapat membaca pranala ini.^8 Setelah _autoencoder_ dilatih,\npada umumnya _encoder_ dapat digunakan untuk hal lainnya juga, e.g., klasifikasi\nkelas gambar.\n\n"} {"text": "## 𝐗 Encoder Decoder\n\n"} {"text": "## 13 Arsitektur Neural Network\n\n```\n“As students cross the threshold\nfrom outside to insider, they also\ncross the threshold from\nsuperficial learning motivated by\ngrades to deep learning\nmotivated by engagement with\nquestions. Their transformation\nentails an awakening–even,\nperhaps, a falling in love.”\nJohn C. Bean\n```\nSeperti yang sudah dijelaskan pada bab 9 dan bab 12, data memiliki karakteristik\n(dari segi struktur) misal _sequential data_, _compositional_ data, dsb.\nTerdapat arsitektur khusus _artificial neural network_ (ANN) untuk menyelesaikan\npersoalan pada tipe data tertentu. Pada bab ini, kami akan memberikan\nbeberapa contoh variasi arsitektur ANN yang cocok untuk tipe data tertentu.\nPenulis akan berusaha menjelaskan semaksimal mungkin ide-ide penting\npada masing-masing arsitektur. Tujuan bab ini adalah memberikan pengetahuan\nkonseptual (intuisi). Pembaca harus mengeksplorasi tutorial pemrograman\nuntuk mampu mengimplementasikan arsitektur-arsitektur ini. Penjelasan\npada bab ini bersifat abstrak dan kamu harus mengerti penjelasan\nbab-bab sebelumnya untuk mengerti konsep pada bab ini.\n\n"} {"text": "## 9 Seleksi Fitur dan Metode Evaluasi\n\n```\n“The key to artificial intelligence\nhas always been the\n_representation_.”\n```\n```\nJeff Hawkins\n```\nBab ini membahas beberapa tips dan trik yang sebenarnya sudah disinggung\npada bab 3 dan bab 5. Hanya saja, beberapa hal lebih baik dijelaskan\nsecara lebih mendalam ketika sudah mempelajari beberapa algoritma pembelajaran\nmesin, seperti pentingnya _feature engineering_, _feature selection_ dan\npenjelasan lebih lanjut _cross validation_. Kamu dapat menganggap bab ini sebagai\nkelanjutan tips dan trik pembelajaran mesin lanjutan bab 3 dan bab 5.\n\n"} {"text": "### Edisi1.4 ( 17 Agustus2020)\n\n"} {"text": "## 5 Model Linear\n\n```\n“Some _time_ s an entirely\ninaccu _rate_ formula is a handy\nway to move you in the right\ndirection if it offers simplicity.”\n```\n```\nScott Adams\n```\nBab ini membahas tentang model linear (algoritma parametrik), sebagai\ncontoh pembelajaran yang sederhana karena cukup mudah dipahami idenya.\nBab ini juga membahas _error function_ dan _stochastic gradient descent_. Dimulai\ndari bab ini, kita akan memasuki materi lebih serius. Materi pada bab ini\ndijelaskan dengan sangat baik dan mendalam pada bukuAn Introduction to\nStatistical Learning[20].\n\n"} {"text": "## Referensi\n\n```\n[1] Yoav Goldberg. _Neural Network Methods in Natural Language Processing_.\nMorgan & Claypool Publishers, 2017.\n[2] Peter Linz. _An Introduction to Formal Language and Automata_. Jones\nand Bartlett Publishers, Inc., USA, 2006.\n[3] Ronald Brachman and Hector Levesque.Knowl _edge_ Representation and\nReasoning. Morgan Kaufmann Publishers Inc., San Francisco, CA, USA,\n2004.\n[4] Tom Mitchell. _Machine Learning_. McGraw-Hill, 1997.\n[5] Stuart Russel and Peter Norvig. _Artificial Intelligence: A Modern Approach_.\nPrentice Hall, 1995.\n[6] Jonathan Gratch and Stacell Marsella. Computationally modelling human\nemotion. _Communications of the ACM_, 57(12):71–99, 2014.\n[7] Masayu Leylia Khodra and Dessi Puji Lestari. Odd semester lecture on\n_machine learning_. Lecture of Institute Teknologi Bandung, 2015.\n[8] Christopher M. Bishop. Pattern Recognition and Machine Learning.\nSpringer, 2006.\n[9] Sumio Watanabe and Hidetoshi Nishimori. Fall lecture note on statistical\n_learning_ theory. Lecture note for Tokyo Institute of Technology,\n2016.\n[10] Brian Caffo. Statistical Inference for Data Science. Lean Publishing,\n2015.\n[11] Ian Goodfellow, Yoshua Bengio, and Aaron Courville. Deep Learning.\nMIT Press, 2016.\n[12] Daniel Jurafsky and James H. Martin. _Speech and Language Processing_\nSecond Edition. Prentice Hall, 2009.\n[13] Nils Reimers and Iryna Gurevych. Reporting score distributions makes\na difference: Performance study of LSTM- _network_ s for sequence tagging.\nInProceedings of the 2017 Conference on Empirical Methods in Natural\nLanguage Processing, pages 338–348, Copenhagen, Denmark, September\n```\n2017. Association for Computational Linguistics.\n\n\n228 Referensi\n\n```\n[14] Rotem Dror, Gili Baumer, Segev Shlomov, and Roi Reichart. The hitchhiker’s\nguide to testing statistical significance in natural language processing.\nInProceedings of the 56th Annual Meeting of the Association\nfor Computational Linguistics (Volume 1: Long Papers), pages 1383–\n1392, Melbourne, Australia, July 2018. Association for Computational\nLinguistics.\n[15] Rotem Dror, Segev Shlomov, and Roi Reichart. Deep dominance - how\nto properly compare deep neural models. InProceedings of the 57th\nAnnual Meeting of the Association for Computational Linguistics, pages\n2773–2785, Florence, Italy, July 2019. Association for Computational\nLinguistics.\n[16] Thomas M. Cover and Joy A. Thomas. _Elements of Information Theory_.\nWiley, 1991.\n[17] Hidetoshi Nishimori.Statistical Physics of Spin Glasses and Information\nProcessing: An Introduction. Clarendon Press, 2001.\n[18] Sharon L. Myres Ronald E. Walpole, Raymond H. Myers and Keying\nYa. Probability and Statistics for Engineers and Scientists. Prentice\nHall, 2012.\n[19] Gilbert Strang. Linear algebra and its applications. Thomson,\nBrooks/Cole, Belmont, CA, 2006.\n[20] G. James, D. Witten, T. Hastie, and R. Tibshirani.An Introduction to\nStatistical Learning, with applications in R. Springer, 2013.\n[21] Ian H. Witten, Eibe F _rank_, and Mark A. Hall.Data Minin gg: Practical\n_Machine Learning_ Tools and Techniques. Morgan Kaufmann Publishers\nInc., San Francisco, CA, USA, 3rd edition, 2011.\n[22] Jeff Leek. _The Elements of Data Analytic Style_. Leanpub, 2015.\n[23] Takao Terano and Tsuyoshi Murata. Spring lecture on machine learning.\nLecture of Tokyo Institute of Technology, 2017.\n[24] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: A\nmethod for automatic evaluation of machine translation. InProceedings\nof the 40th Annual Meeting on Association for Computational Linguistics,\nACL ’02, pages 311–318, Stroudsburg, PA, USA, 2002. Association\nfor Computational Linguistics.\n[25] Chin-Yew Lin. Rouge: A package for automatic evaluation of summaries.\nInProc. ACL workshop on Text Summarization Branches Out, page 10,\n2004.\n[26] Irina Rish. An empirical study of the naive bayes classifier. InIJCAI\n2001 workshop on empirical methods in artificial intelligence, volume 3,\npages 41–46. IBM New York, 2001.\n[27] J. A. Hartigan and M. A. Wong. A k- _mean_ s clustering algorithm.JSTOR:\nApplied Statistics, 28(1):100–108, 1979.\n[28] T. Cover and P. Hart. Nearest neighbor pattern classification. IEEE\nTrans. Inf. Theor., 13(1):21–27, September 2006.\n[29] Mohammad S. Sorower. A literature survey on algorithms for multilabel\n_learning_. 2010.\n```\n\n```\nReferensi 229\n```\n[30] John Duchi, Elad Hazan, and Yoram Singer. Adaptive sub _gradient_\nmethods for online learning and stochastic optimization, 2010.\n[31] Corinna Cortes and Vladimir Vapnik. Support-vector networks. Machine\n_Learning_, 20(3):273–297, Sep 1995.\n[32] Marti A. Hearst. Support vector machines. _IEEE Intelligent Systems_,\n13(4):18–28, July 1998.\n[33] J. R. Quilan. Discovering rules by induction from large collections of\nexamples. Edinburgh University Press, 1979.\n[34] J.R. Quinlan. Induction of decision trees. Mach. Learn., 1(1):81–106,\nMarch 1986.\n[35] C. E. Shannon. A mathematical theory of communication. The Bell\nSystem Technical Journal, 27(3):379–423, 1948.\n[36] Takao Terano and Tsuyoshi Murata. Spring lecture on machine learning.\nLecture of Tokyo Institute of Technology, 2017.\n[37] L. R. Rabiner and B. H. Juang. An introduction to hidden markov\n_model_ s. _IEEE ASSp Magazine_, 1986.\n[38] James Allen. Natural Language Understanding. Benjamin-Cummings\nPublishing Co., Inc., 1995.\n[39] Eliyahu Kiperwasser and Yoav Goldberg. Simple and accu _rate_ dependency\nparsing using bidirectional LSTM feature representations.Trans _action_ s\nof the Association for Computational Linguistics, 4:313–327,\n2016.\n[40] Vishal M. Patel, Raghuraman Gopalan, Ruonan Li, and Rama Chellappa.\nVisual domain adaptation: A survey of recent advances. IEEE\nSignal Process. Mag., 32(3):53–69, 2015.\n[41] George Karypis Michael Steinbach and Vipin Kumar. A comparison of\ndocument clustering techniques. InKDD Workshop on Text Mining,\npages 525 – 526, 2000.\n[42] Omer I. E. Mohamed Fathi H. Saad and Rafa E. Al-Qutaish. Comparison\nof hierarchical agglomerative algorithms for clustering medical\ndocuments. International Journal of Software Engineering and Applications\n(IJSEA), 3(3), 2012.\n[43] Rajeev Rastogi Sudipto Guha and Kyuseok Shim. Cure: An efficient\n_clustering_ algorithm for large databases. InProceedings of ACMSIGMOD\nInternational Conference on Management of Data, pages 73 – 84,\n1998.\n[44] Jack D. Cowan. Neural networks: The early days. InProceedings of\nAdvances in Neural Information Processing Systems 2, 1989.\n[45] Amir Atiya. Learning Algorithms for Neural Network. PhD thesis,\nCalifornia Institute of Technology, 1994.\n[46] Al. Cripps. Using artificial neural nets to predict academic performance.\nIn _Proceedings of the 1996 ACM Symposium on Applied Computing_,\npages 33–37, 1996.\n[47] Thomas Mikolov. Statistical Language Models Based on Neural Networks.\nPhD thesis, Brno University of Technology, 2012.\n\n\n230 Referensi\n\n```\n[48] Kai Chen Greg Corrado Thomas Mikolov, Ilya Sutskever and Jeffrey\nDean. Distributed representations of words and phrases and their compositionality.\nIn _Proceedings of CoRR_, 2013.\n[49] Gred Corrado Thomas Mikolov, Kai Chen and Jeffrey Dean. Efficient\nestimation of word representations in vector space. InProceedings of\n_CoRR_, 2013.\n[50] Kai Yu. Large-scale deep learning at baidu. InProceedings of the 22nd\nACM International Conference on Information and Knowl _edge_ Management,\npages 2211–2212, 2013.\n[51] M. A. Aizerman, E. A. Braverman, and L. Rozonoer. Theoretical foundations\nof the potential function method in pattern recognition learning.\nIn _Automation and Remote Control,_, number 25, pages 821–837, 1964.\n[52] F. Rosenblatt. The perceptron: A probabilistic model for information\nstorage and organization in the brain. _Psychological Review_, pages 65–\n386, 1958.\n[53] Marvin L. Minsky and Seymour A. Papert. _Perceptrons: Expanded Edition_.\nMIT Press, Cambridge, MA, USA, 1988.\n[54] D. E. Rumelhart, G. E. Hinton, and R. J. Williams. Parallel distributed\nprocessing: Explo _ratio_ ns in the microstructure of cognition, vol. 1. chapter\n_Learning_ Internal Representations by Error Propagation, pages 318–\n```\n362. MIT Press, Cambridge, MA, USA, 1986.\n[55] Tao Lei, Regina Barzilay, and Tommi Jaakkola. Rationalizing neural\n_prediction_ s. InProceedings of the 2016 Conference on Empirical\nMethods in Natural Language Processing, pages 107–117, Austin, Texas,\nNovember 2016. Association for Computational Linguistics.\n[56] David Alvarez-Melis and Tommi Jaakkola. A causal framework for explaining\nthe predictions of black-box sequence-to-sequence models. In\nProceedings of the 2017 Conference on Empirical Methods in Natural\nLanguage Processing, pages 412–421, Copenhagen, Denmark, September\n2017. Association for Computational Linguistics.\n[57] Dzmitry Bahdanau, KyungHyun Cho, and Yoshua Bengio. Neural machine\ntranslation by jointly learning to align and translate. InProceedings\nof the International Conference on Learning and Representation\n(ICLR), 2015.\n[58] Thang Luong, Hieu Pham, and Christopher D. Manning. Effective approaches\nto attention-based neural machine translation. InProceedings\nof the 2015 Conference on Empirical Methods in Natural Language Processing,\npages 1412–1421, Lisbon, Portugal, September 2015. Association\nfor Computational Linguistics.\n[59] Finale Doshi-Velez and Been Kim. A roadmap for a rigorous science of\n_interpretability_. In _ArXiv e-prints_.\n[60] Jeffrey L. Elman. Learning and development in neural networks: The\nimportance of starting small. _Journal of Cognition_, (48):71–99, 1993.\n[61] Yoshua Bengio, J ́erˆome Louradour, Ronan Collobert, and Jason Weston.\n_Curriculum learning_. InProceedings of the 26th Annual International\n\n\n```\nReferensi 231\n```\nConference on Machine Learning, ICML ’09, pages 41–48, New York,\nNY, USA, 2009. ACM.\n[62] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and\nRuslan Salakhutdinov. Dropout: A simple way to pr _event_ neural networks\nfrom overfitting.J. Mach. Learn. Res., 15(1):1929–1958, January\n2014.\n[63] Dzmitry Bahdanau Kyunghyun Cho, Bart van Merrienboer and Yoshua\nBengio. On the properties of neural machine translation: Encoder–\n_decoder_ approaches. InProceedings of SSST-8, Eighth Workshop on\nSyntax, Semantics and Structure in Statistical Translation, pages 103–\n111, Doha, Qatar, October 2014. Association for Computational Lin-\nguistics.\n[64] Christopher D. Manning and Hinrich Schutze.Foundations of Statistical\nNatural Language Processing. MIT Press, 1999.\n[65] Prabhakar Raghavan Christopher D. Manning and Hinrich Schutze.An\nIntroduction to Information Retrieval. Cambridge UP, 2009.\n[66] Andrew Y. Ng Richard Socher, Cliff Chiung-Yu Lin and Christopher D.\nManning. Parsing natural scenes and natural language with recursive\n_neural network_ s. InProceedings of the 28thInternational Conference on\n_Machine Learning_, 2011.\n[67] Jean Y. Wu Jason Chuang Richard Socher, Alex Perelygin and Christopher\nD. Manning. Recursive deep models for semantic compositionality\nover a sen _time_ nt treebank. InProceedings of the Emperical Methods in\nNatural Language Processing, 2013.\n[68] Erhc H. Huang Andrew Y. Ng Richard Socher, Jeffrey Pennington and\nChristoper D. Manning. Semi- _supervised_ recursive auto _encoder_ s for predicting\nsen _time_ nt distributions. InProceedings of the Emperical Methods\nin Natural Language Processing, 2011.\n[69] Quoc Le and Tomas Mikolov. Distributed representations of sentences\nand documents. InProceedings of the 31stInternational Conference on\n_Machine Learning_, 2014.\n[70] Richard Socher Jeffrey Pennington and Christopher D. Manning. Glove:\nGlobal vectors for word representation. InProceedings of the Emperical\nMethods in Natural Language Processing, pages 1532 – 1543, 2014.\n[71] Yoshua Bengio, R ́ejean Ducharme, Pascal Vincent, and Christian Janvin.\nA neural probabilistic language model. J. Mach. Learn. Res.,\n3:1137–1155, March 2003.\n[72] Omer Levy, Yoav Goldberg, and Ido Dagan. Improving distributional\nsimilarity with lessons learned from word embeddings.Trans _action_ s of\nthe Association for Computational Linguistics, 3:211–225, 2015.\n[73] Guoqiang Zhong, Li-Na Wang, Xiao Ling, and Junyu Dong. An overview\non data representation learning: From traditional feature learning to\nrecent deep learning.The Journal of Finance and Data Science, 2(4):265\n\n- 278, 2016.\n\n\n232 Referensi\n\n```\n[74] Peter D. Turney and Patrick Pantel. From frequency to meaning: Vector\n_space_ models of semantics. Journal of Artificial Intelligence Research,\n(37):141–188, 2010.\n[75] Jan Wira Gotama Putra and Takenobu Tokunaga. Evaluating text\ncoherence based on semantic similarity graph. In Proceedings of\nTextGraphs-11: the Workshop on Graph-based Methods for Natural Language\nProcessing, pages 76–85, Vancouver, Canada, August 2017. Association\nfor Computational Linguistics.\n[76] Y. LeCun and Y. Bengio. Convolutional networks for images, speech,\nand time-series. In M. A. Arbib, editor,The Handbook of Brain Theory\nand Neural Networks. MIT Press, 1995.\n[77] Jeffrey L. Elman. Finding structure in time. Cognitive Science,\n14(2):179–211, 1990.\n[78] Sepp Hochreiter and J ̈urgen Schmidhuber. Long short- _term_ memory.\n_Neural Comput._, 9(8):1735–1780, November 1997.\n[79] Paul J. Werbos. Backpropagation through time: what does it do and\nhow to do it. In _Proceedings of IEEE_, volume 78, pages 1550–1560, 1990.\n[80] Caglar Gulcehre Dzmitry Bahdanau Fethi Bougares HolgerSchwenk\nKyunghyun Cho, Bart van Merrienboer and Yoshua Bengio. Learning\nphrase representations using rnn encoder– _decoder_ for statistical machine\ntranslation. InProceedings of the 2014 Conference on Empirical Methods\nin Natural Language Processing (EMNLP), pages 1724–1734, Doha,\nQatar, October 2014. Association for Computational Linguistics.\n[81] Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to sequence\n_learning_ with neural networks. InProceedings of the 27th International\nConference on Neural Information Processing Systems, NIPS’14, pages\n3104–3112, Cambridge, MA, USA, 2014. MIT Press.\n[82] Yan Shao, Christian Hardmeier, J ̈org Tiedemann, and Joakim Nivre.\nCharacter-based joint segmentation and pos tagging for chinese using\n_bidirectional_ rnn-crf. InProceedings of the Eighth International Joint\nConference on Natural Language Processing (Volume 1: Long Papers),\npages 173–183, Taipei, Taiwan, November 2017. Asian Fede _ratio_ n of\nNatural Language Processing.\n[83] To _bias_ Horsmann and Torsten Zesch. Do lstms really work so well for\npos tagging? – a replication study. InProceedings of the 2017 Conference\non Empirical Methods in Natural Language Processing, pages 727–736,\nCopenhagen, Denmark, September 2017. Association for Computational\nLinguistics.\n[84] Barbara Plank, Anders Søgaard, and Yoav Goldberg. Multilingual partof-speech\n_tagging_ with bidirectional long short- _term_ memory models and\nauxiliary loss. InProceedings of the 54th Annual Meeting of the Association\nfor Computational Linguistics, ACL 2016, August 7-12, 2016,\nBerlin, Germany, Volume 2: Short Papers, 2016.\n[85] Ryohei Sasano Hiroya Takamura Yuta Kikuchi, Graham Neubig and\nManabu Okumura. Controlling output length in neural encoder-\n```\n\n```\nReferensi 233\n```\n_decoder_ s. InProceedings of the 2016 Conference on Empirical Methods\nin Natural Language Processing, pages 1328–1338, Austin, Texas,\nNovember 2016. Association for Computational Linguistics.\n[86] Ramesh Nallapati, Bowen Zhou, C ́ıcero Nogueira dos Santos, and\naglar G ̈ulehre and Bing Xiang. Abstractive text summarization using\nsequence-to-sequence rnns and beyond. In _CoNLL_, 2016.\n[87] Yan-Kai Lin Cun-Chao Tu Yu Zhao Zhi-Yuan Liu Ayana, Shi-Qi Shen\nand Mao-Song Sun. Recent advances on neural headline gene _ratio_ n.\n_Journal of Computer Science and Technology_, 32(4):768–784, Jul 2017.\n[88] Chlo ́e Kiddon, Luke Zettlemoyer, and Yejin Choi. Globally coherent\ntext gene _ratio_ n with neural checklist models. InProceedings of the\n2016 Conference on Empirical Methods in Natural Language Processing,\npages 329–339, Austin, Texas, November 2016. Association for Computational\nLinguistics.\n[89] Xiaojun Wan Jiwei Tan and Jianguo Xiao. Abstractive document summarization\nwith a graph-based attentional neural model. InProceedings\nof the 55th Annual Meeting of the Association for Computational Linguistics\n(Volume 1: Long Papers), pages 1171–1181, Vancouver, Canada,\nJuly 2017. Association for Computational Linguistics.\n[90] Oriol Vinyals, Alexander Toshev, Samy Bengio, and Dumitru Erhan.\nShow and tell: A neural image caption generator. 2015 IEEE Conference\non Computer Vision and Pattern Recognition (CVPR), pages\n3156–3164, 2015.\n[91] Zichao Yang, Diyi Yang, Chris Dyer, Xiaodong He, Alex Smola, and\nEduard Hovy. Hierarchical attention networks for document classification.\nInProceedings of the 2016 Conference of the North American\nChapter of the Association for Computational Linguistics: Human Language\nTechnologies, pages 1480–1489, San Diego, California, June 2016.\nAssociation for Computational Linguistics.\n[92] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion\nJones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention\nis all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach,\nR. Fergus, S. Vishwanathan, and R. Garnett, editors,Advances\nin Neural Information Processing Systems 30, pages 5998–6008. Curran\nAssociates, Inc., 2017.\n[93] Karl Weiss, Taghi M. Khoshgoftaar, and DingDing Wang. A survey of\n_transfer learning_. _Journal of Big Data_, 3(1):9, May 2016.\n[94] Sebastian Ruder, Matthew E. Peters, Swabha Swayamdipta, and\nThomas Wolf. Transfer learning in natural language processing. In\nProceedings of the 2019 Conference of the North American Chapter of\nthe Association for Computational Linguistics: Tutorials, pages 15–18,\nMinneapolis, Minnesota, June 2019. Association for Computational Lin-\nguistics.\n\n\n234 Referensi\n\n[95] Ronan Collobert, Jason Weston, L ́eon Bottou, Michael Karlen, Koray\nKavukcuoglu, and Pavel Kuksa. Natural language processing (almost)\nfrom scratch.J. Mach. Learn. Res., 12:2493–2537, November 2011.\n[96] Daxiang Dong, Hua Wu, Wei He, Dianhai Yu, and Haifeng Wang. Multi _task_\n_learning_ for multiple language translation. InProceedings of the\n53rd Annual Meeting of the Association for Computational Linguistics\nand the 7th International Joint Conference on Natural Language\nProcessing (Volume 1: Long Papers), pages 1723–1732. Association for\nComputational Linguistics, 2015.\n[97] Pengfei Liu, Xipeng Qiu, and Xuanjing Huang. Adversarial multi- _task_\n_learning_ for text classification. InProceedings of the 55th Annual Meeting\nof the Association for Computational Linguistics (Volume 1: Long\nPapers), pages 1–10. Association for Computational Linguistics, 2017.\n[98] Anne Lauscher, Goran Glavaˇs, Simone Paolo Ponzetto, and Kai Eckert.\nInvestigating the role of argumentation in the rhetorical analysis\nof scientific publications with neural multi- _task_ learning models. In\nProceedings of the 2018 Conference on Empirical Methods in Natural\nLanguage Processing, pages 3326–3338. Association for Computational\nLinguistics, 2018.\n[99] Alex Kendall, Yarin Gal, and Roberto Cipolla. Multi- _task_ learning using\n_uncertainty_ to weigh losses for scene geometry and semantics. In 2018\nIEEE Conference on Computer Vision and Pattern Recognition, CVPR\n2018, Salt Lake City, UT, USA, June 18-22, 2018, pages 7482–7491,\n2018.\n[100] Arda Antikacioglu and R. Ravi. Post processing recommender systems\nfor diversity. InProceedings of the 23rd ACM SIGKDD International\nConference on Knowl _edge_ Discovery and Data Mining, KDD 17, page\n707716, New York, NY, USA, 2017. Association for Computing Machin-\nery.\n[101] Daniel Billsus and Michael J. Pazzani. The adaptive web. chapter Adaptive\nNews Access, pages 550–570. Springer-Verlag, Berlin, Heidelberg,\n2007.\n[102] Paul Resnick and Hal R. Varian. Recommender systems. Commun.\nACM, 40(3):56–58, March 1997.\n[103] Daniar Asanov. Algorithms and methods in recommender systems.\nBerlin Institute of Technology, 2011.\n[104] Charu C. Aggrawal. Recommender Systems: The Textbook. Springer\nInternational Publishing Switzerland, 2016.\n[105] Eduard Hovy and Chin-Yew Lin. Automated text summarization and\nthe summarist system. InProceedings of a Workshop on Held at Baltimore,\nMaryland: October 13-15, 1998, TIPSTER ’98, pages 197–214,\nStroudsburg, PA, USA, 1998. Association for Computational Linguis-\ntics.\n\n\n```\nReferensi 235\n```\n[106] Liang Zhou and Eduard Hovy. Template- _filter_ ed headline summarization.\nInIn the Proceedings of the ACL workshop, Text Summarization\nBranches Out, pages 56–60, 2004.\n[107] Amin Mantrach Carlos A. Colmenares, Marina Litvak and Fabrizio Silvestri.\nHeads: Headline gene _ratio_ n as sequence prediction using an abstract\nfeature-rich space. InProceedings of the 2015 Conference of the\nNorth American Chapter of the Association for Computational Linguistics:\nHuman Language Technologies, pages 133–142, Denver, Colorado,\nMay–June 2015. Association for Computational Linguistics.\n[108] Daniele Pighin Enrique Alfonseca and Guillermo Garrido. Heady: News\nheadline abstr _action_ through event pattern clustering. InProceedings of\nthe 51st Annual Meeting of the Association for Computational Linguistics\n(Volume 1: Long Papers), pages 1243–1253, Sofia, Bulgaria, August\n\n2013. Association for Computational Linguistics.\n[109] Pierre-Etienne Genest and Guy Lapalme. Framework for abstractive\nsummarization using text-to-text gene _ratio_ n. In Proceedings of the\nWorkshop on Monolingual Text-To-Text Gene _ratio_ n, pages 64–73, Portland,\nOregon, June 2011. Association for Computational Linguistics.\n[110] Shufeng Xiong and Donghong Ji. Query-focused multi-document summarization\nusing hypergraph-based ranking. Inf. Process. Manage.,\n52(4):670–681, July 2016.\n[111] David Zajic, Bonnie J. Dorr, and Richard Schwartz. Bbn/umd at duc2004:\nTopiary. InProceedings of the North Americal Chapter of the\nAssociation for Computational Linguistics Workshop on Document Understanding,\npages 112–119, 2004.\n[112] Simone Teufel and Marc Moens. Argumentative classification of extracted\n_sentence_ s as a first step towards flexible abstr _acting_. InAdvances\nin automatic Text Summarization, pages 155–171. MIT Press,\n1999.\n[113] Bonnie J. Dorr, David Zajic, and Richard Schwartz. H _edge_ trimmer:\nA parse-and-trim approach to headline gene _ratio_ n. In Dragomir Radev\nand Simone Teufel, editors,Proceedings of the HLT-NAACL 03 Text\nSummarization Workshop, pages 1–8, 2003.\n[114] Jurij Leskovec, Natasa Milic-Frayling, and Marko Grobelnik. Extr _acting_\nsummary sentences based on the document semantic graph. Micro _soft_\nResearch, 2005.\n[115] Jan Wira Gotama Putra. Rhetorical sentence classification for automatic\ntitle gene _ratio_ n in scientific article. _TELKOMNIKA_, 15(2):656–\n664, 2017.\n[116] Jan Pedersen Julian Kupiec and Francine Chen. A trainable document\nsummarizer. InProceedings of the 18th Annual International ACM\nSIGIR Conference on Research and Development in Information Retrieval,\nSIGIR ’95, pages 68–73, New York, NY, USA, 1995. ACM.\n[117] Hans-Martin Ramsl Daraksha Parveen and Michael Strube. Topical\ncoherence for graph-based extractive summarization. InConference on\n\n\n236 Referensi\n\nEmpirical Methods in Natural Language Processing, pages 1949–1954.\nThe Association for Computational Linguistics, 2015.\n[118] Simone Teufel and Marc Moens. Summarizing scientific articles: Experiments\nwith relevance and rhetorical status. Comput. Linguist.,\n28(4):409–445, December 2002.\n[119] DiarmuidO S ́eaghdha and Simone Teufel. Un _supervised learning_ of ́\nrhetorical structure with un-topic models. InProceedings of COLING\n2014, the 25th International Conference on Computational Linguistics:\nTechnical Papers, pages 2–13, Dublin, Ireland, August 2014. Dublin City\nUniversity and Association for Computational Linguistics.\n[120] Vibhu O. Mittal Michele Banko and Michael J. Witbrock. Headline\n_generation_ based on statistical translation. InProceedings of the 38th\nAnnual Meeting on Association for Computational Linguistics, ACL ’00,\npages 318–325, Stroudsburg, PA, USA, 2000. Association for Computational\nLinguistics.\n[121] Jianpeng Cheng and Mirella Lapata. Neural summarization by extr _acting_\n_sentence_ s and words. _CoRR_, abs/1603.07252, 2016.\n[122] Christopher D. Manning. Part-of-speech tagging from 97% to 100%: Is\nit time for some linguistics? InProceedings of the 12th International\nConference on Computational Linguistics and Intelligent Text Processing\n- Volume Part I, CICLing’11, pages 171–189, Berlin, Heidelberg,\n\n2011. Springer-Verlag.\n[123] Lev Ratinov and Dan Roth. De _sign_ challenges and misconceptions in\n_named entity recognition_. InProceedings of the Thirteenth Conference\non Computational Natural Language Learning, CoNLL ’09, pages 147–\n155, Stroudsburg, PA, USA, 2009. Association for Computational Lin-\nguistics.\n[124] Jiwei Li and Dan Jurafsky. Neural net models of open-domain discourse\ncoherence. InProceedings of the 2017 Conference on Empirical Methods\nin Natural Language Processing, pages 198–209, Copenhagen, Denmark,\nSeptember 2017. Association for Computational Linguistics.\n\n\n"} {"text": "## Bagian I Pengetahuan Dasar\n\n\n\n"} {"text": "## 4 Algoritma Dasar\n\n```\n“It is a capital mistake to\ntheorize before one has data.”\nArthur Conan Doyle\n```\nSebelum masuk ke algoritma _machine learning_ yang cukup modern/\nmatematis, kami akan memberi contoh algoritma yang lebih mudah yaitu\n_Naive Bayes_, _K-means_, danK-nearest-neighbor. Algoritma-algoritma\nini tergolongnon-parametrik. Bab ini akan memuat contoh sederhana _supervised_ dan _unsupervised_\n_learning_. Mudah-mudahan bab ini memberikan kamu\ngambaran aplikasi _machine learning_ sederhana.\n\n"} {"text": "## Bagian IV Aplikasi dan Topik Tambahan\n\n\n\n"} {"text": "## 8 Hidden Markov Model\n\n```\n“Probability is expectation\nfounded upon partial knowl _edge_.\nA perfect acquaintance with all\nthe circumstances affecting the\noccurrence of an event would\nchange expectation into\ncertainty, and leave neither room\nnor demand for a theory of\nprobabilities.”\nGeorge Boole\n```\n_Hidden Markov Model_ (HMM) adalah algoritma yang relatif cukup lama\n[37]. Tetapi algoritma ini penting untuk diketahui karena digunakan sebagai\nteknik dasar untukautomatic speech recognition (ASR) danpart-of-speech\n(POS) _tagging_. Bab ini akan membahas ide dasar HMM serta aplikasinya pada\nPOS _tagging_ ( _natural language processing_ ). Aplikasi tersebut dipilih karena\npenulis lebih familiar dengan POS _tagging_. Selain itu, POS _tagging_ relatif lebih\nmudah dipahami dibandingkan aplikasi HMM pada ASR.^1 HMM adalah kasus\nspesialBayesian Inference[12, 38, 5]. Untuk mengertiBayesian Inference,\nada baiknya kamu membaca materi _graphical model_ pada bukupattern\nrecognition and machine learning[8]. Bab ini relatif lebih kompleks secara\nmatematis dibanding bab-bab sebelumnya. Oleh karena itu, kami harap kamu\nmembaca dengan sabar.\n\n"} {"text": "## Kata Pengantar\n\nBuku ini ditujukan sebagai bahan pengantar (atau penunjang) mata kuliah\n_machine learning_ untuk mahasiswa di Indonesia, khususnya tingkat sarjana\n(tidak menutup kemungkinan digunakan untuk tingkat pascasarjana). Buku\nini hanya merupakan komplemen, bukan sumber informasi utama. Buku ini\nmemuat materi dasar _machine learning_, yang ditulis sedemikian rupa sehingga\npembaca mampu mendapatkanintuisi. Materi pada buku ini tidaklah dalam\n(tapi tidak dangkal); artinya, pembaca masih harus membaca buku-buku lainnya\nuntuk mendapatkan pemahaman lebih dalam.\nWalaupun tidak sempurna, mudah-mudahan buku ini mampu memberi inspirasi.\nAnggap saja membaca buku ini seperti sedang membaca “ _light novel_ ”.\nPenulis ingin buku ini bisa menjadi _pointer_ ; i.e. dengan membaca buku ini, diharapkan\nkawan-kawan juga mengetahui harus belajar apa secara lebih jauh.\nSetelah membaca buku ini, pembaca diharapkan mampu membaca literatur\n_machine learning_ yang dijelaskan secara lebih matematis ataupun mendalam\n(kami memberi rekomendasi bacaan lanjutan).\nDi Indonesia, penulis banyak mendengar baik dari teman, junior, senior,\ndll; suatu pernyataan “kuliah mengajari teori saja, praktiknya kurang, dan\ntidak relevan dengan industri.” Tentu saja pernyataan ini cukup benar, tetapi\nkarena permikiran semacam ini terkadang kita tidak benar-benar mengerti\npermasalahan. Ketika mengalami kendala, kita buntu saat mencari solusi\nkarena fondasi yang tidak kokoh. Banyak orang terburu-buru “menggunakan\n_tools_ ” karena lebih praktikal. Penulis ingin mengajak saudara/i untuk memahami\nkonsep _machine learning_ secara utuh sebelum memanfaatkan. Ada\nperbedaan yang mendasar antara orang yang hanya mampu menggunakan\n_tools_ dan mengerti konsep secara utuh.\nBuku ini menjelaskan algoritma _machine learning_ dari sudut pandang\nagak matematis. Pembaca disa _rank_ an sudah memahami/mengambil setidaknya\nmata kuliah statistika, kalkulus, aljabar linear, pengenalan kecerdasan\nbuatan, dan logika fuzzy. Penulis merasa banyak esensi yang hilang\nketika materi _machine learning_ hanya dijelaskan secara deskriptif karena\nitu buku ini ditulis dengan bahasa agak matematis. Walaupun demikian,\n\n\nVIII Kata Pengantar\n\npenulis berusaha menggunakan notasi matematis seminimal dan sesederhana\nmungkin, secukupnya sehingga pembaca mampu mendapatkan intuisi. Saat\nmembaca buku ini, disa _rank_ an membaca secara runtun. Gaya penulisan buku\ninisantai/semiformalagar lebih mudah dipahami, mudah-mudahan tanpa\nmengurangi esensi materi.\nBuku ini ditulis menggunakan template monograph (LATEX) dari Springer\nyang dimodifikasi. Dengan demikian, mungkin ada kesalahan pemenggalan\nkata. Tentunya, buku tidak lepas dari kekurangan, misalnya kesalahan tipografi.\nKami sa _rank_ an pembaca untuk membaca secara seksama, termasuk\nmenginterpretasikan variabel pada persamaan.\n\nPetunjuk Penggunaan\nStruktur penyajian buku ini dapat dijadikan acuan sebagai struktur kuliahmachine\n_learning_ yang berdurasi satu semester (bab 1 untuk sesi pertama,\ndst). Agar dapat memahami materi per bab, bacalah keseluruhan isi\nbab secara utuh sebelum mempertanyakan isi materi. Penulis sangat menya _rank_ an\nuntuk membahas soal latihan sebagai tambahan materi (bisa juga\nsebagai PR). Soal latihan ditujukan untuk mengarahkan apa yang harus\ndibaca/dipahami lebih lanjut.\nPembaca dipersilahkan menyebarkan ( _share_ ) buku ini untuk alasanNON\nKOMERSIAL(pendidikan), tetapidimohon kesadarannya untuk tidak\nmenyalin atau meniru isi buku ini. Bila ingin memuat konten diktat\nini pada media yang pembaca kelola, dimohon untuk mengontak pengarang\nterlebih dahulu. Tidak semua istilah bahasa asing diterjemahkan ke Bahasa\nIndonesia supaya makna sebenarnya tidak hilang (atau penulis tidak tahu\nversi Bahasa Indonesia yang baku).\nBab lebih awal memuat materi yang relatif lebih “mudah” dipahami\ndibanding bab berikutnya. Buku ini memberikan contoh dimulai dari contoh\nsederhana (beserta contoh data). Semakin menuju akhir buku, notasi yang\ndigunakan akan semakin simbolik, beserta contoh yang lebih abstrak. Penulis\nsangat menya _rank_ an untukmembaca buku ini secara sekuensial.\n\nKutipan\nBuku ini tergolong _self-published work_ (atau mungkin lebih tepat dikatakan sebagai _draft_ ),\ntetapi sudah di- _review_ oleh beberapa orang. Kami yakin para _reviewer_ adalah\norang yang berkompeten. Silahkan merujuk buku ini sesuai dengan\npaduan cara merujuk _self-published work_, apabila memang diperbolehkan\nuntuk merujuk _self-published work_ pada pekerjaan pembaca.\n\nNotasi Penting\nKarakter bold kapital merepresentasikan matriks (X,Y,Z). Dimensi matriks\nditulis dengan notasiN×MdimanaNmerepresentasikan banyaknya\nbaris danMmerepresentasikan banyaknya kolom. Elemen matriks direpresentasikan\nolehXi,j,X[i,j], atauxi,juntuk baris ke-ikolom ke-j(penggunaan\nakan menyesuaikan konteks pembahasan agar tidak ambigu). Karakter di-\n\n\n```\nKata Pengantar IX\n```\n_bold_ merepresentasikan vektor (x). Elemen vektor ke-idirepresentasikan oleh\nxiatau x[i]tergantung konteks. Ketika penulis menyebutkan vektor, yang\ndimaksud adalah _vektor_ baris( _row vector_, memiliki dimensi 1×N, mengadopsi\nnotasi Goldberg [1]). Perhatikan, literatur _machine learning_ lainnya\nmungkin tidak menggunakan notasi _row vector_ tetapi _column vector_. Kami\nharap pembaca mampu beradaptasi. Simbol “·” digunakan untuk melambangkan\noperator _dot-product_.\nKumpulan data (atau himpunan) direpresentasikan dengan karakter kapital\n(C,Z), dan anggotanya ( _data point_, _data entry_ ) ke-idirepresentasikan\ndengan karakterci. Perhatikan, elemen vektor dan anggota himpunan bisa\nmemiliki notasi yang sama (himpunan dapat direpresentasikan di komputer\nsebagai _array_, jadi penggunaan notasi vektor untuk himpunan pada konteks\npembicaraan kita tidaklah salah). Penulis akan menggunakan simbolx[i]sebagai\nelemen vektor apabila ambigu. Fungsi dapat direpresentasikan dengan\nhuruf kapital maupun non-kapitalf(...),E(...),G(...). Ciri fungsi adalah\nmemiliki parameter! Pada suatu koleksi vektor (himpunan vektor)D, vektor\nke-idirepresentasikan dengandi, dan elemen ke-jdari vektor ke-idirepresentaiskan\ndengandi[j],Di,j, atauD[i,j](karena sekumpulan vektor dapat\ndisusun sebagai matriks).\nKarakter non-kapital tanpa _bold_ dan tanpa indeks, seperti (a,b,c,x,y,z),\nmerepresentasikan _random variable_ (statistik) atau variabel (matematik). Secara\numum, saat _random variable_ memiliki nilai tertentu, dinotasikan dengan\nx=X(nilai tertentu dinotasikan dengan huruf kapital), kecuali disebutkan\nsecara khusus saat pembahasan. Probabilitas direpresentasikan dengan karakter\nkapital (P), dengan karakter non-kapital merepresentasikanprobability\ndensity(p). Penulis yakin pembaca dapat menyesuaikan interpretasi simbol\nberdasarkan konteks pembahasan. Untuk menginterpretasikan notasi lain, selain\nyang diberikan pada paduan ini, mohon menyesuaikan dengan ceritera\npembahasan.\n\nUcapan Terima Kasih\nTerima kasih pada Bapak/Ibu/Saudara/i atas kontribusi pada penulisan buku\nini: Adhiguna Surya Kuncoro, Arief Yudha Satria, Candy Olivia Mawalim,\nChairuni Aulia Nusapati, Genta Indra Winata, Hayyu Luthfi Hanifah, I Gede\nMahendra Darmawiguna, dan Tifani Warnita. Terima kasih pada Natasha\nChristabelle Santosa atas desain cover.\n\nCatatan lain\nBuku ini adalah _ongoing project_. Versi terakhir dan terakurat dapat diakses\npadahttps://wiragotama.github.io/. Buku ini lebih baik dibaca versi full\npdf-nya agar pranala bisa di-klik dan gambar memiliki kualitas terbaik.\n\nTokyo, Jepang Jan Wira Gotama Putra\n\n\n"} {"text": "## 14 Penerapan Pembelajaran Mesin\n\n```\n“Leading is not the same as\nbeing the leader. Being the\nleader means you hold the\nhighest rank, either by earning\nit, good fortune or navigating\ninternal politics. Leading,\nhowever, means that others\nwillingly follow you–not because\nthey have to, not because they\nare paid to, but because they\nwant to.”\nSimon Sinek\n```\nBab ini memuat contoh penggunaan _machine learning_ untuk dua permasalahan\npraktis yaitu: (1) sistem rekomendasi dan (2) sistem peringkasan\ndokumen. Dua domain ini dipilih karena tidak asing (familiar) bagi penulis.\nSeperti yang sudah dideskripsikan pada bab-bab sebelumnya, penerapanmachine\n_learning_ pada suatu domain membutuhkan pengetahuan/keahlian pada\ndomain tersebut. Bab ini tidak akan membahas domain secara detail, tetapi secara\nabstrak (bertujuan memberikan gambaran/pengenalan). Untuk mengerti\ndomain yang dibahas secara mendalam, silakan membaca sumber lainnya. Bab\nini akan memuat secara sangat singkat, apa guna _machine learning_ dan pada\ncontoh kasus seperti apa teknik _machine learning_ diterapkan pada permasalahan\nspesifik domain. Tujuan bab ini adalah untuk memberikan gambaran,\nbahwa mengetahui _machine learning_ saja mungkin tidak cukup. Sekali lagi\npenulis ingin menekankan, pembaca harus mengerti domain aplikasi. Selain\nitu, bab ini mengilustrasikan bahwa model _machine learning_ tidak berdiri\nsendiri. Artinya, model _machine learning_ bisa jadi hanyalah sebuah modul\n(untuk mengeksekusi fungsi tertentu) pada sebuah perangkat lunak.\n\n\n216 14 Penerapan Pembelajaran Mesin\n\n"} {"text": "### 7.1 Maximal Margin Classifier\n\nIngat kembali kedua bab sebelumnya bahwa model klasifikasi mencari suatu\n_decision boundary_ untuk memisahkan data pada kelas satu dan kelas lainnya.\nApabila kamu memiliki data berdimensi dua, maka _decision boundary_ yang\nkita dapat berupa garis. Pada data tiga dimensi, _decision boundary_ berupa\nsebuah bidang ( _plane_ ). Sebagai ilustrasi, lihatlah Gambar 7.1. Secara umum,\nkonsep bidang pemisah disebut sebagai _hyperplane_. Untuk data berdimensi\nF, bidang pemisah kita memiliki dimensiF−1.\nSecara matematis, _hyperplane_ didefinisikan pada persamaan 7.1 (dapat\nditulis ulang seperti persamaan 7.2), dimanaxmelambangkan suatu fitur,x\nadalah _input_ dalam bentuk _feature vector_ danFmelambangkan banyaknya fitur.\nIngat kembali, ruas kiri pada persamaan adalah bentuk dasar pada model\nlinear. Dengan demikian, kita mengasumsikan bahwa data dapat dipisahkan\n\n\n92 7 Support Vector Classifier\n\n```\nGambar 7.1: Ilustrasi _hyperplane_.\n```\nsecara linear.\nx 1 w 1 +x 2 w 2 +···+xFwF+b= 0 (7.1)\nx·w+b= 0 (7.2)\n\nUntuk permasalahan klasifikasi dua kelas, kita dapat memisahkan keputusan\nberdasarkan letak data pada _hyperplane_, misal di atas atau di bawah _hyperplane_ pada\nGambar 7.1. Secara lebih matematis, seperti pada persamaan 7.3\ndan 7.4. Konsep ini mirip seperti yang sudah dijelaskan pada bab 5 tentang\nmelakukan _binary classification_ menggunakan fungsi _sign_ dan _thresholding_.\n\n```\nifx·w+b > 0 ,then classA (7.3)\n```\nifx·w+b < 0 ,then classB (7.4)\nApabila kita memang mampu memisahkan data dua kelas secara sempurna\ndengan suatu _hyperplane_ ( _linearly separable_ ), pilihan _hyperplane_ yang\ndapat kita buat tidaklah satu. Artinya, kita dapat menggeser-geser garis pembatas,\ndisamping tetap memisahkan data secara sempurna, seperti diilustrasikan\npada Gambar 7.2. _Hyperplane_ terbaik dari beberapa pilihan yang\nada adalah yang memiliki _maximal margin_. Artinya, suatu _hyperplane_ yang\nmemiliki jarak terjauh terhadap data pada suatu kelas. Dengan demikian,\nada jarak yang besar dari _hyperplane_ dengan data. Ilustrasi diberikan pada\nGambar 7.3. Kita harap, suatu _hyperplane_ yang memiliki _margin_ besar dapat\nmelakukan klasifikasi dengan baik pada data yang belum kita lihat, karena\nkita memberikan _margin_ yang besar untuk suatu data baru masuk ke daerah\nkelas masing-masing. Bentuk lingkaran yang memiliki _border_ berwarna hitam\npada Gambar 7.3 menandakan data terluar pada masing-masing kelas, dikenal\n\n\n```\n7.1 Maximal Margin Classifier 93\n```\nGambar 7.2: Ilustrasi banyak pilihan _hyperplane_. Garis hitam melambangkan\nopsi _hyperplane_ untuk memisahkan data secara sempurna.\n\nsebagai _support vectors_. Garis putus-putus melambangkan garis yang dibentuk\noleh masing-masing _support vectors_ untuk masing-masing kelas ( _margin_ ).\nApabila kita definisikan (simbolkan) kelas pertama dengan _output_ bernilai\n1 dan kelas kedua bernilai−1 (ingat kembali materi fungsi _sign_ ), makasupport\nvectorsadalah poinxyang memenuhi kriteria pada persamaan 7.5. Dengan\ndemikian, semua data berlabel 1 dan−1 memenuhi persamaan 7.6, dimanay\nmelambangkan kategori. Hal inilah yang disebut sebagai _maximal margin_\n_classifier_. Kita mencari _support vectors_ yang memberikan _hyperplane_ yang\nmemiliki _maximal margin_. Lihatlah ilustrasi pada Gambar 7.4!\n\n```\n|x·w+b|= 1 (7.5)\n```\nyi(x·w+b)≥ 1 (7.6)\nMisalkan kita ambil satu _support vector_ dari masing-masing kelas. Pada\nkelas pertama, ia memenuhixc^1 ·w+b= 1. Pada kelas kedua, ia memenuhi\nxc^2 ·w+b=−1. Apabila kita kurangi kedua persamaan tersebut, kita mendapatkan\npersamaan 7.7. Persamaan 7.8 memberikan perhitungan _margin_ antara\n_support vectors_ dan _hyperplane_ yang memberikan nilai maksimal.\n\n```\nw·(xc^1 −xc^2 ) = 2 (7.7)\n```\n```\nw\n‖w‖\n·(xc^1 −xc^2 ) =\n```\n#### 2\n\n```\n‖w‖\n```\n#### (7.8)\n\nSekarang, kita formalisasi _maximal margin classifier_ secara matematis. Objektifnya\nadalah memaksimalkan _margin_ (persamaan 7.9) dengan menjaga\nsetiap _training data_ diklasifikasikan dengan benar (persamaan 7.10).\n\n\n94 7 Support Vector Classifier\n\nGambar 7.3: _Maximal Margin Hyperplane_. Bentuk lingkaran yang memiliki\n_border_ di- _bold_ berwarna hitam menandakan data terluar pada masing-masing\nkelas, dikenal sebagai _support vectors_. Garis putus-putus melambangkan garis\nyang dibentuk oleh masing-masing _support vectors_ untuk masing-masing kelas\n( _margin_ ).\n\n```\nObjective : maximize Margin =\n```\n#### 2\n\n```\n‖w‖\n```\n#### (7.9)\n\n```\nSubject to :yi(xi·w+b)≥ 1 (7.10)\n```\nTidak sama dengan _model linear_ yang sudah dijelaskan sebelumnya, kita ingin\nmengoptimasi sebuah fungsi sembari memenuhi kendala ( _constraint_ ) dari\nfungsi lain. Ini adalah bentuk _integer linear programming_, dan solusi untuk\n_maximal margin classifier_ dapat diselesaikan menggunakan _lagrange multiplier_.\nUntuk detail penyelesaiannya, silahkan membaca sumber lainnya.\nSeperti yang kamu sadari, _maximal margin classifier_ hanya bergantung\npada subset _training data_ yang dipilih sebagai _support vectors_. Dengan demikian,\nmetode ini sangat sensitif terhadap tiap-tiap observasi. Satu observasi baru\nyang menjadi _support vector_ dapat merubah _decision boundary_. Kita kenal\nini sebagai _overfitting_. Ilustrasi permasalahan ini diberikan pada Gambar 7.5.\nSelain itu, _maximal margin classifier_ mengasumsikan bahwa data bersifatlinearly\nseparable, walaupun kebanyakan data tidak bersifat demikian.\n\n\n```\n7.1 Maximal Margin Classifier 95\n```\n```\nGambar 7.4:Maximal Margin Classifier.\n```\nGambar 7.5:Maximal Margin Classifiersangatlah sensitif terhadap perubahan _training_\n_data_. Lingkaran berwarna oranye melambangkan _training data_\nbaru. Akibat kemuculan data baru ini, _decision boundary_ awal (garis berwarna\nhitam) berubah secara cukup dramatis (garis berwarna oranye).\n\n\n96 7 Support Vector Classifier\n\n"} {"text": "### 7.3 Support Vector Machine\n\n```\nTransformasi\n```\nGambar 7.7: Ilustrasi transformasi data. Garis berwarna hijau (dashed)\nmelambangkan _decision boundary_.\n\nBerhubung banyak _decision boundary_ tidak dapat di _model_ kan dengan suatu\nbentuk atau persamaan linear, kita harus me _model_ kan _decision boundary_ sebagai\nfungsi non-linear. Ekstensi _support vector classifier_ adalahsupport\nvector machineyang menggunakan teknik _kernel_. Suatu fungsi _kernel_\nmentransformasi data ke ruang ( _space_ atau dimensi) lainnya ( _bias_ anya ke dimensi\nlebih tinggi). Data yang ditransformasi ini (pada dimensi lebih tinggi),\nkita harapkan dapat dipisahkan dengan fungsi linear. Apabila kita lihat balik\npada dimensi asli, _decision boundary_ pada dimensi yang baru me _model_ kan suatudecision\nboundarynon-linear pada dimensi aslinya. Hal ini diilustrasikan\npada Gambar 7.7. Fungsi _kernel_ ini ada banyak, beberapa yang terkenal di-\nantaranya:^1\n\n1. Polynomial Kernel (persamaan 7.13)\n\n```\nk(xi,xj) = (xi·xj+ 1)d (7.13)\n```\n2. Radial Basis Function Kernel (persamaan 7.14,σ^2 melambangkan varians)\n\n```\nk(x,y) = exp\n```\n#### (\n\n#### −\n\n```\n‖x−y‖^2\n2 σ^2\n```\n#### )\n\n#### (7.14)\n\nYang membedakan _support vector machine_ dan _support vector classifier_ adalah\nmengintegrasikan fungsi _kernel_ pada model.\nSebelum membahas bagaimana fungsi _kernel_ diintegrasikan pada SVM,\nkita sedikit bahas kembali _support vector classifier_. Ingat kembalisupport\nvector classifier mencari _maximal margin_ (persamaan 7.9) dengan kendala\npersamaan 7.11 dan 7.12. Suatu _support vector classifier_ yang memenuhi seluruh\nkendala tersebut dapat direpresentasikan sebagai persamaan 7.15 dimana\n\n(^1) https:// _data_ -flair. _training_ /blogs/svm- _kernel_ - _function_ s/\n\n\n98 7 Support Vector Classifier\n\nx′melambangkan suatu data baru,xiadalah suatu _instance_ pada _training_\n_data_ danNadalah banyaknya _training data_. Operasi〈x′,xi〉melambangkan\n_inner product_. Cara menghitung _inner product_ dari dua vektor diberikan pada\npersamaan 7.16, dimanaFmelambangkan panjangnya vektor. _Inner product_\ndapat diinterpretasikan sebagai perhitungan kemiripan dua vektor.\n\n```\nf(x′) =β 0 +\n```\n#### ∑N\n\n```\ni=1\n```\n```\nαi〈x′,xi〉 (7.15)\n```\n```\n〈a,b〉=\n```\n#### ∑F\n\n```\nj=1\n```\n```\najbj (7.16)\n```\nUntuk menghitung parameterβdanαpada persamaan 7.15, kita membu-\ntuhkan\n\n#### (N\n\n```\n2\n```\n#### )\n\nkombinasi pasangan _instance_ yang ada pada _training data_. Akan\ntetapi, pada saat melewatkan suatu _input_ baru pada persamaan tersebut,\nkita sebenarnya cukup menghitung seberapa kedekatan (kemiripan) antara\n_input_ dan _support vectors_. Hal ini disebabkanαbernilai 0 untuk _instance_\nselain _support vectors_, i.e., diatur hanya bernilai _nonzero_ untuk _support vectors_.\nArtinya, keputusan klasifikasi bergantung pada pilihan _support vectors_.\nDengan demikian, kita dapat menulis kembali persamaan 7.15 sebagai persamaan\n7.17, dimanaSmelambangkan _support vectors_.\n\n```\nf(x′) =β 0 +\n```\n#### ∑\n\n```\nxi∈S\n```\n```\nαi〈x′,xi〉 (7.17)\n```\nKetika menggunakan fungsi _kernel_, kita menghitung kemiripan ( _inner product_ )\nantara dua vektor pada dimensi transformasi. Kita menggantiinner\nproductmenggunakan suatu fungsi _kernel_, ditulis sebagai persamaan 7.18.\nPersamaan inilah yang dikenal sebagai _support vector machine_ (SVM).\nUntuk me _model_ kan _non-linear decision boundary_, kita menggunakan fungsi\nyang bersifat non-linear sebagai _kernel_.\n\n```\nf(x′) =β 0 +\n```\n#### ∑\n\n```\nxi∈S\n```\n```\nαik(x′,xi) (7.18)\n```\nUntuk memahami SVM lebih dalam, kamu bisa membaca buku karangan\nBishop [8].\n\n"} {"text": "### Soal Latihan\n\n7.1. Metode _Kernel_\nBaca dan jelaskanlah konsep metode kernel yang dijelaskan pada buku\nBishop [8]!\n\n7.2. Fungsi _Kernel_\nJelaskanlah macam-macam fungsi _kernel_ yang sering digunakan untuksupport\nvector machine!\n\n7.3. SVM- _rank_\nWalau umumnya digunakan untuk permasalahan klasifikasi, SVM juga dapat\ndiaplikasikan pada permasalahan _ranking_ ( _learning to rank_ ), dikenal sebagai\nSVM- _rank_.^2. Permasalahan ini adalah inti dari _search engine_ Jelaskanlah\nbagaimana cara kerja SVM- _rank_ !\n\n(^2) https://www.cs.cornell.edu/people/tj/svm_ _light/svm_ _ _rank_.html\n\n\n\n"} {"text": "### 7.5 Tips\n\nUntuk memahami materi yang disampaikan pada bab ini secara lebih dalam,\nkami menya _rank_ an kamu untuk mempelajari _optimization theory_ danope _ratio_ n\nresearch (i.e., integer linear programming). Penulis harus mengakui\ntidak terlalu familiar dengan teori-teori tersebut. Sejarah dan perkembangansupport\nvector machinedapat dibaca pada paper- _paper_ yang diberikan\ndi pranalahttp://www.svms.org/ _history_.html. Walaupun penjelasan pada\nbab ini hanya bersifat “kulit”-nya saja, kami harap pembaca mampu mendapatkan\nintuisi.\n\n"} {"text": "### 7.4 Klasifikasi lebih dari dua kelas\n\nPenjelasan pada bab ini berfokus pada _binary classification_. Memang,maximal\n_margin_ classifierdan ekstensinya difokuskan pada permasalahan _binary classification_.\nKita dapat mengekstensinya untuk _multi-class classification_. Ada\ndua teknik yang umumnya digunakan, yaitu _one versus one_ danone versus\nallseperti yang sudah dijelaskan pada bab 5. Kita dapat mendekomposisi\n_classifier_ untuk _multi-label classification_ menjadi beberapa _binary classifiers_,\nseperti yang sudah dijelaskan pada bab 5.\n\n\n```\n7.5 Tips 99\n```\n"} {"text": "### 7.2 Support Vector Classifier\n\n_Support Vector Classifier_ adalah ekstensi dari _maximal margin classifier_.\nIde utamanya adalah relaksasi kendala pada persamaan 7.10. Sebelumnya,maximal\n_margin_ classifiermengasumsikan bahwa data bersifatlinearly\nseparabledan dipisahkan secara sempurna. Akan tetapi, kenyataan tidaklah\ndemikian. Ide _support vector classifier_ adalah memperbolehkan beberapa data\ndiklasifikasikan dengan salah. Kita modifikasi _constraint_ persamaan 7.10 menjadi\npersamaan 7.11 untuk memperbolehkan model salah mengklasifikasikan\n_data_ dengan parameter kontrol\u000f, melambangkan apakah suatu observasi boleh\nberada pada ruang yang tidak tepat. Kita juga dapat membatasi seberapa\nbanyak kesalahan yang dibuat dengan _constraint_ baru yang diberikan pada\npersamaan 7.12.\n\n```\nMaximize margin,subject to :yi(xi·w+b)≥1(1−\u000fi) (7.11)\n```\n```\n\u000fi≥0;\n```\n#### ∑\n\n```\n\u000fi≤C (7.12)\n```\nIlustrasi _support vector classifier_ diberikan pada Gambar 7.6. Disini, kita\nsedikit modifikasi definisi _support vectors_ sebagai observasi yang tepat jauh\npada _margin_ atau pada daerah yang tidak sesuai dengan kelasnya [20].\n\nGambar 7.6: Support Vector Classifier. Lingkaran dengan border di- _bold_\nberwarna hitam melambangkan _support vectors_, garis putus-putus melambangkan\n_margin_.\n\nWalaupun memperbolehkan beberapa observasi boleh tidak berada pada\nruang yang tepat (berdasarkan _margin_ ), _support vector classifier_ masih memiliki\nasumsi bahwa _decision boundary_ berbentuk suatu fungsi linear. Ini adalah\nbatasan utama model ini.\n\n\n```\n7.3 Support Vector Machine 97\n```\n"} {"text": "### 4.2 K- _mean_ s\n\nPada _supervised learning_ kita mengetahui kelas data untuk setiap _feature vector_,\nsedangkan untuk _unsupervised learning_ kita tidak tahu. Tujuan _unsupervised_\n_learning_ salah satunya adalah melakukan _clustering_. Yaitu mengelompokkan\n_data_ - _data_ dengan karakter mirip. Untuk melakukan pembelajaran\nmenggunakan _K-means_ [27], kita harus mengikuti langkah-langkah sebagai\nberikut:\n\n1. Tentukan jumlah kelompok yang kita inginkan.\n2. Inisiasi _centroid_ untuk setiap kelompok (pada bab ini, secara acak). Cen-\n troid adalah data yang merepresentasikan suatu kelompok (ibaratnya ke-\n tua kelompok).\n3. Hitung kedekatan suatu data terhadap _centroid_, kemudian masukkan data\n tersebut ke kelompok yang _centroid_ -nya memiliki sifat terdekat dengan\n dirinya.\n4. Pilih kembali _centroid_ untuk masing-masing kelompok, yaitu dari anggota\n kelompok tersebut (semacam memilih ketua yang baru).\n5. Ulangi langkah-langkah sebelumnya sampai tidak ada perubahan anggota\n untuk semua kelompok.\n\n```\nid rich intelligent good looking\n1 yes yes yes\n2 yes no no\n3 yes yes no\n4 no no no\n5 no yes no\n6 no no yes\n```\n```\nTabel 4.5: Contoh dataset orang kaya\n```\nPerhatikan Tabel 4.5, kita akan mengelompokkan data pada tabel tersebut\nmenjadi dua _clusters_ (dua kelompok) yaituk 1 ,k 2 menggunakan algoritma\n\n\n```\n4.2 K- _mean_ s 57\n```\n```\nid perbedaan dengan _centroid_ 1 perbedaan dengan _centroid_ 2 as _sign_ ment\n2 2 2 k 1\n3 1 3 k 1\n4 3 1 k 2\n5 2 2 k 1\n```\n```\nTabel 4.6:As _sign_ ment _K-means_ langkah 1\n```\n```\nid perbedaan dengan _centroid_ 1 perbedaan dengan _centroid_ 2 as _sign_ ment\n1 2 3 k 1\n3 1 3 k 1\n5 3 1 k 2\n6 2 2 k 1\n```\n```\nTabel 4.7:As _sign_ mentK-Means langkah 2\n```\n_K-means_. Pertama-tama kita inisiasi centroid secara acak,id 1 untukk 1 dan\nid 6 untukk 2. Kita hitung kedekatan data lainnya terhadap _centroid_. Untuk\nmempermudah contoh, kita hitung perbedaan data satu dan lainnya dengan\nmenghitung perbedaan nilai atribut (nilai atributnya sama atau tidak).\nApabila perbedaan suatu data terhadap kedua centroid bernilai sama, kita\nmasukkan ke kelas dengan nomor urut lebih kecil.\nSetelah langkah ini, kelompok satu beranggotakan{id 1 ,id 2 ,id 3 ,id 5 }sementara\nkelompok dua beranggotakan{id 4 ,id 6 }. Kita pilih kembali centroid\nuntuk masing-masing kelompok yang mana berasal dari anggota kelompok itu\nsendiri. Misal kita pilih secara acak,^1 centroid untuk kelompok pertama adalah\nid 2 sementara untuk kelompok kedua adalahid 4. Kita hitung kembali _assignment_ anggota\nkelompok yang ilustrasinya dapat dilihat pada Tabel 4.7. Hasil\nlangkah ke-2 adalah perubahan anggota kelompok,k 1 ={id 1 ,id 2 ,id 3 ,id 5 }\ndank 2 ={id 4 ,id 6 }. Anggap pada langkah ke-3 kita memilih kembaliid 2 dan\nid 4 sebagai centroid masing-masing kelompok sehingga tidak ada perubahan\nkeanggotaan.\nBila kamu membaca buku literatur lain, kemungkinan besar akan dijelaskan\nbahwa _clustering_ itu memilikihubungan erat denganGaussian\nMixture Model. Secara sederhana,satu _cluster_ (atau satu kelas)sebenarnya\nseolah-olah dapat dipisahkan dengan kelas lainnya oleh distribusi\ngaussian. Perhatikan Gambar 4.1! Suatu _cluster_ atau kelas, seolah olah “dibungkus”\noleh suatu distribusi gaussian. Distribusi seluruh dataset dapat diaproksimasi\ndengan _Gaussian Mixture Model_ (GMM).\nIngat kembali bahwa data memiliki suatu pola (dalam statistik disebut\ndistribusi), kemudian pada bab 2 telah disebutkan bahwa GMM dipercaya dapat\nmengaproksimasi fungsi apapun (silahkan perdalam pengetahuan statistik\n\n(^1) Cara lain memilih akan dijelaskan pada bab 10.\n\n\n58 4 Algoritma Dasar\n\n```\nGambar 4.1: Ilustrasi hubungan Clustering, kelas, dan Gaussian\n```\nkamu untuk hal ini). Dengan demikian, _machine learning_ yang mempunyai\nsalah satu tujuan untuk menemukan pola dataset, memiliki hubungan yang\nsangat erat dengan distribusi gaussian karena pola tersebut dapat diaproksimasi\ndengan distribusi gaussian.\n\n"} {"text": "### Soal Latihan\n\n4.1. Data numerik\n\n(a) Carilah suatu contoh dataset numerik.\n(b) Pikirkanlah st _rate_ gi untuk mengklasifikasi data numerik pada algoritma\n_Naive Bayes_ danK-nearest-neighbor!\n\n4.2. K- _mean_ s, KNN, GMM, EM\nBuktikan bahwa K- _mean_ s, K-nearest-neighbor, _Gaussian Mixture Model_, dan\n_Expectation Maximization_ Algorithm memiliki hubungan! (apa kesamaan\nmereka).\n\n4.3. K- _mean_ s\n\n(a) Cari tahu cara lain untuk memilih _centroid_ pada algoritma K- _mean_ s\n(selain cara acak) baik untuk data nominal dan numerik!\n(b) Cari tahu cara lain untuk menghitung kedekekatan suatu data dengan\n_centroid_ baik untuk data nominal dan numerik! Hint: _euclidian distance_,\n_manhattan distance_, _cosine similarity_.\n\n\n\n"} {"text": "### 4.3 K-nearest-neighbor\n\nIdeK-nearest-neighbor(KNN) adalah mengelompokkan data ke kelompok\nyang memiliki sifat termirip dengannya [28]. Hal ini sangat mirip denganK _mean_ s.\nBila K- _mean_ s digunakan untuk _clustering_, KNN digunakan untuk\nklasifikasi. Algoritma klasifikasi ini disebut juga algoritma malas karena tidak\nmempelajari cara mengkategorikan data, melainkan hanya mengingat data\nyang sudah ada.^2 Pada subbab 4.2, kita telah mengelompokkan data orang\nkaya menjadi dua kelompok.\nKNN mencariK _feature vector_ dengan sifat termirip, kemudian mengelompokkan\n_data_ baru ke kelompok _feature vector_ tersebut. Sebagai ilustrasi mudah,\nkita lakukan klasifikasi algoritma KNN denganK= 3 untuk data baru\n{rich=no,intelligent=yes,good looking=yes}. Kita tahu pada subbab\nsebelumnya bahwa kelompok satuk 1 ={id 1 ,id 2 ,id 3 ,id 5 }dank 2 ={id 4 ,id 6 },\npada Tabel 4.8. _feature vector_ termirip dimiliki oleh data denganid 1 ,id 5 ,id 6\nseperti diilustrasikan pada Tabel 4.8. Kita dapat menggunakan st _rate_ gi untuk\nmengurusi permasalahan ini, misalnya memberikan prioritas memasukkan ke\nkelompok yang rata-rata perbedaannya lebih kecil.^3 Dengan st _rate_ gi tersebut,\nkita mengklasifikasikan data baru ke kelompok pertama.\n\n(^2) https://sebastianraschka.com/faq/docs/lazy-knn.html\n(^3) Silahkan eksplorasi cara lain juga!\n\n\n```\n4.3 K-nearest-neighbor 59\n```\n```\nid perbedaan\n1 1\n2 3\n3 3\n4 2\n5 1\n6 1\n```\n```\nTabel 4.8: Perbedaan data baru vs data orang kaya\n```\n"} {"text": "### 4.1 Naive Bayes\n\n_Naive Bayes_ adalah algoritma _supervised learning_ yang sangat sederhana [26].\nIdenya mirip dengan probabilitas bayesian pada bab 2. Secara formal, persamaanNaive\nBayesuntuk klasifikasi diberikan pada persamaan 4.1 dimana\nciadalah suatu nilai kelas,Cadalah pilihan kelas (himpunan),tadalah fitur\n(satu fitur, bukan _feature vector_ ) danF adalah banyaknya fitur. Kita\nmemprediksi kelas berdasarkan probabilitas kemunculan nilai fitur pada kelas\ntersebut.\nPertama, kita hitung _likelihood_ suatu _feature vector_ diklasifikasikan ke kelas\ntertentu berdasarkan bagaiman probabilitas korespondensi fitur-fiturnya\nterhadap kelas tersebut (persamaan 4.1). Kemudian, kita normalisasi _likelihood_ semua\nkelas untuk mendapatkan probabilitas _class-assignment_ ( _softmax_ –\npersamaan 4.2). Akhirnya, kita pilih kelas dengan probabilitas tertinggi (persamaan\n4.3).\n\n```\n_likelihood_ (ci) =P(ci)\n```\n#### ∏F\n\n```\nf=1\n```\n```\nP(tf|ci) (4.1)\n```\n\n54 4 Algoritma Dasar\n\n```\nid outlook temperature humidity windy play ( _class_ )\n1 sunny hot high false no\n2 sunny hot high true no\n3 overcast hot high false yes\n4 rainy mild high false yes\n5 rainy cool normal false yes\n6 rainy cool normal true no\n7 overcast cool normal true yes\n8 sunny mild high false no\n9 sunny cool normal false yes\n10 rainy mild normal false yes\n11 sunny mild normal true yes\n12 overcast mild high true yes\n13 overcast hot normal false yes\n14 rainy mild high true no\n```\n```\nTabel 4.1: Contoh dataset _play tennis_ (UCI machine learning repository)\n```\n```\n_outlook_ temperature humidity windy play ( _class_ )\nyes no yes no yes no yes no yes no\nsunny 2 3 hot 2 3 high 3 4 false 6 2 9 5\novercast 4 0 mild 4 2 normal 6 1 true 3 3\nrainy 3 2 cool 3 1\n```\n```\nTabel 4.2: Frekuensi setiap nilai atribut\n```\n```\n_outlook_ temperature humidity windy play ( _class_ )\nyes no yes no yes no yes no yes no\nsunny 2/9 3/5 hot 2/9 3/5 high 3/9 4/5 false 6/9 2/5 9/14 5/14\novercast 4/9 0/5 mild 4/9 2/5 normal 6/9 1/5 true 3/9 3/5\nrainy 3/9 2/5 cool 3/9 1/5\n```\n```\nTabel 4.3: Probabilitas setiap nilai atribut\n```\n```\nP _assignment_ (ci) =\n```\n```\n_likelihood_ (ci)\n∑\ncj\u000fC _likelihood_ (cj)\n```\n#### (4.2)\n\n```\ncˆi= arg max\nci\u000fC\n```\n```\nP _assignment_ (ci) (4.3)\n```\nAgar mendapatkan gambaran praktis, mari kita bangun model Naive\nBayes untuk Tabel 4.1. Tabel ini disebut sebagai _dataset_, yaitu memuat\n_entry_ data (tiap baris disebut sebagai _instance_ ). Kita anggap Tabel 4.1 sebagai _training_\n_data_. Untuk menghitung probabilitas, pertama-tama kita\nhitung terlebih dahulu frekuensi nilai atribut seperti pada Tabel 4.2, setelah\nitu kita bangun model probabilitasnya seperti pada Tabel 4.3.\nUntuk menguji kebenaran model yang telah kita bangun, kita menggunakan _testing_\n_data_, diberikan pada Tabel 4.4. _testing data_ berisiunseen\nexampleyaitu contoh yang tidak ada pada _training data_.\n\n\n```\n4.1 Naive Bayes 55\n```\n```\nid outlook temperature humidity windy play ( _class_ )\n1 sunny cool high true no\n```\n```\nTabel 4.4: Contoh testing data _play tennis_ [7]\n```\n```\n_likelihood_ ( _play=yes_ ) =P(yes)P(sunny|yes)P(cool|yes)P(high|yes)\nP(true|yes)\n```\n```\n=\n```\n#### 9\n\n#### 14\n\n#### ∗\n\n#### 2\n\n#### 9\n\n#### ∗\n\n#### 3\n\n#### 9\n\n#### ∗\n\n#### 3\n\n#### 9\n\n#### ∗\n\n#### 3\n\n#### 9\n\n#### = 0. 0053\n\n```\n_likelihood_ ( _play=no_ ) =P(no)P(sunny|no)P(cool|no)P(high|no)\nP(true|no)\n```\n```\n=\n```\n#### 5\n\n#### 14\n\n#### ∗\n\n#### 3\n\n#### 5\n\n#### ∗\n\n#### 1\n\n#### 5\n\n#### ∗\n\n#### 4\n\n#### 5\n\n#### ∗\n\n#### 3\n\n#### 5\n\n#### = 0. 0206\n\n```\nP _assignment_ ( _play=yes_ ) =\n```\n```\n_likelihood_ ( _play=yes_ )\n_likelihood_ ( _play=yes_ ) + likelihood( _play=no_ )\n```\n```\n=\n```\n#### 0. 0053\n\n#### 0 .0053 + 0. 0206\n\n#### = 0. 205\n\n```\nP _assignment_ ( _play=no_ ) =\n_likelihood_ ( _play=no_ )\n_likelihood_ ( _play=yes_ ) + likelihood( _play=no_ )\n```\n```\n=\n```\n#### 0. 0206\n\n#### 0 .0053 + 0. 0206\n\n#### = 0. 795\n\nKarenaP _assignment_ ( _play_ =no)> P _assignment_ ( _play_ =yes) maka diputuskan\nbahwa kelas untuk _unseen example_ adalah _play=no_. Proses klasifikasi\nuntuk data baru sama seperti proses klasifikasi untuk _testing data_, yaitu kita\ningin menebak kelas data. Karena model berhasil menebak kelas pada _training_\n_data_ dengan tepat, akurasi model adalah 100% (kebetulan contohnya hanya\nada satu).\nPerhatikan! Kamu mungkin berpikir kita dapat langsung menggunakan\n_likelihood_ untuk mengklasifikasi, karena probabilitas dengan _likelihood_ terbesar\nakan dipilih. Hal ini cukup berbahaya apabila _likelihood_ untuk masingmasing\nkelas memiliki jarak yang cukup dekat. Sebagai contoh, menghitung\nprobabilitas apabila (kasus abstrak) _likelihood_ ={ 0. 70 , 0. 60 }, sehingga probabilitas\nkelas menjadi={ 0. 54 , 0. 46 }. Karena perbedaan probabilitas kelas relatif\ntidak terlalu besar (contoh ini adalah penyederhanaan), kita mungkin harus\n\n\n56 4 Algoritma Dasar\n\nberpikir kembali untuk mengklasifikasikan _instance_ ke kelas pertama. Hal ini\nberkaitan dengan seberapa yakin kamu mengklasifikasikan suatu sampel ke\nkelas tertentu. Perbedaan _likelihood_ yang besar menandakan keyakinan, sementara\nperbedaan yang tipis menandakan ketidakyakinan.\nPerhatikan, jumlah _likelihood_ mungkin lebih dari 1. Sementara, probabilitas\natau jumlahnya berada pada range [0,1] (0 ≤P ≤1). Pada contoh\nsebelumnya, nilai _likelihood_ diubah menjadi bentuk probabilitas dengan\nmenggunakan teknik _softmax_. Fungsi _softmax_ berbentuk seperti pada persamaan\n4.2.\n\n"} {"text": "### 4.1 Naive Bayes\n\n_Naive Bayes_ adalah algoritma _supervised learning_ yang sangat sederhana [26].\nIdenya mirip dengan probabilitas bayesian pada bab 2. Secara formal, persamaanNaive\nBayesuntuk klasifikasi diberikan pada persamaan 4.1 dimana\nciadalah suatu nilai kelas,Cadalah pilihan kelas (himpunan),tadalah fitur\n(satu fitur, bukan _feature vector_ ) danF adalah banyaknya fitur. Kita\nmemprediksi kelas berdasarkan probabilitas kemunculan nilai fitur pada kelas\ntersebut.\nPertama, kita hitung _likelihood_ suatu _feature vector_ diklasifikasikan ke kelas\ntertentu berdasarkan bagaiman probabilitas korespondensi fitur-fiturnya\nterhadap kelas tersebut (persamaan 4.1). Kemudian, kita normalisasi _likelihood_ semua\nkelas untuk mendapatkan probabilitas _class-assignment_ ( _softmax_ –\npersamaan 4.2). Akhirnya, kita pilih kelas dengan probabilitas tertinggi (persamaan\n4.3).\n\n```\n_likelihood_ (ci) =P(ci)\n```\n#### ∏F\n\n```\nf=1\n```\n```\nP(tf|ci) (4.1)\n```\n\n54 4 Algoritma Dasar\n\n```\nid outlook temperature humidity windy play ( _class_ )\n1 sunny hot high false no\n2 sunny hot high true no\n3 overcast hot high false yes\n4 rainy mild high false yes\n5 rainy cool normal false yes\n6 rainy cool normal true no\n7 overcast cool normal true yes\n8 sunny mild high false no\n9 sunny cool normal false yes\n10 rainy mild normal false yes\n11 sunny mild normal true yes\n12 overcast mild high true yes\n13 overcast hot normal false yes\n14 rainy mild high true no\n```\n```\nTabel 4.1: Contoh dataset _play tennis_ (UCI machine learning repository)\n```\n```\n_outlook_ temperature humidity windy play ( _class_ )\nyes no yes no yes no yes no yes no\nsunny 2 3 hot 2 3 high 3 4 false 6 2 9 5\novercast 4 0 mild 4 2 normal 6 1 true 3 3\nrainy 3 2 cool 3 1\n```\n```\nTabel 4.2: Frekuensi setiap nilai atribut\n```\n```\n_outlook_ temperature humidity windy play ( _class_ )\nyes no yes no yes no yes no yes no\nsunny 2/9 3/5 hot 2/9 3/5 high 3/9 4/5 false 6/9 2/5 9/14 5/14\novercast 4/9 0/5 mild 4/9 2/5 normal 6/9 1/5 true 3/9 3/5\nrainy 3/9 2/5 cool 3/9 1/5\n```\n```\nTabel 4.3: Probabilitas setiap nilai atribut\n```\n```\nP _assignment_ (ci) =\n```\n```\n_likelihood_ (ci)\n∑\ncj\u000fC _likelihood_ (cj)\n```\n#### (4.2)\n\n```\ncˆi= arg max\nci\u000fC\n```\n```\nP _assignment_ (ci) (4.3)\n```\nAgar mendapatkan gambaran praktis, mari kita bangun model Naive\nBayes untuk Tabel 4.1. Tabel ini disebut sebagai _dataset_, yaitu memuat\n_entry_ data (tiap baris disebut sebagai _instance_ ). Kita anggap Tabel 4.1 sebagai _training_\n_data_. Untuk menghitung probabilitas, pertama-tama kita\nhitung terlebih dahulu frekuensi nilai atribut seperti pada Tabel 4.2, setelah\nitu kita bangun model probabilitasnya seperti pada Tabel 4.3.\nUntuk menguji kebenaran model yang telah kita bangun, kita menggunakan _testing_\n_data_, diberikan pada Tabel 4.4. _testing data_ berisiunseen\nexampleyaitu contoh yang tidak ada pada _training data_.\n\n\n```\n4.1 Naive Bayes 55\n```\n```\nid outlook temperature humidity windy play ( _class_ )\n1 sunny cool high true no\n```\n```\nTabel 4.4: Contoh testing data _play tennis_ [7]\n```\n```\n_likelihood_ ( _play=yes_ ) =P(yes)P(sunny|yes)P(cool|yes)P(high|yes)\nP(true|yes)\n```\n```\n=\n```\n#### 9\n\n#### 14\n\n#### ∗\n\n#### 2\n\n#### 9\n\n#### ∗\n\n#### 3\n\n#### 9\n\n#### ∗\n\n#### 3\n\n#### 9\n\n#### ∗\n\n#### 3\n\n#### 9\n\n#### = 0. 0053\n\n```\n_likelihood_ ( _play=no_ ) =P(no)P(sunny|no)P(cool|no)P(high|no)\nP(true|no)\n```\n```\n=\n```\n#### 5\n\n#### 14\n\n#### ∗\n\n#### 3\n\n#### 5\n\n#### ∗\n\n#### 1\n\n#### 5\n\n#### ∗\n\n#### 4\n\n#### 5\n\n#### ∗\n\n#### 3\n\n#### 5\n\n#### = 0. 0206\n\n```\nP _assignment_ ( _play=yes_ ) =\n```\n```\n_likelihood_ ( _play=yes_ )\n_likelihood_ ( _play=yes_ ) + likelihood( _play=no_ )\n```\n```\n=\n```\n#### 0. 0053\n\n#### 0 .0053 + 0. 0206\n\n#### = 0. 205\n\n```\nP _assignment_ ( _play=no_ ) =\n_likelihood_ ( _play=no_ )\n_likelihood_ ( _play=yes_ ) + likelihood( _play=no_ )\n```\n```\n=\n```\n#### 0. 0206\n\n#### 0 .0053 + 0. 0206\n\n#### = 0. 795\n\nKarenaP _assignment_ ( _play_ =no)> P _assignment_ ( _play_ =yes) maka diputuskan\nbahwa kelas untuk _unseen example_ adalah _play=no_. Proses klasifikasi\nuntuk data baru sama seperti proses klasifikasi untuk _testing data_, yaitu kita\ningin menebak kelas data. Karena model berhasil menebak kelas pada _training_\n_data_ dengan tepat, akurasi model adalah 100% (kebetulan contohnya hanya\nada satu).\nPerhatikan! Kamu mungkin berpikir kita dapat langsung menggunakan\n_likelihood_ untuk mengklasifikasi, karena probabilitas dengan _likelihood_ terbesar\nakan dipilih. Hal ini cukup berbahaya apabila _likelihood_ untuk masingmasing\nkelas memiliki jarak yang cukup dekat. Sebagai contoh, menghitung\nprobabilitas apabila (kasus abstrak) _likelihood_ ={ 0. 70 , 0. 60 }, sehingga probabilitas\nkelas menjadi={ 0. 54 , 0. 46 }. Karena perbedaan probabilitas kelas relatif\ntidak terlalu besar (contoh ini adalah penyederhanaan), kita mungkin harus\n\n\n56 4 Algoritma Dasar\n\nberpikir kembali untuk mengklasifikasikan _instance_ ke kelas pertama. Hal ini\nberkaitan dengan seberapa yakin kamu mengklasifikasikan suatu sampel ke\nkelas tertentu. Perbedaan _likelihood_ yang besar menandakan keyakinan, sementara\nperbedaan yang tipis menandakan ketidakyakinan.\nPerhatikan, jumlah _likelihood_ mungkin lebih dari 1. Sementara, probabilitas\natau jumlahnya berada pada range [0,1] (0 ≤P ≤1). Pada contoh\nsebelumnya, nilai _likelihood_ diubah menjadi bentuk probabilitas dengan\nmenggunakan teknik _softmax_. Fungsi _softmax_ berbentuk seperti pada persamaan\n4.2.\n\n"} {"text": "### 3.6 Classification, Association, Clustering\n\nPadasupervsied learning, kita memprediksi kelas berdasarkan _feature vector_\nyang merepresentasikan suatu sampel ( _data_ /observasi). _Feature vector_ bisa\ndiibaratkan sebagai sifat-sifat atau keadaan yang diasosiasikan dengan kelas.\nPada _supervised learning_, setiap _feature vector_ berkorespondisi dengan kelas\ntertentu. Mencari kelas yang berkorespondensi terhadap suatu _input_ disebutklasifikasi( _classification_ ).\nContoh klasifikasi adalah mengkategorikan\ngambar buah (e.g. apel, jeruk, dsb). Sementara itu, apabila kita ingin mencari\nhubungan antara satu atribut dan atribut lainnya, disebutassociation. Sebagai\ncontoh pada Tabel 3.1, apabila _outlook=sunny_, maka sebagian besar\n_humidity=high_. Di lain pihak, pada _unsupervised learning_ tidak ada kelas\nyang berkorespondensi; kita mengelompokkan data dengan sifat-sifat yang\nmirip, disebut _clustering_. Contoh _clustering_ adalah pengelompokkan barang\ndi supermarket. Perlu kamu catat bahwa _unsupervised learning_ 6 = _clustering_.\n_Clustering_ adalah salah satu _task_ pada _unsupervised learning_.\nPada Tabel 3.1, hanya ada dua kelas, klasifikasi data ini disebut binary\n_classification_. Apabila kelas klasifikasi lebih dari dua ( _mutually exclusive_ ),\ndisebut _multi-class classification_. Apabila kelas-kelas tersebut\ntidak bersifat _mutually exclusive_, maka kita melakukan _multi-label classification_.\nMohon bedakan antara _multi-label classification_ danmultilevel/ _hierarchical_\n_classification_. Pada _multi-level/hierarchical classification_,\npertama-tama kita melakukan klasifikasi untuk suatu kelas generik, lalu\n\n(^5) https://en.wikipedia.org/wiki/Feature_selection\n(^6) [http://scikit-learn.org/stable/modules/feature_selection.html](http://scikit-learn.org/stable/modules/feature_selection.html)\n\n\n46 3 Data Analytics\n\ndilanjutkan mengklasifikan data ke kelas yang lebih spesifik. Contohmultilevel\n_classification_ adalah _kingdom_ (biologi), pertama diklasifikasikan ke _kingdom_\nanimalia, lalu lebih spesifiknya ke _phylum Vertebrata_, dst.Multi-label\n_classification_ hanya proses klasifikasi ke dalam banyak “kelas” tanpa tinjauan\nhirarkis.\n_Multi-class classification_ yang telah dijelaskan sebelumnya disebut juga\nsebagai _hard classification_, artinya apabila data diklasifikasikan ke kelas tertentu,\nmaka tidak mungkin data berada di kelas lainnya (ya atau tidak).\n_Multi-label classification_ bersifat lebih _soft_, karena dapat mengklasifikasikan\nke beberapa kelas, misal data X memiliki masuk ke kategori kelas A, B dan\nC sekaligus (dengan nilai probabilitas masing-masing).\n\n"} {"text": "### 3.3 Ruang Konsep\n\nDengan data yang diberikan, kita ingin melakukan generalisasi aturan/ konsep\nyang sesuai dengan data. Hal ini disebut sebagai _inductive learning_. Cara\npaling sederhana untuk _inductive learning_ adalah mengenumerasi seluruh kemungkinan\nkombinasi nilai sebagai _rule_, kemudian mengeleminasi _rule_ yang\ntidak cocok dengan contoh. Metode ini disebut _list-then-eleminate_. Silahkan\nbaca buku Tom Mitchell [4] untuk penjelasakn lebih rinci. Kemungkinan kombinasi\nnilai ini disebut sebagai ruang konsep ( _concept space_ ). Sebagai contoh\npada Tabel 3.1 himpunan nilai masing-masing atribut yaitu:\n\n- outlook={sunny,overcast,rainy}\n- temperature={hot,mild,cold}\n- humidity={high, _norm_ al}\n- windy={true,false}\n- play={yes,no}\n\nsehingga terdapat 3× 3 × 2 × 2 ×2 = 72 kemungkinan kombinasi. Tentunya kita\ntidak mungkin mengenumerasi seluruh kemungkinan kombinasi nilai karena\nsecara praktikal, atribut yang digunakan banyak. Terlebih lagi, apabila mengenumerasi\nkombinasi atribut bertipe numerik.\nAda algoritma lain yang mendaftar “seluruh kemungkinan kombinasi”\nbernama _candidate-elemination algorithm_ yang lebih efisien dibandinglistthen-eliminate.\nAkan tetapi, algoritma ini _computationally expensive_ secara\npraktikal, dalam artian memiliki kompleksitas yang besar dan tidak bisa\nmenyelesaikan permasalahan nyata. Kamu dapat membaca algoritma ini\npada buku Tom Mitchell [4] juga. Selain _inductive learning_, kita juga dapat\nmelakukan _deductive learning_ yaitu melakukan inferensi dari hal general menjadi\nlebih spesifik. Walau demikian, secara praktis kita sebenarnya melakukan\n_inductive learning_.\n\n"} {"text": "### 3.2 Nilai Atribut dan Transformasi\n\nPerhatikan Tabel 3.1 yang merupakan contoh _dataset_ pada _machine learning_.\n_Dataset_ adalah kumpulan sampel. Seorang anak ingin bermain tenis, tetapi\nkeputusannya untuk bermain tenis ( _play_ ) tergantung pada empat variabel\n{ _outlook_, temperature, humidity, windy}. Keempat variabel ini disebutfitur.\nSetiap fitur memilikiatributnilai dengantipe datadan _range_ tertentu.\nKeputusan untuk bermain ( _play_ ) disebut sebagai label atau kelas ( _class_ ).\nPada bab 1 kamu telah diperkenalkan _supervised learning_ dan _unsupervised_\n_learning_. Pada _supervised learning_, kita ingin mengklasifikasikan apakah seorang\nanak akan bermain atau tidak, diberikan fitur-fitur yang memuat kondisi\nobservasi. Pada _unsupervised learning_, informasi kolom _play_ tidak diberikan,\nkita harus mengelompokkan data tersebut sesuai dengan fitur-fiturnya (contoh\nlebih nyata diberikan pada bab 4).\nDari segi data statistik, terdapat beberapa tipe atribut [23]:\n1.Nominal. Nilai atribut bertipe nominal tersusun atas simbol-simbol yang\nberbeda, yaitu suatu himpunan terbatas. Sebagai contoh, fitur _outlook_\npada Tabel 3.1 memiliki tipe datanominalyaitu nilainya tersusun oleh\nhimpunan{sunny, overcast, rainy}. Pada tipe nominal, tidak ada urutan\nataupun jarak antar atribut. Tipe ini sering juga disebutkategorialatau\nenumerasi. Secara umum, tipe _output_ pada _supervised learning_ adalah\n_data_ nominal.\n\n```\n2.Ordinal. Nilai ordinal memiliki urutan, sebagai contoh 4> 2 >1. Tetapi\njarak antar suatu tipe dan nilai lainnya tidak harus selalu sama, seperti\n4 − 26 = 2−1. Atribut ordinal kadang disebut sebagainumerikataukon-\ntinu.\n```\n```\n3.Interval. Tipe interval memiliki urutan dan _range_ nilai yang sama. Sebagai\ncontoh 1− 5 , 6 − 10 ,dst. Kita dapat mentransformasikan/ mengkonversi\nnilai numerik menjadi nominal dengan cara merubahnya menjadi\n```\n\n42 3 Data Analytics\n\n```\nid outlook temperature humidity windy play ( _class_ )\n1 sunny hot high false no\n2 sunny hot high true no\n3 overcast hot high false yes\n4 rainy mild high false yes\n5 rainy cool normal false yes\n6 rainy cool normal true no\n7 overcast cool normal true yes\n8 sunny mild high false no\n9 sunny cool normal false yes\n10 rainy mild normal false yes\n11 sunny mild normal true yes\n12 overcast mild high true yes\n13 overcast hot normal false yes\n14 rainy mild high true no\n```\n```\nTabel 3.1: Contoh dataset _play tennis_ (UCI machine learning repository).\n```\n```\ninterval terlebih dahulu. Lalu, kita dapat memberikan nama (simbol) untuk\nmasing-masing interval. Misalkan nilai numerik dengan _range_ 1 − 100\ndibagi menjadi 5 kategori dengan masing-masing interval adalah{ 1 −\n20 , 21 − 40 ,..., 81 − 100 }. Setiap interval kita beri nama, misal interval\n81 −100 diberi namanilai A, interval 61−80 diberi namanilai B.\n```\n```\n4.Ratio. Tipe _ratio_ (rasio) didefinisikan sebagai perbandingan antara suatu\nnilai dengan nilai lainnya, misalkan massa jenis (fisika). Pada tipe _ratio_\nterdapat _absolute zero_ (semacam _ground truth_ ) yang menjadi acuan, dan\n_absolute zero_ ini memiliki makna tertentu.\n```\nSecara umum, data pada _machine learning_ adalah nominal atau numerik\n(ordinal). Variabel yang kita prediksi yaitu _play_ disebutkelas/ _class_ /label.\nUntuk setiap baris pada Tabel 3.1, baris kumpulan nilai variabel non-kelas\ndisebut _vektor_ fitur/ _feature vector_. Contohnya pada Tabel 3.1,feature\nvector-nya untuk data denganid= 4 adalahx 4 ={ _outlook=rainy_, temperature=mild,\n_humidity=high_, windy=false}. _Feature vector_ adalah representasi\ndari suatu observasi/ _data_. Pada _machine learning_, kita melakukan operasi terhadap\n_data_ pada representasi _feature vector_ -nya. Kami serahkan pada pembaca\nuntuk mencari contoh dataset dengan tipe numerik sebagai pekerjaan\nrumah.^2\n\n(^2) https://www.cs.waikato.ac.nz/ml/weka/ _dataset_ s.html\n\n\n```\n3.4 Linear Separability 43\n```\n"} {"text": "### 3.7 Mengukur Kinerja\n\nPada bab 1, sudah dijelaskan bahwa kita harus mengukur kinerja model dengan\ncara yang kuantitatif. Pada saat proses latihan, kita ingin model mengoptimalkan\nsuatu nilai _utility function_, misal meminimalkan nilai _error_ atau\n_entropy_. Pada saat latihan, model pembelajaran mesin dapat mengoptimalkan\n_utility function_ yang berbeda-beda (tergantung algoritma).\nKita juga dapat mengevaluasi model secara eksternal dengan melewatkan\n_data_ pada model (umumnya _validation_ dan _testing data_ ), kemudian mengevaluasi\nprediksi final model tersebut dengan ukuran _performance measure_.Performance\nmeasuredapat mengukur kinerja model yang dikonstruksi oleh algoritma\nyang berbeda (akan lebih jelas sembari kamu membaca buku ini).\nSebagai contoh, kamu dapat membandingkan kinerja prediksi model dengan\nmenggunakan metrik seperti akurasi, presisi, _recall_, F1-measure, BLEU [24],\nROUGE [25], _intra-cluster similarity_, dsb. Masing-masing _performance measure_ mengukur\nhal yang berbeda. Perlu kamu ketahui bahwa memilih ukuran\nkinerja tergantung pada domain permasalahan. Misalkan pada translasi\notomatis, peneliti menggunakan ukuran BLEU; pada peringkasan dokumen,\nmenggunakan ROUGE. Sementara itu, pada _information retrival_ /sistem temu\nbalik informasi menggunaan presisi, _recall_, F1-measure, atau _mean_ average\nprecision (MAP). Pada domain klasifikasi gambar, menggunakan akurasi.\nMasing-masing _performance measure_ dapat memiliki karakteristik nilai optimal\nyang berbeda. Kamu harus mengerti domain permasalahan untuk\nmengerti cara mencapai titik optimal. Sebagai pengantar, diktat ini tidak dapat\nmembahas seluruh domain. Dengan demikian, kamu harus membaca lebih\nlanjut literatur spesifik domain, misal buku pemrosesan bahasa alami atau\nsistem temu balik informasi, dsb. Sebagai contoh, untuk permasalahan klasifikasi,\nakurasi sering digunakan. Akurasi didefinisikan pada persamaan 3.1.\nBuku ini akan membahas _performance measure_ dengan lebih lengkap pada\nbab 9.\n\n```\nakurasi =\n```\n```\n# _input_ diklasifikasikan dengan benar\nbanyaknya data\n```\n#### (3.1)\n\n\n```\n3.8 Evaluasi Model 47\n```\n"} {"text": "### Soal Latihan\n\n3.1. Konversi atribut\nSebutkan dan jelaskan macam-macam cara untuk mengkonversi atribut! Sebagai\ncontoh, numerik-nominal dan nominal-numerik.\n\n3.2. Transformasi data\nSebutkan dan jelaskan macam-macam cara transformasi data (e.g. merubah\n_non-linearly separable_ menjadi _linearly separable_ )\n\n3.3. Seleksi fitur\nBacalah algoritma seleksi fitur pada _library_ sklearn. Jelaskan alasan ( _rationale_ )\ndibalik penggunaan tiap algoritma yang ada!\n\n3.4. Inductive Learning\nJelaskanlah algoritma _list-then-eliminate_ dan _candidate-elimination_ !\n\n3.5. Tahapan analisis\nAgar mampu memahami tahapan analisis data dan pembelajaran mesin secara\nlebih praktikal, kerjakanlah tutorial berikut!\nhttps://scikit-learn.org/stable/tutorial/basic/tutorial.html\n\n\n\n"} {"text": "### 3.1 Pengenalan Data Analytics\n\nSecara umum, subbab ini adalah ringkasan dari buku Jeff Leek [22]. Untuk\ndetailnya, kamu dapat membaca buku tersebut secara langsung. Penulis\nmerekomendasikan buku tersebut karena ringkas dan mudah dipahami bahkan\noleh pemula.\nKita tahu di dunia ini ada banyak masalah. Masalah adalah ketika tujuan\nyang diinginkan tidak tercapai ( _current state_ bukanlah _desired state_ ). Agar\n_current state_ menjadi _desired state_, kita melakukan kegiatan yang disebut\npenyelesaian masalah ( _problem solving_ ). Tiap bidang (domain) mendefinisikan\npermasalahan secara berbeda. Oleh karena itu, mengetahui teknikmachine\n_learning_ tanpa mengetahui domain aplikasi adalah sesuatu yang kurang baik\n(semacam buta). Kamu memiliki ilmu, tetapi tidak tahu ilmunya mau digunakan\nuntuk apa. Contohnya, bidang keilmuan pemrosesan bahasa alami\n( _natural language processing_ ) menggunakan _machine learning_ untuk mengklasifikasikan\nteks; bidang keilmuan pemrosesan suara menggunakanmachine\n\n\n40 3 Data Analytics\n\n_learning_ untuk mentranskripsikan suara manusia menjadi teks. Tiap bidang\nmerepresentasikan permasalahan ke dalam formulasi yang berbeda. Bisa jadi\nbentuk komputasi (representasi) pada bidang satu berbeda dengan bidang\nlainnya. Hal ini perlu kamu ingat karena interpretasi representasi sangat\nbergantung pada konteks permasalahan (domain). Buku ini adalah pengenalan\nteknik yang bersifat umum.\nSeperti yang sudah dijelaskan pada bab-bab sebelumnya. _Machine learning_ adalah\n_infer_ ensi berdasarkan data. _Raw data_ atau data mentah adalah\nsekumpulan fakta ( _record_, _event_ ) yang kemungkinan besar tidak memberikan\npenjelasan apapun. Sama halnya dengan kebanyakan data di dunia nyata,raw\n_data_ bersifat tidak rapih, misalnya mengandung _missing value_, i.e., ada data\nyang tidak memiliki label padahal data lainnya memiliki label (ingat kembali\nmateri bab 1). Agar mampu menganalisis _raw data_ menggunakan teknik\n_machine learning_, pertama-tama kita harus merapikan data sesuai dengan\nformat yang kita inginkan ( _dataset_ ). Kemudian, mencari fitur-fitur yang dapat\nmerepresentasikan data. Kedua kegiatan ini secara umum dikenal dengan\nistilah _pre-processing_. Setelah _pre-processing_, kita menggunakan teknik-teknik\nyang ada untuk menemukan pola-pola yang ada di data (membangun model).\nPada beberapa bidang, _pre-processing_ adalah tahapan yang memakan waktu\npaling banyak pada eksperimen _machine learning_, sedangkan proses melatih\n_model_ mungkin memakan waktu jauh lebih singkat.\nDalam komunitas peneliti basis data, dipercaya bahwa data memiliki sangat\nbanyak relasi yang mungkin tidak bisa dihitung. Teknik _machine learning_\nhanya mampu mengeksplorasi sebagian relasi yang banyak itu. Lalu, kita analisis\ninformasi yang kita dapatkan menjadi pengetahuan yang digunakan untuk\nmemecahkan permasalahan atau membuat keputusan.\nSetelah kita menganalisis data dan mendapatkan pengetahuan baru, pengetahuan\nyang kita temukan dari data pada umumnya dipresentasikan (konferensi,\nrapat, dsb). Hal umum yang dipaparkan saat presentasi, yaitu:\n\n```\n1. _Performance measure_. Seberapa “bagus” model atau metode yang kamu\nusulkan, dibandingkan menggunakan model yang sudah ada.Performance\nmeasure biasa disajikan dalam bentuk tabel. Perhatikan, mengatakan\n_model_ /metode kamu “lebih bagus” adalah suatu hal subjektif, untuk itu\ngunakanlah metode kuantitatif, seperti _p-value_ dalam statistik (hypothesis\n_testing_ )^1 untuk mengatakan bahwa memang metode kamu lebih baik\n(berbeda) dari _baseline_.\n```\n2. Tren. Bagaimana pola-pola umum yang ada di data, sesuai dengan tujuan\n analisis (permasalahan). Biasa disajikan dalam bentuk teks, kurva, atau\n grafik.\n\n```\n3. _Outlier_. Sajikan data- _data_ yang “jarang” atau tidak sesuai dengan tren\nyang ada. Apa beda sifat data _outlier_ ini dibanding data pada tren? Kamu\n```\n(^1) https://onlinecourses.science.psu.edu/statprogram/ _node_ /138\n\n\n```\n3.2 Nilai Atribut dan Transformasi 41\n```\n```\nharus menganalisis hal ini untuk meningkatkan _performance measure_ pada\npenelitian atau analisis men _data_ ng. Apakah _outlier_ ini penting untuk diurus\natau bisa dipandang sebelah mata tanpa membahayakan keputusan/sistem?\nTidak jarang kamu mendapat inspirasi untuk meningkatkan\nkinerja sistem setelah menganalisis _outlier_.\n```\nLangkah kerja yang dijelaskan ini adalah pekerjaan rutin _data scientist_.\nPenulis ingin menekankan sekali lagi, bahwa memahami _machine learning_\nsaja tidak cukup,kamu harus memahami domain permasalahanagar\nmampu melakukan analisis dengan tepat. Terdapat banyak hal yang hanya\nmampu kamu pahami dari menganalisis data, apabila kamu mengerti domain\naplikasi.\n\n"} {"text": "### 3.4 Linear Separability\n\n```\nid humidity windy swim ( _class_ )\n1 high high yes\n2 normal normal no\n```\n```\nTabel 3.2: Contoh dataset _linearly separable_.\n```\nPerhatikan Tabel 3.2. Data pada tabel tersebut kita sebut _linearly separable_.\nSederhananya, untuk suatu nilai tertentu, fitur hanya berkorespondensi\ndengan kelas tertentu. Ambil contoh pada Tabel 3.2, saat _humidity=high_ maka\n\n\n44 3 Data Analytics\n\nswim=yes. Secara geometris, bila kita proyeksikan _feature vector_ ke suatu ruang\ndimensi, memisahkan kelas satu dan kelas lainnya dapat diperoleh dengan\ncara menciptakan garis linier ( _linear line_ )–secara lebih umum, menggunakan _hyperplane_.^3\nIlustrasi dapat dilihat pada Gambar 3.1. Sementara pada\nTabel 3.1, bila kita hanya melihat fitur _humidity_ saja, ketika _humidity=high_\nbisa jadi _play=yes_ atau _play=no_. Kasus ini disebut _non-linearly separable_.\nHidup kita tentu akan mudah apabila seluruh data bersifat _linearly separable_,\nsayangnya kebanyakan data yang ada bersifat _non-linearly separable_.\n\n```\nGambar 3.1:LinearlyvsNon-Linearly Separable.\n```\nUntuk memudahkan proses pada data _non-linearly separable_, kita pertamatama\nmentransformasikan data menjadi _linearly-separable_. Kita dapat menggunakan\nteknik transformasi data menggunakan _kernel function_ sepertiradial\nbasis function.^4 Pada umumnya, _kernel function_ mentransformasi data menjadi\nlebih tinggi (semacam menambah fitur). Misal dari data yang memiliki\ndua fitur, ditransformasi menjadi memiliki tiga fitur. Akan tetapi, hal ini\ntidak praktikal untuk banyak kasus (dijelaskan pada bab 11). Cara lainnya\nadalah memisahkan data menggunakan model non-linear, contoh:artificial\n_neural network_. Hal ini penting dipahami karena data yang bersifatlinearly\nseparablemudah dipisahkan satu sama lain sehingga mudah untuk melakukan\n_classification_ atau _clustering_.\n\n"} {"text": "### 3.8 Evaluasi Model\n\nAda beberapa hal yang perlu kamu catat tentang proses evaluasi suatu model\npembelajaran mesin:\n\n```\n1. _Data splitting_. Seperti yang sudah dijelaskan pada subbab 1.5, pada\numumnya kita memiliki _training_, _validation/validation_, dan _testing data_.\nMesin dilatih menggunakan _training data_, saat proses _training_,performance\nmeasurediukur berdasarkan kemampuan mengenali/ mengeneralisasi _validation_\n_data_. Perlu diketahui, _performance measure_ diukur menggunakan _validation_\n_data_ untuk menghindari _overfitting_ dan _underfitting_.\nSetelah selesai dilatih, maka model hasil pembelajaran dievaluasi dengan\n_testing data_. _Training_, _validation_, dan _testing_ data tersusun oleh data yang\nindependen satu sama lain (tidak beririsan) untuk memastikan model\nyang dihasilkan memiliki generalisasi cukup baik.\n2. _Overfitting dan Underfitting_. _Overfitting_ adalah keadaan ketika model\nmemiliki kinerja baik hanya untuk _training data/seen examples_ tetapi\ntidak memiliki kinerja baik untuk _unseen examples_.Underfttingadalah\nkeadaan ketika model memiliki kinerja buruk baik untuk _training data_\ndan _unseen examples_. Hal ini akan dibahas lebih detil pada subbab 5.8.\n3. _Cross validation_. _Cross validation_ adalah teknik untuk menganalisis\napakah suatu model memiliki generalisasi yang baik (mampu memiliki\nkinerja yang baik pada _unseen examples_ ). Seperti yang kamu ketahui,\nkita dapat membagi data menjadi _training_, _validation_, dan _testing data_.\nSaat proses _training_, kita latih model dengan _training data_ serta dievaluasi\nmenggunakan _validation data_. Teknik _cross validation_ bekerja dengan\nprinsip yang sama, yaitu membagi sampel asli menjadi beberapa subsampel\ndengan partisi sebanyakK(K- _fold_ ). Ilustrasi diberikan oleh Gambar\n3.2. Persegi panjang melambangkan suatu sampel. Saat proses _training_,\nkita bagi data menjadi _training data_ dan _test data_ (i.e., _validation_\n_data_ ). Hal ini diulang sebanyakKkali. Kita evaluasi kemampuan generalisasi\n_model_ dengan merata-ratakan kinerja pada tiap iterasi. Setelah itu,\n_model_ dengan kinerja terbaik (pada iterasi teretentu) digunakan lebih lanjut\nuntuk proses _testing_ atau dipakai secara praktis. Perlu diperhatikan,\nsetiap subsampel sebaiknya memiliki distribusi yang sama dengan sampel\naslinya (keseluruhan sampel); i.e., pada contoh, proporsi warna biru dan\nmerah adalah sama tiap partisi tiap iterasi. Konsep tersebut lebih dikenal\ndengan _stratified sampling_.^7\n```\n(^7) https://en.wikipedia.org/wiki/Stratified_ _sampling_\n\n\n48 3 Data Analytics\n\nGambar 3.2: Ilustrasi 3- _fold_ cross validation. Warna merah dan biru melambangkan\nsampel ( _instance_ ) yang tergolong ke dua kelas berbeda.\n\n"} {"text": "### 3.10 Tahapan Analisis\n\nBagian ini adalah ringkasan bab ini. Untuk menganalisis data, terdapat\nlangkah yang perlu kamu perhatikan\n\n1. Memutuskan tujuan analisis data ( _defining goal_ )\n2. Mendapatkan data\n3. Merapihkan data\n4. Merepresentasikan data sebagai _feature vector_\n5. Melakukan transformasi dan/atau _feature selection_ (mengurasi dimensi\n feature vector)\n6. Melatih model ( _training_ ) dan menganlisis kinerjanya pada _validation_ (de-\n velopment) _data_.\n7. Melakukan _testing_ dan analisis model baik secara kuantitatif dan kuali-\n tatif\n8. Menyajikan data (presentasi)\n Saat ini, mungkin kamu merasa bab ini kurang berguna. Hal ini disebabkan\nkarena konsep yang dipaparkan oleh bab ini bersifat _high-level_. Kamu mungkin\nharus membaca bab ini kembali setelah selesai membaca seluruh buku agar\nmendapatkan pemahaman lebih mendalam.\n\n"} {"text": "### 3.5 Seleksi Fitur\n\nPada subbab sebelumnya, telah dijelaskan bahwa kita dapat mentransformasi\n_data_ _non-linearly separable_ menjadi _linearly separable_ dengan cara menam-\n\n(^3) https://en.wikipedia.org/wiki/ _Hyperplane_\n(^4) Silakan baca teknik transformasi lebih lanjut pada literatur lain.\n\n\n```\n3.6 Classification, Association, Clustering 45\n```\nbah dimensi data. Pada bab ini, penulis akan menjelaskan justru kebalikannya!\nPada permasalahan praktis, kita seringkali menggunakan banyak fitur\n( _computationally expensive_ ). Kita ingin menyederhanakan fitur-fitur yang digunakan,\nmisalkan dengan memilih subset fitur awal, atas dasar beberapa\nalasan [22, 4]:^5\n\n1. Menyederhanakan data atau model agar lebih mudah dianalisis.\n2. Mengurangi waktu _training_ (mengurangi kompleksitas model dan infer-\n ensi).\n3. Menghindari _curse of dimensionality_. Hal ini dijelaskan lebih lanjut pada\n bab 12.\n4. Menghapus fitur yang tidak informatif.\n5. Meningkatkan generalisasi dengan mengurangi _overfitting_.\n Salah satu contoh cara seleksi fitur adalah menghapus atribut yang memiliki _variance_\nbernilai 0. Berdasarkan _information theory_ atau _entropy_, fitur\nini tidak memiliki nilai informasi yang tinggi. Dengan kata lain, atribut yang\ntidak dapat membedakan satu kelas dan lain bersifat tidak informatif. Kamu\ndapat membaca beberapa contoh algoritma seleksi fitur pada library sklearn.^6\n\n"} {"text": "### 3.9 Kategori Jenis Algoritma\n\nAlgoritma pembelajaran mesin dapat dibagi menjadi beberapa kategori. Dari\nsudut pandang apakah algoritma memiliki parameter yang harus dioptimasi,\ndapat dibagi menjadi:^8\n\n1. Parametrik. Pada kelompok ini, kita mereduksi permasalahan sebagai\n optimisasi parameter. Kita mengasumsikan permasalahan dapat dilam-\n bangkan oleh fungsi dengan bentuk tertentu (e.g., linier, polinomial, dsb).\n Contoh kelompok ini adalah model linier.\n2. Non parametrik. Pada kelompok ini, kita tidak mengasumsikan per-\n masalahan dapat dilambangkan oleh fungsi dengan bentuk tertentu. Con-\n toh kelompok ini adalah _Naive Bayes_, _decision tree_ (ID3) danK-Nearest\n Neighbors.\n\nDari sudut pandang lainnya, jenis algoritma dapat dibagi menjadi:\n\n1. Model linear, contoh regresi linear, regresi logistik, _support vector_ ma-\n chine.\n2. Model probabilistik, contoh _Naive Bayes_, _hidden markov model_.\n3. Model non-linear, yaitu ( _typically_ ) _artificial neural network_.\n\nSelain kedua skema pengkategorian ini, terdapat skema pengkategorian lain\n(silahkan eksplorasi sendiri).\n\n(^8) Artificial Neural Networkdapat dikategorikan ke dalam keduanya.\n\n\n```\n3.10 Tahapan Analisis 49\n```\n"} {"text": "### 5.4 Multi- _class_ Classification\n\nSubbab ini akan membahas tentang _multi-class classification_, dimana terdapat\nlebih dari dua kemungkinan kelas. Terdapat himpunan kelasCberanggotakan\n{c 1 ,c 2 ,...,cK}. Untuk suatu data dengan representasi _feature vector_ -nya, kita\ningin mencari tahu kelas yang berkorespondesi untuk data tersebut. Contoh\n\n\n```\n5.4 Multi- _class_ Classification 67\n```\npermasalahan ini adalah mengklasifikasi gambar untuk tiga kelas: _apel_,jeruk,\natau _mangga_. Cara sederhana adalah memiliki tiga buah vektor parameter\ndan _bias_ berbeda,w _apel_,wjeruk,w _mangga_, dan _bias_ b{ _apel_,jeruk, _mangga_ }. Untuk\nmenentukan suatu data masuk ke kelas mana, kita dapat memprediksi skor\ntertinggi yang diberikan oleh operasi _feature vector_ terhadap masing-masing\n_vektor_ parameter. Konsep matematisnya diberikan pada persamaan 5.12, dimana\nˆcadalah kelas terpilih (keputusan), yaitu kelas yang memiliki nilai tertinggi.Cmelambangkan\nhimpunan kelas.\n\n```\nc _apel_ =x·w _apel_ +b _apel_\ncjeruk=x·wjeruk+bjeruk\nc _mangga_ =x·w _mangga_ +b _mangga_\nˆc= arg max\nci∈C\n```\n```\n(ci)\n```\n#### (5.12)\n\nTiga set parameter wci dapat disusun sedemikian rupa sebagai matriks\nW∈Rd×^3 , dimanadadalah dimensi _feature vector_ (x∈R^1 ×d). Demikian\npula kita dapat susun bias menjadi vektorb∈R^1 ×^3 berdimensi tiga. Dengan\ndemikian, persamaan 5.12 dapat ditulis kembali sebagai persamaan 5.13, dimanacadalah\n_vektor_ yang memuat nilai fungsi terhadap seluruh kelas. Kita\nmemprediksi kelas berdasarkan indeks elemencyang memiliki nilai terbesar\n(persamaan 5.14). Analogika, seperti memilih kelas dengan nilai _likelihood_\ntertinggi.\n\n```\nc=f(x) =x·W+b (5.13)\n```\n```\nˆc= arg max\nci∈c\n```\n```\n(ci) (5.14)\n```\nSeperti yang diceritakan pada subbab berikutnya, kita mungkin juga tertarik\ndengan probabilitas masing-masing kelas, bukan hanya _likelihood_ -nya.\nKita dapat menggunakan fungsi _softmax_ ^3 untuk hal ini. Fungsi _softmax_ mentransformasicagar\njumlah semua nilainya berada pada range [0,1]. Dengan\nitu,cdapat diinterpretasikan sebagai distribusi probabilitas. Konsep ini dituangkan\npada persamaan 5.15, dimanaciadalah elemen vektor ke-i, melambangkan\nprobabilitas masuk ke kelas ke-i.\n\n```\nci=\ne(x·W+b)[i]\n∑\nje\n```\n```\n(x·W+b)[j] (5.15)\n```\nKarena _output_ fungsi berupa distribusi probabilitas, kita juga dapat menghitung _loss_ menggunakancross\n_entropy_. Seperti yang sudah dijelaskan sebelumnya\npada _binary classification_, kita ingin hasil perhitungan _cross entropy_ seke-\n\n(^3) https://en.wikipedia.org/wiki/Softmax_ _function_\n\n\n68 5 Model Linear\n\ncil mungkin karena meminimalkan nilai _cross entropy_ meningkatkan _confidence_ saat\nproses klasifikasi. Hal ini dapat dianalogikan dengan jargon “winner\ntakes it all”. Sebagai ilustrasi, lihatlah Gambar 5.5. Kita ingin agar bentuk\ndistribusi probabilitas _output_ kelas (c) condong ke salah satu sisi saja.\n\n```\nGambar 5.5:Classification Entropy.\n```\n```\nGambar 5.6:One versus one.\n```\n\n```\n5.4 Multi- _class_ Classification 69\n```\n```\nGambar 5.7:One versus all.\n```\nSelain mengekstensi suatu model untuk melakukan _multi-class classification_ secara\nlangsung, kita juga dapat menggabungkan beberapa model _binary_\n_classifier_ untuk melakukan _multi-class classification_. Teknik ini memiliki dua\nvarian yaitu _one versus one_ dan _one versus all_.\nPada teknik _one versus one_, kita membuat sejumlah kombinasi pasangan\nkelas\n\n#### (N\n\n```\n2\n```\n#### )\n\n, untukN= banyaknya kelas. Kemudian, kita biarkan masingmasing\n_model_ mengklasifikasikan _input_ ke dalam satu dari dua kelas. Akhirnya,\nkita memilih kelas klasifikasi berdasarkan kelas yang paling sering muncul dari\nsemua model. Hal ini diilustrasikan pada Gambar 5.6 (untuk lima kelas), dimanafi,jmelambangkan _binary_\n_classifier_ untuk kelasidan kelasj.\nPada teknik _one versus all_, kita membuat sejumlah model juga, tetapi\nkombinasinya tidak sebanyak _one versus one_. Model pertama mengklasifikasikan _inputs_ ebagai\nkelas pertama atau bukan kelas pertama. Setelah itu,\ndilanjutkan ke model kedua mengklasifikasikan _inputs_ ebagai kelas kedua atau\nbukan kelas kedua, dan seterusnya. Hal ini diilustrasikan pada Gambar 5.7\n(untuk lima kelas).\n\n\n70 5 Model Linear\n\n"} {"text": "### 5.5 Multi-label Classification\n\nSeperti halnya _multi-class classification_, kita dapat mendekomposisimultilabel\n_classification_ menjadi beberapa _binary classifier_ (analogi persamaan 5.12).\nYang membedakan _multi-class_ dan _multi-label_ adalah outputc. Padamulti _class_\n_classification_,ci∈cmelambangkan skor suatu _input_ masuk ke kelas\nci. Keputusan akhir _class assignment._ idapatkan dari elemencdengan nilai\nterbesar. Untuk _multi-label classification_ nilaici∈cmelambangkan apakah\nsuatu kelas masuk ke kelasciatau tidak. Bedanya, kita boleh meng- _assign_\nlebih dari satu kelas (atau tidak sama sekali). Misalci≥ 0 .5, artinya kita\nanggap model tersebut layak masuk ke kelasci, tanpa harus membandingannya\ndengan nilaicj(i 6 =j) lain. Inilah yang dimaksud dengan prinsipmutual\nexclusivity. Perhatikan Tabel 5.1 sebagai ilustrasi, dimana “1” melambangkan\n_class assignment._ \n\n```\nInstanceAgama Politik Hiburan\nBerita-1 1 0 0\nBerita-2 0 1 0\nBerita-3 0 0 1\n```\n```\n(a) Multi- _class_ classification.\n```\n```\nInstanceAgama Politik Hiburan\nBerita-1 1 1 0\nBerita-2 0 1 1\nBerita-3 1 0 1\n```\n```\n(b) Multi-label classification.\n```\nTabel 5.1: Ilustrasi _multi-label_ dan _multi-class classification_. Nilai “1” melambangkan\nTRUE dan “0” melambangkan FALSE ( _class assignment._.\n\nSekali lagi, nilaici∈cbernilai [0,1] tetapi keputusan klasifikasi apakah\nsuatu kelas masuk ke dalamcitidak bergantung pada nilaicj(i 6 =j) lainnya.\nBerdasarkan prinsip _mutual exclusivity_, output cpada classifier 5.7\ntidak ditransformasi menggunakan _softmax_. Pada umumnya, _multi-label classifier_ melewatkan _output_ cke\ndalam fungsi sigmoid. Dengan demikian, persamaan\n5.15 diganti menjadi persamaan 5.16 pada _multi-label classifier_.\n\nci= sigmoid(ci) (5.16)\nBerhubung cara menginterpretasikan _output_ berbeda dengan _multi-class_\n_classification_, cara evaluasi kinerja juga berbeda. Ada dua pendekatan evaluasi\npada _multi-label classification_. Pertama, kita evaluasi kinerja _binary classification_ untuk\nsetiap kelas. Pada pendekatan ini, seolah-olah kita memiliki\nbanyak _binary classifier_ untuk melakukan klasifikasi. Kedua, kita dapat\nmengevaluasi kinerja _multi-label classification_ itu sendiri. Perhatikan Gambar\n5.8! Pendekatan pertama ibarat membandingkan kolom _desired output_ untuk\nmasing-masing kelas dengan _prediction_ yang berkorespondensi. Pada pendekatan\nkedua, kita membandingkan baris untuk tiap-tiap prediksi (seperti biasa).\nSaat kita membandingkan tiap-tiap baris prediksi, kita bisa jadi menda-\n\n\n```\n5.6 Pembelajaran sebagai Permasalahan Optimisasi 71\n```\n```\nInstance Agama Politik Hiburan\nBerita- 1 1 1 0\nBerita- 2 0 1 1\nBerita- 3 1 0 1\n```\n```\nInstance Agama Politik Hiburan\nBerita- 1 1 1 0\nBerita- 2 0 1 1\nBerita- 3 1 0 1\n```\n```\nOriginal\nInstance Agama Politik Hiburan\nBerita- 1 1 1 1\nBerita- 2 0 1 1\nBerita- 3 0 0 1\n```\n```\nPrediction\n```\n```\nInstance Agama Politik Hiburan\n1 1 0\n0 0 1\n0 1 0\n```\n```\nExact match\nPartially correct\nComplete incorrect\n```\n```\nEvaluate binary\n_classification_ sepa _rate_ ly\n```\n```\nEvaluate multi-label\n_classification_ at once\nOriginal Prediction\n```\n```\nGambar 5.8: Cara mengevaluasi _multi-label classifier_.\n```\npatkan prediksi tipe _exact match_ (seluruh prediksi sama dengan _desired output_ ),partially\ncorrect(sebagian prediksi sama dengan _desired output_ ) atau\n_complete incorrect_ (tidak ada prediksi yang sama dengan _desired output_ ).\nDengan ini, evaluasi _multi-label classification_ relatif lebih kompleks dibanding\n_multi-class classification_ biasa. Untuk mendapatkan _multi-label classification_\naccuracy, kita dapat menghitung berapa seberapa banyak _exact match_ dibandingkan\nbanyaknya _instance_ (walaupun hal ini terlalu ketat). Selain itu, kita\ndapat menghitung _loss_ menggunakan _cross entropy_ untuk mengevaluasi kinerja\nsaat melatih _multi-label classifier_, layaknya _multi-class classifier_. Kamu\ndapat membaca [29] lebih lanjut untuk teknik evaluasi _multi-label_ classifica-\ntion.\n\n"} {"text": "### 5.7 Batasan Model Linear\n\nModel linear, walaupun mudah dimengerti, memiliki beberapa batasan. Ada\ndua batasan paling kentara [20]: (1) _additive assumption_ dan (2)linear as-\nsumption.\n_Additive assumption_ berarti model linear menganggap hubungan antara\n_input_ dan _output_ adalah linear. Artinya, perubahan nilai pada suatu fiturxi\npada inputxakan merubah nilai _output_ secara independen terhadap fitur\nlainnya. Hal ini terkadang berakibat fatal karena fitur satu dan fitur lainnya\ndapat berinteraksi satu sama lain. Solusi sederhana untuk permasalahan ini\nadalah dengan me _model_ kan interaksi antar-fitur, seperti diilustrasikan pada\npersamaan 5.24 untuk _input_ yang tersusun atas dua fitur.\n\n```\nf(x) =x 1 w 1 +x 1 w 2 +x 1 x 2 w 3 +b (5.24)\n```\nDengan persamaan 5.24, apabilax 1 berubah, maka kontribusix 2 terhadap\n_output_ juga akan berubah (dan sebaliknya). Akan tetapi, seringkali interaksi\n\n\n76 5 Model Linear\n\nantar-fitur tidaklah sesederhana ini. Misal, semua fitur berinteraksi satu sama\nlain secara non-linear.\n_Linear assumption_ berarti perubahan pada suatu fiturximengakibatkan\nperubahan yang konstan terhadap _output_, walaupun seberapa besar/kecil nilai\nxitersebut. Seringkali, perubahan pada _output_ sesungguhnya bergantung juga\npada nilaixi itu sendiri, bukan hanya pada∆xi. Solusi sederhana untuk\npermasalahan ini adalah me _model_ kan fungsi linear sebagai fungsi polinomial\ndengan orde (M) tertentu, diilustrasikan pada persamaan 5.25. Akan tetapi,\npe _model_ an inipun tidaklah sempurna karena rawan _overfitting_.\n\n```\nf(x) =x 1 w 1 + +x^22 w 2 +···+xMMwM+b (5.25)\n```\nAsumsi yang sebelumnya dijelaskan pada pe _model_ an polinomial, dapat diekstensi\nmenjadi _generalized additive model_ (GAM) untuk mengatasi masalah\n_linear assumption_, seperti diilustrasikan pada persamaan 5.26 [20]. Artinya,\nkita melewatkan setiap fiturxipada suatu fungsigi, sehingga deltaxitidak\nmengakibatkan perubahan yang konstan terhadap _output_. Ekstensi ini dapat\nme _model_ kan hubungan non-linear antara fitur dan _output_.\n\n```\nf(x) =g 1 (x 1 ) + +g 2 (x 2 ) +···+gN(xN) +b (5.26)\n```\nTetapi, GAM masih saja memiliki batasan _additive assumption_. Dengan\ndemikian, interaksi antar-variabel tidak dapat di _model_ kan dengan baik.\n\n"} {"text": "### 5.10 Transformasi Data\n\nSeperti yang sudah dijelaskan sebelumnya, alangkah baik apabila semua data\nmemiliki hubungan secara linear atau bersifat _linearly separable_. Kenyataan-\n\n(^10) https://en.wikipedia.org/wiki/Norm_(mathematics)\n(^11) https://stats.stackexchange.com/questions/136895/\nwhy-is-the-l1- _norm_ -in-lasso-not- _differentiable_\n\n\n80 5 Model Linear\n\nnya, kebanyakan data bersifat _non-linearly separable_. Kita dapat mentransformasi\n_data_ yang bersifat _non-linearly separable_ menjadi _linearly-separable_ sebelum\nmenggunakan model linear untuk mengklasifikasikan data. Sebagai contoh,\nperhatikan Gambar 5.15. Pada gambar bagian kiri, terdapat empat titik\nyang _non-linearly separable_. Titik-titik itu ditransformasi sehingga menjadi\ngambar bagian kanan. Fungsi transformasi yang digunakan diberikan pada\npersamaan 5.30.\n\n```\nGambar 5.15: Contoh transformasi [7].\n```\n```\nφ(x,y) =\n```\n#### {√\n\n```\nx^2 +y^2 ≥ 2 →(4−x+‖x−y‖, 4 −x+‖x−y‖)\n√\nx^2 +y^2 ≤ 2 →(x,y)\n```\n#### (5.30)\n\nSecara umum, fungsi transformasi tidaklah sesederhana contoh yang sudah\ndiberikan. Fungsi transformasi pada umumnya menambah dimensi data (misal\ndari dua dimensi menjadi tiga dimensi). Beberapa fungsi transformasi (dikenal\njuga dengan istilah _kernel_ ) yang terkenal diantaranya:^12\n\n1. Fisher Kernel\n2. Graph Kernel\n3. Kernel Smoother\n4. Polynomial Kernel\n5. Radial Basis Function Kernel\n6. String Kernel\n\nUntuk penjelasan masing-masing _kernel_, silahkan membaca literatur lain lebih\nlanjut. Model linear yang memanfaatkan fungsi-fungsi _kernel_ ini adalahsupport\nvector machine(SVM) [31, 32]. Perhatikan, algorithma SVM sebenarnya\nsangatlah penting. Akan tetapi, perlu kami informasikan bahwa buku ini tidak\nmemuat materi SVM secara detil. Dengan demikian, kami harap pembaca dapat\nmencari referensi lain tentang SVM. Metode transformasi pun tidaklah\n\n(^12) https://en.wikipedia.org/wiki/ _Kernel_ _method\n\n\n```\n5.11 Bacaan Lanjutan 81\n```\nsempurna, seperti yang akan dijelaskan pada bab 11, karena memang data secara\nalamiah memiliki sifat yang non-linear. Dengan demikian, lebih baik apabila\nkita langsung saja me _model_ kan permasalahan dengan fungsi non-linear.\n\n"} {"text": "### Soal Latihan\n\n5.1. Hill Climbing\nBaca dan jelaskanlah konsep Hill Climbing!\n\n5.2. Variasi Optimisasi\nBaca dan jelaskanlah variasi konsep optimisasi lain, selainstochastic gradient\ndescent!\n\n5.3. Convex Optimization\nBacalah literatur yang memuat materi tentang _convex optimization_ ! Jelaskan\npada teman-temanmu apa itu fungsi _convex_ dan _concave_, tidak lupa isi materi\nyang kamu baca! Bagaimana hubungan _convex optimization_ dan pembelajaran\nmesin?\n\n5.4. Sum of Squared Errors\nSalah satu cara untuk mencari nilai parameter pada regresi adalah menggunakan\nteknik _sum of squared errors_. Jelaskanlah bagaimana cara kerja metode\ntersebut! (Hint: baca buku oleh James et al. [20])\n\n5.5. Linear Discriminant Analysis\nJelaskan prinsip dan cara kerja _linear discriminant analysis_ ! (Hint: baca buku\noleh James et al. [20])\n\n\n\n"} {"text": "### 5.11 Bacaan Lanjutan\n\nKami harap pembaca mampu mengeksplorasi materi _kernel method_ dansupport\nvector machine(SVM). Kami mencantumkan materi SVM pada buku ini\nsedemikian pembaca mampu mendapatkan intuisi, tetapi tidaklah detil. Kami\nsa _rank_ an kamu membaca pranalahttps://www.svm-tutorial.com/karena\nditulis dengan cukup baik. Mengerti materi SVM dan _convex optimization_\nsecara lebih dalam akan sangat membantu pada bab-bab berikutnya. Selain\nitu, kami juga menya _rank_ an pembaca untuk melihat kedua pranala tambahan\ntentang _learning rate_ dan momentum:\n\n```\n1.http:// _user_ s.ics.aalto.fi/jhollmen/dippa/ _node_ 22.html\n2.http://www.willamette.edu/~gorr/ _class_ es/cs449/mom _rate_.html\n```\n"} {"text": "### 5.6 Pembelajaran sebagai Permasalahan Optimisasi\n\nSalah satu tujuan dari pembelajaran ( _training_ ) adalah untuk meminimalkan\n_error_ sehingga kinerja learning machine ( _model_ ) diukur oleh squared error.\nDengan kata lain, _utility function_ adalah meminimalkan _squared error_.\nSecara lebih umum, kita ingin meminimalkan/memaksimalkan suatu fungsi\nyang dijadikan tolak ukur kinerja ( _utility function_ ), diilustrasikan pada per-\n\n\n72 5 Model Linear\n\nsamaan 5.17, dimanaθadalah _learning parameter_,^4 ˆθadalah nilai parameter\npaling optimal, danLadalah _loss function_. Perhatikan, “arg min” dapat juga\ndiganti dengan “arg max” tergantungoptimisasiapa yang ingin dilakukan.\nPerubahan parameter dapat menyebabkan perubahan _loss_. Karena itu, _loss_\n_function_ memilikiθsebagai parameternya.\n\n```\nθˆ= arg min\nθ\n```\n```\nL(θ) (5.17)\n```\nSekarang, mari kita hubungkan dengan contoh yang sudah diberikan pada\nsubbab sebelumnya. Kita coba melakukan estimasi _minimum squared error_ E,\ndengan mencari nilai _learning parameters_ wyang meminimalkan nilai _error_\npada model linear (persamaan 5.18).^5 Parameter model pembelajaran mesin\n_bias_ anya diinisialisasi secara acak atau menggunakan distribusi tertentu. Terdapat\nbeberapa cara untuk memimalkan _squared error_. Yang penulis akan\nbahas adalah _stochastic gradient descent method_.^6 Selanjutnya apda buku ini,\nistilah _gradient descent_, _gradient-based method_ dan _stochastic gradient descent_\nmengacu pada hal yang sama.\n\n```\nwˆ= arg min\nw\n```\n```\nE(w) (5.18)\n```\nBayangkan kamu sedang berada di puncak pegunungan. Kamu ingin mencari\ntitik terendah pegunungan tersebut. Kamu tidak dapat melihat keseluruhan\npegunungan, jadi yang kamu lakukan adalah mencari titik terendah\n(lokal) sejauh mata memandang, kemudian menuju titik tersebut dan menganggapnya\nsebagai titik terendah (global). Layaknya asumsi sebelumnya,\nkamu juga turun menuju titik terendah dengan cara melalui jalanan dengan\nkemiringan paling tajam, dengan anggapan bisa lebih cepat menuju ke titik\nterendah [9]. Sebagai ilustrasi, perhatikan Gambar 5.9! Seluruh area pegunungan\nadalah nilai _error_ E yang mungkin (pada persoalanmu), dan titik\nterendah pada daerah tersebut adalah nilai _error_ Eterendah.\nJalanan dengan kemiringan paling tajam adalah−grad E(w), dimana\nE(w) adalah nilai _error_ saat model memiliki parameterw. Dengan definisi\ngradE(w) diberikan pada persamaan 5.19 dan persamaan 5.20, dimanawi\nadalah nilai elemen vektor ke-i.\n\n```\ngradE(w) =\n```\n#### (\n\n#### ∂E\n\n```\n∂w 1\n```\n#### ,\n\n#### ∂E\n\n```\n∂w 2\n```\n#### ,...,\n\n#### ∂E\n\n```\n∂wF\n```\n#### )\n\n#### (5.19)\n\n(^4) Dapat berupa skalar, vektor, matriks, atau tensor. Demi istilah yang lebih generik,\nkita gunakanθ.\n(^5) wboleh diganti denganW, saat ini penulis menggunakan vektor untuk menyedenakan\npembahasan.\n(^6) Konsep _Hill Climbing_ dapat digunakan untuk memaksimalkan _utility function_\nKonsep tersebut sangat mirip dengan _gradient descent_ https://en.wikipedia.\norg/wiki/Hill_climbing.\n\n\n```\n5.6 Pembelajaran sebagai Permasalahan Optimisasi 73\n```\n```\nGambar 5.9:Stochastic Gradient Descent.\n```\n```\ndw\ndt\n```\n```\n=−gradE(w);t= _time_ (5.20)\n```\nIngat kembali materi diferensial. Gradien adalah turunan (diferensial)\nfungsi. Untuk mencari turunan paling terjal, sama halnya mencari nilai\n− _gradient_ terbesar. Dengan demikian, menghitung −grad E(w) terbesar\nsama dengan jalanan turun paling terjal. Tentunya seiring berjalannya waktu,\nkita mengubah-ubah parameterwagar kinerja model optimal. Nilai optimal\ndiberikan oleh turunanwterhadap waktu, yang bernilai sama dengan\n−gradE(w). Bentuk diskrit persamaan 5.20 diberikan pada persamaan 5.21,\n\n```\nw(t+ 1) =w(t)−ηgradE(w(t)) (5.21)\n```\ndimanaηdisebut _learning rate_ danw(t) adalah nilaiwsaat waktu/iterasi\nt. _Learning rate_ digunakan untuk mengatur seberapa pengaruh keterjalan\nterhadap pembelajaran. Silahkan mencari sumber tambahan lagi agar dapat\nmengerti _learning rate_ secara lebih dalam/matematis. Pada implementasi,η\njuga sering diubah-ubah nilainya sepanjang waktu. Semakin kita sudah dekat\ndengan tujuan (titik _loss_ terendah), kita mengurangi nilaiη, ibaratnya seperti\nmengerem kalau sudah dekat dengan tujuan [30].\nWalaupun kamu berharap bisa menuju titik terendah dengan menelusuri\njalan terdekat dengan kemiringan paling tajam, tapi kenyataanya hal tersebut\nbisa jadi bukanlah jalan tercepat, seperti yang diilustrasikan pada Gambar\n5.10. Warna merah melambangkan jalan yang dilalui _gradient descent_,\nsementara warna biru melambangkan jalanan terbaik (tercepat).\nPandangan kita yang terbatas layaknya kita tidak bisa melihat keseluruhan\npengunungan secara keseluruhan (anggap ada kabut), kita juga tidak\nbisa melihat keseluruhan nilai _error_ untuk semua parameterw. Secara filosofis,\nhal tersebut juga berlaku saat membaca buku, oleh karena itu sebaiknya kamu\nmembaca beberapa buku saat belajar.\nDalam _local point of view_, _steepest gradient descent_ adalah cara tercepat\nmenuju titik terendah, tetapi tidak pada _global point of view_. Kita dapat\nmacet/berhenti saat sudah mencapai _local minima_, yaitu nilai minimum pada\nsuatu daerah lokal saja. Sebagai ilustrasi, perhatikan Gambar 5.11. Kamu\nberada di puncak pegunungan kemudian turun bertahap. Kemudian, kamu\nsampai di suatu daerah landai (−gradE(w) = 0). Kamu pikir daerah landai\n\n\n74 5 Model Linear\n\n```\nGambar 5.10:Stochastic Gradient Descent2.\n```\n```\nLocal Minima\n−grad 𝐸𝒘 = 0\n```\n```\nGlobal Minimum\n−grad 𝐸𝒘 = 0\n```\n```\nStart Point\n```\n```\nAndaiaku\nsebelumnya\nmeloncat!\n```\n```\nLoncat\n```\n```\nGambar 5.11:Stuck at local minima.\n```\ntersebut adalah titik terendah, tetapi, kamu ternyata salah. Untuk menghindari\nhal tersebut, kita menggunakan _learning rate_ (η). Apabila nilai _learning_\n_rate_ (η) pada persamaan 5.21 relatif kecil, maka dinamika perubahan parameterwjuga\nkecil. Tetapi, bila nilainya besar, maka jalanan menuju titik terendah\nakan bergoyang-goyang ( _swing_ ), seperti pada Gambar 5.12. Goyangan\ntersebut ibarat “meloncat-loncat” pada ilustrasi Gambar 5.11. Kemampuan\nuntuk “meloncat” ini dapat menghindarkan model _stuck_ di _local minima_.\nUntuk mengontrol _learning parameter_ wsehingga memberikan nilaiE(w)\nterendah, persamaan _steepest gradient descent_ dapat ditambahkan dengan\n\n\n```\n5.7 Batasan Model Linear 75\n```\n```\nGambar 5.12:Swing.\n```\n_momentum_ (α) pada persamaan 5.23. Alfa adalah momentum karena dikalikan\ndengan hasil perbedaan descent pada tahap sebelumnya. Alfa adalah\nparameter kontrol tambahan untuk mengendalikan _swing_ yang sudah dibahas\nsebelumnya.\n\n```\nw(t+ 1) =w(t)−ηgradE(w(t)) +α(∆w) (5.22)\n```\n∆w=w(t)−w(t−1) (5.23)\nApabila gradien bernilai 0, artinya model sudah berada pada titiklocal/global\noptimum. Kondisi ini disebut sebagaikonvergen( _converging_ ). Sementara\n_model_ yang tidak menuju titik optimal, malah menuju ke kondisi\nyang semakin tidak optimum, disebut _divergen_ ( _diverging_ ).\n\n"} {"text": "### 5.8 Overfitting dan Underfitting\n\nTujuan _machine learning_ adalah membuat model yang mampu memprediksi\n_data_ yang belum pernah dilihat ( _unseen instances_ ) dengan tepat; disebut sebagai\ngeneralisasi ( _generalization_ ). Seperti yang sudah dijelaskan pada bab\npertama, kita dapat membagi dataset menjadi _training_, _validation_, dan _testing_ _dataset_.\nKetiga dataset ini berasal dari populasi yang sama dan dihasilkan\noleh distribusi yang sama ( _identically and independently distributed_ ). Dalam\nartian, ketiga jenis dataset mampu melambangkan (merepresentasikan) karakteristik\nyang sama.^7 Dengan demikian, kita ingin _loss_ atau _error_ pada _training_, _validation_,\ndan _testing_ bernilai kurang lebih bernilai sama (i.e., kinerja\nyang sama untuk data dengan karakteristik yang sama). Akan tetapi, _underfitting_ dan _overfitting_ mungkin\nterjadi.\n_Underfitting_ adalah keadaan ketika kinerja model bernilai buruk baik pada\n_training_ atau _validation_ maupun testing data. _Overfitting_ adalah keadaan\nketika kinerja model bernilai baik untuk _training_ tetapi buruk pada unseen\n_data_. Hal ini diilustrasikan pada Gambar 5.13. _Underfitting_ terjadi akibat\n_model_ yang terlalu tidak fleksibel, yaitu memiliki kemampuan yang rendah\nuntuk mengestimasi variasi fungsi. Sedangkan, _overfitting_ terjadi ketika\n\n(^7) Baca teknik _sampling_ pada buku statistika.\n(^8) Rekonstruksi https://www.inf.ed.ac.uk/teaching/courses/iaml/slides/\neval-2x2.pdf\n\n\n```\n5.8 Overfitting dan Underfitting 77\n```\n```\nGambar 5.13: _Underfitting_ vs _Overfitting_.^8\n```\n_model_ terlalu fleksibel, yaitu memiliki kemampuan yang terlalu tinggi untuk\nmengestimasi banyak fungsi atau terlalu mencocokkan diri terhadap _training_ data.\nPerhatikan kembali Gambar 5.13, dataset asli diambil ( _sampled_ )\ndari fungsi polinomial orde-3. Model _underfitting_ hanya mampu mengestimasi\ndalam orde-1 (kemampuan terlalu rendah), sedangkan model _overfitting_\nmampu mengestimasi sampai orde-9 (kemampuan terlalu tinggi).\nApabila kita gambarkan grafik kinerja terhadap konfigurasi model ( _model_\norder), fenomena underfitting dan overfitting dapat diilustrasikan seperti\nGambar 5.14. Model yang ideal adalah model yang memiliki kinerja yang baik\npada _training_, _validation_, dan _testing_ data. Artinya, kita ingin perbedaan kinerja\n_model_ pada berbagai dataset bernilai sekecil mungkin. Untuk menghindari _overfitting_ atau _underfitting_,\nkita dapat menambahkan fungsi _noise/bias_\n(selanjutnya disebut _noise/bias_ saja) dan regularisasi (subbab 5.9). Hal yang\npaling perlu pembaca pahami adalah untuk jangan merasa senang ketika\n_model_ _machine learning_ yang kamu buat memiliki kinerja baik pada _training_\n_data_. Kamu harus mengecek pada _validation_ dan _testing_ data, serta memastikan\nkesamaan karakteristik data, e.g., apakah _training_ dan _testing_ data benar\ndiambil dari distribusi yang sama. Selain itu, kamu juga harus memastikan\napakah data yang digunakan mampu merepresentasikan kompleksitas pada\npermasalahan asli/dunia nyata. Sering kali, dataset yang digunakan pada\nbanyak eksperimen adalah _toy dataset_, semacam simplifikasi permasalahan\ndengan banyak sampel yang relatif sedikit. Kamu harus hati-hati terhadap\n\n\n78 5 Model Linear\n\n```\n_Error_ \n```\n```\nModel order\n```\n```\n_Training_ Error\n```\n```\nGeneralization (Testing) Error\n```\n```\n_Underfitting_ Area Overfitting Area\n```\n```\nOptimal Performance (Optimal Model)\n```\n```\nGambar 5.14:Selection Error.\n```\n_overclaiming_, i.e., menjustifikasi model dengan performa baik pada _toy dataset_\nsebagai model yang baik secara umum.\n\n"} {"text": "### 5.3 Log-linear Binary Classification\n\nPada subbab sebelumnya, telah dijelaskan fungsi binary classifier memetakan\n_data_ menjadi nilai [− 1 ,1], dengan−1 merepresentasikan kelas pertama dan\n1 merepresentasikan kelas kedua. Tidak hanya kelas yang berkorespondensi,\nkita juga terkadang ingin tahu seberapa besar peluang data tergolong pada\nkelas tersebut. Salah satu alternatif adalah dengan menggunakan fungsi sigmoid\ndibanding fungsi _sign_ untuk merubah nilai fungsi menjadi [0,1] yang\nmerepresentasikan peluangp _data_ diklasifikasikan sebagai kelas tertentu (1−p\nuntuk kelas lainnya). Konsep ini dituangkan menjadi persamaan 5.9, dimana\nymerepresentasikan probabilitas _input x_ digolongkan ke kelas tertentu,x\nmerepresentasikan data ( _feature vector_ ), danbmerepresentasikan _bias_. Ingat\nkembali materi bab 4, algoritma _Naive Bayes_ melakukan hal serupa.\nHasil fungsi sigmoid, apabila di- _plot_ maka akan berbentuk seperti Gambar 5.1\n(berbentuk karakter “S”).\n\n\n66 5 Model Linear\n\n```\ny=σ(f(x)) =\n```\n#### 1\n\n```\n1 +e−(x·w+b)\n```\n#### (5.9)\n\nPerhatikan, persamaan 5.9 juga dapat diganti dengan persamaan 5.10 yang\ndikenal juga sebagai fungsi logistik.\n\n```\ny= logistik (f(x)) =\n```\n```\ne(x·w+b)\n1 +e(x·w+b)\n```\n#### (5.10)\n\nVaribelyadalah nilai probabilitas data masuk ke suatu kelas. Sebagai contoh,\nkita ingin nilaiy= 1 apabila data cocok masuk ke kelas pertama dany= 0\napabila masuk ke kelas kedua.\nKetika fungsi _machine learning_ menghasilkan nilai berbentuk probabilitas,\nkita dapat menggunakan _cross entropy_ sebagai _utility function_. Persamaan\n5.11 adalah cara menghitung _cross entropy_, dimanaT(ci) melambangkan\n_desired probability_ ( _desired output_ ).P(ci) melambangkan probabilitas\n(prediksi) _input_ diklasifikasikan ke kelasci danN melambangkan\nbanyaknya kelas. Untuk _binary classification_,T(c 1 ) = 1−T(c 2 ). Pada umumnya,Tbernilai\nantara [0, 1]. Nilai 1 untuk kelas yang berkorespondensi dengan\n_input_ ( _desired output_ ) dan 0 untuk kelas lainnya.\n\n#### H=−\n\n#### ∑N\n\n```\ni=1\n```\n```\nT(ci) log (P(ci)) (5.11)\n```\nKita ingin meminimalkan nilai _cross entropy_ untuk model pembelajaran\nmesin yang baik. Ingat kembali materi teori informasi, nilai _entropy_ yang rendah\nmelambangkan distribusi tidak _uniform_. Sementara, nilai _entropy_ yang\ntinggi melambangkan distribusi lebih _uniform_. Artinya, nilai _cross entropy_\nyang rendah melambangkan _high confidence_ saat melakukan klasifikasi. Kita\ningin model kita se _bias_ a mungkin menghasilkan _output_ bernilai 1 untuk\nmendiskriminasi seluruh data yang masuk ke kelas pertama, dan 0 untuk kelas\nlainnya. Dengan kata lain, model dapat mendiskriminasi data dengan pasti.\n_Cross entropy_ bernilai tinggi apabila perbedaan nilai probabilitas masuk ke\nkelas satu dan kelas lainnya tidak jauh, e.g.,P(c 1 ) = 0.6 &P(c 2 ) = 0.4. Semakin\nrendah nilai _cross entropy_, kita bisa meningkatkan “keyakinan” kita\nterhadap kemampuan klasifikasi model pembelajaran mesin, yaitu perbedaan\nnilai probabilitas masuk ke kelas satu dan kelas lainnya tinggi, e.g.,\nP(c 1 ) = 0.8 &P(c 2 ) = 0.2.\n\n"} {"text": "### 5.2 Binary Classification\n\n_Binary classification_ adalah mengklasifikasikan data menjadi dua kelas ( _binary_ ).\nContoh model linear sederhana untuk _binary classification_ diberikan\npada persamaan 5.6. Perhatikan, pada persamaan 5.6, suatu data direpresentasikan\nsebagai _feature vector_ x, dan terdapat _bias_ b.^2 Klasifikasi dilakukan\ndengan melewatkan data pada fungsi yang memiliki parameter. Fungsi tersebut\nmenghitung bobot setiap fitur pada vektor dengan mengalikannya dengan\nparameter ( _dot product_ ). Persamaan 5.6 dapat ditulis kembali sebagai\npersamaan 5.7, dimanaximerupakan elemen ke-idari vektorx. Fungsi ini\nmemiliki _range_ [−∞,∞]. Pada saat ini, kamu mungkin bingung. Bagaimana\nmungkin fungsi regresi yang menghasilkan nilai kontinu digunakan untuk\nklasifikasi kelas kategorial. Kita dapat menggunakan _thresholding_, atau dengan\nmemberikan batas nilai tertentu. Misal, bilaf(x)> thresholdmaka dimasukkan\nke kelas pertama; dan sebaliknyaf(x)≤ _threshold_ dimasukkan\nke kelas kedua. _Threshold_ menjadi bidang pembatas antara kelas satu dan\nkelas kedua ( _decision boundary_, Gambar 5.3). Pada umumnya, teknik _threshold_ diterapkan\ndengan menggunakan fungsi _sign_ (sgn, Gambar 5.4) untuk\nmerubah nilai fungsi menjadi [− 1 ,1] sebagai _output_ (persamaan 5.8); dimana\n−1 merepresentasikan _input_ dikategorikan ke kelas pertama dan nilai 1 merepresentasikan _input_ dikategorikan\nke kelas kedua.\n\n```\nf(x) =x·w+b (5.6)\n```\n```\nf(x) =x 1 w 1 +x 1 w 2 +···+xNwN+b (5.7)\n```\n_output_ = sgn(f(x) (5.8)\nSeperti halnya fungsi regresi, kita juga dapat menghitung performa _binary_\n_classifier_ sederhana ini menggunakan _squared error function_ (umumnya\nmenggunakan akurasi), dimana nilai target fungsi berada pada range [− 1 ,1].\nSecara sederhana, model _binary classifier_ mencari _decision boundary_, yaitu\ngaris (secara lebih umum, _hyperplane_ ) pemisah antara kelas satu dan lainnya.\nSebagai contoh, garis hitam pada Gambar 5.3 adalah _decision boundary_.\n\n(^2) Perhatikan! _Bias_ pada variabel fungsi memiliki arti yang berbeda dengan _statistical_\n_bias_ \n\n\n```\n5.3 Log-linear Binary Classification 65\n```\n```\nGambar 5.3: Contoh _decision boundary_.\n```\n```\nGambar 5.4: Fungsi _sign_.\n```\n"} {"text": "### 5.9 Regularization\n\n_Gradient-based method_ mengubah-ubah parameter modelwsehingga _loss_ dapat\ndiminimalkan. Perhatikan kembali Gambar 5.2, ibaratnya agar fungsi\naproksimasi kita menjadi sama persis dengan fungsi asli pada Gambar 5.1.\nPerhatikan, karena nilaiwberubah-ubah seiring waktu, bisa jadi urutan _training_\n_data_ menjadi penting.^9 Pada umumnya, kita menggunakan _batch method_\nagar kinerja model tidak bias terhadap urutan data. Artinya, menghitung\n_loss_ untuk beberapa data sekaligus. Hal ini akan kamu lebih mengerti setelah\nmambaca bab 11.\nSelain permasalahan model yang sensitif terhadap urutan _training data_,\n_model_ yang kita hasilkan bisa jadi _overfitting_ juga. Yaitu memiliki kinerja\nbaik pada _training data_, tetapi memiliki kinerja buruk untuk _unseen data_.\nSalah satu cara menghindari _overfitting_ adalah dengan menggunakan _regularization_.\nIdenya adalah untuk mengontrol kompleksitas parameter (i.e. konfigurasi\nparameter yang lebih sederhana lebih baik). Dengan ini, objektif _training_\npada persamaan 5.17 dapat kita ubah menjadi persamaan 5.27, dimana R(w)\nadalah fungsi _regularization_ danλadalah parameter kontrol.\n\n```\nwˆ= arg min\nw\n```\n```\nL(w) +λR(w) (5.27)\n```\n(^9) Baca buku Yoav Goldberg [1] untuk mendapat penjelasan lebih baik.\n\n\n```\n5.10 Transformasi Data 79\n```\nPilihan umum untuk fungsi _regularization_ pada umumnya adalahL 2 dan\nL 1 norm. L 2 regularization menggunakan jumlah kuadrat dari Euclidean\n_norm_ ^10 seluruh parameter, seperti pada persamaan 5.28. Sedangkan,L 1 regularizationmenggunakan\njumlah dari nilai _absolute-value norm_ seluruh parameter,\ndiberikan pada persamaan 5.29.\n\n```\nR(w) =‖w‖^22 =\n```\n#### ∑\n\n```\ni\n```\n```\n(wi)^2 (5.28)\n```\n```\nR(w) =‖w‖=\n```\n#### ∑\n\n```\ni\n```\n```\n|wi| (5.29)\n```\nPerlu kamu perhatikan, metode _gradient descent_ memiliki syarat bahwa\nfungsi yang digunakan haruslah dapat diturunkan ( _differentiable_ ).L 2 dapat\nditurunkan pada seluruh poin, sementaraL 1 tidak dapat diturunkan pada semua\npoin.^11 Kita dapat menggunakan teknik _subgradient_ untuk menyelesaikan\npermasalahan ini. Kami serahkan pembaca untuk mengeksplorasi teknik tersebut\nsendiri. Implikasi penggunakan regularisasi terhadap kompleksitas model\ndibahas lebih lanjut pada bab 9.\nSelain itu, ada hal lainnya yang perlu diperhatikan saat menggunakan\n_gradient descent_ yaitu apakah suatu fungsi _convex_ atau _concave_. Izinkan saya\nmengutip pernyataan dari buku Yoav Goldberg [1] halaman 31 secara langsung\nmenggunakan bahasa Inggris agar tidak ada makna yang hilang.\n\n```\nConvexity. In gradient-based optimization, it is common to distinguish between _convex_ (or _concave_ )\n_function_ s and _non-concave_ functions. A _convex_\n_function_ is a function whose second-derivative is always non-negative. As a\nconsequence, convex functions have a single minimum point. Similarly, _concave_\n_function_ sare functions whose second-derivatives are always negative or\nzero, and as a consequence have a single maximum point. Convex ( _concave_ )\n_function_ s have the property that they are easy to minimize (maximize) using\n_gradient-based optimization_ –simply follow the gradient until an extremum\n_point_ is reached, and once it is reached we know we obtained the global extremum\n_point_. In contrast, for functions that are neither convex or concave,\na gradient-based optimization procedure may converge to a local extremum\n_point_, missing the global optimum.\n```\n"} {"text": "### 5.1 Curve Fitting dan Error Function\n\nPertama, penulis ingin menceritakan salah satu bentuk _utility function_ untuk\n_model_ matematis bernama _error function_. Fungsi ini sudah banyak diceritakan\npada bab-bab sebelumnya secara deskriptif. Mulai bab ini, kamu akan\nmendapatkan pengertian lebih jelas secara matematis.\n_Error function_ paling mudah dijelaskan dalam permasalahan regresi.\nDiberikan (x,y)∈Rsebagai _random variable_. Terdapat sebuah fungsif(x)→\ny, yang memetakanxkey, berbentuk seperti pada Gambar 5.1. sekarang\nfungsif(x) tersebut disembunyikan (tidak diketahui), diberikan contoh-contoh\npasangan (xi,yi),i= 1, 2 ,...,6; yang direpresentasikan dengan lingkaran biru\npada ruang dua dimensi (titik sampel). Tugasmu adalah untuk mencari tahu\nf(x)! Dengan kata lain, kita harus mampu memprediksi sebuah bilangan riil\ny, diberikan suatux.\nKamu berasumsi bahwa fungsif(x) dapat diaproksimasi dengan fungsi\nlinearg(x) =xw+b. Artinya, kamu ingin mencariwdanbyang memberikan\n\n\n62 5 Model Linear\n\n```\nGambar 5.1: Contoh fungsi Sigmoid. Titik biru merepresentasikan sampel.\n```\nnilai sedemikian sehinggag(x) mirip denganf(x).wadalah parameter sementarabadalah _bias_.\nAnggap kamu sudah berhasil melakukan pendekatan dan\nmenghasilkan fungsi linearg(x); seperti Gambar 5.2 (garis berwarna hijau).\nAkan tetapi, fungsi approksimasi ini tidak 100% tepat sesuai dengan fungsi\naslinya (ini perlu ditekankan).^1 Jarak antara titik biru terhadap garis hijau\ndisebut _error_.\n\n```\nGambar 5.2: Pendekatan fungsi Sigmoid.\n```\nSalah satu cara menghitung _error_ fungsig(x) adalah menggunakansquared\n_error function_ dengan bentuk konseptual pada persamaan 5.1. Estimasi terhadap\npersamaan tersebut disajikan dalam bentuk diskrit pada persamaan 5.2,\ndimana (xi,yi) adalah pasangan _training data_ ( _input_ dan _desired output_ ).\nNilai _squared error_ dapat menjadi tolak ukur untuk membandingkan kinerja\n\n(^1) Kamu patut curiga apabila model pembelajaran mesinmu memberikan kinerja\n100%\n\n\n```\n5.1 Curve Fitting dan Error Function 63\n```\nsuatu _learning machine_ ( _model_ ). Secara umum, bila nilainya tinggi, maka kinerja\ndianggap relatif buruk; sebaliknya bila rendah, kinerja dianggap relatif\nbaik. Hal ini sesuai dengan konsep _intelligent agent_ [5].\n\n```\nE(g) =\n```\n#### ∫ ∫\n\n```\n‖y−g(x)‖^2 q(x,y)dx dy (5.1)\n```\n```\nE(g) =\n```\n#### 1\n\n#### N\n\n#### ∑N\n\n```\ni=1\n```\n```\n‖yi−g(xi)‖^2 (5.2)\n```\nSecara konseptual, bentuk fungsi regresi dilambangkan sebagai persamaan\n5.3 [9].\n\n```\ng(x) =\n```\n#### ∫\n\n```\ny q(y|x)dy (5.3)\n```\nPersamaan 5.3 dibaca sebagai “ _expectation of_ y, _with the distribution of_ q.”\nSecara statistik, regresi dapat disebut sebagai ekspektasi untukyberdasarkan/\ndengan _input x_. Perlu diperhatikan kembali, regresi adalah pendekatan sehingga\nbelum tentu 100% benar (hal ini juga berlaku pada modelmachine\n_learning_ pada umumnya).\nKami telah memberikan contoh fungsi linear sederhana, yaitug(x) =\nxw+b. Pada kenyataannya, permasalahan kita lebih dari persoalan skalar.\nUntukx( _input_ ) yang merupakan vektor, biasanya kita mengestimasi dengan\nlebih banyak variable, seperti pada persamaan 5.4. Persamaan tersebut dapat\nditulis kembali dalam bentuk aljabar linear sebagai persamaan 5.5.\n\n```\ng(x) =x 1 w 1 +x 2 w 2 +···+xNwN+b (5.4)\n```\ng(x) =x·w+b (5.5)\nBentuk persamaan 5.4 dan 5.5 relatif _interpretable_ karena setiap fitur\npada _input_ (xi) berkorespondensi hanya dengan satu parameter bobotwi.\nArtinya, kita bisa menginterpretasikan seberapa besar/kecil pengaruh suatu\nfiturxiterhadap keputusan ( _output_ ) berdasarkan nilaiwi. Hal ini berbeda\ndengan algoritma non-linear (misal _artificial neural network_, bab 11) dimana\nsatu fitur pada _input_ bisa berkorespondensi dengan banyak parameter bobot.\nPerlu kamu ingat, model yang dihasilkan oleh fungsi linear lebih mudah dimengerti\ndibanding fungsi non-linear. Semakin suatu model pembelajaran\nmesin berbentuk non-linear, maka ia semakin susah dipahami.\nIngat kembali bab 1, _learning machine_ yang direpresentasikan dengan\nfungsigbisa diatur kinerjanya dengan parameter _training_ w. _Squared error_\nuntuk _learning machine_ dengan parameter _training_ wdiberikan oleh persamaan\n5.2, dimana (xi,yi) adalah pasangan _input-desired output_. Selain untuk\nmenghitung _squared error_ pada _training data_, persamaan 5.2 juga dapat\ndigunakan untuk menghitung _squared error_ pada _test data_. Tujuan dari regresi/machine\n_learning_ secara umum adalah untuk meminimalkan nilai _loss_\n\n\n64 5 Model Linear\n\nbaik pada _training_ maupun _unseen instances_. Misal, menggunakan _error function_ sebagai _proxy_ untuk _loss_.\nSelain _error function_, ada banyak fungsi lainnya\nseperti _Hinge_, _Log Loss_, _Cross-entropy loss_, _Ranking loss_ [1].\n\n"} {"text": "### 13.7 Transfer Learning\n\nWalau konsep _transfer learning_ (TL) tidak terbatas pada _neural network_,\nsubbab ini membahas pemanfaatan TL paling umum pada _neural network_.\nPembaca dipersilahkan mengeksplorasi lebih lanjut.\nBayangkan kondisi berikut. Ada dua orang, Haryanto dan Wira. Saat\nmasih kecil, Wira pernah belajar cara memainkan Ukulele, sedangkan Haryanto\ntidak. Ketika kedua orang tersebut belajar memainkan gitar, menurutmu\nsiapa yang bisa menguasai gitar lebih cepat?\nPada TL, kita ingin menggunakan suatu pengetahun ( _knowledge_ ) pada suatu _task_ T\n1 , untuk menyelesaikan permasalahan _task_ T 2 [93, 94]. Kita memiliki\nasumsi bahwaT 1 memiliki kaitan denganT 2 , sedemikian sehingga fasih pada\nT 1 akan menyebabkan kita fasih padaT 2 (atau lebih fasih dibandingan tidak\nmenguasaiT 1 sama sekali). Perhatikan Gambar 13.27 yang mengilustrasikan\nperbedaan pembelajaran mesin biasa dan penggunaan TL. Pada pembelajaran\nmesin biasa, kita melatih model untuk masing-masing _task_. Pada TL,\nkita menggunakan model yang sudah ada, disebut _pretrained model_, untuk\n_task_ baru. Selain dimotivasi oleh kemiripan kedua _tasks_, TL juga dimotivasi\noleh ketersediaan data. Misal dataset untuk _task_ T 1 banyak, sedangkan untuk _task_ T\n2 sedikit. BerhubungT 1 danT 2 memiliki kemiripan, model untuk\n\n\n```\n13.7 Transfer Learning 205\n```\nT 1 yang diadaptasi untukT 2 akan konvergen lebih cepat dibanding melatih\n_model_ dari awal untukT 2.\n\nGambar 13.27: Pembelajaran mesin tradisional vs. menggunakantransfer\n_learning_.\n\n```\nGambar 13.28: Proses _transfer learning_.\n```\nProses mengadaptasi suatu _pretrained model_ disebut _finetuning_ (Gambar\n13.28). Pertama-tama kita ganti _layer terakhir_ ( _prediction layer_ ) pada\n_pretrained model_ menggunakan _layer_ baru yang diinisialisasi secara _random_.^20\nKemudian, kita latih kembali model yang sudah ada menggunakan data untuk\nT 2.\nSecara umum, ada tiga cara untuk melakukan _finetuning_.\n1.Freeze some layers. Kita _freeze_ beberapa _layer_ (parameternya tidak\ndiperbaharui saat fine _tuning_ ), kemudian latih _layer_ lainnya. Ilustrasi\ndiberikan pada Gambar 13.29.\n2.Train only new last layer. Kita _freeze_ semua _layer_, kecuali _layer_ terakhir\nuntuk taskT 2. Ilustrasi diberikan pada Gambar 13.30\n3.Train all layers. Setelah menggantu _layer terakhir_, kita latih semua _layer_\nuntuk taskT 2. Ilustrasi diberikan pada Gambar 13.31.\n\n(^20) Penulis rasa, hal ini hampir wajib hukumnya\n\n\n206 13 Arsitektur Neural Network\n\n```\nPretrained Layer 1\n```\n```\nPretrained Layer 2\n```\n```\nPrediction Layer\n( _softmax_ )\n```\n```\nRetrain Layer 1\n```\n```\nPretrained Layer 2\n```\n```\nNew Prediction Layer\n( _softmax_ )\n```\n```\n_Dataset_ A for task 𝑇! Dataset B for task 𝑇\"\nAdaptation\n(Fine _tuning_ )\n```\n```\nFreeze\n```\n```\nTrain\n```\n```\nTrain\n```\n```\nGambar 13.29:Freeze some layers.\n```\n```\nPretrained Layer 1\n```\n```\nPretrained Layer 2\n```\n```\nPrediction Layer\n( _softmax_ )\n```\n```\nPretrained Layer 1\n```\n```\nPretrained Layer 2\n```\n```\nNew Prediction Layer\n( _softmax_ )\n```\n```\n_Dataset_ A for task 𝑇! Dataset B for task 𝑇\"\nAdaptation\n(Fine _tuning_ )\n```\n```\nFreeze\n```\n```\nTrain\n```\n```\nGambar 13.30:Train only new last layer.\n```\n```\nPretrained Layer 1\n```\n```\nPretrained Layer 2\n```\n```\nPrediction Layer\n( _softmax_ )\n```\n```\nRetrain Layer 1\n```\n```\nRetrain Layer 2\n```\n```\nNew Prediction Layer\n( _softmax_ )\n```\n```\n_Dataset_ A for task 𝑇! Dataset B for task 𝑇\"\nAdaptation\n(Fine _tuning_ )\n```\n```\nTrain\n```\n```\nGambar 13.31:Train all layers.\n```\nSelain alasan yang sudah disebutkan, TL juga digunakan untuk mempercepat _training_.\nKonon _pre-trained_ model pada umumnya membutuhkan\nwaktu _training_ yang lebih cepat (lebih sedikit iterasi) dibanding melatih model\nbaru. Dengan demikian, kita dapat menghemat listrik dan mengurangi polusi\nCO 2. TL juga berkaitan erat dengan _successive learning_ (bab 11), dimana\n\n\n```\n13.8 Multi- _task_ Learning 207\n```\nkita melatih arsitektur lebih kecil kemudian menggunakannya pada arsitektur\nyang lebih besar.\nDemikian konsep paling dasar TL. Selebihkan, penulis menya _rank_ an untuk\nmembaca _paper_ atau tutorial terkait, seperti dibawah berikut.\n\n- https://www.cs.uic.edu/ liub/Lifelong- _Learning_ -tutorial-slides.pdf\n- https://www.aclweb.org/anthology/attachments/\n N19-5004.Presentation.pdf\n\n"} {"text": "### 13.3 Part-of-speech Tagging Revisited\n\nPada bab sebelumnya, kamu telah mempelajari konsep dasar _recurrent_ neural\n_network_. Selain digunakan untuk klasifikasi (i.e., _hidden state_ terakhir digunakan\nsebagai _input_ klasifikasi), RNN juga dapat digunakan untuk memprediksi\nsekuens seperti persoalan _part-of-speech tagging_ (POS _tagging_ ) [82,\n83, 84]. Kami harap kamu masih ingat materi bab 8 yang membahas apa itu\npersoalan POS _tagging_.\nDiberikan sebuah sekuens katax = {x 1 ,···,xT}, kita ingin mencari\nsekuens _output_ y={y 1 ,···,yT}( _sequence prediction_ ); dimanayiadalah kelas\nkata untukxi. Perhatikan, panjang _input_ dan _output_ adalah sama. Ingat\nkembali bahwa pada persoalan POS _tagging_, kita ingin memprediksi suatu\nkelas kata yang cocokyidari kumpulan kemungkinan kelas kataC ketika\ndiberikan sebuah _history_ seperti diilustrasikan oleh persamaan 13.5, dimana\n_time_ lambangkan kandidat POStagke-i. Pada kasus ini, biasanya yang dicari\ntahu setiap langkah ( _unfolding_ ) adalah probabilitas untuk memilih suatu\nkelas katat∈Csebagai kelas kata yang cocok untuk di- _assign_ sebagaiyi.\nIlustrasi diberikan oleh Gambar. 13.14.\n\n```\ny 1 ,···,yT= arg max\nt 1 ,···,tT;ti∈C\n```\n```\nP(t 1 ,···,tT|x 1 ,···,xT) (13.5)\n```\nApabila kita melihat secara sederhana ( _markov assumption_ ), hal ini tidak\nlain dan tidak bukan adalah melakukan klasifikasi untuk setiap _instance_ pada\nsekuens _input_ (persamaan 13.6). Pada setiap time step, kita ingin menghasilkan _output_ yang\nbersesuaian.\n\n```\nyi= arg max\nti∈C\n```\n```\nP(ti|xi) (13.6)\n```\nAkan tetapi, seperti yang sudah dibahas sebelum sebelumnya, _markov assumption_ memiliki\nkelemahan. Kelemahan utama adalah tidak menggunakan\n\n\n192 13 Arsitektur Neural Network\n\n```\nGambar 13.14: POS _tagging_ menggunakan Recurrent Neural Network.\n```\nkeseluruhan _history_. Persoalan ini cocok untuk diselesaikan oleh RNN karena\nkemampuannya untuk mengingat seluruh sekuens (berbeda dengan _hidden_\nmarkov model(HMM) yang menggunakan _markov assumption_ ). Secara teoritis\n(dan juga praktis–sejauh yang penulis ketahui.) Pada banyak persoalan,\nRNN menghasilkan performa yang lebih baik dibanding HMM. Tetapi hal ini\nbergantung juga pada variasi arsitektur. Dengan ini, persoalan POS _tagging_\n( _full history_ ) diilustrasikan oleh persamaan 13.7.\n\n```\nyi= arg max\nti∈C\n```\n```\nP(ti|x 1 ,···,xT) (13.7)\n```\nGambar 13.15:Sequence predictionmenggunakan Recurrent Neural Network.\n\nPada bab sebelumnya, kamu diberikan contoh persoalan RNN untuk satu\n_output_ ; i.e., diberikan sekuens _input_, _output_ -nya hanyalah satu kelas yang\nmengkategorikan seluruh sekuens _input_. Untuk persoalan POS _tagging_, kita\nharus sedikit memodifikasi RNN untuk menghasilkan _output_ bagi setiap elemen\nsekuens _input_. Hal ini dilakukan dengan cara melewatkan setiap _hidden_\n_layer_ pada RNN pada suatu jaringan (anggap sebuah MLP+ _softmax_ ).\n\n\n```\n13.3 Part-of-speech Tagging Revisited 193\n```\nGambar 13.16:Sequence predictionmenggunakan RNN (disederhakan) [1].\nPersegi berwarna merah umumnya melambangkan _multi-layer perceptron_.\n\nKita lakukan prediksi kelas kata untuk setiap elemen sekuens _input_, kemudian\nmenghitung _loss_ untuk masing-masing elemen. Seluruh _loss_ dijumlahkan\nuntuk menghitung _backpropagation_ pada RNN. Ilustrasi dapat dilihat pada\nGambar. 13.15. Tidak hanya untuk persoalan POS _tagging_, arsitektur ini dapat\njuga digunakan pada persoalan _sequence prediction_ lainnya sepertinamed\nentity recognition.^10 Gambar. 13.15 mungkin agak sulit untuk dilihat, kami\nberi bentuk lebih sederhananya (konseptual) pada Gambar. 13.16. Pada setiap\nlangkah, kita menentukan POStagyang sesuai dan menghitung _loss_ yang kemudian\ndigabungkan. _Backpropagation_ dilakukan dengan mempertimbangkan\nkeseluruhan (jumlah) _loss_ masing-masing prediksi.\n\nGambar 13.17:Sequence prediction menggunakan Recurrent Neural Network\n(disederhakan), dimana prediksi saat waktu ke-tdipengaruhi oleh hasil\nprediksi pada waktut−1.\n\nBerdasarkan arsitektur yang sudah dijelaskan sebelumnya, prediksi POS\ntagke-ibersifat independen dari POStaglainnya. Padahal, POStaglain-\n\n(^10) https://en.wikipedia.org/wiki/Named-entity_recognition\n\n\n194 13 Arsitektur Neural Network\n\nnya memiliki pengaruh saat memutuskan POStagke-i(ingat kembali materi\nbab 8); sebagai persamaan 13.8.\n\n```\nyi= arg max\nti∈C\n```\n```\nP(ti|y 1 ,···,yi− 1 ,x 1 ,···,xi) (13.8)\n```\nSalah satu st _rate_ gi untuk menangani hal tersebut adalah dengan melewatkan\nPOStagpada sebuah RNN juga, seperti para persamaan 13.9 [1] (ilustrasi\npada Gambar. 13.17). Untuk mencari keseluruhan sekuens terbaik, kita\ndapat menggunakan teknik _beam search_ (detil penggunaan dijelaskan pada\nsubbab berikutnya). RNNxpada persamaan 13.9 juga lebih intuitif apabila\ndiganti menggunakan _bidirectional RNN_ (dijelaskan pada subbab berikutnya).\n\n```\nP(ti|y 1 ,···,yi− 1 ,x 1 ,···,xi) =\n_softmax_ (MLP([RNNx(x 1 ,···,xi); RNNtag(t 1 ,···,ti− 1 )]))\n```\n#### (13.9)\n\n"} {"text": "### Soal Latihan\n\n13.1. POS _tagging_\nPada subbab 13.3, disebutkan bahwa _bidirectional recurrent neural network_\nlebih cocok untuk persoalan POS _tagging_. Jelaskan mengapa! (hint pada\nbab 8)\n\n13.2. Eksplorasi\nJelaskanlah pada teman-temanmu apa dan bagaimana prinsip kerja:\n\n(a) _Boltzman Machine_\n(b) _Restricted Boltzman Machine_\n(c) _Generative Adversarial Network_\n\n\n\n"} {"text": "### 13.6 Architecture Ablation\n\nPada bab 9, kamu telah mempelajari _feature ablation_, yaitu memilih-milih\nelemen pada _input_ (untuk dibuang), sehingga model memiliki kinerja optimal.\nPada _neural network_, proses _feature engineering_ mungkin tidak sepenting\npada model- _model_ yang sudah kamu pelajari sebelumnya (e.g., model linear)\nkarena ia dapat me _model_ kan interaksi yang kompleks dari seluruh elemen\n_input_. Pada _neural network_, masalah yang muncul adalah memilih arsitektur\nyang tepat. Untuk menyederhanakan pencarian arsitektur, pada umumnya\nkita dapat mengganggap sebuah _neural network_ tersusun atas beberapa\n\n(^18) https:// _deep_ _learning_ 4j.org/restrictedboltzmannmachine\n(^19) https:// _deep_ _learning_ 4j.org/ _generative_ -adversarial- _network_\n\n\n204 13 Arsitektur Neural Network\n\n“modul”. Pembagian _neural network_ menjadi modul adalah hal yang relatif.\nUntuk mencari tahu konfigurasi arsitektur yang memberikan performa maksimal,\nkita dapat melakukan _architecture ablation_. Idenya mirip denganfeature\nablation, dimana kita mencoba mengganti-ganti bagian (modul) neural network.\nSebagai contoh, ingat kembali arsitektur _sequence to sequence_ dimana\nkita memiliki _encoder_ dan _decoder_. Kita dapat menggunakan RNN, Bidirectional\nRNN, ataupun Stacked RNN sebagai _encoder_. Hal ini adalah salah satu\ncontoh _architecture ablation_. Akan tetapi, bisa jadi kita mengasumsikan modul\nyang lebih kecil. Sebagai contoh, menggunakan RNN _encoder_ padasequence\nto sequencedan kita coba mengganti-ganti fungsi aktivasi.\n_Architecture ablation_ ini bisa menjadi semakin rumit tergantung persepsi\nkita tentang definisi modul pada _neural network_, seperti sampai menentukan\njumlah _hidden layers_ dan berapa jumlah unit pada masing-masing _layer_. Contoh\nlain adalah memilih fungsi aktivasi yang cocok untuk setiap _hidden layer_.\nPada kasus ini “modul” kita adalah sebuah _layer_. Walaupun _neural network_\nmemberikan kita kemudahan dari segi pemilihan fitur, kita memiliki kesulitan\ndalam menentukan arsitektur. Terlebih lagi, alasan pemilihan banyaknya _units_\npada suatu _layer_ (e.g., 512 dibanding 256 _units_ ) mungkin tidak dapat dijustifikasi\ndengan akurat. Pada _feature ablation_, kita dapat menjustifikasi alasan\nuntuk menghilangkan suatu fitur. Pada _neural network_, kita susah menjelaskan\nalasan pemilihan arsitektur (dan konfigurasi parameter) karenasearch\n_space_ -nya jauh lebih besar.\n\n"} {"text": "### 13.8 Multi- _task_ Learning\n\nSubbab ini akan menjelaskan _framework_ melatih model pembelajaran mesin\nmenggunakan _multi-task learning_ (MTL). Walaupun konsep MTL tidak terbatas\npada _neural network_, bab ini membahas konsep tersebut menggunakan\narsitektur _neural network_ sebagai contoh (karena itu dimasukkan ke dalam\nbab ini). Kami hanya memberikan penjelasan paling inti MTL menggunakan\ncontoh yang sederhana.\nPada MTL, kita melatih model untuk mengerjakan beberapa hal yang\nmirip atau berkaitan, secara bersamaan. Misalnya, melatih model POS _tagging_\ndan _named-entity recognition_ [95], mesin penerjemah untuk beberapa pasangan\nbahasa [96], klasifikasi teks [97] dan _discourse parsing_ [98]. Karena model\ndilatih untuk beberapa permasalahan yang mirip (sejenis), kita berharap agar\n_model_ mampu mendapatkan “intuisi” dasar yang dapat digunakan untuk\nmenyelesaikan semua permasalahan. Perbedaan TL (dalam konteks pembahasan\nsebelumnya) dan MTL terletak pada _timing_ pelatihan. Apabila pada\nTL, model untuk _task_ T 1 danT 2 dilatih pada waktu yang berbeda, sedangkan\nuntuk MTL, dilatih bersamaan.\nPerhatikan Gambar 13.32 yang merupakan ilustrasi permasalahan POS\n_tagging_. Diberikan _input_ sekuens katax, kita ingin mencari sekuenstagy\nterbaik untuk melambangkan kelas tiap kata. Kami harap kamu masih ingat\ndefinisi permasalahan tersebut karena sudah dibahas pada bab-bab sebelumnya.\nKita ingin me _model_ kan _conditional probability_ p(y|x,θ). POS _tagging_\nadalah salah satu _sequence tagging task_, dimana setiap elemen _input_ berkorespondensi\ndengan elemen _output_. Kita dapat melatih model BiRNN ditambah\ndengan MLP untuk melakukan prediksi kelas kata. Sebelumnya, telah\ndijelaskan bahwa BiRNN mungkin lebih intuitif untuk POS _tagging_ dibanding\nRNN biasa. Hal ini karena kita dapat me _model_ kan “konteks” kata (surrounding\n_word_ s) dengan lebih baik, yaitu informasi dari kata sebelum dan sesudah\n(BiRNN), dibanding hanya mendapat informasi dari kata sebelum (RNN).\nSekarang kamu perhatikan Gambar 13.33 yang mengilustrasikannamed\nentity recognition task(NER). _Named entity_ secara sederhana adalah objek\nyang bernama, misal lokasi geografis, nama perusahaan, dan nama orang.\nPada NER, kita ingin mengekstrasi _named entity_ yang ada pada _input_. _Task_\nini biasanya direpresentasikan dengan BIO _coding scheme_. Artinya, _output_\n\n\n208 13 Arsitektur Neural Network\n\n```\nGambar 13.32: POStagger.\n```\nuntuk NER adalah pilihan B ( _begin_ ), I ( _inside_ ) dan O ( _outside_ ). Apabila suatu\nkata adalah kata pertama dari suatu _named entity_, kita mengasosiasikannya\ndengan _output_ B. Apabila suatu kata adalah bagian dari _named entity_, tetapi\nbukan kata pertama, maka diasosiasikan dengan _output_ I. Selain keduanya,\ndiasosiasikan dengan _output_ O. Seperti POS _tagging_, NER juga merupakan\n_sequence tagging_ karena kita ingin me _model_ kanp(y|x,θ) untukxadalah\n_input_ danyadalah _output_ (BIO).\n\n```\nGambar 13.33: _Named Entity Recognition_.\n```\nPOS _tagging_ dan NER dianggap sebagai _task_ yang “mirip” karena keduanya\nmemiliki cara penyelesaian masalah yang mirip. Selain dapat diselesaikan\ndengan cara yang mirip, kedua _task_ tersebut memiliki _nature_ yang sama. Dengan\nalasan ini, kita dapat melatih model untuk POS _tagging_ dan NER dengan\nkerangka _multi-task learning_. Akan tetapi, menentukan apakah dua _task_\nmemiliki _nature_ yang mirip ibarat sebuah seni (butuh _sense_ ) dibandinghard\nscience[1].\n\nGambar 13.34: _Multi-task Learning_ untuk POS _tagging_ danNamed Entity\nRecognition.\n\n\n```\n13.8 Multi- _task_ Learning 209\n```\nIde utama MTL adalah melatih _shared representation_. Sebagai ilustrasi,\nperhatikan Gambar 13.34. Sebelumnya, kita melatih dua model dengan\nBiRNN yang dilewatkan pada MLP. Pada saat ini, kita melatih BiRNN yang\ndianggap sebagai _shared representation_. BiRNN diharapkan memiliki “intuisi”\nuntuk menyelesaikan kedua permasalahan, berhubung keduanya memiliki _nature_ yang\nsama. Setiap _hidden layer_ pada BiRNN dilewatkan pada MLP untuk\nmelakukan prediksi pada masing-masing _task_. Tujuan utama MTL adalah untuk\nmeningkatkan kinerja. Kita melatih model untuk _task_ Xdengan meminjam\n“intuisi” penyelesaikan dari _task_ Ydengan harapan “intuisi” yang dibawa\ndari _task_ Y dapat memberikan informasi tambahan untuk penyelesaian _task_\nX.\n\n```\nGambar 13.35: _Multi-task Learning_ pada mesin translasi.\n```\nPerhatikan contoh berikutnya tentang MTL pada mesin translasi (Gambar\n13.35). Pada permasalahan mesin translasi, kita melatih model menggunakan\n_data_ paralel kombinasi pasangan bahasaX-Y.\nPenggunaan MTL pada mesin mesin translasi pada umumnya dimotivasi\noleh dua alasan.\n\n- Pada kombinasi pasangan bahasa tertentu, tersedia _dataset_ dengan jum-\n lah yang banyak. Tetapi, bisa jadi kita hanya memiliki _dataset_ berukuran\n kecil untuk bahasa tertentu. Sebagai contoh, data mesin translasi untuk\n pasangan English-France lebih besar dibanding English-Indonesia. Karena\n kedua kombinasi pasangan bahasa memiliki _nature_ yang cukup sama,\n kita dapat menggunakan MTL sebagai kompensasi data English-Indonesia\n\n\n210 13 Arsitektur Neural Network\n\n```\nyang sedikit agar model pembelajaran bisa konvergen. Dalam artian, _encoder_ yang\ndilatih menggunakan sedikit data kemungkinan memiliki performa\nyang kurang baik. Dengan ini, kita latih suatu _encoder_ menggunakan\n_data_ English-France dan English-Indonesia agar model bisa konvergen.\nPada kasus ini, transfer learning juga dapat digunakan. Kita melatih\n_model_ English-France, kemudian memasangkan _encoder_ yang sudah dilatih\ndengan _decoder_ baru untuk bahasa Indonesia.\n```\n- Seperti yang sudah dijelaskan sebelumnya, kita ingin menggunakan “in-\n tuisi” penyelesaian suatu permasalahan untuk permasalahan lainnya,\n berhubung solusinya keduanya mirip. Dengan hal ini, kita harap kita\n mampu meningkatkan kinerja model. Sebagai contoh, kombinasi pasangan\n bahasa English-Japanese dan English-Korean, berhubung kedua bahasa\n target memiliki struktur yang mirip.\nPada kerangka MTL, _utility function_ atau objektif _training_ adalah meminimalkanjoint\n_loss_ semua _tasks_ (hal ini juga membedakan TL dan MTL),\ndiberikan pada persamaan 13.19. Kita dapat mendefinisikan _loss_ pada kerangka\nMTL sebagai penjumlahan _loss_ pada masing-masing _task_, seperti pada persamaan\n13.20. Apabila kita mengganggap suatu _task_ lebih penting dari _task_\nlainnya, kita dapat menggunakan _weighted sum_, seperti pada persamaan 13.21.\nKita juga dapat menggunakan _dynamic weighting_ untuk memperhitungkan\n_uncertainty_ pada tiap _task_, seperti pada persamaan 13.22 [99], dimanaσ\nmelambangkan varians _task-specific loss_.\n\n```\nLMTL=q(LT 1 ,...LTD) (13.19)\n```\n```\nq(LT 1 ,...LTD) =\n```\n#### ∑D\n\n```\ni\n```\n```\nLTi (13.20)\n```\n```\nq(LT 1 ,...LTD) =\n```\n#### ∑D\n\n```\ni\n```\n```\nαiLTi (13.21)\n```\n```\nq(LTi,...LTD) =\n```\n#### ∑D\n\n```\ni\n```\n#### 1\n\n```\n2 σ^2 i\n```\n```\nLTi+ ln(σi) (13.22)\n```\nSaat melatih MTL, tujuan _training_ dapat mempengaruhi proses penyajian\n_data_. Seumpama saat melatih mesin translasi untuk English-{Chinese,\nJapanese, Korean}, kita ingin menganggap English-Korean sebagai _main task_\nsementara sisanya sebagai _supporting task_, kita dapat melakukan _pre-training_\nmenggunakan data English-Chinese dan English-Japanese terlebih dahulu,\ndiikuti oleh English-Korean (tetapi _loss_ tetap _joint loss_ ). Pada kasus ini,\npenggunaan _joint weighted loss_ dapat dijustifikasi. Di lain pihak, apabila kita\nmengganggap semua _tasks_ penting, kita dapat melakukan data _shuffling_ sehingga\nurutan _training data_ tidak bias pa _data_ sk tertentu. Pada kasus ini,\n\n\n```\n13.8 Multi- _task_ Learning 211\n```\n```\nGambar 13.36: _Multi-task Learning_ setup.\n```\npenggunaan _joint loss_ –sumdapat dijustifikasi. Ilustrasi diberikan pada Gambar\n13.36.\n\n"} {"text": "### 13.2 Recurrent Neural Network\n\nIde dasar _recurrent neural network_ (RNN) adalah membuat topologi jaringan\nyang mampu merepresentasikan data _sequential_ (sekuensial) atau _time series_ [77],\nmisalkan data ramalan cuaca. Cuaca hari ini bergantung kurang\nlebih pada cuaca hari sebelumnya. Sebagai contoh apabila hari sebelumnya\n\n(^4) mathworks.com\n\n\n```\n13.2 Recurrent Neural Network 187\n```\nmendung, ada kemungkinan hari ini hujan.^5 Walau ada yang menganggap\nsifat data sekuensial dan _time series_ berbeda, RNN berfokus sifat data dimana _instance_ waktu\nsebelumnya (t−1) mempengaruhi _instance_ pada waktu\nberikutnya (t). Intinya, mampu mengingat _history_.\nSecara lebih umum, diberikan sebuah sekuens _input x_ = (x 1 ,···,xT).\nDataxt(e.g., vektor, gambar, teks, suara) dipengaruhi oleh data sebelumsebelumnya\n( _history_ ), ditulis sebagaiP(xt | {x 1 ,···,xt− 1 }). Kami harap\nkamu ingat kembali materi _markov assumption_ yang diberikan pada bab 8.\nPada _markov assumption_, diasumsikan bahwa dataxt( _data point_ ) hanya\ndipengaruhi olehbeberapa data sebelumnya saja(analogi: _windowing_ ).\nSetidaknya, asumsi ini memiliki dua masalah:\n\n1. Menentukan _window_ terbaik. Bagaimana cara menentukan banyaknya\n data sebelumnya (secara optimal) yang mempengaruhi data sekarang.\n2. Apabila kita menggunakan _markov assumption_, artinya kita mengganggap\n informasi yang dimuat oleh data lama dapat direpresentasikan oleh data\n lebih baru, i.e.,xtjuga memuat informasixt−J,...,xt− 1 ;Jadalah ukuran\n window. Penyederhanaan ini tidak jarang mengakibatkan informasi yang\n hilang.\nRNN adalah salah satu bentuk arsitektur ANN untuk mengatasi masalah\nyang ada pada _markov assumption_. Ide utamanya adalah memorisasi,^6 kita\ningin mengingatkeseluruhansekuens (dibanding _markov assumption_ yang\nmengingat sekuens secara terbatas), implikasinya adalah RNN yang mampu\nmengenali dependensi yang panjang (misalxtternyata dependen terhadap\nx 1 ). RNN paling sederhana diilustrasikan pada Gambar. 13.9. Ide utamanya\nadalah terdapat _pointer_ ke dirinya sendiri.\n\nGambar 13.9: Bentuk konseptual paling sederhana Recurrent Neural Network.\n\nIlustrasi Gambar. 13.9 mungkin sedikit susah dipahami karena berbentuk\nsangat konseptual. Bentuk lebih matematis diilustrasikan pada Gam-\n\n(^5) Mohon bertanya pada ahli meteorologi untuk kebenaran contoh ini. Contoh ini\nsemata-mata pengalaman pribadi penulis.\n(^6) Tidak merujuk hal yang sama dengan _dynamic programming_.\n\n\n188 13 Arsitektur Neural Network\n\nbar. 13.10 [77]. Perhitungan _hidden state_ pada waktu ke-tbergantung pada\n_input_ pada waktu ke-t(xt) dan _hidden state_ pada waktu sebelumnya (ht− 1 ).\n\n```\nGambar 13.10: Konsep Recurrent Neural Network.\n```\nKonsep ini sesuai dengan prinsip _recurrent_ yaitumengingat(memorisasi)\nkejadian sebelumnya. Kita dapat tulis kembali RNN sebagai persamaan 13.1.\n\n```\nht=f(xt,ht− 1 ,b) (13.1)\n```\ndimanafadalah fungsi aktivasi (non-linear, dapat diturunkan). Demi menyederhanakan\npenjelasan, penulis tidak mengikutsertakan _bias_ (b) pada fungsifungsi\nberikutnya. Kami berharap pembaca selalu mengingat bahwa bias\nadalah parameter yang diikutsertakan pada fungsi _artificial neural network_.\nFungsifdapat diganti dengan variasi _neural network_,^7 misal menggunakan\n_long short-term memory network_ (LSTM) [78]. Buku ini hanya akan menjelaskan\nkonsep paling penting, silahkan eksplorasi sendiri variasi RNN.\nSecara konseptual, persamaan 13.1 memiliki analogi denganfull markov\nchain. Artinya, _hidden state_ pada saat ke-tbergantung pada semua _hidden_\n_state_ dan _inputs_ ebelumnya.\n\n```\nht=f(xt,ht− 1 )\n=f(xt,f(xt− 1 ,ht− 2 ))\n=f(xt,f(xt− 1 ,f({x 1 ,···,xt− 2 },{h 1 ,···,ht− 3 })))\n```\n#### (13.2)\n\n_Training_ pada _recurrent neural network_ dapat menggunakan metode _backpropagation_.\nAkan tetapi, metode tersebut kurang intuitif karena tidak mampu\nmengakomodasi _training_ yang bersifat sekuensial _time series_. Untuk itu, terdapat\nmetode lain bernama _backpropagation through time_ [79].\n\n(^7) https://en.wikipedia.org/wiki/Recurrent_ _neural_ _ _network_\n\n\n```\n13.2 Recurrent Neural Network 189\n```\nGambar 13.11: Konsep _feed forward_ pada Recurrent Neural Network (RNN).\nKarena RNN menerima _input_ berupa sekuens, kita memvisualisasikan proses\nfeed fowarddengan _unfolding_ (atauunrolling) RNN pada keseluruhan sekuens\n_input_.\n\nSebagai contoh kita diberikan sebuah sekuensxdengan panjangTsebagai\n_input_, dimanaxtmelambangkan input ke-i( _data point_ ), dapat berupa\n_vektor_, gambar, teks, atau apapun. Kita melakukan _feed forward_ data tersebut\nke RNN, diilustrasikan pada Gambar. 13.11. Perlu diingat, RNN mengadopsi\nprinsip _parameter sharing_ (serupa dengan _weight sharing_ pada CNN)\ndimana neuron yang sama diulang-ulang saat process _feed forward_. Setelah\nselesai proses _feed forward_, kita memperbaharui parameter ( _synapse weights_ )\nberdasarkan propagasi _error_ ( _backpropagation_ ). Pada _backpropagation_ biasa,\nkita perbaharui parameter sambil mempropagasi _error_ dari _hidden state_ ke\n_hidden state_ sebelumnya. Teknik melatih RNN adalah _backpropagation_\nthrough timeyang melakukan _unfolding_ pada _neural network_. Kita meng _update_\nparameter saat kita sudah mencapai _hidden state_ paling awal. Hal\nini diilustrasikan pada Gambar. 13.12.^8 Gambar. 13.12 dapat disederhanakan\nmenjadi bentuk lebih abstrak (konseptual) pada Gambar. 13.13.\nKita mempropagasi _error_ dengan adanya efek darinext states of hidden\n_layer_. _Synapse weights_ diperbaharui secara _large update_. _Synapse weight_\ntidak diperbaharui per _layer_. Hal ini untuk merepresentasikan _neural network_ yang\nmampu mengingat beberapa kejadian masa lampau dan keputusan\nsaat ini dipengaruhi oleh keputusan pada masa lampau juga (ingatan).\nUntuk mengerti proses ini secara praktikal (dapat menuliskannya sebagai program),\npenulis sa _rank_ an pembaca untuk melihat materi tentangcomputation\ngraph^9 dan disertasi PhD oleh Mikolov [47].\nWalaupun secara konseptual RNN dapat mengingat seluruh kejadian sebelumnya,\nhal tersebut sulit untuk dilakukan secara praktikal untuk sekuens\nyang panjang. Hal ini lebih dikenal dengan _vanishing_ atau _exploding_ gradient\nproblem[63, 80, 81]. Seperti yang sudah dijelaskan, ANN dan variasi arsitekturnya\ndilatih menggunakan teknik _stochastic gradient descent_ ( _gradient_ -based\noptimization). Artinya, kita mengandalkan propagasi _error_ berdasarkan tu-\n\n(^8) Prinsip ini mirip dengan _weight sharing_.\n(^9) https://www.coursera.org/learn/ _neural_ - _network_ s- _deep_ - _learning_ /\nlecture/4WdOY/computation-graph\n\n\n190 13 Arsitektur Neural Network\n\n```\nGambar 13.12: Konsep _backpropagation through time_ [47].\n```\nGambar 13.13: Konsep _backpropagation through time_ [1]. Persegi berwarna\nmerah umumnya melambangkan _multi-layer perceptron_.\n\nrunan. Untuk sekuens _input_ yang panjang, tidak jarang nilai _gradient_ menjadi\nsangat kecil dekat dengan 0 ( _vanishing_ ) atau sangat besar ( _exploding_ ). Ketika\npada satu _hidden state_ tertentu, gradient pada saat itu mendekati 0, maka\nnilai tersebut yang dipropagasikan pada langkah berikutnya menjadi semakin\nkecil. Hal serupa terjadi untuk nilai gradient yang besar.\nBerdasarkan pemaparan ini, RNN adalah teknik untuk merubah suatu\nsekuens _input_, dimana xt merepresentasikan data ke-t(e.g., vektor, gambar,\nteks) menjadi sebuah _output_ vektory. Vektorydapat digunakan un-\n\n\n```\n13.3 Part-of-speech Tagging Revisited 191\n```\ntuk permasalahan lebih lanjut (buku ini memberikan contoh _sequence to sequence_ pada\nsubbab 13.4). Bentuk konseptual ini dapat dituangkan pada persamaan\n13.3. Biasanya, nilaiydilewatkan kembali ke sebuah _multi-layer perceptron_ (MLP)\ndan fungsi softmax untuk melakukan klasifikasi akhir (final\n_output_ ) dalam bentuk probabilitas, seperti pada persamaan 13.4.\n\n```\ny= RNN(x 1 ,···,xN) (13.3)\n```\n_final output_ = softmax(MLP(y)) (13.4)\nPerhatikan, arsitektur yang penulis deskripsikan pada subbab ini adalah\narsitektur paling dasar. Untuk arsitektur _state-of-the-art_, kamu dapat membaca _paper_ yang\nberkaitan.\n\n"} {"text": "### 13.5 Arsitektur Lainnya\n\nSelain arsitektur yang sudah dipaparkan, masih banyak arsitektur lain baik\nbersifat generik (dapat digunakan untuk berbagai karakteristik data) maupun\nspesifik (cocok untuk data dengan karakteristik tertentu atau permasalahan\ntertentu) sebagai contoh, _Restricted Boltzman Machine_ ^18 danGenerative Adversarial\nNetwork(GAN).^19 Saat buku ini ditulis, GAN dan _adversarial training_ sedang\npopuler.\n\n"} {"text": "### 13.4 Sequence to Sequence\n\nPertama-tama, kami ingin mendeskripsikan kerangka _conditioned generation_.\nPada kerangka ini, kita ingin memprediksi sebuah kelasyiberdasarkan\nkelas yang sudah di-hasilkan sebelumnya ( _history_ yaituy 1 ,···,yi− 1 ) dan sebuahconditioning\ncontextc(berupa vektor).\nArsitektur yang dibahas pada subbab ini adalah variasi RNN untuk permasalahansequence\n_generation_.^11 Diberikan sekuens _input_ x= (x 1 ,···,xT).\nKita ingin mencari sekuens _output_ y= (y 1 ,···,yM). Pada subbab sebelumnya,xiberkorespondensi\nlangsung denganyi, e.g.,yiadalah kelas kata (kategori)\nuntukxi. Tetapi, pada permasalahan saat ini,xitidak langsung berkorespondensi\ndenganyi. Setiapyidikondisikan olehseluruhsekuens _input_ x;\ni.e., _conditioning context_ dan _history_ {y 1 ,···,yi− 1 }. Panjang sekuens _output_\nMtidak mesti sama dengan panjang sekuens _input_ T. Permasalahan ini masuk\nke dalam kerangka _conditioned generation_ dimana keseluruhan _input_ x\ndapat direpresentasikan menjadi sebuah vektorc( _coding_ ). Vektorcini menjadi\nvariabel pengkondisi untuk menghasilkan _output_ y.\nPasangan _input-output_ dapat melambangkan teks bahasa X–teks bahasa Y\n(translasi), teks-ringkasan, kalimat- _paraphrase_, dsb. Artinya ada sebuah _input_\ndan kita ingin menghasilkan ( _generate/produce_ ) sebuah _output_ yang cocok\nuntuk _input_ tersebut. Hal ini dapat dicapai dengan mo _model_ kan pasangan\n_input-output_ p(y|x). Umumnya, kita mengasumsikan ada kumpulan parameterθyang\nmengontrol _conditional probability_, sehingga kita transformasi\n_conditional probability_ menjadip(y|x,θ). _Conditional probability_ p(y|x,θ)\ndapat difaktorkan sebagai persamaan 13.10. Kami harap kamu mampu membedakan\npersamaan 13.10 dan persamaan 13.5 (dan 13.8) dengan jeli. Sedikit\n\n(^11) Umumnya untuk bidang pemrosesan bahasa alami.\n\n\n```\n13.4 Sequence to Sequence 195\n```\nperbedaan pada formula menyebabkan makna yang berbeda. Objektif _training_ adalah\nuntuk meminimalkan _loss function_, sebagai contoh berbentuklog\n_likelihood_ function diberikan pada persamaan 13.11, dimanaDmelambangkan\n_training data_.^12\n\n```\np(y|x,θ) =\n```\n#### ∏M\n\n```\nt=1\n```\n```\np(yt|{y 1 ,...,yt− 1 },x,θ), (13.10)\n```\n```\nL(θ) =−\n```\n#### ∑\n\n```\n{x,y}∈D\n```\n```\nlogp(y|x,θ) (13.11)\n```\nPersamaan 13.10 dapat di _model_ kan dengan _encoder-decoder_ model yang\nterdiri dari dua buah RNN dimana satu RNN sebagai _encoder_, satu lagi sebagai _decoder_.Neural\nNetwork, pada kasus ini, bertindak sebagaicontrolling\nparameter θ. Ilustrasi encoder- _decoder_ dapat dilihat pada Gambar. 13.18.\nGabungan RNN _encoder_ dan RNN _decoder_ ini disebut sebagai bentuksequence\nto sequence. Warna biru merepresentasikan _encoder_ dan warna\nmerah merepresentasikan _decoder_. “” adalah suatu simbol spesial (untuk\npraktikalitas) yang menandakan bahwa sekuens _input_ telah selesai dan\nsaatnya berpindah ke _decoder_.\n\nGambar 13.18: Konsep _encoder-decoder_ [81]. “” adalah suatu simbol\nspesial ( _untuk praktikalitas_ ) yang menandakan bahwa sekuens _input_ telah\nselesai dan saatnya berpindah ke _decoder_.\n\nSebuah _encoder_ merepresentasikan sekuens _input_ xmenjadi satu vektor\nc.^13 Kemudian, _decoder_ men- _decoder_ epresentasicuntuk menghasilkan ( _generate_ )\nsebuah sekuens _output_ y. Perhatikan, arsitektur kali ini berbeda dengan\narsitektur pada subbab 13.3. _Encoder-decoder_ ( _neural network_ ) bertindak\nsebagai kumpulan parameterθyang mengatur _conditional probability_.\n_Encoder-decoder_ juga dilatih menggunakan prinsip _gradient-based optimization_ untuk _tuning_ parameter\nyang mengkondisikan _conditional probability_ [81].\nDengan ini, persamaan 13.10 sudah didefinisikan sebagai _neural network_ sebagai\npersamaan 13.12. “enc” dan “dec” adalah fungsi _encoder_ dan _decoder_,\nyaitu sekumpulan transformasi non-linear.\n\n(^12) Ingat kembali materi _cross entropy_ !\n(^13) Ingat kembali bab 12 untuk mengerti kenapa hal ini sangat diperlukan.\n\n\n196 13 Arsitektur Neural Network\n\n```\nyt= dec({y 1 ,···,yt− 1 },enc(x),θ) (13.12)\n```\nBegitu model dilatih, _encoder-decoder_ akan mencari _output_ ˆyterbaik untuk\nsuatu inputx, dillustrasikan pada persamaan 13.13. Masing-masing komponen\n_encoder-decoder_ dibahas pada subbab-subbab berikutnya. Untuk abstraksi\nyang baik, penulis akan menggunakan notasi aljabar linear. Kami harap pembaca\nsudah familiar dengan representasi _neural network_ menggunakan notasi\naljabar linear seperti yang dibahas pada bab 11.\n\n```\nyˆ= arg max\ny\n```\n```\np(y|x,θ) (13.13)\n```\n13.4.1 Encoder\n\nSeperti yang sudah dijelaskan, _encoder_ mengubah sekuens _input x_ menjadi\nsatu vektorc. Suatu data point pada sekuens _input_ xt(e.g., kata, gambar,\nsuara, dsb) umumnya direpresentasikan sebagai _feature vector_ et. Dengan\ndemikian, _encoder_ dapat direpresentasikan dengan persamaan 13.14, dimana\nfadalah fungsi aktivasi non-linear;UdanWadalah matriks bobot ( _weight_\nmatrices–merepresentasikan _synapse weights_ ).\n\n```\nht=f(ht− 1 ,et)\n=f(ht− 1 U+etW)\n```\n#### (13.14)\n\nRepresentasi _input_ cdihitung dengan persamaan 13.15, yaitu sebagai\n_weighted sum_ dari _hidden states_ [57], dimanaqadalah fungsi aktivasi nonlinear.\nSecara lebih sederhana, kita boleh langsung menggunakanhTsebagai\nkonteksc[81] karena kita mengasumsikanhTmengandung seluruh informasi\nyang ada di _input_.\n\nc=q({h 1 ,···,hT}) (13.15)\nWalaupun disebut sebagai representasi keseluruhan sekuens _input_, informasi\nawal pada _input_ yang panjang dapat hilang. Artinyacbisa saja memuat\nlebih banyak informasi _input_ ujung-ujung akhir. Salah satu st _rate_ gi yang dapat\ndigunakan adalah dengan membalik ( _reversing_ ) sekuens _input_. Sebagai\ncontoh, _input_ x= (x 1 ,···,xT) dibalik menjadi (xT,···,x 1 ) agar bagian awal\n(···,x 2 ,x 1 ) lebih dekat dengan _decoder_ [81]. Informasi yang berada dekat dengan _decoder_ cenderung\nlebih diingat. Kami ingin pembaca mengingat bahwa\nteknik ini pun tidaklah sempurna.\n\n13.4.2 Decoder\n\nSeperti yang sudah dijelaskan sebelumnya, encoder memproduksi sebuah\n_vektor_ cyang merepresentasikan sekuens _input_. _Decoder_ menggunakan representasi\nini untuk memproduksi ( _generate_ ) sebuah sekuens output y =\n\n\n```\n13.4 Sequence to Sequence 197\n```\n(y 1 ,···,yM), disebut sebagai proses _decoding_. Mirip dengan _encoder_, kita\nmenggunakan RNN untuk menghasilkan _output_ seperti diilustrasikan pada\npersamaan 13.16, dimanafmerepresentasikan fungsi aktivasi non-linear;H,\nE, danCmerepresentasikan _weight matrices_. _Hidden state_ h′tmelambangkan\ndistribusi probabilitas suatu objek (e.g., POS tag, kelas kata yangberasal\ndari suatu himpunan) untuk menjadi _output_ yt. Umumnya,ytadalah dalam\nbentuk _feature-vector_ e′t.\n\n```\nh′t=f(h′t− 1 ,e′t− 1 ,c)\n=f(h′t− 1 H+e′t− 1 E+cC)\n```\n#### (13.16)\n\nDengan penjelasan ini, mungkin pembaca berpikir Gambar. 13.18 tidak\nlengkap. Kamu benar! Penulis sengaja memberikan gambar simplifikasi. Gambar\nlebih lengkap (dan lebih nyata) diilustrasikan pada Gambar. 13.19.\n\n```\nGambar 13.19: Konsep _encoder-decoder_ (full).\n```\nKotak berwarna ungu dan hijau dapat disebut sebagai _lookup matrix_ atau\n_lookup table_. Tugas mereka adalah mengubah _input_ xtmenjadi bentukfeature\nvector-nya (e.g., _word embedding_ ) dan mengubahe′tmenjadiyt(e.g., _word_\n_embedding_ menjadi kata). Komponen “ _Beam Search_ ” dijelaskan pada subbab\nberikutnya.\n\n13.4.3 Beam Search\n\nKita ingin mencari sekuens _output_ yang memaksimalkan nilai probabilitas\npada persamaan 13.13. Artinya, kita ingin mencari _output_ terbaik. Pada su-\n\n\n198 13 Arsitektur Neural Network\n\natu tahapan _decoding_, kita memiliki beberapa macam kandidat objek untuk\ndijadikan _output_. Kita ingin mencari sekuens objek sedemikian sehingga probabilitas\nakhir sekuens objek tersebut bernilai terbesar sebagai _output_. Hal ini\ndapat dilakukan dengan algoritma _Beam Search_.^14\n\n```\nbeamSearch(problemSet, ruleSet, memorySize)\nopenMemory = new memory of size memorySize\n_node_ List = problemSet.listOfNodes\n_node_ = root or initial search node\nadd node to OpenMemory;\nwhile( _node_ is not a goal node)\ndelete node from openMemory;\nexpand node and obtain its children, evaluate those children;\nif a child node is pruned according to a rule in ruleSet, delete it;\nplace remaining, non-pruned children into openMemory;\nif memory is full and has no room for new nodes, remove the worst\n_node_, de _term_ ined by ruleSet, in openMemory;\n_node_ = the least costly node in openMemory;\n```\n```\nGambar 13.20: _Beam Search_.^15\n```\nSecara sederhana, algoritma _Beam Search_ mirip dengan algoritma Viterbi\nyang sudah dijelaskan pada bab 8, yaitu algoritma untuk mencari sekuens\ndengan probabilitas tertinggi. Perbedaannya terletak padaheuristic. Untuk\nmenghemat memori komputer, algoritma _Beam Search_ melakukan ekspansi\nterbatas. Artinya mencari hanya beberapa (B) kandidat objek sebagai sekuens\nberikutnya, dimana beberapa kandidat objek tersebut memiliki probabilitas\nP(yt|yt− 1 ) terbesar.Bdisebut sebagaibeam- _width_. Algoritma _Beam Search_\nbekerja dengan prinsip yang mirip denganbest-first search(best-Bsearch)\nyang sudah kamu pelajari di kuliah algoritma atau pengenalan kecerdasan\nbuatan.^16 Pseudo-code _Beam Search_ diberikan pada Gambar. 13.20 (direct\nquotation).\n\n13.4.4 Attention-based Mechanism\n\nSeperti yang sudah dijelaskan sebelumnya, model _encoder-decoder_ memiliki\nmasalah saat diberikan sekuens yang panjang ( _vanishing_ atau _exploding_ gradient\nproblem). Kinerja model dibandingkan dengan panjang _input_ kurang\nlebih dapat diilustrasikan pada Gambar. 13.21. Secara sederhana, kinerja\n_model_ menurun seiring sekuens input bertambah panjang. Selain itu, representasicyang\ndihasilkan _encoder_ harus memuat informasi keseluruhan _input_ walaupun\nsulit dilakukan. Ditambah lagi, _decoder_ menggunakan representasinyacsaja\ntanpa boleh melihat bagian-bagian khusus _inputs_ aat _decoding_.\nHal ini tidak sesuai dengan cara kerja manusia, misalnya pada kasus\n\n(^14) https://en.wikipedia.org/wiki/Beam_search\n(^15) https://en.wikibooks.org/wiki/Artificial_Intelligence/Search/\nHeuristic_search/Beam_search\n(^16) https://www.youtube.com/watch?v=j1H3jAAGlEA&t=2131s\n\n\n```\n13.4 Sequence to Sequence 199\n```\ntranslasi bahasa. Ketika mentranslasi bahasa, manusia melihat bolak-balik\nbagian mana yang sudah ditranslasi dan bagian mana yang sekarang (difokuskan)\nuntuk ditranslasi. Artinya, manusia berfokus pada suatu bagian\n_input_ untuk menghasilkan suatu translasi.\n\n```\nGambar 13.21: Permasalahan _input_ yang panjang.\n```\nSudah dijelaskan sebelumnya bahwa representasi sekuens _input_ cadalah\nsebuah _weighted sum_.cyang sama digunakan sebagai _input_ bagi _decoder_ untuk\nmenentukan semua _output_. Akan tetapi, untuk suatu tahapan _decoding_\n(untuk _hidden state_ h′ttertentu), kita mungkin ingin model lebih berfokus\npada bagian _input_ tertentu daripada _weighted sum_ yang sifatnya generik. Ide\nini adalah hal yang mendasari _attention mechanism_ [57, 58]. Ide ini sangat\nberguna pada banyak aplikasi pemrosesan bahasa alami. _Attention mechanism_ dapat\ndikatakan sebagai suatu _soft alignment_ antara _input_ dan _output_.\nMekanisme ini dapat membantu mengatasi permasalahan _input_ yang panjang,\nseperti diilustrasikan pada Gambar. 13.22.\nDengan menggunakan _attention mechanism_, kita dapat mentransformasi\npersamaan 13.16 pada _decoder_ menjadi persamaan 13.17, dimanaktmerepresentasikan\nseberapa ( _how much_ ) _decoder_ harus memfokuskan diri ke _hidden_\n_state_ tertentu pada _encoder_ untuk menghasilkan _output_ saat ke-t.ktdapat\ndihitung pada persamaan 13.18, dimanaTmerepresentasikan panjang _input_,\nhiadalah _hidden state_ pada _encoder_ pada saat ke-i,h′t− 1 adalah _hidden state_\npada _decoder_ saat ket−1.\n\n```\nh′t=f′(h′t− 1 ,e′t− 1 ,c,kt) (13.17)\n```\n\n200 13 Arsitektur Neural Network\n\n```\nGambar 13.22: Menggunakan vs tidak menggunakan _attention_.\n```\n```\nkt=\n```\n#### ∑T\n\n```\ni=1\n```\n```\nαt,ihi\n```\n```\nαt,i=\n```\n```\nexp(hi·h′t− 1 )\n∑T\nz=1exp(hz·h\n```\n```\n′\nt− 1 )\n```\n#### (13.18)\n\nSejatinyaktadalah sebuah _weighted sum_. Berbeda dengancyang bernilai\nsama untuk setiap tahapan _decoding_, _weight_ atau bobot (αt,i) masingmasing\n_hidden state_ pada encoder berbeda-beda untuk tahapan _decoding_\nyang berbeda. Perhatikan Gambar. 13.23 sebagai ilustrasi (lagi-lagi, bentuk\n_encoder-decoder_ yang disederhanakan). Terdapat suatu bagian grafik yang\nmenunjukkan distribusi bobot pada bagian _input representation_ dan _attention_.\nDistribusi bobot pada _weighted sum_ cadalah pembobotan yang bersifat\ngenerik, yaitu berguna untuk keseluruhan (rata-rata) kasus. Masing-masing\n_attention_ (semacam _layers_ emu) memiliki distribusi bobot yang berbeda pada\ntiap tahapan _decoding_. Walaupun _attention mechanism_ sekalipun tidak sempurna,\nide ini adalah salah satu penemuan yang sangat penting.\nSeperti yang dijelaskan pada bab 11 bahwa _neural network_ susah untuk\ndimengerti. _Attention mechanism_ adalah salah satu cara untuk mengerti _neural_\n_network_. Contoh yang mungkin lebih mudah dipahami diberikan pada\nGambar. 13.24 yang merupakan contoh kasus mesin translasi [57].Attention\nmechanismmampu mengetahui _soft alignment_, yaitu kata mana yang harus\ndifokuskan saat melakukan translasi bahasa (bagian _input_ mana berbobot\nlebih tinggi). Dengan kata lain, _attention mechanism_ memberi interpretasi\nkata pada _output_ berkorespondensi dengan kata pada _input_ yang mana. Sebagai\ninformasi, menemukan cara untuk memahami (interpretasi) ANN adalah\nsalah satu tren riset masa kini [56].\n\n\n```\n13.4 Sequence to Sequence 201\n```\n```\n𝑥!\n```\n```\n...\n```\n```\n𝑥\"\n```\n```\n_Input_ Representation 𝒄\n⨁\n```\n```\nAttention\n```\n```\n⨁\nAttention\n```\n```\n⨁\nAttention\n```\n```\n⨁\n```\n```\n\n```\n```\n𝑦!\n```\n```\n𝒄\n```\n```\n𝑦#\n```\n```\n...\n```\n```\n𝒄\n```\n```\n𝑦$%! 𝑦$\n```\n```\nGambar 13.23: _Encoder-decoder_ with attention.\n```\nGambar 13.24: _Attention mechanism_ pada translasi bahasa [57]. Warna lebih\ngelap merepresentasikan bobot (fokus/ _attention_ ) lebih tinggi. Sebagai contoh,\nkata “menendang” berkorespondensi paling erat dengan kata “kicks”.\n\n13.4.5 Variasi Arsitektur Sequence to Sequence\n\nSelain RNN, kita juga dapat menggunakan _bidirectional_ RNN (BiRNN) untuk\nmengikutsertakan pengaruh baik _hidden states_ ebelum (h 1 ,···,ht− 1 ) dan\nsetelah (ht+1,···,hT) untuk menghitung _hidden states_ ekarang (ht) [85, 86,\n87]. BiRNN menganggaphtsebagai gabungan ( _concatenation_ ) _forward_ hidden\n_state_ h→t dan _backward hidden state_ h←t , ditulis sebagaiht=h→t +h←t.^17\n_Forward hidden state_ dihitung seperti RNN biasa yang sudah dijelaskan pada\nsubbab _encoder_, yaituh→t =f(h→t− 1 ,et). _Backward hidden state_ dihitung\ndengan arah terbalikh←t =f(h←t+1,et). Ilustrasi _encoder-decoder_ yang menggunakan\nBiRNN dapat dilihat pada Gambar. 13.25.\nSelain variasi RNN menjadi BiRNN kita dapat menggunakan _stacked RNN_\nseperti pada Gambar. 13.26 dimana _output_ pada RNN pertama bertindak\nsebagai _input_ pada RNN kedua. _Hidden states_ yang digunakan untuk menghasilkan\nrepresentasi _encoding_ adalah RNN pada tumpukan paling atas. Kita\n\n(^17) Perhatikan! + disini dapat diartikan sebagai penjumlahan atau konkatenasi\n\n\n202 13 Arsitektur Neural Network\n\nGambar 13.25: _Encoder-decoder_ dengan Bidirectional Recurrent Neural Net-\nwork.\n\njuga dapat menggunakan variasi _attention mechanism_ seperti _neural_ checklist\n_model_ [88] atau _graph-based attention_ [89]. Selain yang disebutkan, masih\nbanyak variasi lain yang ada, silahkan eksplorasi lebih lanjut sendiri.\n\n```\nGambar 13.26: _Encoder-decoder_ denganstackedRecurrent Neural Network.\n```\n13.4.6 Rangkuman\n\n_Sequence to sequence_ adalah salah satu bentuk _conditioned generation_. Artinya,\nmenggunakan RNN untuk menghasilkan ( _generate_ ) suatu sekuens _output_ yang\ndikondisikan oleh variabel tertentu. Diktat ini memberikan contoh bagaimana\nmenghasilkan suatu sekuens _output_ berdasarkan sekuens _input_ ( _conditioned_\n\n\n```\n13.6 Architecture Ablation 203\n```\non a sequence of input). Selain _input_ berupa sekuens, konsep ini juga dapat\ndiaplikasikan pada bentuk lainnya. Misalnya, menghasilkan _caption_ saat input\nyang diberikan adalah sebuah gambar [90]. Kita ubah _encoder_ menjadi sebuah\nCNN (ingat kembali subbab 13.1) dan _decoder_ berupa RNN [90]. Gabungan\nCNN-RNN tersebut dilatih bersama menggunakan metode _backpropagation_.\nPerhatikan, walaupun memiliki kemiripan dengan _hidden markov model_,\n_sequence to sequence_ bukanlah _generative model_. Pada _generative model_, kita\ningin me _model_ kan _joint probability_ p(x,y) =p(y|x)p(x) (walaupun secara\ntidak langsung, misal menggunakan teori Bayes). _Sequence to sequence_ adalah\n_discriminative model_ walaupun _output_ -nya berupa sekuens, ia tidak me _model_ kanp(x),\nberbeda dengan _hidden markov model_. Kita ingin me _model_ kan\n_conditional probability_ p(y|x) secara langsung, seperti _classifier_ lainnya (e.g.,\n_logistic regression_ ). Jadi yang di _model_ kan antara _generative_ dandiscriminative\n_model_ adalah dua hal yang berbeda.\nPada subbab ini, penulis memberikan contoh _attention mechanism_ yang\nberoperasi antara _encoder_ dan _decoder_. Masih banyak variasi lainnya seperti\n_self-attention_, _multi-head attention_ dan _hierarchical-attention_ [91, 92]. Walaupun\nmotivasi dan penggunaan variasi _attention mechanism_ berbeda-beda,\nkonsep dasarnya sama yaitu mengekstrak (atau mengambil) informasi dari\nbagian _network_ lainnya.\n\n"} {"text": "### 13.1 Convolutional Neural Network\n\nSubbab ini akan memaparkanide utamadari _convolutional neural network_\n(CNN) berdasarkan _paper_ asli dari LeCun dan Bengio [76] (saat buku ini\nditulis sudah ada banyak variasi). CNN memiliki banyak istilah dari bidang\npemrosesan gambar (karena dicetuskan dari bidang tersebut), tetapi demi\n\n\n182 13 Arsitektur Neural Network\n\nmempermudah pemahaman intuisi CNN, diktat ini akan menggunakan istilah\nyang lebih umum juga.\nSekarang, mari kita memasuki cerita CNN dari segi pemrosesan gambar.\nObjek bisa saja terlatak pada berbagai macam posisi seperti diilustrasikan\noleh Gambar. 13.1. Selain tantangan variasi posisi objek, masih ada juga tantangan\nlain seperti rotasi objek dan perbedaan ukuran objek ( _scaling_ ). Kita\ningin mengenali (memproses) objek pada gambar pada berbagai macam posisi\nyang mungkin ( _translation invariance_ ). Salah satu cara yang mungkin\nadalah dengan membuat suatu mesin pembelajaran (ANN) untuk regional\ntertentu seperti pada Gambar. 13.2 (warna biru) kemudian meng- _copy_ mesin\npembelajaran untuk mampu mengenali objek pada regional-regional lainnya.\nAkan tetapi, kemungkinan besar ANN _copy_ memiliki konfigurasi parameter\nyang sama dengan ANN awal. Hal tersebut disebabkan objek memiliki\ninformasi prediktif (predictive information– _feature vector_ ) yang sama yang\nberguna untuk menganalisisnya. Dengan kata lain, objek yang sama ( _smiley_ )\nmemiliki pola _feature vector_ yang mirip walaupun posisinya digeser-geser.\nANN (MLP) bisa juga mempelajari prinsip _translation invariance_, tetapi\nmemerlukan jauh lebih banyak parameter dibanding CNN (subbab berikutnya\nsecara lebih matematis) yang memang didesain dengan prinsiptranslation\nin _variance_ (“ _built-in_ ”).\n\n```\nGambar 13.1: Motivasi _convolutional neural network_.\n```\n13.1.1 Convolution\n\nSeperti yang sudah dijelaskan, motivasi CNN adalah untuk mampu mengenali\naspek yang informatif pada regional tertentu (lokal). Dibanding meng _copy_ mesin\npembelajaran beberapa kali untuk mengenali objek pada banyak\nregional, ide lebih baik adalah untuk menggunakan _sliding window_. Setiap\n\n\n```\n13.1 Convolutional Neural Network 183\n```\n```\nGambar 13.2: Motivasi _convolutional neural network_, solusi regional.\n```\noperasi pada _window_ ^1 bertujuan untuk mencari aspek lokal yang paling informatif.\nIlustrasi diberikan oleh Gambar. 13.3. Warna biru merepresentasikan\nsatu _window_, kemudian kotak ungu merepresentasikan aspek lokal paling informatif\n(disebut _filter_ ) yang dikenali oleh _window_. Dengan kata lain, kita\nmentransformasi suatu _window_ menjadi suatu nilai numerik ( _filter_ ). Kita juga\ndapat mentransformasi suatu _window_ (regional) menjadidnilai numerik (d _channels_,\nsetiap elemen berkorespondensi pada suatu _filter_ ). _Window_ ini kemudian\ndigeser-geser sebanyakTkali, sehingga akhirnya kita mendapatkan\n_vektor_ dengan panjangd×T. Keseluruhan operasi ini disebut sebagaicon-\nvolution.^2\n\n```\nGambar 13.3:Sliding window.\n```\nAgar kamu lebih mudah memahami prinsip ini, kami berikan contoh dalam\nbentuk 1-D pada Gambar. 13.4. Warna biru merepresentasikan _feature vector_\n(regional) untuk suatu _input_ (e.g., regional pada suatu gambar, kata pada\nkalimat, dsb). Pada contoh ini, setiap 2 _input_ ditransformasi menjadi vektor\nberdimensi 2 (2- _channels_ ); menghasilkan vektor berdimensi 4 (2 _window_ ×\n2).\nPada contoh sebelumnya, kita menggunakan _window_ selebar 2, satu _window_ mencakup\n2 data lokal; i.e., _window_ 1 = (x 1 ,x 2 ), _window_ 2 = (x 2 ,x 3 ), ...\n; untuk suatu _input x_. Kita juga dapat mempergunakan _stride_ sebesars,\n\n(^1) Dikenal juga sebagai _receptive field_.\n(^2) Istilah _convolution_ yang diterangkan pada konteks _machine learning_ memiliki arti\nyang berbeda pada bidang _signal processing_.\n\n\n184 13 Arsitektur Neural Network\n\n```\nGambar 13.4:1D Convolution.\n```\nyaitu seberapa banyak data yang digeser untuk _window_ baru. Contoh yang\ndiberikan memiliki _stride_ sebesar satu. Apabila kita memiliki _stride_ =2, maka\nkita menggeser sebanyak 2 data setiap langkah; i.e., _window_ 1 = (x 1 ,x 2 ), _window_\n2 = (x 3 ,x 4 ),···.\nSelain _sliding window_ dan _filter_, _convolutional layer_ juga mengadopsi prinsip _weight_\nsharing. Artinya, _synapse weights_ untuk suatu filter adalah sama\nwalau _filter_ tersebut dipergunakan untuk berbagai _window_. Sebagai ilustrasi,\nperhatikan Gambar. 13.5, warna yang sama pada _synapse weights_ menunjukkansynapse\n_weight_ s bersangkutan memiliki nilai ( _weight_ ) yang sama.\nTidak hanya pada _filter_ hitam, hal serupa juga terjadi pada _filter_ berwarna\noranye (i.e., _filter_ berwarnya oranye juga memenuhi prinsip _weight sharing_ ).\nWalaupun memiliki konfigurasi bobot _synapse weights_ yang sama, unit dapat\nmenghasilkan _output_ yang berbeda untuk _input_ yang berbeda. Konsep\n_weight sharing_ ini sesuai dengan cerita sebelumnya bahwa konfigurasi parameter\nuntuk mengenali karakteristik informatif untuk satu objek bernilai sama\nwalau pada lokasi yang berbeda. Dengan _weight sharing_, parameter _neural_\n_network_ juga menjadi lebih sedikit dibanding menggunakan _multilayer perceptron_ ( _feed-forward_\n_neural network_ ).\n\n```\nGambar 13.5: Konsep _weight sharing_.\n```\n13.1.2 Pooling\n\nPada tahap _convolution_, kita merubah setiap _k-sized window_ menjadi satu\n_vektor_ berdimensid(yang dapat disusun menjadi matriksD). Semua vektor\nyang dihasilkan pada tahap sebelumnya dikombinasikan ( _pooled_ ) menjadi\n\n\n```\n13.1 Convolutional Neural Network 185\n```\nsatu vektorc. Ide utamanya adalah mengekstrak informasi paling informatif\n(semacam meringkas). Ada beberapa teknik _pooling_, diantaranya: _max pooling_,\n_average pooling_, dan _K-max pooling_ ;^3 diilustrasikan pada Gambar. 13.6.Max\n_pooling_ mencari nilai maksimum untuk setiap dimensi vektor. _Average pooling_\nmencari nilai rata-rata tiap dimensi. _K-max pooling_ mencariKnilai terbesar\nuntuk setiap dimensinya (kemudian hasilnya digabungkan). Gabungan operasi\n_convolution_ dan _pooling_ secara konseptual diilustrasikan pada Gambar. 13.7.\n\n```\nGambar 13.6: Contoh _pooling_.\n```\nSetelah melewati berbagai operasi convolution dan _pooling_, kita akan\nmemiliki satu vektor yang kemudian dilewatkan pada _multilayer perceptron_\n( _fully connected_ ) untuk melakukan sesuatu (tergantung permasalahan), misal\nklasifikasi gambar, klasifikasi sen _time_ n, dsb (Ilustrasi pada Gambar. 13.8).\n\n13.1.3 Rangkuman\n\nKemampuan utama _convolutional neural network_ (CNN) adalah arsitektur\nyang mampu mengenali informasi prediktif suatu objek (gambar, teks, potongan\nsuara, dsb) walaupun objek tersebut dapat diposisikan dimana saja\npada _input_. Kontribusi CNN adalah pada _convolution_ dan _pooling_ layer. _Convolution_ bekerja\ndengan prinsip _sliding window_ dan _weight sharing_ (mengurangi\nkompleksitas perhitungan). _Pooling layer_ berguna untuk merangkum\ninformasi informatif yang dihasilkan oleh suatu _convolution_ (mengurangi dimensi).\nPada ujung akhir CNN, kita lewatkan satu vektor hasil beberapa operasi _convolution_ dan _pooling_ padamulti _layer_\n_perceptron_ ( _feed-forward_ neural\n_network_ ), dikenal juga sebagai _fully connected layer_, untuk melakukan suatu\npekerjaan, e.g., klasifikasi. Perhatikan, pada umumnya CNN tidak berdiri\n\n(^3) Kami ingin pembaca mengeksplorasi sendiri _dynamic pooling_.\n\n\n186 13 Arsitektur Neural Network\n\n```\nGambar 13.7: _Convolution_ dan _pooling_.\n```\n```\nGambar 13.8: _Convolution_ al Neural Network.^4\n```\nsendiri, dalam artian CNN biasanya digunakan (dikombinasikan) pada arsitektur\nyang lebih besar.\n\n"} {"text": "### 12.2 Singular Value Decomposition\n\nSebelum masuk ke _autoencoder_ secara matematis, penulis akan memberikan\nsedikit _overview_ tentang dekomposisi matriks. Seperti yang sudah dijelaskan\npada bab-bab sebelumnya, dataset dimana setiap _input_ direpresentasikan oleh\n_feature vector_ dapat disusun menjadi matriksXberukuranN×F, dimanaN\nadalah banyaknya sampel^4 danFadalah dimensi fitur. Pada _machine learning_,\ndekomposisi atau reduksi dimensi sangat penting dilakukan terutama\nketika dataset berupa _sparse matrix_. Dekomposisi berkaitan erat denganprincipal\ncomponent analysis (PCA) yang sudah kamu pelajari. Teknik PCA\n(melalui _eigendecomposition_ ) mendekomposisi sebuah matriksXmenjadi tiga\nbuah matriks, seperti diilustrasikan pada persamaan 12.1. MatriksAadalah\nkumpulan eigenvector danλadalah sebuah diagonal matriks yang berisi nilai\neigenvalue, dimanaUberukuranN×N,VberukuranN×F, danWT\nberukuranF×F.\nX=AλA−^1 (12.1)\n\nPCA membutuhkan matriks yang kamu ingin dekomposisi berbentu simetris.\nSedangkan, teknik _singular value decomposition_ (SVD) tidak. Dengan konsep\nyang mirip dengna PCA, matriksXdapat difaktorisasi menjadi tiga buah matriks\nmenggunakan teknik SVD, dimana operasi ini berkaitan dengan mencari\neigenvectors, diilustrasikan pada persamaan 12.2.\n\n```\nX=U V WT (12.2)\n```\n(^4) Banyaknya training data.\n\n\n166 12 Auto _encoder_\n\nPerlu diperhatikan, matriksVadalah sebuah diagonal matriks (elemennya\nadalah nilai _singular value_ dariX).Udisebut _left-singular vectors_ yang\ntersusun atas eigenvector dariXXT. Sementara,Wdisebutright-singular\nvectorsyang tersusun atas eigenvector dariXTX.\nMisalkan kita mempunyai sebuah matriks lainVˆberukuranK×K, yaitu\nmodifikasi matriksVdengan mengganti sejumlah elemen diagonalnya menjadi\n0 (analogi seperti menghapus beberapa baris dan kolom yang dianggap kurang\npenting). Sebagai contoh, perhatikan ilustrasi berikut!\n\n#### V=\n\n#### \n\n#### \n\n#### \n\n#### \n\n```\nα 1 0 0 0 0\n0 α 2 0 0 0\n0 0 α 3 0 0\n0 0 0 α 40\n```\n#### \n\n#### \n\n#### \n\n#### \n\n#### Vˆ=\n\n#### \n\n#### \n\n```\nα 1 0 0\n0 α 2 0\n0 0α 3\n```\n#### \n\n#### \n\nKita juga dapat me-nol-kan sejumlah baris dan kolom pada matriksUdan\nWmenjadiUˆ(N×K) danWˆT(K×F). Apabila kita mengalikan semuanya,\nkita akan mendapat matriksXˆyang merupakan _approximation_ untuk matriks\nasliX, seperti diilustrasikan pada persamaan 12.3.\n\nXˆ=UˆVˆWˆT (12.3)\nSuatu baris dari matriksE=Uˆ Vˆ dianggap sebagai aproksimasi baris\nmatriksXberdimensi tinggi [1]. Artinya, menghitung _dot-product_ Ei·Ej=\nXˆi·Xˆj. Artinya, operasi pada matriksEkurang lebih melambangkan operasi\npada matriks asli. Konsep ini menjadi fundamental _autoencoder_ yang akan\ndibahas pada subbab berikutnya. Operasi data pada level _coding_ dianggap\nmerepresentasikan operasi pada bentuk aslinya. Matriks aproksimasi ini memanfaatkan\nsejumlahKarah paling berpengaruh pada data. Dengan analogi\ntersebut, sama seperti mentransformasi data ke bentuk lain dimana data hasil\ntransformasi memiliki varians yang tinggi.\n\n"} {"text": "### 12.1 Representation Learning\n\nPada bab model linear, kamu telah mempelajari ide untuk mentransformasi\n_data_ menjadi dimensi lebih tinggi agar data tersebut menjadi _linearly separable_.\nPada bab ini, kamu mempelajari hal sebaliknya, yaitu mengurangi\ndimensi. _Curse of dimensionality_ dapat dipahami secara mendalam apabila\nkamu membaca buku [65]. Untuk melakukan klasifikasi maupun _clustering_,\nkita membutuhkan fitur. Fitur tersebut haruslah dapat membedakan satu _instance_ dan _instance_ lainnya.\nSeringkali, untuk membedakan _instance_ satu dan\n\n\n164 12 Auto _encoder_\n\n_instance_ lainnya, kita membutuhkan _feature vector_ yang berdimensi relatif\n“besar”. Karena dimensi _feature vector_ besar, kita butuh sumber daya komputasi\nyang besar juga (bab 9). Untuk itu, terdapat metode-metodefeature\nselection^1 untuk memilih fitur-fitur yang dianggap “representatif” dibanding\nfitur lainnya. Sayangnya, bila kita menggunakan metode-metodefeature\nselectionini, tidak jarang kita kelihangan informasi yang memuat karakteristik\n_data_. Dengan kata lain, ada karakteristik yang hilang saat menggunakan\n_feature selection_.\nPertanyaan yang kita ingin jawab adalah apakah ada cara untuk merepresentasikan\n_data_ ke dalam bentuk yang membutuhkan memori lebih sedikit\ntanpa adanya kehilangan informasi? Kita dapat memanfaatkan prinsipprincipal\ncomponent analysisyang sudah kamu pelajari pada bab 9 untuk mereduksi\ndimensi data (mengurangi dimensi _input_ ), pada saat yang bersamaan,\nmenjaga karakteristik data. _Representation learning_ adalah metode untuk\nmelakukankompresi _feature vector_ menggunakan _neural network_.^2 Proses\nmelakukan kompresi disebut _encoding_, hasil _feature vector_ dalam bentuk\nterkompres disebut _coding_, proses mengembalikan hasil kompresi ke bentuk\nawal disebut _decoding_.^3 Neural networkyang mampu melakukan proses _encoding_ disebut _encoder_,\nsedangkan _decoder_ untuk proses _decoding_ [66, 67,\n68, 69, 70].\n\n```\nGambar 12.1: Contoh auto _encoder_ sederhana.\n```\nContoh _representation learning_ paling sederhana kemungkinan besar adalah\n_autoencoder_ yaitu _neural network_ yang dapat merepresentasikan data kemudian\nmerekonstruksinya kembali. Ilustrasi _autoencoder_ dapat dilihat pada\n\n(^1) [http://scikit-learn.org/stable/modules/feature_selection.html](http://scikit-learn.org/stable/modules/feature_selection.html)\n(^2) Istilah _representation learning_ pada umumnya mengacu dengan teknik menggunakan _neural_\n_network_.\n(^3) Bisa dianggap sebagai proses menginterpretasikan _coding_.\n\n\n```\n12.2 Singular Value Decomposition 165\n```\nGambar 12.1. Karena tujuan _encoder_ untuk kompresi, bentuk terkompresi\nharuslah memiliki dimensi lebih kecil dari dimensi _input_. _Neural network_\nmampu melakukan “kompresi” dengan baik karena ia mampu menemukan\n_hidden structure_ dari data. _Autoencoder_ dilatih untuk memilimalkan meminimalkan _loss_.\nKamu mungkin berpikir bahwa idealnya, _output_ harus sama\ndengan _input_, yaitu _autoencoder_ dengan tingkat _loss_ 0%. Akan tetapi, kita\nsebenarnya tidak ingin _autoencoder_ memiliki performa 100% (subbab 12.4).\nContoh klasik lainnya adalah _N-gram language modelling_, yaitu memprediksi\nkataytdiberikan suatu konteks ( _surrounding words_ ) misal kata sebelumnyayt−\n1 (bigram), i.e.,P(yt|yt− 1 ) Apabila kita mempunyai _vocabulary_ sebesar\n40,000 berarti suatu bigram model membutuhkan _memory_ sebesar\n40, 0002 (kombinatorial). Apabila kita ingin memprediksi kata diberikan\n_history_ yang lebih panjang (misal dua kata sebelumnya– _trigram_ ) maka kita\nmembutuhkan _memory_ sebesar 40, 0003. Artinya, _memory_ yang dibutuhkan\nberlipat secara eksponensial. Tetapi, terdapat st _rate_ gi menggunakan _neural_\n_network_ dimana parameter yang dibutuhkan tidak berlipat secara eksponensial\nwalau kita ingin me _model_ kan konteks yang lebih besar [71].\n\n"} {"text": "### 12.3 Ide Dasar Auto _encoder_\n\nSeperti yang sudah dijelaskan _autoencoder_ adalah _neural network_ yang mampu\nmerekonstruksi _input_. Ide dasar _autoencoder_ tidak jauh dari konsep dekomposisi/di _mention_ ality\nreductionmenggunakan _singular value decomposition_.\nDiberikan datasetX, kita ingin mensimulasikan pencarian matriksXˆ yang\nmerupakan sebuah aproksimasi dari matriks asli. Arsitektur dasar _autoencoder_\ndiberikan pada Gambar 12.1. Kita memberi input matriksXpada _autoencoder_,\nkemudian ingin _autoencoder_ tersebut menghasilkan matriks yang sama.\nDengan kata lain, _desired output_ sama dengan _input_. Apabila dihubungkan\ndengan pembahasan ANN pada bab sebelumnya, _error function_ untuk melatih\n_autoencoder_ diberikan pada persamaan 12.4, dimanayadalah output dari\njaringan danZadalah dimensi _output_,Nadalah banyaknya sampel danxi\nadalah data ke-i( _feature vector_ ke-i).\n\n\n```\n12.3 Ide Dasar Auto _encoder_ 167\n```\n```\nE(θ) =\n```\n#### 1\n\n#### N\n\n#### ∑Z\n\n```\ni=j\n```\n#### (\n\n```\nxi[j]−yi[j]\n```\n#### ) 2\n\n#### (12.4)\n\nPersamaan 12.4 dapat kita tulis kembali sebagai persamaan 12.5, dimanaf\nmelambangkan fungsi aktivasi danθadalah ANN (kumpulan _weight_ matri-\nces).^5\n\n```\nE(θ) =\n```\n#### 1\n\n#### N\n\n#### ∑Z\n\n```\nj=1\n```\n#### (\n\n```\nxi[j]−f(xi,θ)[j]\n```\n#### ) 2\n\n#### (12.5)\n\nSeperti yang sudah dijelaskan sebelumnya, _desired output_ sama dengan _input_.\nTetapi seperti yang kamu ketahui, mencapai _loss_ sebesar 0% adalah hal yang\nsusah. Dengan demikian, kamu dapat memahami secara intuitif bahwa _autoencoder_ melakukan\naproksimasi terhadap data asli, tetapi tidak sama persis.\nApabila _loss_ sebesar 0%, ditakutkan bahwa _autoencoder_ semata-mata hanya\nmelakukan translasi (penggesaran) data saja. Gambar 12.2 mengilustrasikan\nhubungan antara _autoencoder_ dan _singular value decomposition_.^6 Perhatikan,\nada dua proses _encoding_ yaitu merepresentasikan data ke dimensi lebih rendah\ndan _decoding_ –rekonstruksi kembali.\n\n```\n_Input_ \n( _feature vector_ )\n```\n```\n_Output_ \n(reconstruction of feature vector)\n```\n```\nCoding\n```\n"} {"text": "### 12.4 Resisting Perturbation\n\nPada subbab sebelumnya, telah dijelaskan bahwa mencapai performa 100%\n(100% rekonstruksi) pada _autoencoder_ adalah hal yang tidak diinginkan. Hal\nini disebabkan karena kita ingin menghindari _autoencoder_ semata-mata hanya\nmempelajari _trivial identity function_ [11], memiliki analogi denganone-toone\nmapping. Misalnya, suatu gambar kuda dipetakan ke _coding_ c, kemudian\ngambar kuda lainnya dipetakan ke _coding_ ˆc, danˆctidak mirip denganc, i.e.,\n_cosine similarity_ -nya jauh. Artinya kita ingin _autoencoder_ merepresentasikan\ndua hal yang mirip ke dalam bentuk representasi _coding_ yang mirip juga!\nWalaupun kita ingin performa _autoencoder_ tidak mencapai 100%, tapi kita\nmasih ingin performanya dekat dengan 100%.\nTujuan utama _autoencoder_ adalah mengekstraksi informasi penting tentang\n_data_ yang ada (seperti _principal components_ ), bukan replikasi semata.\nDengan alasan ini, _coding_ pada umumnya memiliki dimensi lebih rendah\ndibanding _input_. Kita sebut arsitektur ini sebagai _undercomplete autoencoder_.\nApabila _coding_ memiliki dimensi lebih besar dari _input_, disebut sebagaiovercomplete\n_autoencoder_ –yang kemungkinan besar hanya mempelajaritrivial\nidentity function[11]. Kita dapat menggunakan teknik regularisasi\npada _autoencoder_ untuk memastikan tujuan kita tercapai, misal\n_sparse autoencoder_, _denoising autoencoder_ dan _penalizing derivaties_ [11]. Untuk\nmengilustrasikan permasalahan, buku ini membahas _denoising autoencoder_ (silahkan\nbaca buku [11] untuk teknik regularisasi lainnya).\nDiberikan suatu _input_ x, kemudian kita lakukan _noise-injection_ terhadap\n_input_ tersebut, menghasilkan ̃x. Perhatikan Gambar 12.3, kita ingin _encoder_\nmemberikan bentuk _coding_ yang mirip bagixdan ̃x. Kita ingin memaksa _autoencoder_ untuk\nmempelajari sebuah fungsi yang tidak berubah terlalu jauh\nketika _inputs_ edikit diubah. Hal ini disebut sebagai sifat _resistance to perturbation_.\nPerforma _autoencoder_ yang bernilai 100% berbahaya karena _autoencoder_ tersebut\nbelum tentu mampu mempelajari sifat data, melainkan\nmampu “mengingat” _training data_ saja ( _mapping table_ ). Objektifdenoising\n_autoencoder_ diberikan pada persamaan 12.9, yaitu kemampuan merekonstruksi\nkembali data tanpa _noise_.\n\n```\nE(θ) =\n```\n#### 1\n\n#### N\n\n#### ∑Z\n\n```\nj=1\n```\n#### (\n\n```\nxi[j]−f( ̃xi,θ)[j]\n```\n#### ) 2\n\n#### (12.9)\n\n\n170 12 Auto _encoder_\n\n```\nGambar 12.3:Resisting Perturbation.\n```\nGambar 12.4: _Autoencoder_ yang memiliki sifat _resistance to perturbation_,\nyaitu invarian terhadap sedikit perubahan.\n\n```\nGambar 12.5:Mani _fold_ s.\n```\nImplikasi atau tujuan dari persamaan 12.9 diberikan pada Gambar 12.4\nyang mengilustrasikan _invariant to slight changes_. Diberikan data dengan dis-\n\n(^8) https://jaan.io/what-is-variational- _autoencoder_ -vae-tutorial/\n\n\n```\n12.5 Representing Context: Word Embedding 171\n```\ntribusi aslip _data_, dan data yang sudah terkena _noise_ ̃x, _autoencoder_ mampu\nmengembalikan ̃xke bentuk aslix. Sebagai ilustrasi yang lebih “global”, perhatikan\nGambar 12.5 dimana suatu elips melambangkan _manifolds_, dimana\n_data_ yang mirip (e.g., kuda dengan berbagai macam pose) berada pada ruang\nyang cukup dekat satu sama lain. Kamu dapat memahamiresistance to\nperturbationmembuat _autoencoder_ membentuk semacam “ruang lokal” yang\nmerepresentasikan suatu data dan variannya.\n\n"} {"text": "### CBOW Skip-gram\n\nGambar 12.8: CBOW ( _Continous bag of words_ ) vs Skip-gram, rekonstruksi\n[49].\n\n```\nSi Kucingduduk ...tiker\n```\n```\nProjection\n(Embedding)\n```\n```\nberalaskan\n```\n```\nGambar 12.9: CBOW.\n```\n\n```\n12.5 Representing Context: Word Embedding 177\n```\nlevel abstrak, yaitu merepresentasikan kata dan konteksnya menjadi bentuk\n_vektor_. Apabila kamu tertarik untuk memahami detilnya secara matematis,\nkamu dapat membaca berbagai penelitian terkait.^14 Silahkan baca _paper_ oleh\nMikolov [48, 49] untuk detil implementasi _word embedding_.\n\n12.5.4 Distributed Sentence Representation\n\nKita sudah dapat merepresentasikan kata menjadi vektor, selanjutnya kita\ningin mengonversi unit lebih besar (kalimat) menjadi vektor. Salah satu cara\npaling mudah adalah menggunakan nilai rata-rata representasi _word embedding_ untuk\nsemua kata yang ada pada kalimat tersebut ( _average_ of its individual\n_word embedding_ s). Cara ini sering digunakan pada bidang NLP dan cukup\n_powerful_, sebagai contoh pada _paper_ oleh Putra dan Tokunaga [75]. Pada NLP,\nsering kali kalimat diubah terlebih dahulu menjadi vektor sebelum dilewatkan\npada algoritma _machine learning_, misalnya untuk analisis sen _time_ n (kalimat\nbersen _time_ n positif atau negatif). Vektor ini yang nantinya menjadifeature\nvectorbagi algoritma _machine learning_.\nKamu sudah tahu bagaimana cara mengonversi kata menjadi vektor, untuk\nmengonversi kalimat menjadi vektor cara sederhananya adalah merataratakan\nnilai vektor kata-kata pada kalimat tersebut. Tetapi dengan cara\nsederhana ini, sifat sekuensial dan _compositional_ pada kalimat tidak terpenuhi.\nSebagai contoh, kalimat “anjing menggigit Budi” dan “Budi menggigit\nanjing” akan direpresentasikan sebagai vektor yang sama karena terdiri\ndari kata-kata yang sama. Dengan demikian, representasi kalimat sederhana\ndengan merata-ratakan vektor kata-katanya juga tidaklah sensitif terhadap\nurutan.^15 Selain itu, rata-rata tidak sensitif terhadap _compositionality_. Misal\nfrase “bukan sebuah pengalaman baik” tersusun atas frase “bukan” yang diikuti\noleh “sebuah pengalaman baik”. Rata-rata tidak mengetahui bahwa\n“bukan” adalah sebuah _modifier_ untuk sebuah frase dibelakangnya. Sen _time_ n\ndapat berubah bergantung pada komposisi kata-katanya (contoh pada\nGambar 12.10).\nCara lainnya adalah meng- _encode_ kalimat sebagai _vektor_ menggunakan\n_recursive autoencoder_. _Recursive_ berarti suatu bagian adalah komposisi dari\nbagian lainnya. Penggunaan _recursive autoencoder_ sangat rasional berhubung\n_data_ memenuhi sifat _compositionality_ yang direpresentasikan dengan baik oleh\ntopologi _recursive neural network_. Selain itu, urutan susunan kata-kata juga\ntidak hilang. Untuk melatih _recursive autoencoder_, _output_ dari suatu layer\nadalah rekonstruksi _input_, ilustrasi dapat dilihat pada Gambar 12.11. Pada\nsetiap langkah _recursive_, _hidden layer/coding layer_ berusaha men- _decode_ atau\nmerekonstruksi kembali vektor _input_.\nLebih jauh, untuk sen _time_ n analisis pada kata, kita dapat menambahkan\n_output_ pada setiap _hidden layer_, yaitu sen _time_ n unit gabungan, seperti pada\n\n(^14) Beberapa orang berpendapat bahwa _evil is in the detail_.\n(^15) Karena ini _recurrent neural network_ bagus untuk _language modelling_.\n(^16) [http://nlp.stanford.edu:8080/sen _time_ nt/rntnDemo.html](http://nlp.stanford.edu:8080/sen _time_ nt/rntnDemo.html)\n\n\n178 12 Auto _encoder_\n\n```\nGambar 12.10: Contoh analisis sen _time_ n (Stanford).^16\n```\n```\nGambar 12.11: Contoh recursive auto _encoder_.\n```\nGambar 12.12. Selain menggunakan _recursive autoencoder_, kamu juga dapat\nmenggunakan _recurrent autoencoder_. Kami silahkan pada pembaca untuk\nmemahami _recurrent autoencoder_. Prinsipnya mirip dengan _recursive_ autoen-\ncoder.\nTeknik yang disampaikan mampu mengonversi kalimat menjadi vektor,\nlalu bagaimana dengan paragraf, satu dokumen, atau satu frasa saja? Teknik\numum untuk mengonversi teks menjadi vektor dapat dibaca pada [69] yang\nlebih dikenal dengan nama _paragraph vector_ atau _doc2vec_.\n\n\n```\n12.6 Tips 179\n```\n```\nGambar 12.12: Contoh recursive auto _encoder_ dengan sen _time_ nt[67].\n```\n"} {"text": "### 12.6 Tips\n\nBab ini menyampaikan penggunaan _neural network_ untuk melakukankompresi\n_data_ ( _representation learning_ ) dengan teknik _unsupervised learning_. Hal\nyang lebih penting untuk dipahami bahwa ilmu _machine learning_ tidak berdiri\nsendiri. Walaupun kamu menguasai teknik machine learning tetapi tidak\nmengerti domain dimana teknik tersebut diaplikasikan, kamu tidak akan bisa\nmembuat _learning machine_ yang memuaskan. Contohnya, pemilihan fiturmachine\n_learning_ pada teks (NLP) berbeda dengan gambar ( _computer vision_ ).\nMengerti _machine learning_ tidak semata-mata membuat kita bisa menyelesaikan\nsemua macam permasalahan. Tanpa pengetahuan tentang domain aplikasi,\nkita bagaikan orang buta yang ingin menyetir sendiri!\n\n"} {"text": "### Soal Latihan\n\n12.1. Penggunaan Auto _encoder_ untuk Arsitektur Kompleks\n\n(a) Pada bab ini, telah dijelaskan bahwa kita dapat menginisialisasi arsitektur\n_neural network_ yang kompleks menggunakan _autoencoder_. Jelaskan pada\nkasus apa kita dapat melakukan hal tersebut!\n(b) Jelaskan mengapa menginisiasi (sebagian) arsitektur kompleks menggunakan _autoencoder_ adalah\nsesuatu yang masuk akal!\n\n12.2. LSI dan LDA\n\n```\n(a) Jelaskanlah Latent Semantic Indexing (LSI) dan Latent Dirichlet Allocation\n(LDA)!\n```\n\n180 12 Auto _encoder_\n\n(b) Apa persamaan dan perbedaan antara LSI, LDA, dan _autoencoder_ ?\n\n12.3. Variational Auto _encoder_\nJelaskan apa itu _variational autoencoder_ ! Deskripsikan perbedaannya dengan\n_autoencoder_ yang sudah dijelaskan pada bab ini?\n\n\n"} {"text": "### 12.5 Representing Context: Word Embedding\n\nSubbab ini menceritakan salah satu aplikasi _autoencoder_. Pada domain NLP,\nkita ingin komputer mampu mengerti bahasa selayaknya manusia mengerti\nbahasa. Misalkan komputer mampu mengetahui bahwa “meja” dan “kursi”\nmemiliki hubungan yang erat. Hubungan seperti ini tidak dapat terlihat\nberdasarkan teks tertulis, tetapi kita dapat menyusun kamus hubungan kata\nseperti WordNet.^9 WordNet memuat ontologi kata seperti hipernim, antonim,\nsinonim. Akan tetapi, hal seperti ini tentu sangat melelahkan, seumpama ada\nkata baru, kita harus memikirkan bagaimana hubungan kata tersebut terhadap\nseluruh kamus yang sudah dibuat. Pembuatan kamus ini memerlukan\nkemampuan para ahli linguistik.\nOleh sebab itu, kita harus mencari cara lain untuk menemukan hubungan\nkata ini. Ide utama untuk menemukan hubungan antarkata adalah _statistical_\nsemantics hypothesisyang menyebutkan pola penggunaan kata dapat\ndigunakan untuk menemukan arti kata [74]. Contoh sederhana, kata yang\nmuncul pada “konteks” yang sama cenderung memiliki makna yang sama.\nPerhatikan “konteks” dalam artian NLP adalah kata-kata sekitar (surrounding\n_word_ s);^10 contohnya kalimat “ _budi menendang bola_ ”, “konteks” dari “bola”\nadalah “budi menendang”. Kata “cabai” dan “permen” pada kedua kalimat\n“budi suka cabai” dan “budi suka permen” memiliki kaitan makna, dalam\nartian keduanya muncul pada konteks yang sama. Sebagai manusia, kita tahu\nada keterkaitan antara “cabai” dan “permen” karena keduanya bisa dimakan.\nBerdasarkan hipotesis tersebut, kita dapat mentransformasi kata menjadi\nsebuah bentuk matematis dimana kata direpresentasikan oleh pola penggunaannya\n[64]. Arti kata _embedding_ adalah transformasi kata (beserta konteksnya)\nmenjadi bentuk matematis ( _vektor_ ), i.e., mirip/sama dengan _coding_.\n“Kedekatan hubungan makna” ( _semantic relationship_ ) antarkata kita\nharapkan dapat tercermin pada operasi vektor. Salah satu metode sederhana\nuntuk merepresentasikan kata sebagai vektor adalahVector Space\nModel. Konsep _embedding_ dan _autoencoder_ sangatlah dekat, tapi kami ingin\nmenakankan bahwa _embedding_ adalah bentuk representasi konteks.\n\n(^9) https:// _word_ net.princeton.edu/\n(^10) Selain _surrounding words_, konteks dalam artian NLP dapat juga berupa kalimat,\nparagraph, atau dokumen.\n\n\n172 12 Auto _encoder_\n\n```\nDokumen 1 Dokumen 2 Dokumen 3 Dokumen 4···\nKing 1 0 0 0 ···\nQueen 0 1 0 1 ···\nPrince 1 0 1 0 ···\nPrincess 0 1 0 1 ···\n···\n```\n```\nTabel 12.1: Contoh 1-of-V en _coding_.\n```\n_Semantic relationship_ dapat diartikan sebagai attributional atau\n_relational similarity_. _Attributional similarity_ berarti dua kata memiliki\natribut/sifat yang sama, misalnya anjing dan serigala sama-sama berkaki empat,\nmenggongong, serta mirip secara fisiologis. _Relational similarity_ berarti\nderajat korespondensi, misalnyaanjing:menggongongmemiliki hubungan\nyang erat dengankucing:mengeong.\n\n12.5.1 Vector Space Model\n\n_Vector space model_ (VSM)^11 adalah bentuk _embedding_ yang relatif sudah\ncukup lama tapi masih digunakan sampai saat ini. Pada pe _model_ an ini, kita\nmembuat sebuah matriks dimana baris melambangkan kata, kolom melambangkan\ndokumen. Metode VSM ini selain mampu menangkap hubungan antarkata\njuga mampu menangkap hubungan antardokumen ( _to some degree_ ).\nAsal muasalnya adalah _statistical semantics hypothesis_. Tiap sel pada matriks\nberisi nilai 1 atau 0. 1 apabilakataimuncul didokumenidan 0 apabila tidak.\nModel ini disebut _1-of-V/1-hot encoding_ dimanaV adalah ukuran kosa\nkata. Ilustrasi dapat dilihat pada Tabel 12.1.\nAkan tetapi, _1-of-V encoding_ tidak menyediakan banyak informasi untuk\nkita. Dibanding sangat ekstrim saat mengisi sel dengan nilai 1 atau 0 saja, kita\ndapat mengisi sel dengan frekuensi kemunculan kata pada dokumen, disebut\n_term frequency_ (TF). Apabila suatu kata muncul pada banyak dokumen,\nkata tersebut relatif tidak terlalu ”penting” karena muncul dalam berbagai\nkonteks dan tidak mampu membedakan hubungan dokumen satu dan dokumen\nlainnya ( _inverse document frequency_ /IDF). Formula IDF diberikan\npada persamaan 12.10. Tingkat kepentingan kata berbanding terbalik dengan\njumlah dokumen dimana kata tersebut dimuat.Nadalah banyaknya dokumen,|d\u000fD;t\u000fd|adalah\nbanyaknya dokumen dimana katatmuncul.\n\n```\nIDF(t,D) = log\n```\n#### (\n\n#### N\n\n```\n|d\u000fD;t\u000fd|\n```\n#### )\n\n#### (12.10)\n\nDengan menggunakan perhitungan TF-IDF yaituTF×IDFuntuk mengisi\nsel pada matriks Tabel 12.1, kita memiliki lebih banyak informasi. TF-IDF\n\n(^11) Mohon bedakan dengan VSM ( _vector space model_ ) dan SVM ( _support vector_\nmachine)\n\n\n```\n12.5 Representing Context: Word Embedding 173\n```\nsampai sekarang menjadi _baseline_ pada _information retrieval_. Misalkan\nkita ingin menghitung kedekatan hubungan antar dua dokumen, kita hitung\n_cosine distance_ antara kedua dokumen tersebut ( _vektor_ suatu dokumen\ndisusun oleh kolom pada matriks). Apabila kita ingin menghitung kedekatan\nhubungan antar dua kata, kita hitung _cosine distance_ antara kedua kata tersebut\ndimana vektor suatu kata merupakan baris pada matriks. Tetapi seperti\nintuisi yang mungkin kamu miliki, mengisi _entry_ dengan nilai TF-IDF pun\nakan menghasilkan _sparse matrix_.\n\n```\n_Statistical semantics hypothesis_ diturunkan lagi menjadi empat macam\nhipotesis [74]:\n1. _Bag of words_\n2. _Distributional hypothesis_\n3. _Extended distributional hypothesis_\n4. _Latent relation hypothesis_\nSilakan pembaca mencari sumber tersendiri untuk mengerti keempat hipotesis\ntersebut atau membaca _paper_ Turney dan Pantel [74].\n```\n12.5.2 Sequential, Time Series dan Compositionality\n\nBahasa manusia memiliki dua macam karakteristik yaitu adalah data berbentuk _sequential_\n_data_ dan memenuhi sifat _compositionality_. _Sequential data_\nadalah sifat data dimana suatu kemunculan _data_ idipengaruhi oleh data sebelumnya\n( _data_ i− 1 , _data_ i− 2 ,...). Perhatikan kedua kalimat berikut:\n\n1. Budi melempar bola.\n2. Budi melempar gedung bertingkat.\n\nPada kedua kalimat tersebut, kalimat pertama lebih masuk akal karena\nbagaimana mungkin seseorang bisa melempar gedung bertingkat. Keputusan\nkita dalam memilih kata berikutnya dipengaruhi oleh kata-kata sebelumnya,\ndalam hal ini “Budi melempar” setelah itu yang lebih masuk akal adalah\n“bola”. Contoh lain adalah data yang memiliki sifat _time series_ yaitu gelombang\nlaut, angin, dan cuaca. Kita ingin memprediksi data dengan rekaman\nmasa lalu, tapi kita tidak mengetahui masa depan. Kita mampu memprediksi\ncuaca berdasarkan rekaman parameter cuaca pada hari-hari sebelumnya.\nAda yang berpendapat beda _time series_ dan _sequential_ (sekuensial) adalah\ndiketahuinya sekuens kedepan secara penuh atau tidak. Penulis tidak dapat\nmenyebutkan _time series_ dan sekuensial sama atau beda, silahkan pembaca\nmenginterpretasikan secara bijaksana.\nData yang memenuhi sifat _compositionality_ berarti memiliki struktur\nhirarkis. Struktur hirarkis ini menggambarkan bagaimana unit-unit lebih kecil\nberinteraksi sebagai satu kesatuan. Artinya, interpretasi/pemaknaan unit\nyang lebih besar dipengaruhi oleh interpretasi/pemaknaan unit lebih kecil\n\n\n174 12 Auto _encoder_\n\n(subunit). Sebagai contoh, kalimat “saya tidak suka makan cabai hijau”. Unit\n”cabai” dan ”hijau” membentuk suatu frasa ”cabai hijau”. Mereka tidak bisa\ndihilangkan sebagai satu kesatuan makna. Kemudian interaksi ini naik lagi\nmenjadi kegiatan “makan cabai hijau” dengan keterangan “tidak suka”, bahwa\nada seseorang yang “tidak suka makan cabai hijau” yaitu “saya”. Pemecahan\nkalimat menjadi struktur hirarkis berdasarkan _syntactical role_ disebutconstituent\nparsing, contoh lebih jelas pada Gambar 12.6.Nadalah _noun_,D\nadalah _determiner_,NPadalah _noun phrase_,VPadalah _verb phrase_, danS\nadalah _sentence_. Selain bahasa manusia, gambar juga memiliki struktur hirarkis.\nSebagai contoh, gambar rumah tersusun atas tembok, atap, jendela,\ndan pintu. Tembok, pintu, dan jendela membentuk bagian bawah rumah; lalu\ndigabung dengan atap sehingga membentuk satu kesatuan rumah.\n\n```\nGambar 12.6: Contoh constituent tree.^12\n```\n12.5.3 Distributed Word Representation\n\nSeperti yang disebutkan pada bagian sebelumnya, kita ingin hubungan kata\n(yang di _infer_ ensi dari konteksnya) dapat direpresentasikan sebagai operasi\n_vektor_ seperti pada ilustrasi Gambar 12.7. Kata “raja” memiliki sifat-sifat\nyang dilambangkan oleh suatu vektor (misal 90% aspek loyalitas, 80% kebijaksanaan,\n90% aspek kebangsaan, dst), begitu pula dengan kata “pria”,\n“wanita”, dan “ratu”. Jika sifat-sifat yang dimiliki “raja” dihilangkan bagian\nsifat-sifat “pria”-nya, kemudian ditambahkan sifat-sifat “wanita” maka idealnya\noperasi ini menghasilkan vektor yang dekat kaitannya dengan “ratu”. Dengan\nkata lain, raja yang tidak maskulin tetapi fenimin disebut ratu. Seperti\nyang disebutkan sebelumnya, ini adalah tujuan utama _embedding_ yaitu merepresentasikan\n“makna” kata sebagai vektor sehingga kita dapat memanipulasi\nbanyak hal berdasarkan operasi vektor. Hal ini mirip (tetapi tidak sama)\n\n(^12) source: Pinterest\n\n\n```\n12.5 Representing Context: Word Embedding 175\n```\ndengan prinsip _singular value decomposition_ dan _autoencoder_ yang telah dijelaskan\nsebelumnya.\n\n```\nGambar 12.7: Contoh operasi vektor kata.\n```\nSelain _vector space model_, apakah ada cara lain yang mampu merepresentasikan\nkata dengan lebih baik? Salah satu kekurangan VSM adalah\ntidak memadukan sifat sekuensial pada konstruksi vektornya. Cara lebih baik\nd _item_ ukan oleh [48, 49] dengan ekstensi pada [70]. Idenya adalah menggunakan\nteknik _representation learning_ dan prinsip _statistical semantics hypothesis_.\nMetode ini lebih dikenal dengan sebutan _word_ 2 vec. Tujuan _word_ 2 vec\nmasih sama, yaitu merepresentasikan kata sebagai vektor, sehingga kita dapat\nmelakukan operasi matematis terhadap kata. _Encoder_ -nya berbentukContinous\nbag of words(CBOW)atauSkip-gram. Pada CBOW, kita memprediksi\nkata diberikan suatu “konteks”. Pada arsitektur ”Skip-gram” kita\nmemprediksi konteks, diberikan suatu kata. Ilustrasi dapat dilihat pada Gambar\n12.8. Bagian _projection layer_ pada Gambar 12.8 adalah _coding_ layer. Kami\nakan memberikan contoh CBOW secara lebih detil. Kedua arsitektur ini dapat\ndilatih menggunakan _one-hot encoding_, i.e.,wimerepresentasikanone-hot\n_encoding_ untuk kata ke-i.\nPerhatikan Gambar 12.9. Diberikan sebuah konteks “si kucing duduk ...\ntiker”. Kita harus menebak apa kata pada “...” tersebut. Dengan menggunakan\nteknik _autoencoder_, _output layer_ adalah distribusi probabili _task_ atai\npada konteks tersebut. Kata yang menjadi jawaban adalah kata dengan probabilitas\nterbesar, misalkan pada kasus ini adalah “beralaskan”. Dengan arsitektur\nini, prinsip sekuensial atau _time series_ dan _statistical semantics hypothesis_\nterpenuhi ( _to a certain extent_ ). Teknik ini adalah salah satu contoh penggunaan _neural_\n_network_ untuk _unsupervised learning_. Kita tidak perlu mengkorespondensikan\nkata dan _output_ yang sesuai karena _input vektor_ didapat dari\nstatistik penggunaan kata. Agar lebih tahu kegunaan vektor kata, kamu dapat\nmencoba kode dengan bahasa pemrograman Python 2.7 yang disediakan\npenulis.^13 Buku ini telah menjelaskan ide konseptual _word embedding_ pada\n\n(^13) https://github.com/wiragotama/GloVe_Playground\n\n\n176 12 Auto _encoder_\n\n```\n𝑤!\"#\n```\n```\n𝑤!$%\n```\n```\n𝑤!\"%\n```\n```\n𝑤!$#\n```\n```\n𝑤!\n```\n```\nWeighted\nSum\n```\n```\nINPUT OUTPUT\n```\n```\n𝑤!\n```\n```\n𝑤!\"#\n```\n```\n𝑤!$%\n```\n```\n𝑤!\"%\n```\n```\n𝑤!$#\n```\n```\nProjection\n(Representation)\n```\n```\nINPUT OUTPUT\n```\n"} {"text": "### 9.3 Feature Selection\n\nPada pembelajaran mesin, pada umumnya kita menggunakan banyak (lebih\ndari satu) fitur. Artinya kita merepresentasikan setiap _record_ ( _instance_ ) atau\n_inputs_ ebagai suatu vektorx∈R^1 ×F; dimanaFmelambangkan dimensi vektor\natau banyaknya fitur. Seringkali,F bernilai besar sehingga model yang\nkita miliki kompleks. Kita tentunya ingin mengurangi kompleksitas dengan\n\n(^1) Curse of Dimensionality\n\n\n```\n9.3 Feature Selection 119\n```\nalasan-alasan yang sudah disebutkan pada subbab 9.2. Alasan lainnya karena\nbelum tentu semua fitur berguna. Cara termudah adalah dengan menghapus\nfitur yang memiliki nilai varians = 0. Sayang sekali, hal ini tidak selalu terjadi.\nSubbab ini membahas teknik-teknik yang dapat digunakan untuk menyederhanakan\nfitur (mengurangi dimensi input).\n\n9.3.1 Subset Selection (Feature Ablation)\n\nCara paling intuitif untuk mencari tahu kombinasi fitur terbaik adalah dengan\nmencoba seluruh kombinasi fitur. Misal kita mempunyai fitur sebanyakF, kita\nbisa pilih untuk menggunakan atau tidak menggunakan masing-masing fitur,\nmenghasilkan kombinasi sebanyak 2F. Dari keseluruhan kombinasi tersebut,\nkita pilih suatu kombinasi fitur yang memerikan kinerja terbaik. Akan tetapi,\nmetode _brute force_ ini terlalu memakan waktu. Kita dapat juga menggunakan\nteknik _greedy_ yaitu _forward selection_ dan _backward selection_.Forwarddan\n_backward selection_ sering juga disebut sebagai _feature ablation_.\nPada _forward selection_, kita mulai dengan suatu model yang tidak menggunakan\nfitur apapun sama sekali, yaitu meng- _assign_ kelas yang paling sering\nmuncul di dataset, pada _input_. Setelah itu, kita tambahkan satu per satu fitur\npada setiap langkah. Langkah berikutnya, kita gunakan satu fitur. DiantaraF\npilihan fitur, kita cari fitur yang memberi nilai terbaik. Kemudian, pada tahap\nberikutnya, kita kombinasikan fitur yang kita pilih pada langkah sebelumnya\ndengan fitur yang tersisa. Hal ini terus diulang sampai kita sudah menggunakan\nseluruh fitur pada model kita. Untuk mencari model terbaik, kita hanya\nperlu mencari kombinasi fitur yang memberikan nilai kinerja terbaik.Forward\nselectiondiilustrasikan pada Gambar 9.1. Dibanding _brute force_ yang bersifat\neksponensial, _forward selection_ membentuk suatu deret aritmatika kombinasi\nfitur yang dicoba, yaituF+ (F−1) +···+ 1 =F(F+ 1)/2. Apabila kita\nmemiliki fitur sebanyakF = 10, kombinasi _brute force_ menghasilkan 1, 024\nkombinasi, sementara _forward selection_ hanya sebanyak 45.\n\n```\nGambar 9.1: Ilustrasi _forward selection_ untuk tiga fitur.\n```\n_Backward selection_ adalah kebalikan dari _forward selection_. Apabila pada\n_forward selection_, kita menambahkan satu fitur tiap langkah, _backward_ selec-\n\n\n120 9 Seleksi Fitur dan Metode Evaluasi\n\ntionmengurangi satu fitur pada tiap langkah. Ilustrasi diberikan pada Gambar\n9.2. Seperti _forward selection_, _backward selection_ juga hanya mencoba sebanyakF(F+\n1)/2 kombinasi. Kita juga dapat menggabungkan _forward_ dan\n_backward selection_ menjadi metode _hybrid_, yaitu menambah satu fitur pada\ntiap langkah, serta memperbolehkan untuk menghilangkan fitur juga [20].\n\n```\nGambar 9.2: Ilustrasi _backward selection_ untuk tiga fitur.\n```\n9.3.2 Shrinkage\n\nIngat kembali materi bab 5 tentang _regularization_. Seperti yang sudah dijelaskan,\nkita ingin agar model kita sesederhana mungkin. Mengurangi dimensi\nfitur adalah cara mengurangi kompleksitas. Ingat kembali, dengan menggunakan\nsuatu fungsi regularisasi, objektif pembelajaran adalah meminimalkan\n_loss_ dan kompleksitas, seperti pada persamaan 9.1. Kompleksitas model dapat\ndihitung menggunakanL 2 (Ridge, persamaan 9.2) atauL 1 (Lasso, persamaan\n9.3) norm. Karena kita ingin meminimalkan norm, artinya kita juga\nmembuat parameter model pembelajaran mesin bernilai dekat dengan nol.\nPada metode Ridge, kita ingin meminimalkan fungsi eksponensial, sementara\nfungsi skalar pada Lasso. Artinya, Lasso lebih cenderung untuk menghasilkan\nsuatu model yang bersifat _sparse_. Dengan kata lain, Lasso melakukansubset\n_feature selection_ seperti yang sudah dijelaskan pada subbab sebelumnya.\nSementara itu, Ridge cenderung tidak meng-nol-kan parameter, melainkan\nhanyadekatdengan nol [20]. Kamu mungkin berpikir, kenapa kita tidak\nmenggunakan Lasso saja, berhubung ia mengeleminasi fitur. Pada metode\nRidge, semua fitur tetap digunakan walaupun nilainya diturunkan ( _shrink_ )\nagar dekat dengan nol. Hal ini, walaupun tidak mengeleminasi fitur, dapat\nmengurangi variasi kinerja model.^2 (dijelaskan pada subbab 9.5)\n\n```\nwˆ= arg min\nw\n```\n```\nL(w) +λR(w) (9.1)\n```\n```\nR(w) =‖w‖^22 =\n```\n#### ∑\n\n```\ni\n```\n```\n(wi)^2 (9.2)\n```\n(^2) baca buku [20] untuk pembuktiannya\n\n\n```\n9.3 Feature Selection 121\n```\n```\nR(w) =‖w‖=\n```\n#### ∑\n\n```\ni\n```\n```\n|wi| (9.3)\n```\nSecara singkat, Ridge digunakan untuk menghasilkan model yang varian\nkinerjanya kecil. Sementara itu, Lasso digunakan untuk menghasilkan model\nyang mudah dimengerti ( _interpretability_ ) dengan mengeliminasi fitur.\n\n9.3.3 Principal Components Analysis (Dimensionality Reduction)\n\nTeknik-teknik sebelumnya berfokus pada cara mengeleminasi fitur. Akan\ntetapi, penghapusan suatu fitur berpotensi pada model yang tidak mampu\nmengerti kompleksitas permasalahan. Dengan kata lain, _oversimplification_.\nDibanding menghapus fitur, cara lain untuk mengurangi kompleksitas komputasi\nadalah mentransformasi data ke dalam dimensi lebih kecil. Untuk _input_\nyang memilikiFfitur, kita kurangi dimensi _input_ menjadiM < F(dimensionality\nreduction). Apabila kita mampu mengurangi dimensi _input_, maka kita\njuga dapat mengurangi jumlah parameter pada model pembelajaran mesin,\nyang artinya mengurangi kompleksitas komputasi dan meningkatkaninter-\npretability.\nIde utama _dimensionality reduction_ adalah mentransformasi data dari suatu _space_ ke _space_\nlainnya, dimana data direpresentasikan dengan dimensi\nlebih kecil. Dengan catatan, data dengan dimensi lebih kecil harus mampu\nmerepresentasikan karakteristik data pada dimensi aslinya! Dengan demikian,\nsatu fitur pada dimensi yang baru mungkin memuat informasi beberapa fitur\npada dimensi aslinya. Walaupun model yang kita hasilkan lebih sederhana\nsecara jumlah parameter, tetapi kita membutuhkan usaha ekstra untuk\nmengerti representasi fitur-fitur pada dimensi yang baru.\nTeknik yang digunakan untuk mengurangi dimensi adalahprincipal component\nanalysis. Ide dasarnya adalah mencari bentuk data (pada dimensi\nlebih kecil) yang memiliki nilai varians tinggi untuk tiap fiturnya, karena\nvarians yang tinggi berarti kemampuan fitur yang tinggi dalam melakukan\ndiskriminasi (klasifikasi). Kita ingin mencari suatu arah ( _vektor_, matriks, tensor)\ndimana data kita memiliki varians tertinggi. Pada dimensi yang baru,\nkita berharap data kita tersebar menjadi beberapa kelompok yang mudah\ndibedakan ( _easily separable_ ). Arah ini dikenal sebagaieigenvector, dan nilai\nvarians pada arah tersebut dikenal sebagaieigenvalue. Kami harap kamu\ningat materi kuliah aljabar linear. Eigenvector yang memiliki nilai eigenvalue\ntertinggi disebut sebagai _principal components_, yaitu semacam bentuk\n_data_ yang ringkas. Selain mengurangi dimensi, teknik ini juga mengurangi\n(atau meniadakan) interaksi antar-fitur. Dengan demikian, kita dapat menggunakanadditive\nassumptionsaat melakukan pembelajaran (ingat kembali\nmateri bab 5).\nSaat melakukan analisis ini, kita membuat suatu asumsi bahwa sejumlah\n_principal components_ cukup untuk merepresentasikan variasi yang ada pada\n_data_ [20]. Dengan kata lain, kita mengasumsikan arah (eigenvector) ketika\n\n\n122 9 Seleksi Fitur dan Metode Evaluasi\n\n_data_ memiliki varians tertinggi, adalah arah yang berasosiasi dengan _output_.\n_Singular Value Decomposition_ adalah salah satu teknik untuk melakukanprincipal\ncomponent analysis. Hal tersebut akan dibahas pada bab 12. Buku ini\njuga akan memberi contoh konkret _dimensionality reduction_ denganartificial\n_neural network_ pada bab 12.\n\n"} {"text": "### 9.6 Replicability, Overclaiming dan Domain Dependence\n\nPada dunia pembelajaran mesin, _replicability_ adalah hal yang sangat penting.\nArtinya, eksperimen yang kamu lakukan dapat diulangi kembali oleh orang\nlain, serta mendapat kinerja yang kurang lebih sama. Untuk ini, biasanya\n_dataset_ dipublikasi pada domain publik agar dapat digunakan oleh banyak\norang, atau mempublikasi kode program. Selain _replicability_, kamu juga harus\nmemperhatikan _overclaiming_. Banyak orang yang menggunakan _toy dataset_\n(berukuran sangat kecil) yang tidak merepresentasikan permasalahan aslinya.\nAkan tetapi, mereka mengklaim bahwa model mereka memiliki generalisasi\nyang baik. Kamu harus menginterpretasikan kinerja model secara bijaksana.\nKinerja yang baik pada _toy dataset_ belum tentu berarti kinerja yang baik\npada dunia nyata. Sebagai contoh, artikel yang dibahas pada _post_ ^4 ini adalah\ncontoh _overclaiming_.\nPerlu kamu perhatikan juga, mendapatkan kinerja yang bagus pada suatu\n_dataset_ belum tentu berarti model yang sama dapat mencapai kinerja yang\nbaik pada dataset lainnya. Misalnya, model yang dilatih untuk mengklasifikasikan\nkategori berita belum tentu dapat mengklasifikasikan laporan medis.\nHal ini banyak terjadi pada _supervised learning_ [40]. Selain itu, kamu harus\nmemperhatikan karakteristik _performance metric_ yang digunakan agar tidak\nsalah menginterpretasikan kualitas model.\n\n"} {"text": "### 9.1 Feature Engineering\n\nRecord ( _data_ ) pada pembelajaran mesin pada umumnya dikonversi menjadi\nsuatu vektor ( _feature vector_ ) yang merepresentasikannya dalam bentuk\nmatematis. Fitur-fitur biasanya tersusun atas atribut yang kita anggap\nmemiliki pengaruh terhadap _output_. Sebagai contoh, tekanan darah diprediksi\nberdasarkan usia, jenis kelamin dan BMI. Seringkali, seseorang membutuhkan\nkeahlian suatu bidang agar dapat memilih fitur yang tepat. Proses untuk\nmencari (atau me-list) kandidat fitur, disebut sebagai aktivitasfeature en-\ngineering.\nSeperti kata mutiara yang kami berikan pada awal bab ini, kunci pembelajaran\nmesin adalah representasi permasalahan. Fitur yang dipilih untuk\nmerepresentasikan data adalah bagaimana cara kamu merepresentasikan\nmasalah juga. Karena membutuhkan tingkat keahlian tertentu, proses memilih\nfitur tidaklah mudah. Bisa jadi (sering), orang memilih fitur yang tidak representatif!\nDengan demikian, tidak heran apabila seseorang mempublikasikan\nmakalah ilmiah atas kontribusinya menentukan fitur baru pada domain ter-\ntentu.\n\n\n118 9 Seleksi Fitur dan Metode Evaluasi\n\nKonon tetapi, proses pemilihan fitur yang bersifat manual ini cukup bahaya\nkarena rentan dengan _bias_, yaitu kemampuan seseorang pada domain\ntertentu. Alangkah baiknya, apabila kita dapat memilih fitur yang memang\nbenar-benar diperlukan (murni) secara otomatis. Hal tersebut akan dibahas\nlebih lanjut pada materi _artificial neural network_. Hal ini salah satu alasan\nyang membuatnya populer.\n\n"} {"text": "### Soal Latihan\n\n9.1. Seleksi Fitur\nJelaskanlah algoritma seleksi fitur selain yang sudah dijelaskan pada bab ini!\n(Saran: baca _survey paper_ )\n\n(^4) Pranala Post Yoav Goldberg\n\n\n```\n9.6 Replicability, Overclaiming dan Domain Dependence 133\n```\n9.2. AIC dan BIC\nJelaskan _Akaike Information Criterion_ (AIC) danBayesian Information Cri-\nterion(BIC)!\n\n9.3. AUC\nJelaskan _Area Under Curve_ (AUC)!\n\n9.4. Dependency Parsing\nSalah satu permasalahan penting pada bidang pemrosesan bahasa alami\nadalah _dependency parsing_, dimana kita ingin memprediksi hubungan antar\nkata pada suatu kalimat. Permasalahan ini sangatlah baik untuk mengilustrasikan\n_model_ yang memprediksi _output_ berupa graph. Bacalah paper oleh\nKipperwasser dan Goldberg [39] tentang cara mereka me _model_ kan persoalan\ntersebut dan jelaskan pada temanmu. Apakah evaluasi yang mereka lakukan\nsudah cukup?\n\n9.5. Bootstrapping\nJelaskan apa itu teknik _bootstrapping_ (evaluasi model)! Bagaimana perbedaanya _bootstrapping_ dancross\n_validation_ ?\n\n9.6. Varians\nJelaskan mengapa fitur yang baik memiliki varians yang tinggi, sementara\nkinerja model yang baik memiliki varians yang rendah!\n\n\n\n"} {"text": "### 9.5 Cross Validation\n\nIngat kembali materi bab-bab sebelumnya bahwa pada umumnya kita membagi\n_dataset_ menjadi tiga kelompok: _training_, _validation/development_ dan\n\n\n130 9 Seleksi Fitur dan Metode Evaluasi\n\n_testing_. Melatih dan mengukur kinerja model menggunakan training data\nadalah hal yang tidak bijaksana karena kita tidak dapat mengetahui kemampuan\ngeneralisasi model. Kita melatih model pembelajaran mesin menggunakan _training_\n_data_ yang dievaluasi kinerjanya (saattraning) menggunakan\n_validation data_. Setelah itu, kita uji model kembali menggunakan _testing data_.\nPada umumnya, ketiga kelompok tersebut memiliki data dengan karakteristik\nyang sama. Artinya, dataset disampel dari distribusi yang sama. Misal pada\n_training data_, ada pembagian 30:30:40 untuk data kelas pertama, kedua dan\nketiga. Distribusi persebaran tersebut juga harus sama pada _validation_ dan\n_testing data_. Hal penting yang harus diperhatikan adalah tidak boleh ada data\nyang sama ( _overlap_ ) pada ketiga kelompok tersebut.\n\nGambar 9.7: Model yang stabil (a) memberikan _decision boundary_ (garis hitam)\nyang serupa walaupun _inputs_ edikit diubah-ubah (variasi kinerja yang\nkecil, untuk set _input_ yang berbeda). Model yang kurang stabil (b) memberikandecision\nboundary yang berbeda untuk _input_ yang sedikit diubahubah\n(variasi kinerja yang besar, untuk set _input_ yang berbeda).\n\nPada dunia nyata, kita belum tentu memiliki ketiga kelompok tersebut.\nPenyebabnya ada banyak, misal dataset yang kecil (hanya memiliki sedikit\n_records_ ) atau pengadaan _testing data_ mahal. Apabila kita tidak memiliki _testing_\n_data_, _validation data_ dapat menjadi pengganti ( _proxy_ ).\nAkan tetapi, permasalahan _statistical bias_ dapat terjadi apabila kita hanya\nmenguji model pada satu set data karena kita tidak mengetahui variasi kinerja\n_model_ [20]. Sebisanya, kita ingin mengevaluasi kinerja model pada beberapa\n_dataset_, dan mengevaluasi variasi kinerja model. Kegiatan semacam\nini membuat kita mengetahui apakah suatu model cukup stabil^3 dan fleksi-\n\n(^3) https://en.wikipedia.org/wiki/Stability_( _learning_ _theory)\n\n\n```\n9.5 Cross Validation 131\n```\nbel. Stabil berarti kinerja model tidak begitu berubah, diberikan _input_ yang\nsedikit berubah (ilustrasi diberikan pada Gambar 9.7). Fleksibel berarti model\nyang mampu menangkap karakteristik data dengan baik. Misal kita menggunakan\n_model linear_ dengan persamaan polinomial orde-1, orde-2 dan orde-3.\nSaat kita menaikkan orde persamaan sampai dengan orde-3, kinerja model\nterus meningkat pada _validation_ data, walaupun kurang lebih sama pada\n_training data_. Lalu, kita mencoba menggunakan persamaan polinomial orde-4,\ndan kinerja model menurun pada _validation_ data. Artinya, persamaan polinomial\norde-3 adalah yang paling optimal untuk me _model_ kan permasalahan\nyang kita miliki. Apabila kita tidak memiliki _validation_ data, kita tidak akan\nmengetahui hal ini. Stabil berkaitan dengan nilai varians, sedangkan fleksibel\nberkaitan dengan perubahan terhadap ukuran kinerja. Fleksibilitas dapat\ndianalisis dengan mem- _plot_ grafik kinerja model pada _training data_ dan _validation_ / _testing_\n_data_ untuk mengetahui _underfitting_ dan _overfitting_ seperti\nyang sudah dijelaskan pada bab 5.\n\n```\n1 2 3 ... N\n```\n```\nFold 1\n```\n```\nFold 2\n```\n```\nFold 3\nFold 4\n```\n```\nFold 5\n```\n```\n_Training_ data Validation data\n```\nGambar 9.8: Ilustrasi 5- _fold-cross-validation_. Kotak berwarna merah melambangkan\nsubset yang dipilih sebagai _validation data_.\n\nKita dapat menganalisis stabilitas dengan menggunakan teknik cross\n_validation_ seperti yang sudah dijelaskan pada bab 3. Intinya adalah, kita\nmembagi-bagi _dataset_ yang kita miliki menjadiKbagian. Kita latih model\nmenggunakanK−1 bagian, kemudian menguji prediksi model pada satu\nbagian lainnya (sebagai _validation data_ ) yang mengaproksimasi kinerja pada\n_testing data_ (Ilustrasi pada Gambar 9.8). Perhatikan, walau disebut _validation_\n_data_, group ini digunakan sebagai _testing data_ pada saat proses latihan.\nPerlu diperhatikan, distribusi tiap-tiap kelas pada subset data haruslah sama\n( _stratified sampling_ ).\nProsedur ini disebut sebagaiK- _fold-cross-validation_. Untuk K=N;\nN=jumlah data, disebut sebagai leave-one-out-cross- _validation_. Den-\n\n\n132 9 Seleksi Fitur dan Metode Evaluasi\n\ngan teknik _cross validation_, kita memiliki sejumlahK model pembelajaran\nmesin danKbuah nilai kinerja. Kita dapat mengukur stabilitas model dengan\nmenghitung varians kinerja dariK model. Nilai rata-rata kinerja yang\ndiberikan adalah sebuah estimasi terhadap kinerja model pada _testing data_\n(yang sesungguhnya tidak ada), diberikan pada persamaan 9.11. Kita ingin\n_model_ yang stabil, karena nilai varians yang kecil berarti eksperimen dapat\ndiulangi, dan kita mendapatkan kinerja yang sama saat eksperimen diulang.\nVarians yang terlalu besar dapat berarti kita mendapatkan suatu nilai kinerja\nsecara _random chance_ (untung-untungan belaka).\n\n```\nPerforma =\n```\n#### 1\n\n#### K\n\n#### ∑K\n\n```\ni=1\n```\n```\nKinerjaModeli (9.11)\n```\n"} {"text": "### 9.4 Evaluasi Kinerja Model\n\nBuku ini telah menjelaskan bahwa model pembelajaran mesin mengoptimisasi\n_utility function_ pada saat proses latihan ( _training_ ). Pada umumnya,utility\n_function_ berbentuk _cross entropy_ atau _error function_ untuk arsitekturlinear\n_model_ dan _neural network_. Untuk arsitektur lain, seperti _support vector_\nmachine, kita mencari _support vectors_ yang memberikan _margin_ (decision\nboundary) terbaik untuk memisahkan dua kelas. Model _decision tree_ dibangun\nberdasarkan _information gain_ tiap atribut data. Sementara, modelHidden\nMarkov Modelmengoptimalkan _forward_ dan _backward probability_. Kegiatan\nevaluasi model tidak berhenti saat _training_ telah mencapai nilai _utility function_ yang\noptimal, tetapi kita juga mengevaluasi kinerja model pada _validation_\n_data_ (baik mengukur _utility function_ dan _performance measure_ ). Terakhir,\nkita juga mengevaluasi prediksi model dengan mengukurperformance\nmeasurepada _test data_. Subbab ini akan menjabarkan beberapa contohperformance\nmeasureuntuk mengevaluasi hasil prediksi model pada kasus _supervised_\n_learning_.\n\n```\nKelas A Kelas B Kelas C Kelas D\n0.2 0.6 0.1 0.1\n```\nTabel 9.1: Contoh _class-assignment probability_ pada _multi-class classification_.\n\nIngat kembali persoalan _multi-class classification_. Tujuan suatu model\npembelajaran mesin adalah mengoptimalkan class- _assignment_ probability,\nyaitu probabilitas masing-masing kelas untuk suatu ( _given_ ) _input_ (Tabel 9.1).\nDengan meminimalkan _cross-entropy_ saat proses latihan, kita harap model\nbisa memberikan nilai probabilitas yang tinggi untuk kelas yang tepat, dan\nnilai yang rendah untuk kelas lainnya ( _high confidence_ ). Namun, urusan evaluasi\n_model_ tidak hanya sampai di titik ini saja. _Class-assignment probability_ berikutnya\ndikonversi menjadi keputusan final, yaitu memilihsatukelas\nmana yang tepat untuk _input_ yang diberikan. Dengan kata lain, kita harus\nmengevaluasi penerjemahan “raw” _class-assignment probability_ menjadi sebuah\nprediksi final. Pada kasus Tabel 9.1, _output_ atau prediksi final dari\n_model_ bersangkutan adalah “Kelas B”.\n\n\n```\n9.4 Evaluasi Kinerja Model 123\n```\nSebagai contoh lain, _support vector classifier_ memberikan skor +1 atau\n−1 untuk _input_. Skor tersebut berkorespondensi dengan kelas A atau kelas B.\n_Output_ final model pun adalah kelas yang tepat untuk _input_ yang diberikan.\nHal yang serupa terjadi pada _Naive Bayes_, _Linear Model_, _Decision Tree_ dan\n_supervised learning model_ lain yang dijelaskan pada buku ini ( _term_ asuk _neural_\n_network_ ). Walaupun model- _model_ tersebut mengoptimasi _utility function_\natau dikonstruksi dengan cara yang berbeda, prediksi final _multi-class_ _classification_\nadalah kelas yang sesuai untuk _input_. Subbab ini membahas cara\nmengevaluasi keputusan prediksi final model.\n\n9.4.1 Akurasi\n\nAkurasi adalah _performance measure_ paling sederhana dan sering digunakan\nsaat mengevaluasi kinerja model. Akurasi didefinisikan sebagai proporsi prediksi\nyang benar dibagi dengan banyaknya sampel. Diberikan _desired output_ (juga\ndikenal dengan “ _gold standard_ ”)ydan hasil prediksiˆy, kita menghitung proporsi\nbanyaknya elemen yang sama antaraydanˆy. Secara matematis, akurasi\ndiformulasikan pada persamaan 9.4, dimanaNmerepresentasikan banyaknya\nsampel.\n\n```\nAkurasi =\n```\n#### 1\n\n#### N\n\n#### ∑N\n\n```\ni=1\n```\n```\nverdicti\n```\n```\nverdicti=\n```\n#### {\n\n```\n1 , yi= ˆyi\n0 , yi 6 = ˆyi\n```\n#### (9.4)\n\nSebagai contoh, suatu model pembelajaran mesin mengklasifikan gambar\nbuah menjadi “ _apel_ ” dan “jeruk” ( _binary classification_ ). _Desired output_ dan\nprediksi model diberikan pada Tabel 9.2. Pada tabel ini, ada lima prediksi\nyang sama dengan _desired output_, yaitu pada sampel dengan ID=[1, 2 , 4 , 8 ,9].\nDengan demikian, akurasi model adalah 105 = 0.5.\nPerhitungan akurasi sama halnya untuk _multi-class classification_, tetapi\nmenjadi semakin rumit untuk _multi-label classification_. Ingat, padamultilabel\n_classification_, suatu _input_ dapat diklasifikasikan menjadi beberapa kelas.\n_Multi-label classification_ dapat dievaluasi dengan dua cara. Pertama,\nmengevaluasi kinerja pada masing-masing kelas (seolah-olah kita memiliki\nbeberapa _binary classifier_ ). Cara kedua adalah mengevaluasi prediksimultilabel\nsecara sekaligus. Perbedaan kedua metode diilustrasikan pada Gambar\n9.3. Saat mengevaluasi secara sekaligus, akurasi dapat dihitung sebagai\nproporsi banyaknya _exact-match_ dibagi banyaknya sampel.\n\n9.4.2 F1 Score\n\nMetrik yang tidak kalah pentingnya adalah F1 score. F1 score untuk suatu\nkelas F1kdidefinisikan sebagai _harmonic mean_ (persamaan 9.5) antara pre-\n\n\n124 9 Seleksi Fitur dan Metode Evaluasi\n\n```\nInstanceDesired Output Hasil Prediksi\n1 Jeruk Jeruk\n2 Jeruk Jeruk\n3 Jeruk Apel\n4 Apel Apel\n5 Jeruk Apel\n6 Apel Jeruk\n7 Jeruk Apel\n8 Apel Apel\n9 Apel Apel\n10 Jeruk Apel\n```\n```\nTabel 9.2: Contoh hasil prediksi model.\n```\n```\nInstance Agama Politik Hiburan\nBerita- 1 1 1 0\nBerita- 2 0 1 1\nBerita- 3 1 0 1\n...\n```\n```\nInstance Agama Politik Hiburan\nBerita- 1 1 1 0\nBerita- 2 0 1 1\nBerita- 3 1 0 1\n...\n```\n```\nOriginal\n```\n```\nInstance Agama Politik Hiburan\nBerita- 1 1 1 1\nBerita- 2 0 1 1\nBerita- 3 0 0 1\n...\n```\n```\nPrediction\n```\n```\nInstance Agama Politik Hiburan\n1 1 0\n0 0 1\n0 1 0\n...\n```\n```\nExact match\nPartially correct\nComplete incorrect\n```\n```\nEvaluate binary\n_classification_ sepa _rate_ ly\n```\n```\nEvaluate multi-label\n_classification_ at once\nOriginal Prediction\n```\n```\nGambar 9.3: Cara mengevaluasi _multi-label classifier_ (Gambar 5.8).\n```\nsisi (persamaan 9.6) dan recall (persamaan 9.7) kelas tersebut. Perhatikan,\nyk (persamaan 9.7) melambangkan desired output untuk kelask dan ˆyk\n(persamaan 9.6) adalah prediksi untuk kelask. Perhatikan, presisi dan recall\nberbeda dari sisi variabel pembagi. Presisi dibagi oleh banyaknya (‖...‖)\nprediksi pada kelask, sementara recall dibagi oleh banyaknya prediksiseharusnya(desired\n_output_ ) pada kelask.\n\n```\nF1k= 2\n```\n```\nPresisik×Recallk\nPresisik+ Recallk\n```\n#### (9.5)\n\n\n```\n9.4 Evaluasi Kinerja Model 125\n```\n```\nPresisik=\n```\n```\nJumlah prediksi benar pada kelask\n‖ˆyk‖\n```\n#### (9.6)\n\n```\nRecallk=\n```\n```\nJumlah prediksi benar pada kelask\n‖yk‖\n```\n#### (9.7)\n\nPenjelasan sebelumnya cukup _high-level_, sekarang mari kita masuk ke ilustrasi\nnyata pada Tabel 9.2. Untuk memudahkan perhitungan, kita susunconfusion\nmatrixprediksi terlebih dahulu, seperti diilustrasikan pada Tabel 9.3.\n_Confusion matrix_ amatlah berguna untuk analisis data, khususnya saat\nmenghitung F1 score.\n\n```\nPrediksi\n_apel_ jeruk ‖yk‖\n```\n```\nGold _apel_ ^314\njeruk 4 2 6\n‖ˆyk‖ 7 3\n```\n```\nTabel 9.3: _Confusion matrix_ prediksi apel dan jeruk berdasarkan Tabel 9.2.\n```\n```\nBerikut adalah cara membaca _confusion matrix_ pada Tabel 9.3:\n```\n- Ada 3 sampel yang diprediksi sebagai “ _apel_ ” dengan benar.\n- Ada 1 sampel yang seharusnya diprediksi sebagai “ _apel_ ”, tetapi diprediksi\n sebagai “jeruk”.\n- Ada 4 sampel yang seharusnya diprediksi sebagai “jeruk”, tetapi diprediksi\n sebagai “ _apel_ ”.\n- Ada 2 sampel yang diprediksi sebagai “jeruk” dengan benar.\n Nilai‖ˆyk‖untukk=“ _apel_ ” adalah 7, sementara 3 untukk=“jeruk” (jumlah\nnilai pada tiap kolom). Nilai‖yk‖adalah 4 dan 6 untukk=“ _apel_ ” dan\nk=“jeruk” (jumlah nilai pada tiap baris). Nilai presisi, recall, dan F1 score\nuntuk masing-masing kelas diberikan pada Tabel 9.4.\n\n```\nKategori Presisi Recall F1 score\nApel^37 =0. 43 34 =0. 75 200 ..^43 43+0×^0 ..^7575 =0. 55\nJeruk^23 =0. 67 26 =0. 33 200 ..^67 67+0×^0 ..^3333 =0.^44\n```\nTabel 9.4: Perhitungan nilai presisi, recall dan F1 score untuk masing-masing\nkelas untuk contoh Tabel 9.2.\n\nUntuk mendapatkan nilai F1 secara “umum”, kita merata-ratakan F1 _apel_\ndan F1jeruk. Prosedur ini disebut _macro-averaging_, yaitu merata-ratakan\n\n\n126 9 Seleksi Fitur dan Metode Evaluasi\n\nnilai F1 pada masing-masing kelas. Hasilnya disebut sebagai “macro- _average_ d\nF1” atau disingkat “F1-macro”. F1-macro untuk contoh pada Tabel 9.3 adalah\n0.49.\nTerdapat dua variasi lain, yaitu _weighted-average_ (F1- _weight_ ed) dan\n_micro-average_ (F1-micro). Pada F1- _weight_ ed, kita memberikan bobot untuk\nmasing-masing kelas, berdasarkan banyaknya instance yang seharusnya\ndiklasifikasikan ke kelas tersebut, i.e., banyaknya _desired output_ untuk\nmasing-masing kelas. F1- _weight_ ed untuk contoh Tabel 9.4 diberikan pada persamaan\n9.8. Variasi ini berbeda dengan F1-macro yang menganggap bobot\nmasing-masing kelas adalah sama.\n\n```\nF1- _weight_ ed =\n```\n#### 4 × 0 .55 + 6× 0. 44\n\n#### 10\n\n#### = 0. 48 (9.8)\n\nF1-macro dan F1- _weight_ ed memisahkan kinerja untuk masing-masing kelas.\nVariasi terakhir, F1-micro, melihat hasil prediksi secara keseluruhan tanpa\npemisahan kinerja untuk masing-masing kelas. Sebagai contoh, nilai presisi\ndan recall secara keseluruhan diberikan pada persamaan 9.9 dan 9.10. Pada\nkasus ini, banyaknya prediksi sama dengan banyaknya prediksi seharusnya.\nDengan demikian, nilai presisi = recall. F1-micro adalah nilai rata-rata presisi\ndan recall secara keseluruhan. Karenanya F1-micro = presisi = recall.\nPada kasus _multi-class classification_, nilai F1-micro sama dengan akurasi.\n\n```\nPrecision =\n```\n```\nJumlah prediksi benar\nBanyaknya prediksi\n```\n#### =\n\n#### 5\n\n#### 10\n\n#### (9.9)\n\n```\nRecall =\n```\n```\nJumlah prediksi benar\nBanyaknya prediksi seharusnya\n```\n#### =\n\n#### 5\n\n#### 10\n\n#### (9.10)\n\nRingkasan variasi F1 score diberikan pada Tabel 9.5. F1-macro memiliki\nkeunggulan dibanding akurasi (F1-micro) dan F1- _weight_ ed pada kasusim _balanced_\n_dataset_. Sebagai contoh, kita memiliki sebuah dataset untuk permasalahan _binary_\n_classification_ dimana 90% _input_ ditetapkan sebagai kelas A dan\n10% sebagai kelas B. Apabila suatu model pembelajaran mesin memprediksi\nseluruh data ke kelas A, maka ia akan mendapatkan akurasi 90%. Pada kasus\nini, sesungguhnya model pembelajaran mesin tidak mempelajari distribusi\n_data_ dengan benar. Dalam artian, kamu dapat “tertipu” karena nilai akurasi\nyang besar, padahal model tersebut sebenarnya tidak memiliki performa yang\nbaik. F1- _weight_ ed juga akan memberikan nilai yang cukup baik pada kasus ini.\nApabila kita mengukur kinerja menggunakan F1-macro, maka kinerja model\nakan terlihat jauh lebih kecil. Cerita ini juga berkaitan dengan _overclaiming_\n(subbab 9.6). Akibat penggunaan atau interpretasi metrik yang kurang tepat,\nkita mengasumsikan model yang kita buat sudah memiliki kinerja yang cukup\nbagus.\n\n\n```\n9.4 Evaluasi Kinerja Model 127\n```\n```\nMetrik Deskripsi\nF1-macro Memisahkan kinerja untuk masing-masing kelas, kemudian merataratakan\nnilai kinerja.\nF1- _weight_ ed Memisahkan kinerja untuk masing-masing kelas, kemudian merataratakan\nnilai kinerja dimana setiap kelas memiliki bobot\nberdasarkan banyaknya _desired output_ untuk tiap kelas.\nF1-micro Melihat hasil prediksi secara keseluruhan tanpa pemisahan kinerja\nuntuk masing-masing kelas. Nilai F1-micro sama dengan akurasi\npada _multi-class classification_.\n```\n```\nTabel 9.5: Penjelasan variasi F1 score.\n```\n9.4.3 Evaluasi Output Berstruktur\n\nKasus-kasus yang sudah diceritakan pada subbab ini adalah contoh kasus\nsederhana baik pada _binary_, _multi-class_ dan _multi-label classification_.\nDiberikan sebuah _input_ (e.g., teks, gambar, vektor, suara), kita ingin memprediksi\nsatu atau beberapa kelas (dari beberapa opsi) yang sesuai untuk\nmerepresentasikan _input_. Pada kasus yang disebutkan, hasil prediksi suatu\n_instance_ adalah independen dari hasil prediksi untuk _instance_ lainnya.\nSekarang, mari kita melanjutkan cerita ke kasus yang lebih kompleks,\nyaitu _output_ berstuktur. Pada kasus ini, diberikan sebuah _input_, _output_ model\nadalah sebuah data terstruktur, e.g., sekuens kategori, graf, teks.\n\nSekuens Kategori\n\nPada _output_ dengan struktur berupa sekuens kategoriy, suatu elemenyi\npada sekuens bisa saja bergantung pada elemen lainnya, misal pada elemen\nsebelumnya. Sebagai contoh, pada persoalan Part-of-Speech (POS) _tagging_\n(yang sudah dijelaskan pada buku ini), diberikan _inputs_ ekuens katax, kita\ningin memprediksi kelas katayyang bersesuaian (Gambar 9.4). Pada setiap\niterasii, model memprediksi kelas katayiyang cocok bagi _input_ xi. Tujuan\n_model_ adalah memprediksi sekuensypaling optimal. Perhatikan, kelas kata\npada posisii(yi) bisa jadi bergantung pada kelas kata di posisii−1 (yi− 1 ),\nseperti yang sudah diceritakan pada buku ini. Artinya, suatu elemen _output_ bergantung\npada elemen _output_ lainnya. Walaupun demikian, kita dapat\nmengevaluasi tiap elemen _output_ secara independen. Misal, dengan menghitung\nakurasi apakah tiap kelas kata pada prediksi ˆyimemang sesuai dengan\n_desired output_ yi.\n\nGraf\n\nEvaluasi menjadi cukup kompleks apabila kita memprediksi _output_ dengan\nstruktur lebih rumit, misalnya sebuah grafG∈(E,V); dimanaE adalah\nkumpulan _edge_ danV adalah kumpulan _vertex_. Hal ini cukup lumrah pada\n\n\n128 9 Seleksi Fitur dan Metode Evaluasi\n\n```\nPOS tag Noun Verb Noun\nKata Budi Menendang Bola\n```\n```\nGambar 9.4: Contoh POS _tagging_ (Gambar 8.4).\n```\nbidang pemrosesan bahasa alami, sebagai contoh pada permasalahanconstituent\nparsing, _dependency parsing_, dan _discourse parsing_ (silakan di eksplorasi\nlebih lanjut). Gambar 9.5 memberikan contoh _dependency parsing_.\n\n```\nSaya suka apel manis\n```\n```\nsubjek objek pengubah\n```\nGambar 9.5: Ilustrasi _dependency parsing_, dimana kita mencari hubungan\nantar-kata (direpresentasikan oleh _edge_ pada graf). Sebagai contoh, “saya”\nadalah subjek dari “suka”; “ _apel_ ” adalah objek dari “suka”; “manis” adalah\nkata pengubah “ _apel_ ”.\n\nKita dapat mengevaluasi suatu prediksi struktur dengan cara memfaktorkan\nstruktur tersebut menjadi unit lebih kecil, kemudian mengevaluasi performa\n_model_ pada satuan unit yang lebih kecil. Kinerja model pada satuan\nunit diagregat atau digabungkan menjadi satu skor untuk merepresentasikan\nkeseluruhan performa dalam memprediksi suatu struktur [39]. Pemilihan unit\natau teknik faktorisasi struktur bergantung pada domain permasalahan. Sebagai\ncontoh, suatu model X yang mampu memprediksi _edges_ pada graph\ndengan cukup akurat ternyata tidak dapat memprediksi suatu jalan ( _path_ )\ndari _node_ A ke B yang seharusnya ada pada _desired output_. Dengan demikian,\nkamu mungkin ingin memfaktorkan graf tersebut menjadi sekumpulan _paths_.\nHal terpenting saat mengevaluasi structured output prediction adalah\nmengevaluasi berbagai aspek dan mempertimbangkan berbagai perspektif.\nArtinya, memfaktorkan struktur menjadi beberapa (≥1) macam unit, dari\nunit yang “kecil” (e.g., _edge_ ) sampai unit yang “besar” (e.g., _subtree_ pada\nstruktur pohon; _path_ atau subgraph pada graf). Pemilihan unit pada proses\nfaktorisasi bergantung pada domain permasalahan.\n\nTeks\n\nEvaluasi menjadi semakin kompleks apabila kita tidak dapat mendefinisikan\nmetrik secara matematis. Misal pada _image captioning task_ : diberikan sebuah\ngambar dan suatu model harus menjelaskan apa isi gambar tersebut (ilustrasi\npada Gambar 9.6). Dari sisi “bentuk” _output_, teks adalah sebuah sekuens\nkata. Akan tetapi, setiap kata memiliki maknanya tersendiri. Makna kata\n\n\n```\n9.5 Cross Validation 129\n```\ndapat berubah pada konteksnya, i.e., ketika beberapa kata membentuk sebuah\nklausa atau kalimat. Selain itu, teks memiliki struktur “implisit”. Sebagai\ncontoh, kata-kata pada teks harus membentuk suatu kesatuan makna sebagai\nkalimat. Tiap kalimat juga harus sesuai dengan aturan tata bahasa. Hal ini\nmembuat teks menjadi lebih rumit (dan unik) dibanding sekuens kategori.\n\n```\nImage\n```\n```\nModel\n\"Seseorangsedangbermain\ntenis”\n```\n```\nCaption\n```\n```\nGambar 9.6: Ilustrasi _image captioning task_.\n```\nPada kasus _image captioning task_ seperti diatas, bagaimana cara kamu\nmengevaluasi apakah model mampu memberikan penjelasan yang merefleksikan\nsituasi pada gambar? Sebagai contoh, apabila diberikan gambar “seseorang\nsedang bermain tenis”, dan model memprediksi “seseorang sedang\nbermain basket,” maka model memberikan penjelasan yang salah. Tetapi\napabila kamu melihat dari sisi proporsi banyaknya kata yang sama, terdapat\nbanyak kata pada _desired output_ yang beririsan dengan prediksi, yaitu\n“seseorang sedang bermain.”\nHal serupa juga harus diperhatikan pada persoalan mesin translasi bahasa.\nApakah konten translasi memang benar sama dengan konten aslinya?\nBagaimana dengan gaya penulisan? Pada sistem peringkasan teks, apakah\nhasil ringkasan memang benar sesuai dengan teks aslinya, bukan menambah\ninformasi atau mengada-ada?\nCerita pada subbab 9.4 mengilustrasikan bahwa evaluasi model adalah\nperkara yang kompleks. Pemilihan metrik yang salah dapat mengakibatkan\nkamu menganggap bahwa model sudah “cukup” baik, padahal model tersebut\nmemberikan banyak prediksi yang salah. Subbab ini juga sekilas menjelaskan\nbahwa bentuk _output_ pada _supervised learning_ bisa saja memiliki struktur\nyang rumit.\n\n"} {"text": "### 9.2 High Dimensional Data\n\nPada kenyataan, fitur yang kita gunakan untuk membangun model pembelajaran\nmesin tidaklah sesederhana yang dicontohkan pada subbab sebelumnya.\nSeringkali, kita berhadapan dengan data yang memiliki sangat banyak\nfitur ( _high dimensional data_ ). Sebagai contoh, seorang marketing analyst\nmungkin saja ingin mengerti pola seseorang berbelanja pada _online shop_.\nUntuk mengerti pola tersebut, ia menganalisis seluruh kata kunci pencarian\n( _search term_ ) _item_. Misalnya, seseorang yang ingin membeli meja makan\njuga mungkin akan membeli kursi (sebagai satu paket). Data pada analisis\nsemacam ini berdimensi besar. Seberapa besar dimensi yang dapat disebut\n_high dimension_ adalah hal yang relatif.\nSayangnya, data dengan dimensi yang sangat besar membawa beberapa\nmasalah pada pembelajaran mesin. Pertama, model pembelajaran susah untuk\nmemiliki kinerja yang optimal pada data berdimensi tinggi. Semakin\nbanyak fitur yang dipakai, semakin kompleks suatu model pembelajaran mesin\nharus me _model_ kan permasalahan. Berhubung kita memiliki banyak fitur,\n_search space_ untuk mencari konfigurasi parameter optimal sangatlah luas.\nHal ini dapat dianalogikan seperti mencari seseorang pada gedung berlantai\nsatu vs. gedung berlantai 20. Kedua, hal ini menyebabkan mudah terjadi _overfitting_ karena\nada sangat banyak konfigurasi fitur walaupun kita hanya memiliki\n_data_ yang terbatas.^1 Ketiga, data dengan dimensi yang besar susah untuk\ndiproses secara komputasi ( _computationally expensive_ ), baik dari segi memori\ndan waktu. Karenanya hal ini, kita ingin agar fitur-fitur yang kita gunakan\nsesedikit mungkin. Dengan kata lain, kita ingin representasi permasalahan\nsesederhana mungkin dari sesi memori dan _computational processing_.\n\n"} {"text": "### 8.5 Algoritma Viterbi\n\nPada subbab sebelumnya, telah didefinisikan permasalahan POS _tagging_ dan\n_Hidden Markov Model_ untuk menyelesaikan permasalahan tersebut. Pada bab\nini, kamu akan mempelajari cara mencari sekuens _syntactical categories_ terbaik\ndiberikan suatu observasi kalimat menggunakanalgoritma Viterbi. Hal\nini disebut proses _decoding_ pada HMM. Algoritma Viterbi adalah salah satu\nalgoritma _dynamic programming_ yang prinsip kerjanya mirip denganminimum\nedit distance.^6 Ide utama algoritma Viterbi adalah mengingat sekuens\nuntuk setiap posisi tertentu (setiap iterasi, setiap panjang kalimat). Apabila\nkita telah sampai pada kata terakhir, kita lakukan _backtrace_ untuk mendapatkan\nsekuens terbaik.\n\n_function_ VITERBI( _observations_ of lenT, _state-graphs_ of lenS)\n\n```\nInitialization Step\ncreate a path of probability matrix viterbi[S,T]\nforeach statesfrom 1 toSdo\nviterbi[s,1]←a 0 ,s×bs(o 1 )\n_backpointer_ [s,1]← 0\n```\n```\nIte _ratio_ n Step\nforeach time steptfrom 2 toTdo\nforeach statesfrom 1 toSdo\nviterbi[s,t]←arg maxj=1,Sviterbi[j,t−1]×as,j×bs(ot)\n_backpointer_ [s,t]←index ofjthat gave the max above\n```\n```\nSequence Identification Step\ncT←ithat maximizes viterbi[i,T]\nfori=T− 1 to 1 do\nci← _backpointer_ [ci+1,i+ 1]\n```\n```\nGambar 8.8: Algoritma Viterbi [12, 38].\n```\nPerhatikan Gambar 8.8 yang menunjukkan _pseudo-code_ untuk algoritma\nViterbi. Variabelcberarti kelas kata,aadalah _transition probability_, danb\nadalah _lexical-generation probability_. Pertama-tama, algoritma tersebut membuat\nsuatu matriks berukuranSxTdenganSadalah banyaknya _states_ (tidak\n\n(^6) https://en.wikipedia.org/wiki/Edit_distance\n\n\n112 8 Hidden Markov Model\n\n_term_ asuk _start state_ ) danT( _time_ ) adalah panjang sekuens. Pada setiap iterasi,\nkita pindah ke observasi kata lainnya. Gambar 8.9 adalah ilustrasi algoritma\nViterbi untuk kalimat _input_ ( _observed sequence_ ) “ _flies like a flower_ ”\ndengan _lexical generation probability_ pada Tabel 8.3 dan _transition probabilities_ pada\nTabel 8.2 (bigram) [38]. Panah berwarna merah melambangkan\n_backpointer_ yaitu _state_ mana yang memberikan nilai tertinggi untuk ekspansi\nke _state_ berikutnya. Setelah _iteration step_ selesai, kita lakukan _backtrace_ terhadap _state_ terakhir\nyang memiliki nilai probabilitas tertinggi dan mendapat\nhasil seperti pada Gambar 8.10. Dengan itu, kita mendapatkan sekuens\n“ _flies_ /N like/V a/ART flower/N”.\n\nGambar 8.9: Ilustrasi algoritma Viterbi per iterasi. Panah berwarna merah\nmelambangkan _backpointer_ – _state_ mana yang memberikan nilai tertinggi untuk\nekspansi.\n\n```\nGambar 8.10: Viterbi _backtrace_.\n```\nApabila kamu hanya ingin mengetahui HMM tanpa variabel yang perlu\ndilatih/diestimasi, kamu dapat berhenti membaca sampai subbab ini. Apabila\nkamu ingin mengetahui bagaimana HMM dapat mengestimasi parameter,\nkamu dapat melanjutkan membaca subbab berikutnya.\n\n\n```\n8.6 Proses Training Hidden Markov Model 113\n```\n"} {"text": "### Soal Latihan\n\n8.1. Data Numerik\nPada bab ini, diberikan contoh aplikasi Hidden Markov Model (HMM) untuk\nPOS _tagging_, dimana data kata adalah data nominal. Berikan st _rate_ gi penggunaan\nHMM untuk data numerik! Misal, pada _automatic speech recognizer_.\n\n8.2. Ekstensi Algoritma Viterbi\nBuatlah ekstensi algoritma Viterbi untuk asumsi trigram!\n\n8.3. Maximum Entropy Markov Model\n\n(a) Jelaskan konsep _maximum entropy_ !\n(b) Jelaskan _maximum entropy markov model_ !\n\n8.4. Gibbs Sampling\n\n(a) Jelaskan bagaimana Gibbs sampling digunakan pada HMM!\n(b) Jelaskan penggunaan variasi/ekstensi Gibbs sampling pada HMM!\n\n8.5. Latent Dirichlet Allocation\nSalah satu materi yang berkaitan erat dengan HMM adalahLatent Dirichlet\nAllocation(LDA) yang merupakan anggota keluarga _graphical model_. Jelaskan\napa itu LDA serta bagaimana cara kerja LDA!\n\n\n"} {"text": "### 8.1 Probabilistic Reasoning\n\nPada logika matematika ( _first order logic_ ), ketika kita memiliki premis “bila\nhujan, maka ayu terpeleset.” Pada level _first order logic_, apabila “hujan” ter-\n\n(^1) Karena perlu dijelaskan juga cara transformasi sinyal suara menjadi data diskrit.\n\n\n```\n102 8 Hidden Markov Model\n```\n```\njadi, maka “terpeleset” juga pasti akan terjadi. Tetapi tidak sebaliknya, apabila\nkita “terpeleset”, belum tentu “hujan” juga terjadi. Padaprobabilistic\n_reasoning_ kita mengkuantifikasi kepastian atau ketidakpastian itu. Apabila\n“hujan” terjadi, berapa besar kemungkinan “terpeleset” juga terjadi (dan se-\nbaliknya).\nPerhatikan Gambar 8.1! Gambar ini menerangkan hubungan pengkondisian _events_,\ndisebut _Bayesian Network_. Panah dari “hujan” ke “terpeleset”\nmerepresentasikan bahwa “hujan” adalah kondisi yang menyebabkan\n“terpeleset” terjadi ( _causality_ ). Pada kerangka _probabilistic reasoning_, kita\nberpikir “karena ada yang terpeleset, mungkin ada hujan dan kecelakaan juga\nterjadi.” Tetapi, apabila ada cerita lain bahwa jika ada seseorang yang “terpeleset”\ndan memang “hujan”; belum tentu “kecelakaan” terjadi.\n```\n```\nGambar 8.1: Contoh _Bayesian Network_.\n```\n```\nGambar 8.2: Tipe jaringan kausalitas.\n```\n```\nBerdasarkan hubungan/jaringan kausalitas antara _events_, ada beberapa\nkerangka berpikir yang dapat digunakan: _serial_, _diverging_, dan _converging_ [5];\ndiilustrasikan pada Gambar 8.2. Karakteristik dari masing-masing tipe kausalitas\nadalah sebagai berikut [5]:\n```\n(a) _Serial_. Bila kita mengetahuiAmaka kita bisa mengetahui sesuatu tentang\nBdanC. Tetapi apabila kita mengetahuiB, mengetahuiAtidak akan\nmembantu inferensi kita terhadapC. MengetahuiCakan membuat kita\nmengetahui sesuatu tentangAketika kita tidak mengetahuiB. Artinya,\nhubungan antaraAdanCdi- _block_ ketikaBdiketahui. Dengan bahasa\n\n\n```\n8.1 Probabilistic Reasoning 103\n```\nlebih matematis,AdanC bersifatindependen kondisional(conditionally\n_independent_ ) ketikaBdiketahui. Perhatikan, disebut _kondisional_\nkarena independen jika kondisi (mengetahuiB) terpenuhi.\n(b) Diverging. Bila kita mengetahuiAmaka kita bisa mengetahui sesuatu\ntentangC, dan sebaliknya. Tetapi apabilaBdiketahui, maka hubungan\nantaraAdanCmenjadi terputus. Dengan bahasa lebih matematis,Adan\nCindependen kondisional ketikaBdiketahui.\n(c) _Converging_. Tanpa mengetahuiB, kita tidak bisa mencari tahu hubungan\nantaraAdanC. Dengan bahasa lebih matematis,AdanCdependen\n_kondisional_ ketikaBdiketahui.\nDua buah _events_ XdanYdisebut _d-separated_ apabila terdapat sebuah\n_intermediate variable_ Zdiantara mereka dan memenuhi kondisi:\n\n1. Koneksi bersifat _serial_ atau _diverging_, danZdiketahui.\n2. Koneksi bersifat _converging_ danZtidak diketahui.\n3. Bila tidak memenuhi kondisi yang disebutkan, artinya dua buah variabel\n tersebut tidak _d-separated_, disebut sebagai _d-connected_.\nKonsep ini penting dipahami untuk mengerti ide dasar _markov assumption_\nyang dibahas pada subbab berikutnya.\n\n```\nGambar 8.3: Contoh inferensi.\n```\n```\nPerhatikan Gambar 8.3! Dengan konsep yang sudah dipahami, mari kita\ncoba lakukan inferensi pada jaringan tersebut. _Joint distribution_ untuk seluruh _event_ diberikan\npada persamaan 8.1.\n```\n#### P(A,B,C,D,E) =P(D|B)P(E|B)P(B|A,C)P(A)P(C) (8.1)\n\n```\nSekarang, mari kita hanya lihat subgraf{A,B,E}dengan koneksi tipe _serial_.\nBilaAdiketahui, maka kita dapat melakukan inferensi terhadapC, seperti\npada persamaan 8.2.\n```\n```\nP(E|A) =P(E|B)P(B|A)P(A) +P(E|¬B)P(¬B|A)P(A) (8.2)\n```\n\n104 8 Hidden Markov Model\n\nTetapi, apabilaAdan Bdiketahui, maka inferensi terhadapEdilakukan\nseperti pada persamaan 8.3.\n\n```\nP(E|B,A) =P(E|B)P(B) (8.3)\n```\nOperasi serupa dapat diaplikasikan pada koneksi tipe _converging_ dan _diverging_.\nPerhatikan subgraf{A,B,C}dengan tipe koneksi _converging_ pada Gambar\n8.3. ApabilaBtidak diketahui, berartiAdanCterpisah (independen).\nApabilaBdanAdiketahui, maka hubunganAdanCdapat dihitung sebagai\npersamaan 8.4.\n\n```\nP(C|B,A) =P(C|B)P(B|A)P(A) (8.4)\n```\nUntuk koneksi tipe _diverging_, silahkan coba bagaimana mencari proses inferensinya!\n(pekerjaan rumah).\n\n"} {"text": "### 8.6 Proses Training Hidden Markov Model\n\n_Hidden Markov Model_ (HMM) adalah salah satu varian _supervised learning_,^7\ndiberikan sekuens _input_ dan _output_ yang bersesuaian sebagai _training data_.\nPada kasus POS _tagging_, yaitu _input_ -nya adalah sekuens kata dan _output_ -nya\nadalah sekuens kelas kata (masing-masing kata/ _token_ berkorespondensi dengan\nkelas kata). Saat melatih HMM, kita ingin mengestimasi parameterAdan\nbyaitu _transition probabilities_ dan _emission probabilities_ /lexical- _generation_\nprobabilities(ingat kembali definisi HMM secara formal pada subbab 8.4).\nKita melatih HMM dengan menggunakanAlgoritma Forward-Backward\n(Baum-Welch Algorithm).\nCara paling sederhana untuk menghitung emission probabilities atau\n_transition probabilities_ adalah dengan menghitung kemunculan pada sampel\n( _training data_ ). Sebagai contoh, _emission probability_ suatu kata untuk setiap\nkelas kata diberikan pada persamaan 8.14, dimanaN melambangkan\nbanyaknya kemunculan katawiterlepas dari kelasnya.\n\n```\nP(wi|ci) =\n```\n```\ncount(wi,ci)\n∑N\nj=1count(wi,cj)\n```\n#### (8.14)\n\nAkan tetapi, perhitungan tersebut mengasumsikan _context-independent_, artinya\ntidak mempedulikan keseluruhan sekuens. Estimasi lebih baik adalah dengan\nmenghitung seberapa mungkin suatu kategoricipada posisi tertentu (indeks\nkata/ _token_ pada kalimat) pada semua kemungkinan sekuens, diberikan inputw\n1 ,w 2 ,...,wT. Kami ambil contoh, kata _flies_ sebagai _noun_ pada kalimat\n“ _The flies like flowers_ ”, dihitung sebagai penjumlahan seluruh sekuens yang\nberakhir dengan _flies_ sebagai _noun_. ProbabilitasP( _flies_ /N|The flies) =\nP( _flies_ /N&The flies)\nP(The flies).\nAgar lebih _precise_, secara formal, kita definisikan terlebih dahulu _forward_\nprobabilitysebagai 8.15, dimanaαi(t) adalah probabilitas untuk menghasilkan\nkataw 1 ,w 2 ,...,wtdenganwtdihasilkan ( _emitted_ ) olehci.\n\n```\nαi(t) =P(wt/ci|w 1 ,w 2 ,...,wt) (8.15)\n```\n_Pseudo-code_ perhitungan kemunculan kelascisebagai kategori pada posisi\ntertentu diberikan oleh Gambar 8.11, denganciadalah kelas kata ke-idanwi\nadalah kata ke-i,aadalah _transition probability_,badalah _emission probability_,\ndanSmelambangkan banyaknya _states_.\nSekarang, kita definisikan juga _backward probability_ βi(t), yaitu probabilitas\nuntuk menghasilkan sekuenswt,...,wTdimulai dari _state_ wt/ci(ci\nmenghasilkanwt). Hal ini serupa dengan _forward probability_, tetapi _backward_\nprobabilitydihitung dari posisi ke-tsampai ujung akhir (tkeT). Anda dapat\nmelihat _pseudo-code_ pada Gambar 8.12, denganaadalah _transition probability_\ndanbadalah _emission probability_.\n\n(^7) Walaupun ia termasuk _generative model_.tetapi komponen utama yang di _model_ kan\nadalahp(y|x)\n\n\n114 8 Hidden Markov Model\n\nInitialization Step\nfori= 1toSdo\nαi(t)←bi(o 1 )×a 0 ,i\n\nComparing the Forward Probabilities\nfort= 2toTdo\nfori= 1toSdo\nαi(t)←\n\n```\n∑S\nj=1(aji×αj(t−1))×bi(ot)\n```\n```\nGambar 8.11: Algoritma _forward_ [38].\n```\nInitialization Step\nfori= 1toSdo\nβi(T)←P(ci) # as _sign_ ed using a particular classci\n\nComparing the Backward Probabilities\nfort=T− 1 totdo\nfori= 1toSdo\nβi(t)←\n\n```\n∑S\nj=1(aji×βi(t+ 1))×bj(oj+1)\n```\n```\nGambar 8.12: Algoritma _backward_ [38].\n```\nGabungan _forward_ dan _backward probability_ dapat digunakan untuk mengestimasiγj(t)\nyaitu probabilitas berada pada _state_ cjpada waktu ke-tdengan\npersamaan 8.16.\n\n```\nγj(t) =\nαi(t)×βi(t)\n∑S\nj=1αj(t)×βj(t)\n```\n#### (8.16)\n\nKita mengestimasi probabilitas keberadaan pada _state_ tertentu, berdasarkan\npengaruh probabilitas keseluruhan sekuens.\nDengan menggunakan _forward probability_ dan _backward probability_ sekaligus,\nkita definisikanξt(i,j) yaitu probabilitas berada di _state-i_ pada waktu\nketdan _state_ -jpada waktu ke-(t+ 1) dengan persamaan 8.17.\n\n```\nξt(i,j) =\nαi(t)×aij×bj(ot+1)×βj(t+ 1))\nαS(T)\n```\n#### (8.17)\n\nDenganaijadalah _transition probability_ danbj(ot+1) adalah _emission probability_ (ingat\nkembali definisi formal HMM pada subbab 8.4). Pada setiap iterasi,\nkita ingin memperbaharui kembali parameter HMM yaituAdanb. Kita\nhitung kembali _transition probability_ (nilai yang lama di- _update_ ), diberikan\noleh persamaan 8.18.\n\n\n```\n8.6 Proses Training Hidden Markov Model 115\n```\n```\naij′=\n```\n#### ∑T− 1\n\n```\n∑ t=1 ξt(i,j)\nT− 1\nt=1\n```\n#### ∑S\n\n```\nj=1ξt(i,j)\n```\n#### (8.18)\n\nKita juga menghitung kembali _emission probability_ (nilai yang lama di _update_ ),\ndiberikan oleh persamaan 8.19.\n\n```\nbj(ok)′=\n```\n#### ∑T\n\n```\nt=1,ok=wkγj(t)\n∑T\nt=1γj(t)\n```\n#### (8.19)\n\n#### ∑T\n\n```\nt=1,ok=wkberarti jumlah observasiwkpada waktut.\n```\nInitialize A and b\nIte _rate_ until convergence\nE-step\nγj(t) =∑Sαi(t)×βi(t)\nj=1αj(t)×βj(t)\n\n```\nξt(i,j) =\nαi(t)×aij×bj(ot+1)×βj(t+1))\nαS(T)\n```\n```\nM-step\n_update_ aij′=\n```\n```\n∑T− 1\n∑T− 1 t=1ξt(i,j)\nt=1\n```\n```\n∑S\nj=1ξt(i,j)\n```\n```\n_update_ bj(ok)′=\n```\n```\n∑T\nt=1∑,ok=wkγj(t)\nTt=1γj(t)\n```\n```\nGambar 8.13: Algoritma _forward-backward_ (EM) [12].\n```\nKeseluruhan proses ini adalah cara melatih HMM dengan menggunakan\nkerangka berpikir _Expectation Maximization_ : terdiri dariE-stepdanMstep[12].\nPada E-step, kita mengestimasi probabilitas berada di suatu _state_\ncjmenggunakanγj(t) dan mengestimasi transisiξt(i,j) berdasarkan parameterAdanbyang\nsudah diberikan pada tahap iterasi _training_ ( _epoch_ ) sebelumnya.\nPada M-step, kita menggunakanγdanξuntuk mengestimasi kembali\nparameterAdanb. Hal ini dijelaskan secara formal pada Gambar 8.13.\nWalaupun HMM menggunakan _independence assumption_, tetapi kita dapat\nmengikutsertakanpengaruh probabilitas keseluruhan sekuens untuk\nperhitungan probabilitas keberadaan kita pada suatu _state_ ipada\nsaat ( _time_ t) tertentu. Metode ini dapat dianggap sebagai suatu cara optimalisasi\nmenggunakan _smoothing_ ^8 terhadap nilai parameter (Adanb). Kita\nmencapai titik _local optimal_ apabila tidak ada perubahan parameter.\n\n(^8) https://en.wikipedia.org/wiki/Smoothing\n\n\n116 8 Hidden Markov Model\n\nKami ingin mengakui bahwa penjelasan pada subbab 8.6 mungkin kurang\nbaik (kurang memuaskan). Kami harap kamu mencari referensi lain yang lebih\nbaik untuk subbab ini.\n\n"} {"text": "### 8.2 Generative Model\n\nPada _supervised learning_ kamu sudah mengetahui bahwa kita me _model_ kan\np(y|x), me _model_ kan _target_ y(label) ketika diberikan _input_ x,^2 yaitu mencari\ntahu _decision boundary_ antara keputusan.xdanydapat berupa vektor, skalar,\ngambar, dan lain sebagainya. Sementara pada _unsupervised learning_, kita ingin\nmengaproksimasi distribusi asli dari sebuah _inputs_ ebagaip(x).\nBerbeda dengan keduanya, _generative model_ me _model_ kanp(x,y). Persamaan\nitu dapat difaktorkan sebagaip(x,y) =p(y|x)p(x). Pada umumnya,\nkita lebih tertarik dengan nilaiyyang menyebabkanp(x,y) bernilai maksimum,\nberhubungxakan selalu tetap–karenaxadalah _fixed input_,yterbaiklah\nyang ingin kita temukan. Berbeda dengan _supervised learning_, _generative_\n_model_ dapat difaktorkan menjadip(y|x) danp(x). Karena berbentukjoint\nprobability, _generative model_ me _model_ kan peluang kemunculan bersamaan.\nKita ingin mengetahui seberapa mungkin suatu dataxdihasilkan, diberikan\ny. Artinya seberapa mungkin _input_ diobservasi untuk suatu _output_. Salah satu\ncontoh _generative model_ adalah _Hidden Markov Model_ (HMM). HMM me _model_ kan\nobservasi menggunakan proses _Markovian_ dengan _state_ yang tidak\ndiketahui secara jelas ( _hidden_ ). Kamu akan mengerti kalimat sebelumnya setelah\nmembaca penjelasan buku ini seluruhnya.\nIde utama HMM adalah menyelesaikan persoalan _sequence tagging_.\nDiberi-kan _input x_ berupa sekuens (sekuens sinyal, sekuens kata, sekuens\ngambar, dsb). Kita ingin me _model_ kan sekuens _output_ terbaikyuntuk input\ntersebut.^3 Outputke-ibergantung pada _input_ dari awal sampai ke-idan _output_ dari\nawal sampai sebelumnyap(yi|y 1 ,...,yi− 1 ,x 1 ,...,xi). Berdasarkan\npemaparan subbab 8.1, apabila suatu _event_ dikondisikan variabel lain dengan\n\n(^2) Parameterwdihilangkan untuk menyederhanakan penjelasan.\n(^3) xidanyidapat berupa vektor\n\n\n```\n8.3 Part-of-speech Tagging 105\n```\ntipe koneksi _serial_, maka kita dapat mengabaikan banyak variabel historis.\nHal ini dituangkan dalam persamaan 8.5,\n\n```\np(yi|y 1 ,...,yi− 1 ,x 1 ,...,xi) =p(yi|yi− 1 ,xi) (8.5)\n```\nPersamaan ini disebut _first-order markov assumption_, yaitu suatu _event_\nyang seharusnya dikondisikan oleh suatu histori hanya bergantung pada\n_events_ ebelumnya. Terdapat pula _second_, _third_, dst _markov assumption_ yaitu\nbergantung pada dua, tiga, dst _events_ sebelumnya. Walaupun hanya berupa\npenyederhanaan, asumsi ini memberi kita banyak keuntungan dari sisi kom-\nputasi.\n\n"} {"text": "### 8.4 Hidden Markov Model Tagger\n\nPada subbab sebelumnya, POS _tagging_ telah didefinisikan secara matematis.\nKita sudah mengetahui permasalahan yang ingin kita selesaikan. Subbab ini\nadalah formalisasi _hidden markov model tagger_.\nIngat kembali persamaan 8.12 untuk POS tagging.P(wi|ci) disebut _likelihood_ danP(ci|ci−\n1 ) disebut _prior_, _multiplication of probabilities_ (\n\n#### ∏\n\n) melambangkanmarkov\nchain. _Markov chain_ adalah kasus spesial _weighted automaton_ ^5\nyang mana sekuens _input_ menentukan _states_ yang akan dilewati\noleh automaton. Sederhananya, automaton mencapai _goal state_ setelah mengunjungi\nberbagai _states_. Total bobot _outgoing edges_ untuk masing-masing\n_state_ pada automaton haruslah bernilai satu apabila dijumlahkan. Kasus spesial\nyang dimaksud adalah _emission_ (dijelaskan kemudian).\nSebagai contoh, perhatikan Tabel 8.2.ARTadalah _article_,Nadalah _noun_,\nV adalah _verb_ danP adalah _preposition_. Mereka adalah contoh kelas kata\nyang disederhanakan demi membuat contoh yang mudah. Tabel 8.2 yang\nmerepresentasikan probabilitas transisi kelas kata, ketika dikonversi menjadi\n_weighted automaton_, akan menjadi Gambar 8.5.\n\n```\nNULL\n```\n```\nART V\n```\n```\nN P\n```\n```\nSTART\n```\n```\n0.71\n```\n```\n0.29\n```\n```\n1\n```\n```\n0.65\n```\n```\n0.43\n0.35\n```\n```\n0.26\n```\n```\n0.44\n0.13\n```\n```\n0.74\n```\n```\nGambar 8.5:Weighted automaton[38].\n```\n(^5) Kami berasumsi kamu sudah mempelajari automata sebelum membaca buku ini.\n\n\n```\n8.4 Hidden Markov Model Tagger 109\n```\n```\nBigram Estimate\nP(ART|null) 0.71\nP(N|null) 0.29\nP(N|ART) 1\nP(V|N) 0.43\nP(N|N) 0.13\nP(P|N) 0.44\nP(N|V) 0.35\nP(ART|V) 0.65\nP(ART|P) 0.74\nP(N|P) 0.26\n```\n```\nTabel 8.2: Probabilitas bigram [38].\n```\nTabel 8.2 dan Gambar 8.5 telah merepresentasikan probabilitas _prior_,\nsekarang kita ingin model yang kita punya juga mencakuplexical emission\nprobabilities, yaitu _likelihood_ pada persamaan 8.12.\n\n```\nP(the|ART) 0.54 P(a|ART) 0.360\nP( _flies_ |N) 0.025 P(a|N) 0.001\nP( _flies_ |V) 0.076 P(flower|N) 0.063\nP(like|V) 0.1 P(flower|V) 0.05\nP(like|P) 0.068 P(birds|N) 0.076\nP(like|N) 0.012\n```\nTabel 8.3:Lexical emission probabilities[38]. Tabel ini hanya memuat informasi\nyang dibutuhkan untuk ilustrasi cerita (penyederhanaan).\n\nSeumpama kita mempunyai _lexical emission probabilities_ seperti pada\nTabel 8.3. Setiap _state_ pada automaton, dapat menghasilkan/meng- _output_ kan\nsuatu kata ( _word_ ) dengan probabilitas pada Tabel 8.3. Kita kembangkan\nlagi Gambar 8.5 dengan tambahan informasi _lexical emission probabilities_\nmenjadi Gambar 8.6. Automaton ini disebut _hidden markov model_ (HMM).\nKata _hidden_ berarti, untuk setiap kata pada sekuens, kita tidak mengetahui\nkata tersebut dihasilkan oleh _state_ mana secara model (baru diketahui saat\n_running_ ). Misalkan, kata _flies_ dapat dihasilkan oleh _state_ N( _noun_ ) atauV\n( _verb_ ) [38].\nDiberikan kalimat “ _flies like a flower_ ”, untuk menghitung sekuens kelas\nkata untuk kalimat tersebut, kita menyelusuri automaton Gambar 8.6. Hasil\npenelusuran memberikan kita kombinasi sekuens yang mungkin seperti pada\nGambar 8.7. Pekerjaan berikutnya adalah, dari seluruh kombinasi sekuens\nyang mungkin, yaitu\n\n#### ∏T\n\n```\ni=1P(wi|ci)P(ci|ci−^1 ). Bagaimana cara kita menen-\n```\n\n110 8 Hidden Markov Model\n\n```\nNULL\n```\n```\nART V\n```\n```\nN P\n```\n```\nSTART\n```\n```\n0.71\n```\n```\n0.29\n```\n```\n1\n```\n```\n0.65\n```\n```\n0.43\n0.35\n```\n```\n0.26\n```\n```\n0.44\n0.13\n```\n```\n0.74\n```\n```\nP(the|ART)\t=\t0.54\nP(a|ART)\t =\t0.360\n```\n```\nP( _flies_ |V) =\t0.76\nP(flower|V)=\t0.05\nP(like|V) =\t0.1\n```\n```\nP(P( _flies_ |Na|N) ) =\t0.25=\t0.001 P(like|P) =\t0.068\nP(flower|N)=\t0.063\nP(like|N) =\t0.012\nP(birds|N) =\t0.076\n```\n```\nGambar 8.6: _Hidden Markov Model_.\n```\n```\nGambar 8.7: Sekuens yang mungkin ( _brute force_ ).\n```\ntukan sekuens terbaik (paling optimal), yaitu sekuens dengan probabilitas\ntertinggi, diberikan pada subbab berikutnya.\nSecara formal, _hidden markov model tagger_ didefinisikan oleh beberapa\nkomponen [12]:\n\n```\n1.Q={q 1 ,q 2 ,...,qS}yaitu himpunan _states_ ;Smenunjukkan banyaknya\n_states_.\n2.A=a 0 , 0 ,a 1 , 1 ,a 2 , 2 ,...,aS,Syaitu _transition probability_ matrixdari\nsuatu _state_ imenuju _state_ j; dimana\n```\n#### ∑S\n\n```\nj=0ai,j= 1. Indeks 0 merepresentasikanstart\n_state_ ( _null state_ ).Smelambangkan banyaknya _states_.\n3.o=o 1 ,o 2 ,...,oTyaitu sekuensobservasi(kata/ _input_ );Tadalah panjang\n_input_.\n4.b=bi(ow) yaitu sekuens dari _observation likelihood_, atau disebut dengan _emission_\nprobabilities, merepresentasikan sebuah observasi kataow\ndihasilkan oleh suatu _state-i_.\n```\n\n```\n8.5 Algoritma Viterbi 111\n```\n```\n5.q 0 ,qFyaitu kumpulan _states_ pesial yang terdiri dari _start state_ danfinal\n_state_ (s).\n```\n"} {"text": "### 8.3 Part-of-speech Tagging\n\nPada bidang pemrosesan bahasa alami ( _natural language processing_ ), peneliti\ntertarik untuk mengetahui kelas kata untuk masing-masing kata di tiap kalimat.\nMisalkan kamu diberikan sebuah kalimat “ _Budi menendang bola_ ”. Setelah\nproses POS _tagging_, kamu akan mendapat “Budi/Noun menendang/Verb\nbola/Noun” (Gambar 8.4). Hal ini sangat berguna pada bidang pemrosesan\nbahasa alami, misalkan untuk memilih _noun_ pada kalimat. Kelas kata disebut\nsebagai _syntactic categories_. Pada bahasa Inggris, kita mempunyai kelas kata\nyang dikenal dengan _Penn Treebank POS Tags_,^4 diberikan pada Tabel 8.1.\n\n```\nPOS tag Noun Verb Noun\nKata Budi Menendang Bola\n```\n```\nGambar 8.4: Contoh POS _tagging_.\n```\nPOS _tagging_ adalah salah satu bentuk pekerjaan _sequential classification_.\nDiberikan sebuah sekuens kata (membentuk satu kalimat), kita ingin\nmenentukan kelas setiap kata/ _token_ pada kalimat tersebut. Kita ingin\nmemilih sekuens kelas kata _syntactic categories_ yang paling cocok untuk katakata/ _tokens_\npada kalimat yang diberikan. Secara formal, diberikan sekuens\nkata-kataw 1 ,w 2 ,...,wT, kita ingin mencari sekuens kelas katac 1 ,c 2 ,...,cT\nsedemikian sehingga kita memaksimalkan nilai probabilitas 8.6 [12, 38].\n\n```\ncˆ 1 ,cˆ 2 ,...,cˆT= arg max\nc 1 ,c 2 ,...,cT;ci\u000fC\n```\n```\nP(c 1 ,c 2 ,...,cN|w 1 ,w 2 ,...,wT) (8.6)\n```\nDimanaCadalah daftar kelas kata. Akan tetapi, menghitung persamaan 8.6\nsangatlah sulit karena dibutuhkan data yang sangat banyak (kombinasi sekuens\n\n(^4) https://www.ling.upenn.edu/courses/Fall_ _2003/ling001/penn_ _treebank_\npos.html\n\n\n106 8 Hidden Markov Model\n\n```\nNo. Tag Description\n```\n1. CC Coordinating conjunction\n2. CD Cardinal number\n3. DT De _term_ iner\n4. EX Existential there\n5. FW Foreign word\n6. IN Preposition or subordinating conjunction\n7. JJ Adjective\n8. JJR Adjective, comparative\n9. JJS Adjective, superlative\n10. LS List item marker\n11. MD Modal\n12. NN Noun, singular or mass\n13. NNS Noun plural\n14. NNP Proper noun singular\n15. NNPS Proper noun plural\n16. PDT Pre _determiner_\n17. POS Possessive ending\n18. PRP Personal pro _noun_\n19. PRP$ Possessive pro _noun_\n20. RB Ad _verb_\n21. RBR Ad _verb_, comparative\n22. RBS Ad _verb_, superlative\n23. RP P _article_\n24. SYM Symbol\n25. TO to\n26. UH Interjection\n27. VB Verb base form\n28. VBD Verb past tense\n29. VBG Verb gerund or present participle\n30. VBN Verb past participle\n31. VBP Verb non-3rd person singular present\n32. VBZ Verb 3rd person singular present\n33. WDT Wh- _determiner_\n34. WP Wh-pro _noun_\n35. WP$ Possessive wh-pro _noun_\n36. WRB Wh-ad _verb_\n\n```\nTabel 8.1: Penn Treebank POS Tag.\n```\nkata sangat sulit untuk didaftar/sangat banyak). Teori Bayes digunakan untuk\nmelakukan aproksimasi permasalahan ini. Ingat kembali teori Bayes seperti\npada persamaan 8.7.\n\n```\nP(x|y) =\nP(y|x)P(x)\nP(y)\n```\n#### (8.7)\n\n\n```\n8.3 Part-of-speech Tagging 107\n```\nDengan menggunakan teori Bayes, kita dapat mentransformasi persamaan 8.6\nmenjadi persamaan 8.8.\n\ncˆ 1 ,cˆ 2 ,...,cˆT= arg max\nc 1 ,c 2 ,...,cT;ci\u000fC\n\n```\nP(w 1 ,w 2 ,...,wT|c 1 ,c 2 ,...,cT)P(c 1 ,c 2 ,...,cT)\nP(w 1 ,w 2 ,...,wT)\n(8.8)\n```\nUntuk suatu sekuens input,P(w 1 ,w 2 ,...,wT) ( _language model_ ) akan selalu\nsama sehingga dapat diabaikan (karena operasi yang dilakukan adalah\nmengubah-ubah atau mencaric). Oleh karena itu, persamaan 8.8 dapat\ndisederhanakan menjadi 8.9.\n\n```\ncˆ 1 ,cˆ 2 ,...,cˆT= arg max\nc 1 ,c 2 ,...,cT;ci\u000fC\n```\n```\nP(w 1 ,w 2 ,...,wT|c 1 ,c 2 ,...,cT)P(c 1 ,c 2 ,...,cT)\n```\n(8.9)\nPada persamaan 8.9, kombinasi sekuens kelas kata jauh lebih sedikit dibanding\nkombinasi sekuens kata (karena kelas kata jumlahnya lebih terbatas). Ingat\nkembaliP(c 1 ,c 2 ,...,cT) disebut _prior_,P(w 1 ,w 2 ,...,wT|c 1 ,c 2 ,...,cT)\ndisebut _likelihood_ (bab 2).\nPersamaan 8.9 masih dapat disederhanakan kembali menggunakanmarkov\nassumption, yaitu dengan membuat asumsi saling lepas pada sekuens (disebutindependence\nassumption). Terdapat dua asumsi, pertama, kategori\nsuatu kata hanya bergantung pada dirinya sendiri tanpa memperhitungkan\nkelas kata disekitarnya, seperti pada persamaan 8.10. Asumsi kedua adalah\nsuatu kemunculan kategori kata hanya bergantung pada kelas kata sebelumnya,\nseperti pada persamaan 8.11.\n\n```\nP(w 1 ,w 2 ,...,wT|c 1 ,c 2 ,...,cT) =\n```\n#### ∏T\n\n```\ni=1\n```\n```\nP(wi|ci) (8.10)\n```\n```\nP(c 1 ,c 2 ,...,cT) =\n```\n#### ∏T\n\n```\ni=1\n```\n```\nP(ci|ci− 1 ) (8.11)\n```\nDengan demikian, persamaan 8.9 disederhanakan kembali menjadi persamaan\n8.12 yang disebut _bigram assumption_ atau _first-order markov chain_,\ndimanaTmelambangkan panjangnya sekuens.\n\n```\ncˆ 1 ,cˆ 2 ,...,cˆT= arg max\nc 1 ,c 2 ,...,cT;ci\u000fC\n```\n#### ∏T\n\n```\ni=1\n```\n```\nP(wi|ci)P(ci|ci− 1 ) (8.12)\n```\nKita dapat membuat ekstensi persamaan 8.12 dengan _trigram assumption_, _quadgram_\nassumption, dan seterusnya.P(ci|ci− 1 ,ci− 2 ) untuk _trigram_,P(ci|ci−\n1 ,ci− 2 ,ci− 3 ) untuk _quadgram_. Walau menghitung probabilitas\nseluruh sekuens adalah hal yang susah, hal tersebut dapat di _model_ kan dengan\n\n\n108 8 Hidden Markov Model\n\nlebih baik menggunakan _recurrent neural network_ (subbab 13.2). Anda dapat\nmembaca subbab tersebut kemudian, ada baiknya kita mengerti pendekatan\nyang lebih sederhana terlebih dahulu.\nSebagai contoh, untuk kalimat “ _budi menendang bola_ ”, peluang kalimat\ntersebut memiliki sekuens kelas kata “ _noun_, _verb_, _noun_ ” adalah\n\n```\nP( _noun_, _verb_, _noun_ ) =P(budi| _noun_ )P( _noun_ |null)P(menendang| _verb_ )\nP( _verb_ | _noun_ )P(bola| _noun_ )P( _noun_ | _verb_ )\n(8.13)\n```\n"} {"text": "### 6.3 Isu pada ID3\n\nPada algoritma _decision tree_ secara umum, terdapat beberapa isu diantara\nlain [7, 36]:\n\n1. Mudah overfitting\n2. Masalah menangani atribut kontinu\n3. _Information gain_ memiliki bias terhadap atribut yang memiliki banyak\n nilai ( _highly-branching attributes_ )\n4. Data dengan _missing value_. Beberapa sel pada tabel dataset tidak terisi.\n5. Data dengan _unseen value_. Misal nilai atribut yang tidak pernah dilihat\n pada _training data_, muncul saat _testing_.\n\n"} {"text": "### 6.1 Inductive Learning\n\nSalah satu bentuk “kecerdasan” sederhana kemungkinan adalah dalam bentuk\naturan ( _rule_ ) yang merepresentasikan pengetahuan. Misalkan, untuk\nmenentukan apakah suatu pasien terserang penyakit tertentu, dokter mencari\ntahu gejala-gejala yang ada. Berdasarkan gejala-gejala yang ada, dokter\nmemutuskan bahwa pasien memiliki suatu penyakit. Pada zaman dahulu,\npeneliti mentranskripsi aturan-aturan ( _if then_ ) eksplisit (berdasarkan pengetahuan\nahli) untuk membuat agen cerdas ( _expert system_ ). Aturan sangat\nberguna, tetapi proses transkripsi pengetahuan sang ahli menjadi aturan formal\n(matematis) adalah hal yang sulit. Terlebih lagi, aturan-aturan yang sudah\ndibangun cenderung tidak dapat diubah dengan mudah.\nPada era _big data_ seperti sekarang, kita dapat mengotomatisasi hal tersebut\ndengan membuat aturan-aturan secara otomatis berdasarkan contoh data\nyang ada ( _machine learning_ ). Pendekatan ini disebut _inductive learning_, yaitu\nmengembangkan aturan klasifikasi yang dapat menentukan kelas suatu _instance_ berdasarkan\nnilai atributnya ( _feature vector_ ). Cara paling sederhana\ndiberikan pada subbab 3.3 yaitu mendaftarkan seluruh kemungkinan aturan\nyang ada, kemudian menghapus yang kurang cocok. Algoritma lebih baik\nadalah dengan membangun pohon keputusan ( _decision tree_ ).\n\n\n84 6 Pohon Keputusan\n\n"} {"text": "### Soal Latihan\n\n6.1. Isu\nPada subbab 6.3, telah disebutkan isu-isu yang ada pada ID3, sebutkan dan\njelaskan bagaimana cara menangani masing-masing isu tersebut!\n\n6.2. Gain Ratio\nSelain _information gain_, kita dapat menggunakan cara lain untuk memilih\natribut bernama _gain ratio_. Jelaskan perbedaan keduanya! Yang mana lebih\nbaik?\n\n6.3. C4.5\nID3 disempurnakan kembali oleh pembuat aslinya menjadi C4.5. Jelaskanlah\nperbedaan ID3 dan C4.5, beserta alasan st _rate_ gi penyempurnaan!\n\n6.4. Pruning\nJelaskan apa itu _pruning_ dan bagaimana cara melakukan _pruning_ untukdecision\ntree!\n\n6.5. Association Rule\nTerdapat beberapa algoritma _association rule_ yang membentuk aturan-aturan\nseperti _decision tree_.\n(a) Jelaskanlah algoritma PRISM dan A _prior_ i!\n(b) Jelaskan perbedaan _association rule_ dan _inductive learning_ !\n\n6.6. Final Decision Tree\nLanjutkanlah proses konstruksi ID3 untuk Tabel 6.1 hingga membentukdecision\ntreeakhir seperti pada Gambar 6.1!\n\n6.7. Variant\nJelaskanlah _Random Forest_, _Bagging_ dan _Boosting_ pada _Decision Tree_ !\n\n\n\n"} {"text": "### 6.2 ID3\n\n_Decision tree_ adalah varian dari _inductive learning_. ID3 adalah salah satu\nalgoritma varian _decision tree_ [34]. _Decision tree_ dibangun berdasarkan asumsi\nbila atribut yang ada memberikan informasi yang cukup memadai maka kita\nmampu membangun _decision tree_ yang mampu mengklasifikasikan seluruh\n_instance_ di _training data_ [34]. Akan tetapi, kita tentunya ingin melakukan\ngeneralisasi, yaitu _decision tree_ yang juga mampu mengklasifikasikan objek\ndengan benar untuk _input_ yang tidak ada di _training data_ ( _unseen instances_ ).\nOleh karena itu, kita harus mampu mencari hubungan antara kelas dan nilai\natribut.\n\n```\nGambar 6.1:Final decision tree\n```\n```\nid outlook temperature humidity windy play ( _class_ )\n1 sunny hot high false no\n2 sunny hot high true no\n3 overcast hot high false yes\n4 rainy mild high false yes\n5 rainy cool normal false yes\n6 rainy cool normal true no\n7 overcast cool normal true yes\n8 sunny mild high false no\n9 sunny cool normal false yes\n10 rainy mild normal false yes\n11 sunny mild normal true yes\n12 overcast mild high true yes\n13 overcast hot normal false yes\n14 rainy mild high true no\n```\n```\nTabel 6.1: Contoh dataset _play tennis_ (UCI machine learning repository).\n```\n\n```\n6.2 ID3 85\n```\nSt _rate_ gi pembangunan ID3 adalah berdasarkan _top-down_ rekursif. Pertama,\nkita pilih atribut untuk _root_ pohon, lalu membuat cabang untuk setiap\nnilai atribut yang mungkin. Untuk masing-masing cabang, kita buat _subtree_.\nKita hentikan proses ini ketika kita sudah mencapai _leaf_ (tidak bisa mencabang\nlebih jauh). _Leaf_ ditandai apabila seluruh _instance_ pada cabang tersebut\nmemiliki kelas yang sama. Atribut yang sudah dipilih pada _ancestor_ tidak\nakan dicoba pada percabangan di cabang tertentu.\nSebagai contoh, perhatikanlah Gambar 6.1 yang merupakan hasil ID3\nuntuk Tabel 6.1. Bentuk elips merepresentasikan nama atribut, sementara\n_edge_ (panah) merepresentasikan nilai atribut. Bentuk segi empat merepresentasikan\nklasifikasi kelas ( _leaf_ ). Pohon keputusan pada Gambar 6.1 dapat\ndikonversi menjadi kumpulan aturan klasifikasi berbentuk logika preposisi\ndengan menelusuri setiap cabang pada pohon tersebut, yaitu:\n\n- if _outlook=sunny_ and _humidity=high_ then _play=no_\n- if _outlook=sunny_ and _humidity=normal_ then _play=yes_\n- if _outlook=overcast_ then _play=yes_\n- if _outlook=rainy_ and _windy=false_ then _play=yes_\n- if _outlook=rainy_ and _windy=true_ then _play=no_\n\nKarena _decision tree_ dapat interpretasikan sebagai logika preposisi, model ini\ntergolong _interpretable_. Artinya, manusia dapat mengerti proses yang terjadi\npada model dengan mudah.\nPada setiap langkah membangun ID3, kita menggunakaninformation\ngainuntuk memilih kandidat atribut terbaik. _Information gain_ mengukur\nkemampuan suatu atribut untuk memisahkan _training data_ berdasarkan kelas\n[7].\nSebelum masuk ke perumusan _information gain_, penulis akan mengingatkan _entropy_ terlebih\ndahulu. Entropy (derajat ketidakteraturan) adalah\ninformasi yang dibutuhkan untuk memprediksi sebuah kejadian, diberikan\ndistribusi probabilitas. Secara matematis, entropy didefinisikan pada persamaan\n6.1 (xadalah kumpulan nilai probabilitas).\n\n```\n_entropy_ (x) =−\n```\n#### ∑N\n\n```\ni=1\n```\n```\nxilogxi (6.1)\n```\nKita juga definisikanInfo sebagai persamaan 6.2, dimana ci adalah\nbanyaknya instance diklasifikasikan sebagai kelas ke-i (atau secara lebih\numum, ke _node_ -i).\n\n\n86 6 Pohon Keputusan\n\n```\nInfo(c 1 ,c 2 ,...,cN) = entropy(\n```\n```\nc 1\n∑N\nj cj\n```\n#### ,\n\n```\nc 2\n∑N\nj cj\n```\n#### ,...,\n\n```\ncN\n∑N\nj cj\n```\n#### ) (6.2)\n\n_Information gain_ dihitung sebagai persamaan 6.3, dimanaciadalah jumlah _instance_ untuk\nkelas ke-i,vadalah nilai atribut,cvadalah banyaknya\n_instance_ ketika dicabangkan dengan nilai atributv,cvxadalah banyaknya\n_instance_ kelas saat percabangan. _Information gain_ dapat dimaknai sebagai\npengurangan entropy karena melakukan percabangan.\n\n```\nIG(c 1 ,c 2 ,...,cN) = Info(c 1 ,c 2 ,...,cN)−\n```\n#### ∑\n\n```\nv\u000fV\n```\n```\ncv\n∑N\ni=1ci\n```\n```\nInfo(c 1 v,c 2 v,...,cNv)\n```\n(6.3)\nSebagai contoh, mari kita hitung _Information gain_ untuk atribut _outlook_\nsebagai _root_. Dari keseluruhan data terdapat 9 _instance_ untuk _play=yes_ dan\n5 instanceuntuk _play=no_. Kita hitung Info semesta sebagai (logbasis 2)\n\n```\nInfo([9,5]) = entropy\n```\n#### ([\n\n#### 9\n\n#### 14\n\n#### ,\n\n#### 5\n\n#### 14\n\n#### ])\n\n#### =−\n\n#### 9\n\n#### 14\n\n```\nlog\n```\n#### (\n\n#### 9\n\n#### 14\n\n#### )\n\n#### −\n\n#### 5\n\n#### 14\n\n```\nlog\n```\n#### (\n\n#### 5\n\n#### 14\n\n#### )\n\n#### = 0. 940\n\nKita hitung _entropy_ untuk masing-masing nilai atribut _outlook_ sebagai berikut:\n\n- outlook=sunny\n Ada dua _instance_ dengan _play=yes_ dan tiga _instance_ dengan _play=no_\n saat _outlook=sunny_, dengan demikian kita hitung Info-nya.\n\n```\nInfo([2,3]) = entropy\n```\n#### (\n\n#### 2\n\n#### 5\n\n#### ,\n\n#### 3\n\n#### 5\n\n#### )\n\n#### =−\n\n#### 2\n\n#### 5\n\n```\nlog\n```\n#### (\n\n#### 2\n\n#### 5\n\n#### )\n\n#### −\n\n#### 3\n\n#### 5\n\n```\nlog\n```\n#### (\n\n#### 3\n\n#### 5\n\n#### )\n\n#### = 0. 971\n\n- outlook=overcast\n Ada empat _instance_ dengan _play=yes_ dan tidak ada _instance_ dengan\n play=nosaat _outlook=overcast_, dengan demikian kita hitung Info-nya.\n\n```\nInfo([4,0]) = entropy\n```\n#### (\n\n#### 4\n\n#### 4\n\n#### ,\n\n#### 0\n\n#### 4\n\n#### )\n\n#### =−\n\n#### 4\n\n#### 4\n\n```\nlog\n```\n#### (\n\n#### 4\n\n#### 4\n\n#### )\n\n#### −\n\n#### 0\n\n#### 4\n\n```\nlog\n```\n#### (\n\n#### 0\n\n#### 4\n\n#### )\n\n#### = 0\n\n```\nPerhatikan log 0 pada matematika adalah tidak terdefinisi, tapi kita\nanggap 0 log 0 sebagai 0 dalam komputasi.\n```\n\n```\n6.2 ID3 87\n```\n- outlook=rainy\n Ada tiga _instance_ dengan _play=yes_ dan dua _instance_ dengan _play=no_\n saat _outlook=rainy_, dengan demikian kita hitung Info-nya.\n\n```\nInfo([3,2]) = _entropy_\n```\n#### (\n\n#### 3\n\n#### 5\n\n#### ,\n\n#### 2\n\n#### 5\n\n#### )\n\n#### =−\n\n#### 3\n\n#### 5\n\n```\nlog\n```\n#### (\n\n#### 3\n\n#### 5\n\n#### )\n\n#### −\n\n#### 2\n\n#### 5\n\n```\nlog\n```\n#### (\n\n#### 2\n\n#### 5\n\n#### )\n\n#### = 0. 971\n\nKita hitung _information gain_ untuk atribut _outlook_ sebagai\n\n```\nIG( _outlook_ ) = Info ([9,5])−\n(\n5\n14\n```\n```\n×Info ([3,2]) +\n```\n#### 4\n\n#### 14\n\n```\n×Info([4,0]) +\n```\n#### 5\n\n#### 14\n\n```\n×Info([3,2])\n```\n#### )\n\n#### = 0. 940 −\n\n#### (\n\n#### 5\n\n#### 14\n\n#### × 0 .971 +\n\n#### 4\n\n#### 14\n\n#### ×0 +\n\n#### 5\n\n#### 14\n\n#### × 0. 971\n\n#### )\n\n#### = 0. 940 − 0. 693\n\n#### = 0. 247\n\nDengan metode yang sama, kita hitung _information gain_ untuk atribut lain-\nnya.\n\n- IG(temperature) = 0. 029\n- IG( _humidity_ ) = 0. 152\n- IG(windy) = 0. 048\n\nDengan demikian, kita memilih atribut _outlook_ sebagai _root_.\nKita lanjutkan lagi membuat _subtree_ setelah memilih atribut _outlook_ sebagai _root_.\nKita hitung atribut yang tepat pada cabangoutook=sunny, seperti\ndiilustrasikan pada Gambar 6.2.\nPada _outlook=sunny_, terdapat dua _instance_ dengan kelas _play=yes_\ndan tiga _instance_ dengan kelas _play=no_. Kita hitung _information gain_ saat\nmelanjutkan cabang dengan atribut _humidity_.\n\n```\nIG( _humidity_ ) = Info([2,3])−\n```\n#### (\n\n#### 3\n\n#### 5\n\n```\n×Info([0,3]) +\n```\n#### 2\n\n#### 5\n\n```\n×Info([2,0])\n```\n#### )\n\n#### = 0. 971 − 0\n\n#### = 0. 971\n\nUntuk setiap kedalaman, kita coba menggunakan atribut yang belum pernah\ndicoba pada level-level lebih atas, seperti yang sudah diilutrasikan. Proses ini\ndilanjutkan sampai kita tidak bisa atau tidak perlu mencabang lagi.\n\n\n88 6 Pohon Keputusan\n\n```\nGambar 6.2: Percabangan\n```\n"} {"text": "### 6.4 Pembagian Ruang Konsep\n\nAda hubungan antara algorithma _decision tree_ dan model linear. Pada model\nlinear, kita semacam membagi-bagi ruang konsep (semesta data) menjadi ruang\nper kelas menggunakan garis pembatas linear. _Decision tree_ melakukan\nhal yang hampir sama, karena percabangan _decision tree_ dapat dianggap sebagai\nlinear. Sebagai contoh perhatikan ilustrasi Gambar 6.3, dimana semesta\nadalah suatu ruang konsep. Tiap ruang merepresentasikan suatu cabang (dari\n_root_ sampai leaf) pada _decision tree_. Garis-garis yang membentuk ruangruang\npemisah disebut sebagai _decision boundary_.\n\n\n```\n6.4 Pembagian Ruang Konsep 89\n```\n```\nGambar 6.3: Ilustrasi pembagian ruang konsep\n```\n"} {"text": "### Soal Latihan\n\n10.1. Intra- _cluster_ Evaluation\nBuktikan kebenaran persamaan 10.7.\n\n10.2. Entropy\nBagaimana cara menghitung kualitas algoritma _clustering_, jika diberikan informasi\nlabel/ kelas setiap data menggunakan: (hint, baca [41])\n(a) Entropy\n(b) Purity\n\n10.3. Kompleksitas\nHitunglah kompleksitas algoritma untuk:\n(a) K- _mean_ s\n(b) Agglomerative Clustering\n(c) Divisive Clustering\n\n10.4. Kemiripan Data\nSebutkanlah contoh perhitungan kemiripan untuk data _string_. Bagaimana\nadaptasi perhitungan tersebut pada formula-formula yang sudah diberikan\npada algoritma K- _mean_ s dan agglomerative clustering.\n\n10.5. Agglomerative vs Divisive Clustering\nMenurut kamu, mengapa pendekatan _bottom-up_ (agglomerative) lebih populer\ndibanding _top-down_ (divisive)? Apa perbedaan kedua pendekatan tersebut\n(keuntungan dan kerugian masing-masing)?\n\n10.6. Agglomerative Link\nJelaskan apa kelebihan dan kekurangan masing-masing metode perhitungan\nkemiripan cluster pada agglomerative clustering!\n\n\n"} {"text": "### 10.3 Evaluasi\n\nDiberikan sekumpulan dataD={d 1 ,d 2 ,···,dN}untuk suatu _cluster_. Saat\ntidak tersedianya informasi label/kelas untuk setiap data, kualitas hasil _clustering_ dapat\ndihitung dengan tiga kriteria yaitu:\n\n```\n1. _Intra-cluster similarity_, yaitu menghitung rata-rata kedekatan antara\nsuatu anggota dan anggota _cluster_ lainnya.\n```\n```\nI=\n```\n#### 1\n\n#### N^2\n\n#### ∑\n\n```\ndidj,i 6 =j\n```\n```\ncosSim(di,dj) (10.6)\n```\n```\nPerhitungan kedekatan antar tiap pasang anggota _clusters_ ama halnya\ndengan menghitung _norm_ dari centroid _cluster_ tersebut, ketika centroid\ndihitung menggunakan _mean_ (buktikan!).\n```\n```\nI=\n```\n#### 1\n\n#### N^2\n\n#### ∑\n\n```\ndidj,i 6 =j\n```\n```\ncosSim(di,dj) =‖c‖^2 (10.7)\n```\n```\nPerhitungan ini dapat di _norm_ alisasi sesuai dengan banyaknya anggota\n_cluster_ \nI′=\n‖c‖^2\nN\n```\n#### (10.8)\n\n```\nSemakin tinggi kemiripan anggota pada suatu _cluster_, semakin baik kualitas\n_cluster_ tersebut.\n```\n```\n2. _Inter-cluster similarity_, yaitu menghitung bagaimana perbedaan antara\nsuatu _cluster_ dan _cluster_ lainnya. Hal tersebut dihitung dengancosine\nsimilarity antara centroid suatu _cluster_ dan centroid dari seluruh\n_data_ [42], dimanackadalah centroid _cluster_ ke-k,cDadalah centroid\n( _mean_ ) dari seluruh data,Nkadalah banyaknya anggota _cluster_ ke-k, dan\nKadalah banyaknya _clusters_. Semakin kecil nilai _inter-cluster similarity_,\nmaka semakin baik kualitas _clustering_.\n```\n#### E=\n\n#### ∑K\n\n```\nk=1\n```\n```\nNk\nckcD\n‖ck‖\n```\n#### (10.9)\n\n```\n3. _Hybrid_. Perhitungan intra- _cluster_ dan inter- _cluster_ mengoptimalkan\nsatu hal sementara tidak memperdulikan hal lainnya. _Intra-cluster_ menghitung\nkeeratan anggota _cluster_, sementara _Inter-cluster_ menghitung separasi\nantar _clusters_. Kita dapat menggabungkan keduanya sebagai _hybrid_\n(gabungan), dihitung dengan:\n```\n#### H=\n\n#### ∑K\n\n```\nk=1I\n′\nk\nE\n```\n#### =\n\n#### ∑K\n\n```\nk=1\n```\n```\n‖ck‖^2\nNk\n∑K\nk=1Nk\n```\n```\nckcD\n‖ck‖\n```\n#### =\n\n#### ∑K\n\n```\nk=1\n```\n```\n‖ck‖\nNk^2 ckcD\n```\n#### (10.10)\n\n```\nSemakin besar nilai perhitungan _hybrid_, semakin bagus kualitas _clusters_.\n```\n\n140 10 Clustering\n\nApabila terdapat informasi label/ kelas untuk setiap data, kita juga dapat\nmenghitung kualitas algoritma _clustering_ (perhatikan! tujuan pengukuran\nadalah kualitas algoritma) dengan _Entropy_ danPurity.\n\n"} {"text": "### 10.2 Hierarchical Clustering\n\nHierarchical clusteringadalah teknik untuk membentuk pembagian bersarang\n(nested partition). Berbeda dengan K- _mean_ s yang hasil _clustering_ -nya berbentukflatatau\nrata, _hierarchical clustering_ memiliki satu _cluster_ paling atas\nyang mencakup konsep seluruh _cluster_ dibawahnya. Ada dua cara untuk membentuk _hierarchical_\n_clustering_ [41]:\n\n```\n1.Agglomerative. Dimulai dari beberapaflat clusters; pada setiap langkah\niterasi, kita menggabungkan dua _clusters_ termirip. Artinya, kita harus\nmendefinisikan arti “kedekatan” dua _clusters_.\n```\n```\n2.Divisive. Dimulai dari satu _cluster_ (seluruh data), kemudian kita memecah\nbelah _cluster_. Artinya, kita harus mendefinisikan _cluster_ mana yang harus\ndipecah dan bagaimana cara memecahnya.\n```\n```\nGambar 10.1: Ilustrasi _hierarchical clustering_.\n```\n(^1) https://en.wikipedia.org/wiki/Cosine_similarity\n\n\n138 10 Clustering\n\nSebagai contoh, algoritma _hierarchical clustering_ menghasilkan struktur\nhirarkis seperti pada gambar 10.1 yang disebutdendogram. Dendogram\nmelambangkan taksonomi, sebagai contoh taksonomi dokumen berita _sport_,\ndipecah menjadi _baseball_ dan _soccer_.\nSejauh ini, teknik _agglomerative clustering_ lebih populer, karena pendekatan\nini bersifat _bottom-up_. Secara umum, pendekatan _bottom-up_ memang\nrelatif lebih populer dibanding pendekatan _top-down_. Langkah-langkahagglomerative\n_clustering_ sebagai berikut:\n\n1. Sediakan sebanyakK _cluster_. Kamu dapat menganggap satu _instance_ data\n sebagai satu _cluster_.\n2. Gabung dua _clusters_ paling mirip.\n3. Ulangi langkah ke-2 sampai hanya satu _cluster_ tersisa.\n Perhatikan, untuk menggabungkan dua _clusters_ termirip, kita membutuhkan\ndefinisi “mirip”. Definisi tersebut dikuantifikasi dengan formula matematis\n(seperti definisi kemiripan data pada subbab 10.1). Perhitungan kemiripan _clusters_ dapat\ndihitung dengan tiga metode [43] (untuk data numerik):\n\n```\n1. _Single Link_. Nilai kemiripan dua _clusters_ UdanVdihitung berdasarkan\nnilai kemiripanmaksimumdiantara anggota kedua _clusters_ tersebut^2.\n```\n```\nSimsingleLink(U,V) = max\nui∈U,vj∈V\ncosSim(ui,vj) (10.3)\n```\n```\n2. _Complete Link_. Nilai kemiripan dua _clusters_ dihitung berdasarkan nilai\nkemiripanminimumdiantara anggota kedua _clusters_ tersebut.\n```\n```\nSimcompleteLink(U,V) = min\nui∈U,vj∈V\ncosSim(ui,vj) (10.4)\n```\n```\n3.UPGMA ( _Average Link_ ). Nilai kemiripan dua _clusters_ dihitung berdasarkan\nnilai kemiripanrata-ratadiantara anggota kedua _clusters_ tersebut.\n```\n```\nSimUPGMA(U,V) =\n```\n#### 1\n\n#### |U||V|\n\n#### ∑\n\n```\nui∈U,vj∈V\n```\n```\ncosSim(ui,vj) =\ncUcV\n|U||V|\n```\n#### (10.5)\n\n```\ndimana|U|adalah banyaknya data pada _cluster_ UdancUadalah centroid\nuntuk _cluster_ U.\n```\n(^2) Clusterdapat dianggap sebagai matriks karena merupakan kumpulanfeature vec-\ntor.\n\n\n```\n10.3 Evaluasi 139\n```\n"} {"text": "### 10.1 K- _mean_ s, Pemilihan Centroid, Kemiripan Data\n\nAlgoritma K- _mean_ s mengelompokkan data menjadi sebanyakK kelompok\nsesuai yang kita definisikan. Algoritma ini disebut juga sebagai _flat clustering_,\nartinya kelompok satu memiliki kedudukan sejajar dengan kelompok lainnya.\nKita tinjau kembali tahapan-tahapan algoritma K- _mean_ s sebagai berikut:\n\n1. Tentukan sebanyakKkelompok yang kita inginkan.\n2. Inisiasi _centroid_ untuk setiap kelompok. Centroid ibarat seperti “ketua\n kelompok”, yang merepresentasikan kelompok.\n3. Hitung kedekatan suatu data terhadap _centroid_, kemudian masukkan data\n tersebut ke kelompok yang _centroid_ -nya memiliki sifat terdekat dengan\n dirinya.\n4. Pilih kembali centroid untuk masing-masing kelompok, yaitu dari anggota\n kelompok tersebut.\n5. Ulangi langkah-langkah sebelumnya sampai tidak ada perubahan anggota\n untuk semua kelompok.\n\nPerhatikan, ada dua hal penting pada algoritma K- _mean_ s yaitu: (1)\nmemilih centroid dan (2) Perhitungan kemiripan data. Pada bab 4, dijelaskan\nsalah satu metode pemilihan centroid paling sederhana yaitu secara acak.\nPada kenyataannya, inisiasi centroid untuk setiap kelompok/ _cluster_ dapat dilakukan\nsecara acak; tetapi pada tahap berikutnya, secara umum centroid\ndipilih menggunakan nilai rata-rata/ _mean_. Dengan demikian, centroid bisa\nsaja merupakan suatu vektor yang tidak ada _entry_ -nya di dataset.\nDiberikan sekumpulan dataD={d 1 ,d 2 ,···,dN}; maka centroidcuntuk\n_cluster_ itu dihitung dengan persamaan 10.1,\n\n```\nc=\n```\n#### 1\n\n#### N\n\n#### ∑N\n\n```\ni=1\n```\n#### ∑F\n\n```\ne=1\n```\n```\ndi[e] (10.1)\n```\nyaitu nilai rata-rata setiap elemen _feature vector_ untuk seluruh anggota _cluster_\ntersebut, dimanaN adalah banyaknya anggota _cluster_,F adalah dimensi\n_vektor_,diadalah anggota ke-i dalam representasi _feature vector_ dandi[e]\nmelambangkan elemen ke-epada vektordi. Dengan ini, centroid secara umum\nbisa jadi tidak merupakan elemen anggota _cluster_ ( _centroid_ bukan sebuah\n_instance_ data).\nPada bab 4 dijelaskan salah satu metode perhitungan kemiripan data\nsederhana yaitu dengan menghitung banyaknya nilai atribut yang sama diantara\ndua _feature vector_. Selain metode tersebut, terdapat banyak perhitungan\nkemiripan data lainnya tergantung pada tipe, contohnya:\n\n```\n1.Numerik. Euclidean Distance, Manhattan Distance, Cosine Distance,\ndsb.\n2.Boolean. Jaccard Dissimilarity, Rogers Tanimoto Dissimilarity, dsb.\n3.String. Levenshtein Distance, Hamming Distance, dsb.\n```\n\n```\n10.2 Hierarchical Clustering 137\n```\nPerhitungan yang paling populer digunakan adalah _cosine similarity_ ^1 (kebetulan\npada kebanyakan kasus kita bekerja dengan data numerik), didefinisikan\npada persamaan 10.2, yaitu _dot product_ antara dua vektor dibagi dengan\nperkalian _norm_ kedua vektor.\n\n```\ncosSim(di,dj) =\ndi·dj\n‖di‖‖dj‖\n```\n#### (10.2)\n\n_Cluster_ s yang terbentuk, nantinya dapat digunakan sebagai pengelompokkan\nuntuk label klasifikasi. Seumpama _cluster_ 1 dapat dianggap sebagai data untuk\nkelas ke-1, dst.\n\n"} {"text": "### 10.3 Evaluasi\n\nDiberikan sekumpulan dataD={d 1 ,d 2 ,···,dN}untuk suatu _cluster_. Saat\ntidak tersedianya informasi label/kelas untuk setiap data, kualitas hasil _clustering_ dapat\ndihitung dengan tiga kriteria yaitu:\n\n```\n1. _Intra-cluster similarity_, yaitu menghitung rata-rata kedekatan antara\nsuatu anggota dan anggota _cluster_ lainnya.\n```\n```\nI=\n```\n#### 1\n\n#### N^2\n\n#### ∑\n\n```\ndidj,i 6 =j\n```\n```\ncosSim(di,dj) (10.6)\n```\n```\nPerhitungan kedekatan antar tiap pasang anggota _clusters_ ama halnya\ndengan menghitung _norm_ dari centroid _cluster_ tersebut, ketika centroid\ndihitung menggunakan _mean_ (buktikan!).\n```\n```\nI=\n```\n#### 1\n\n#### N^2\n\n#### ∑\n\n```\ndidj,i 6 =j\n```\n```\ncosSim(di,dj) =‖c‖^2 (10.7)\n```\n```\nPerhitungan ini dapat di _norm_ alisasi sesuai dengan banyaknya anggota\n_cluster_ \nI′=\n‖c‖^2\nN\n```\n#### (10.8)\n\n```\nSemakin tinggi kemiripan anggota pada suatu _cluster_, semakin baik kualitas\n_cluster_ tersebut.\n```\n```\n2. _Inter-cluster similarity_, yaitu menghitung bagaimana perbedaan antara\nsuatu _cluster_ dan _cluster_ lainnya. Hal tersebut dihitung dengancosine\nsimilarity antara centroid suatu _cluster_ dan centroid dari seluruh\n_data_ [42], dimanackadalah centroid _cluster_ ke-k,cDadalah centroid\n( _mean_ ) dari seluruh data,Nkadalah banyaknya anggota _cluster_ ke-k, dan\nKadalah banyaknya _clusters_. Semakin kecil nilai _inter-cluster similarity_,\nmaka semakin baik kualitas _clustering_.\n```\n#### E=\n\n#### ∑K\n\n```\nk=1\n```\n```\nNk\nckcD\n‖ck‖\n```\n#### (10.9)\n\n```\n3. _Hybrid_. Perhitungan intra- _cluster_ dan inter- _cluster_ mengoptimalkan\nsatu hal sementara tidak memperdulikan hal lainnya. _Intra-cluster_ menghitung\nkeeratan anggota _cluster_, sementara _Inter-cluster_ menghitung separasi\nantar _clusters_. Kita dapat menggabungkan keduanya sebagai _hybrid_\n(gabungan), dihitung dengan:\n```\n#### H=\n\n#### ∑K\n\n```\nk=1I\n′\nk\nE\n```\n#### =\n\n#### ∑K\n\n```\nk=1\n```\n```\n‖ck‖^2\nNk\n∑K\nk=1Nk\n```\n```\nckcD\n‖ck‖\n```\n#### =\n\n#### ∑K\n\n```\nk=1\n```\n```\n‖ck‖\nNk^2 ckcD\n```\n#### (10.10)\n\n```\nSemakin besar nilai perhitungan _hybrid_, semakin bagus kualitas _clusters_.\n```\n\n140 10 Clustering\n\nApabila terdapat informasi label/ kelas untuk setiap data, kita juga dapat\nmenghitung kualitas algoritma _clustering_ (perhatikan! tujuan pengukuran\nadalah kualitas algoritma) dengan _Entropy_ danPurity.\n\n"} {"text": "### 11.6 Binary Classification\n\nSalah satu st _rate_ gi untuk _binary classification_ adalah dengan menyediakan\nhanya satu _output unit_ di jaringan. Kelas pertama direpresentasikan dengan\n−1, kelas kedua direpresentasikan dengan nilai 1 (setelah diaktivasi). Hal ini\ndapat dicapai dengan fungsi non-linear seperti sign^8 atau tanh.^9 Apabila kita\ntertarik dengan probabilitas masuk ke dalam suatu kelas, kita dapat meng-\n\n(^7) Karena struktur lebih susah, setidaknya beranjak dari keputusan terlebih dahulu\n(^8) https://en.wikipedia.org/wiki/Sign_ _function_\n(^9) https://en.wikipedia.org/wiki/Hyperbolic_ _function_\n\n\n154 11 Feed _forward_ Neural Network\n\ngunakan fungsi seperti sigmoid,^10 dimana _output_ pada masing-masing neuron\nberada pada _range_ nilai [0,1].\n\n"} {"text": "### 11.3 Permasalahan XOR\n\nSedikit sejarah, _perceptron_ sebenarnya cukup populer sekitar tahun 1950-1960.\nEntah karena suatu sebab, _perceptron_ menjadi tidak populer dan digantikan\noleh model linear. Saat itu, belum ada algoritma yang bekerja dengan relatif\nbagus untuk melatih _perceptron_ yang digabungkan ( _multilayer perceptron_ ).\nModel linear mendapat popularitas hingga kira-kira sekitar tahun 1990’an\natau awal 2000’an. Berkat penemuan _backpropagation_ sekitar awal 1980,^4 multi _layer_\n_perceptron_ menjadi semakin populer. Perlu dicatat, komunitas riset\nbisa jadi seperti cerita ini. Suatu teknik yang baru belum tentu bisa segera\ndiimplementasikan karena beberapa kendala (misal kendala kemampuan kom-\nputasi).\nPada bab-bab sebelumnya, kamu telah mempelajari model linear dan\n_model_ probabilistik. Kita ulangi kembali contoh data yang bersifat nonlinearly\nseparable, yaitu XOR yang operasinya didefinisikan sebagai:\n\n- XOR(0,0) = 0\n- XOR(1,0) = 1\n- XOR(0,1) = 1\n- XOR(1,1) = 0\n\nIlustrasinya dapat dilihat pada Gambar 11.3. Jelas sekali, XOR ini adalah\nfungsi yang tidak dapat diselesaikan secara langsung oleh model linear.\n\n```\nGambar 11.3: Permasalahan XOR.\n```\nSeperti yang diceritakan pada bab model linear, solusi permasalahan ini\nadalah dengan melakukan transformasi data menjadi _linearly-separable_, misalnya\nmenggunakan fungsi non-linear pada persamaan 11.5 dimana (x,y) adalah\nabsis dan ordinat. Hasil transformasi menggunakan fungsi ini dapat dilihat\npada Gambar 11.4. Jelas sekali, data menjadi _linearly separable_.\n\n```\nφ(x,y) = (x×y,x+y) (11.5)\n```\n(^4) [http://people.idsia.ch/](http://people.idsia.ch/)\n~juergen/who-invented- _backpropagation_.html\n\n\n148 11 Feed _forward_ Neural Network\n\nGambar 11.4: XOR ditransformasi. Segiempat berwarna hijau sebenarnya\nmelambangkan dua _instance_ (yang setelah ditransformasi kebetulan berlokasi\npada tempat yang sama).\n\nSudah dijelaskan pada bab model linear, permasalahan dunia nyata tidak\nsesederhana ini (kebetulan ditransformasikan menjadi data dengan dimensi\nyang sama). Pada permasalahan praktis, kita harus mentransformasi data\nmenjadi dimensi lebih tinggi (dari 2D menjadi 3D). Berbeda dengan ide utama\n_linear model_ / _kernel method_ tersebut,prinsip ANN adalah untuk melewatkan\n_data_ pada fungsi non-linear( _non-linearities_ ). Sekali lagi penulis\ningin tekankan, ANN secara filosofis adalahtrainable non-linear mapping\n_function_ s. ANN mampu mentransformasi data ke _space_ /ruang konsep yang\nberbeda (bisa pada dimensi lebih tinggi atau lebih rendah), lalu mencarinonlinear\n_decision boundary_ dengan _non-linear functions_. Interaksi antar-fitur\njuga dapat di _model_ kan secara non-linear.\nPerlu dicatat, pe _model_ an non-linear inilah yang membuat ANN menjadi\nhebat. ANN mungkin secara luas didefinisikan mencakup _single perceptron_\ntetapi secara praktis,ANN sebenarnya mengacu pada _multilayer perceptron_ dan\narsitektur lebih kompleks(dijelaskan pada subbab berikutnya).\nPada masa ini, (hampir) tidak ada lagi yang menggunakan _single perceptron_.\nUntuk bab-bab kedepan, ketika kami menyebut ANN maka yang diacu\nadalah _multilayer perceptron_ dan arsitektur lebih kompleks ( _single perceptron_\ndi- _exclude_ ). Hal ini disebabkan oleh _single perceptron_ tidak dapat mempelajari\nXOR _function_ secara independen tanpa _feature engineering_, sementara\n_multilayer perceptron_ bisa [53].\n\n"} {"text": "### 11.9 Deep Neural Network\n\n_Deep Neural Network_ (DNN) adalah _artificial neural network_ yang memiliki\nbanyak _layer_. Pada umumnya, _deep neural network_ memiliki lebih dari 3 _layers_\n( _input layer_,N ≥ 2 hidden layers, _output layer_ ), dengan kata lain adalah\nMLP dengan lebih banyak _layer_. Karena ada relatif banyak layer, disebutlah\n_deep_. Proses pembelajaran pada DNN disebut sebagai _deep learning_ (tidak\nada bedanya dengan proses latihan pada jaringan yang lebih dangkal, ini\nhanyalah istilah keren saja) [9]. Jaringan _neural network_ pada DNN disebut\n_deep neural network_.^11\nPerhatikan Gambar 11.11 yang memiliki 4 _layers_. Cara menghitungfinal\n_output_ sama seperti MLP, diberikan pada persamaan 11.11 dimanaβ,γ,λ\nadalah _noise_ atau _bias_,σadalah fungsi aktivasi.\n\n```\nfi=σ\n```\n#### \n\n#### \n\n#### ∑H^2\n\n```\nj=1\n```\n```\nuj,iσ\n```\n#### (H 1\n\n#### ∑\n\n```\nk=1\n```\n```\nvk,jσ\n```\n#### (M\n\n#### ∑\n\n```\nm=1\n```\n```\nxmwm,k+βk\n```\n#### )\n\n```\n+γj\n```\n#### )\n\n```\n+λi\n```\n#### \n\n####  (11.11)\n\nCara melatih _deep neural network_, salah satunya dapat menggunakan _backpropagation_.\nSeperti pada bagian sebelumnya, kita hanya perlu menurunkan\nrumusnya saja.Penurunan diserahkan pada pembaca sebagai latihan.\nHasil proses penurunan dapat dilihat pada Gambar 11.12.\n_Deep network_ terdiri dari banyak _layer_ dan _synapse weight_, karenanya estimasi\nparameter susah dilakukan. Arti filosofisnya adalah susah/lama untuk\nmenentukan relasi antara _input_ dan _output_. Walaupun _deep learning_ sepertinya\nkompleks, tetapi entah kenapa dapat bekerja dengan baik untuk permasalahan\npraktis [9]. _Deep learning_ dapat menemukan relasi “tersembunyi”\n\n(^11) Terkadang disingkat menjadi _deep network_ saja.\n\n\n156 11 Feed _forward_ Neural Network\n\n```\nGambar 11.11: _Deep Neural Network_.\n```\n```\nGambar 11.12: Proses latihan DNN menggunakan _backpropagation_.\n```\n\n```\n11.9 Deep Neural Network 157\n```\nantara _input_ dan _output_, yang tidak dapat diselesaikan menggunakanmulti _layer_\n_perceptron_ (3 layers). Perhatikan, kamu harus ingat bahwa satu langkah\n_feedforward_ memiliki analogi dengan transformasi. Jadi, input ditransformasikan\nsecara non-linear sampai akhirnya pada _output_, berbentuk distribusi\n_class-assignment_.\nBanyak orang percaya _deep neural network_ lebih baik dibanding _neural_\n_network_ yang lebar tapi sedikit _layer_, karena terjadi lebih banyak transformasi.\nMaksud lebih banyak transformasi adalah kemampuan untuk merubah\n_input_ menjadi suatu representasi (tiap _hidden layer_ dapat dianggap sebagai\nsalah satu bentuk representasi _input_ ) dengan langkah _hierarchical_. Seperti\ncontoh permasalahan XOR, permasalahan _non-linearly separable_ pun dapat\ndiselesaikan apabila kita dapat mentransformasi data (representasi data) ke\ndalam bentuk _linearly separable_ pada ruang yang berbeda. Keuntungan utama\n_deep learning_ adalah mampu merubah data dari _non-linearly separable_ menjadilinearly\nseparablemelalui serangkaian transformasi ( _hidden layers_ ). Selain\nitu, _deep learning_ juga mampu mencari _decision boundary_ yang berbentuk\nnon-linear, serta mengsimulasikan interaksi non-linear antar fitur.\nKarena memiliki banyak parameter, proses latihan ANN pada umumnya\nlambat. Ada beberapa st _rate_ gi untuk mempercepat pembelajaran menggunakan\n_deep learning_, misalnya: regularisasi, _successive learning_, dan penggunaan _autoencoder_\n[9]. Sebagai contoh, arti _successive learning_ adalah\njaringan yang dibangun secara bertahap. Misal kita latih ANN dengan 3 _layers_,\nkemudian kita lanjutkan 3 _layers_ tersebut menjadi 4 _layers_, lalu kita latih\nlagi menjadi 5 _layers_, dst. Hal ini sesuai dengan [60], yaitu mulai dari hal kecil.\nIlustrasinya dapat dilihat pada Gambar 11.13. Menggunakan _deep learning_\nharus hati-hati karena pembelajaran cenderung _divergen_ (artinya,minimum\n_squared error_ belum tentu semakin rendah seiring berjalannya waktu– _swing_\nrelatif sering).\n\n```\nGambar 11.13: Contoh _successive learning_.\n```\n\n158 11 Feed _forward_ Neural Network\n\n"} {"text": "### 11.2 Single Perceptron\n\nBentuk terkecil (minimal) sebuah ANN adalah _single perceptron_ yang hanya\nterdiri dari sebuah neuron. Sebuah neuron diilustrasikan pada Gambar 11.2.\n\n(^1) Quora: why is Geoffrey Hinton suspicious of backpropagation and\nwants AI to start over\n\n\n```\n11.2 Single Perceptron 145\n```\nSecara matematis, terdapat _feature vector_ xyang menjadi _input_ bagi neuron\ntersebut. Ingat kembali, _feature vector_ merepresentasikan suatu _data point_,\n_event_ atau _instance_. Neuron akan memproses _input x_ melalui perhitungan\njumlah perkalian antara nilai _input_ dan _synapse weight_, yang dilewatkan\npadafungsi non-linear[51, 52, 4]. Pada _training_, yang dioptimasi adalah\nnilai _synapse weight_ ( _learning parameter_ ). Selain itu, terdapat juga biasbsebagai\nkontrol tambahan (ingat materi _steepest gradient descent_ ). _Output_ dari\nneuron adalah hasil fungsi aktivasi dari perhitungan jumlah perkalian antara\nnilai _input_ dan _synapse weight_. Ada beberapa macam fungsi aktivasi, misal\n_step function_, _sign function_, _rectifier_ dan _sigmoid function_. Untuk selanjutnya,\npada bab ini, fungsi aktivasi yang dimaksud adalah jenissigmoid\n_function_. Silahkan eksplorasi sendiri untuk fungsi aktivasi lainnya. Salah satu\nbentuk tipe _sigmoid function_ diberikan pada persamaan 11.1. Bila di- _plot_\nmenjadi grafik, fungsi ini memberikan bentuk seperti huruf “S”.\n\n```\nGambar 11.2:Single Perceptron.\n```\n```\nσ(u) =\n```\n#### 1\n\n```\n1 +e−u\n```\n#### (11.1)\n\nPerhatikan kembali, Gambar 11.2 sesungguhnya adalah operasi aljabar\nlinear. Single perceptron dapat dituliskan kembali sebagai 11.2.\n\n```\no=f(x·w+b) (11.2)\n```\ndimanaoadalah _output_ danfadalah fungsinon-linear yang dapat diturunkan\nsecara matematis( _differentiable non-linear function_ –selanjutnya\ndisebut “fungsi non-linear” saja.). Bentuk ini tidak lain dan tidak bukan\nadalah persamaan model linear yang ditransformasi dengan fungsi non-linear.\n\n\n146 11 Feed _forward_ Neural Network\n\nSecara filosofis, ANN bekerja mirip dengan model linear, yaitu mencaridecision\nboudary. Apabila beberapa model non-linear ini digabungkan, maka\nkemampuannya akan menjadi lebih hebat (subbab berikutnya). Yang menjadikan\nANN “spesial” adalah penggunaan fungsi non-linear.\nUntuk melakukan pembelajaran _single perceptron_, _training_ dilakukan menggunakan _perceptron_\n_training_ rule. Prosesnya sebagai berikut [4, 51, 52]:\n\n1. Inisiasi nilai _synapse weights_, bisa _random_ ataupun dengan aturan ter-\n tentu. Untuk heuristik aturan inisiasi, ada baiknya membaca buku refer-\n ensi [1, 11].\n2. Lewatkan input pada neuron, kemudian kita akan mendapatkan nilaiout-\n put. Kegiatan ini disebut _feedforward_.\n3. Nilai _output_ ( _actual output_ ) tersebut dibandingkan dengan _desired output_.\n4. Apabila nilai _output_ sesuai dengan _desired output_, tidak perlu mengubah\n apa-apa.\n5. Apabila nilai _output_ tidak sesuai dengan _desired output_, hitung nilai _error_\n ( _loss_ ) kemudian lakukan perubahan terhadap _learning parameter_ (synapse\n weight).\n6. Ulangi langkah-langkah ini sampai tidak ada perubahan nilai _error_, nilai\n errorkurang dari sama dengan suatu _threshold_ ( _bias_ anya mendekati 0),\n atau sudah mengulangi proses latihan sebanyakTkali ( _threshold_ ).\nSalah satu cara melatih _neural network_ adalah dengan mengoptimalkan\n_error function_, diberikan pada persamaan 11.3^2 (dapat diganti denganabsolute\nvalue). Perubahan nilai _synapse weight_ saat proses latihan (apabila\nE 6 = 0 diberikan pada persamaan 11.4, dimanaymelambangkan _desired output_,^3\no=f(x·w+b) melambangkan _actual output_ untukxsebagai input,η\nadalah _learning rate_.\n\n```\nE(w) = (y−o)^2 (11.3)\n```\n∆wi=η(y−o)xi (11.4)\nHasil akhir pembelajaran adalah konfigurasi _synapse weight_ yang mengoptimalkan\nnilai _error_. Saat klasifikasi, kita melewatkan _input_ baru pada\njaringan yang telah dibangun, kemudian tinggal mengambil hasilnya. Pada\ncontoh kali ini, seolah-olah _single perceptron_ hanya dapat digunakan untuk\nmelakukan _binary classification_ (hanya ada dua kelas, nilai 0 dan 1). Untuk _multi-class_\n_classification_, kita dapat menerapkan berbagai st _rate_ gi, misal\n_thresholding_, i.e., nilai _output_ 0 − 0 .2 mengacu pada kelas pertama, 0. 2 − 0. 4\nuntuk kelas kedua, dst.\n\n(^2) Pada umumnya, kita tidak menggunakan satu data, tetapi _batch_ -sized.\n(^3) Pada contoh ini, kebetulan banyaknya _output_ neuron hanyalah satu.\n\n\n```\n11.3 Permasalahan XOR 147\n```\n"} {"text": "### 11.1 Definisi Artificial Neural Network\n\nMasih ingatkah Anda materi pada bab-bab sebelumnya? Machine learningsebenarnya\nmeniru bagaimana proses manusia belajar. Pada bagian ini,\npeneliti ingin meniru proses belajar tersebut dengan mensimulasikan jaringan\nsaraf biologis ( _neural network_ ) [44, 45, 46, 47]. Kami yakin banyak yang sudah\ntidak asing dengan istilah ini, berhubung _deep learning_ sedang populer dan\nbanyak yang membicarakannya (dan digunakan sebagai trik pemasaran).Artificial\n_neural network_ adalah salah satu algoritma _supervised learning_ yang\n\n\n144 11 Feed _forward_ Neural Network\n\npopuler dan bisa juga digunakan untuk _semi-supervised_ atau _unsupervised_\n_learning_ [45, 47, 48, 49, 50]. Walaupun tujuan awalnya adalah untuk mensimulasikan\njaringan saraf biologis, jaringan tiruan ini sebenenarnya simulasi\nyang terlalu disederhanakan, artinya simulasi yang dilakukan tidak mampu\nmenggambarkan kompleksitas jaringan biologis manusia (menurut penulis).^1\n_Artificial Neural Network_ (selanjutnya disingkat ANN), menghasilkan\n_model_ yang sulit dibaca dan dimengerti oleh manusia karena memiliki banyak\n_layer_ (kecuali _single perceptron_ ) dan sifatnon-linear(merujuk pada fungsi\naktivasi). Pada bidang riset ini, ANN disebut agnostik–kita percaya, tetapi\nsulit membuktikan kenapa konfigurasi parameter yang dihasilkan _training_ bisa\nbenar. Konsep matematis ANN itu sendiri cukup _solid_, tetapi _interpretability_ model\nrendah menyebabkan kita tidak dapat menganalisa proses inferensi\nyang terjadi pada model ANN. Secara matematis, ANN ibarat sebuah graf.\nANN memiliki neuron/ _node_ ( _vertex_ ), dan sinapsis ( _edge_ ). Topologi ANN akan\ndibahas lebih detil subbab berikutnya. Karena memiliki struktur seperti graf,\noperasi pada ANN mudah dijelaskan dalam notasi aljabar linear. Sebagai gambaran,\nANN berbentuk seperti Gambar 11.1 ( _deep neural network_, salah satu\nvarian arsitektur). _Depth_ (kedalaman) ANN mengacu pada banyaknya _layer_.\nSementara _width_ (lebar) ANN mengacu pada banyaknya unit pada _layer_.\n\n```\nGambar 11.1: _Deep Neural Network_.\n```\n"} {"text": "### 11.11 Regularization and Dropout\n\nSeperti yang sudah dijelaskan pada model linear. Kita ingin model mengeneralisasi\ndengan baik (kinerja baik pada _training data_ dan _unseen examples_ ).\nKita dapat menambahkan fungsi regularisasi untuk mengontrol kompleksitas\nANN. Regularisasi pada ANN cukup _straightforward_ seperti regularisasi pada\n_model linear_ (subbab 5.9). Kami yakin pembaca bisa mengeksplorasi sendiri.\nSelain itu, agar ANN tidak “bergantung” pada satu atau beberapasynapse\n_weight_ ssaja, kita dapat menggunakan _dropout_. _Dropout_ berarti me-nol-kan\n\n\n160 11 Feed _forward_ Neural Network\n\nnilai _synapse weights_ dengan nilai _rate_ tertentu. Misalkan kitanol-kan nilai\n30% _synapse weights_ ( _dropout rate_ = 0.3) secara random. Hal ini dapat dicapai\ndengan teknik _masking_, yaitu mengalikan _synapse weights_ dengan suatu _mask_.\nIngat kembali ANN secara umum, persamaan 11.13 dimanaWadalah\n_synapse weights_,xadalah _input_ (dalam pembahasan saat ini, dapat merepresentasikan _hidden_\n_state_ pada suatu layer),badalah _bias_ danfadalah fungsi\naktivasi (non-linear). Kita buat suatu _mask_ untuk _synapse weights_ seperti\npada persamaan 11.14, dimanapadalah vektor danpi= [0,1] merepresentasikansynapse\n_weight_ diikutsertakan atau tidak.r% ( _dropout rate_ ) elemen\n_vektor_ pbernilai 0. Biasanyapdiambil dari _bernoulli distribution_ [1]. Kemudian,\nsaat _feed forward_, kita ganti _synapse weights_ menggunakan _mask_ seperti\npada persamaan 11.15. Saat menghitung _backpropagation_, turunan fungsi juga\nmengikutsertakan _mask_ ( _gradient_ di- _mask_ ). Kami sa _rank_ an untuk membaca\n_paper_ oleh Srivastava et al. [62] tentang _dropout_ pada ANN. Contoh implementasi _dropout_ dapat\ndilihat pada pranala berikut.^14 Teknik _regularization_\ndan _dropout_ sudah menjadi metode yang cukup “standar” dan diaplikasikan\npada berbagai macam arsitektur.\n\n```\no=f(x·W+b) (11.13)\n```\n```\nW′=p·W (11.14)\n```\n```\no=f(x·W′+b) (11.15)\n```\n"} {"text": "### Soal Latihan\n\n11.1. Turunan\n\n(a) Turunkanlah perubahan _noise/bias_ untuk _training_ pada MLP.\n(b) Turunkanlah proses _training deep neural network_ pada Gambar 11.12 termasuk\nperubahan _noise/bias_.\n\n11.2. Neural Network Training\n\n(a) Sebutkan dan jelaskan cara lain untuk melatih _artificial neural network_\n(selain _backpropagation_ ) (bila ada)!\n(b) Apa kelebihan dan kekurangan _backpropagation_ ?\n(c) Tuliskan persamaan MLP dengan menggunakan momentum! (kemudian\nberikan juga penurunan _backpropagation_ -nya)\n\n11.3. Regularization Technique\n\n(a) Sebutkan dan jelaskan teknik _regularization_ untuk _neural network_ ! (dalam\nbentuk formula)\n(b) Mengapa kita perlu menggunakan teknik tersebut?\n\n11.4. Softmax Function\n\n(a) Apa itu _softmax function_ ?\n(b) Bagaimana cara menggunakan _softmax function_ pada _neural network_ ?\n(c) Pada saat kapan kita menggunakan fungsi tersebut?\n(d) Apa kelebihan fungsi tersebut dibanding fungsi lainnya?\n\n11.5. Transformasi atribut\nSecara alamiah _neural network_ membutuhkan data dengan atribut numerik\nuntuk klasifikasi. Jelaskan konversi/st _rate_ gi penanganan atribut nominal pada\n_neural network_ !\n\n\n"} {"text": "### 11.13 Rangkuman\n\nAda beberapa hal yang perlu kamu ingat, pertama-tama jaringan _neural network_ terdiri\natas:\n\n```\n1. _Input layer_\n2.Hidden layer(s)\n3. _Output layer_\n```\nSetiap _edge_ yang menghubungkan suatu _node_ dengan _node_ lainnya disebut\n_synapse weight_. Pada saat melatih _neural network_ kita mengestimasi nilai\nyang “bagus” untuk _synapse weights_.\nKedua, hal tersulit saat menggunakan _neural network_ adalah menentukan\ntopologi. Kamu bisa menggunakan berbagai macam variasi topologi _neural_\n_network_ serta cara melatih untuk masing-masing topologi. Tetapi, suatu\ntopologi tertentu lebih tepat untuk merepresentasikan permasalahan dibanding\ntopologi lainnya. Menentukan tipe topologi yang tepat membutuhkan pen-\ngalaman.\nKetiga, proses _training_ untuk _neural network_ berlangsung lama. Secara\numum, perubahan nilai _synapse weights_ mengikuti tahapan ( _stage_ ) berikut [9]:\n\n```\n1. _Earlier state_. Pada tahap ini, struktur global (kasar) diestimasi.\n2. _Medium state_. Pada tahap ini, _learning_ berubah dari tahapan global menjadi\nlokal (ingat _steepest gradient descent_ ).\n3. _Last state_. Pada tahap ini, struktur detail sudah selesai diestimasi. Harapannya,\n_model_ menjadi konvergen.\n```\n_Neural network_ adalah salah satu _learning machine_ yang dapat menemukan\n_hidden structure_ atau pola data “implisit”. Secara umum, _learning machine_\n\n\n162 11 Feed _forward_ Neural Network\n\ntipe ini sering menjadi _overfitting/overtraining_, yaitu model memiliki kinerja\nsangat baik pada _training data_, tapi buruk pada _testing data_ / _unseen example_.\nOleh sebab itu, menggunakan _neural network_ harus hati-hati.\nKeempat, _neural network_ dapat digunakan untuk _supervised_, _semi-supervised_,\nmaupun _unsupervised learning_. Hal ini membuat _neural network_ cukup populer\nbelakangan ini karena fleksibilitas ini. Contoh penggunaan _neural network_ untuk _unsupervised_ learning\nakan dibahas pada bab 12. Semakin canggih\nkomputer, maka semakin cepat melakukan perhitungan, dan semakin cepat\nmelatih _neural network_. Hal ini adalah kemewahan yang tidak bisa dirasakan\n20-30 tahun lalu.\n\n"} {"text": "### 11.12 Vanishing and Exploding Gradients\n\nPada beberapa kasus, nilai gradien (∆W- perubahan parameter) sangat kecil\n(mendekati nol - _vanishing_ ) atau sangat besar ( _explode_ ).Vanishing gradient\nproblemumum terjadi untuk ANN yang sangat dalam ( _deep_ ), yaitu\nmemiliki banyak _layer_. Hal ini juga terjadi pada arsitektur khusus, seperti\n_recurrent neural network_ saat diberikan input yang panjang [63]. Turunan\nsuatu fungsi bernilai lebih kecil dari fungsi tersebut. Artinya nilai gradient\npada _input layer_ bernilai lebih kecil dari _output layer_. Apabila kita memiliki\nbanyak _layer_, nilai gradient saat _backpropagation_ mendekati nol ketika diturunkan\nkembali dalam banyak proses. Ilustrasi _vanishing gradient_ diberikan\npada Gambar 11.14 (analogikan dengan _heat map_ ). Saat melakukan _backpropagation_,\nnilai gradien menjadi mendekati nol (warna semakin putih, delta nilai\nsemakin menghilang). Penanganan permasalahan ini masih merupakan topik\nriset tersendiri. Sebagai contoh, pada arsitektur _recurrent neural network_, biasanya\ndigunakan fungsi aktivasi _long short term memory_ (LSTM) ataugated\n_recurrent_ unit(GRU) untuk menangani _vanishing gradient problem_. Selain\n\n(^14) https://gist.github.com/yusugomori/cf7bce19b8e16d57488a\n\n\n```\n11.13 Rangkuman 161\n```\nnilai gradien, nilai _synapse weights_ juga bisa sangat kecil atau sangat besar.\nHal ini juga tidak baik!\n\n```\nGambar 11.14: Ilustrasi _vanishing gradient problem_.\n```\n"} {"text": "### 11.10 Tips\n\nPada contoh yang diberikan, _error_ atau _loss_ dihitung per tiap data point.\nArtinya begitu ada melewatkan suatu _input_, parameter langsung dioptimisasi\nsesuai dengan _loss_. Pada umumnya, hal ini tidak baik untuk dilakukan\nkarena ANN menjadi tidak stabil. Metode yang lebih baik digunakan adalah\nteknik _minibatches_. Yaitu mengoptimisasi parameter untuk beberapa buah\n_inputs_. Jadi, update parameter dilakukan per _batch_. Perhitungan _error_ juga\nberubah, diberikan pada persamaan 11.12 dimanaBmelambangkan _batch_\nsize(banyaknya _instance_ per _batch_ ),yadalah _desired output_ danoadalah\n_actual output_. Perhitungan _error_ saat menggunakan _minibatches_ secara sederhana\nadalah rata-rata (bisa diganti dengan penjumlahan saja) individual _error_\nuntuk semua _instance_ yang ada pada _batch_ bersangkutan. Setelah menghitung\n_error_ per _batch_, barulah _backpropagation_ dilakukan.\n\n```\nE(mini _batch_ ) =\n```\n#### 1\n\n#### B\n\n#### ∑B\n\n```\ni=1\n```\n```\n‖y−o‖^2 (11.12)\n```\nData mana saja yang dimasukkan ke suatu _batch_ dalam dipilih secara\nacak. Seperti yang mungkin kamu sadari secara intuitif, urutan data yang\ndisajikan saat _training_ mempengaruhi kinerja ANN. Pengacakan ini menjadi\npenting agar ANN mampu mengeneralisasi dengan baik. Kita dapat mengatur\nlaju pembelajaran dengan menggunakan _learning rate_. Selain menggunakan\n_learning rate_, kita juga dapat menggunakan _momentum_ (subbab 5.6).\nPada library/API _deep learning_, _learning rate_ pada umumnya berubahubah\nsesuai dengan waktu. Selain itu, tidak ada nilai khusus ( _rule-of-thumb_ )\nuntuk _learning rate_ terbaik. Pada umumnya, kita inisiasi _learning rate_ dengan\nnilai{ 0. 001 , 0. 01 , 0. 1 }[1]. Biasanya, kita menginisiasi proses latihan dengan\nnilai _learning rate_ cukup besar, kemudian mengecil seiring berjalannya\nwaktu.^12 Kemudian, kita mencari konfigurasi parameter terbaik dengan\nmetode _grid-search_,^13 yaitu dengan mencoba-coba parameter secara _exhaustive_ ( _brute-force_ )\nkemudian memilih parameter yang memberikan kinerja ter-\nbaik.\nANN sensitif terhadap inisialisasi parameter, dengan demikian banyak\nmetode inisialisasi parameter misalkan, nilai _synapse weights_ diambil dari\ndistribusi binomial (silahkan eksplorasi lebih lanjut). Dengan hal ini, kinerja\nANN dengan arsitektur yang sama dapat berbeda ketika dilatih ulang dari\nawal. Karena sensitif terhadap inisialisasi parameter, kamu bisa saja mendapatkan\nperforma yang berbeda saat melatih suatu arsitektur ANN dengan\n_data_ yang sama (untuk permasalahan yang sama). Untuk menghindari _bias_\ninisialisasi parameter, biasanya ANN dilatih beberapa kali (umumnya 5, 10,\natau 20 kali). Kinerja ANN yang dilaporkan adalah nilai kinerja rata-rata\n\n(^12) Analogi: ngebut saat baru berangkat, kemudian memelan saat sudah dekat dengan\ntujuan agar tidak terlewat.\n(^13) https://en.wikipedia.org/wiki/Hyperparameter_optimization\n\n\n```\n11.11 Regularization and Dropout 159\n```\ndan varians ( _variance_ ). Hal ini untuk menghindari _overclaiming_. Pada konteks\npembahasan saat ini, artinya seseorang bisa saja mendapatkan model\ndengan performa sangat baik, padahal performa arsitektur yang sama bisa\nsaja berkurang saat dicoba oleh orang lain (isu _replicability_ ).\nKamu mungkin sudah menyadari bahwa melatih ANN harus telaten,\nterutama dibanding model linear. Untuk model linear, ia akan memberikan\nkonfigurasi parameter yang sama untuk _training data_ yang sama (kinerja pun\nsama). Tetapi, ANN dapat konfigurasi parameter yang berbeda untuk _training_\n_data_ yang sama (kinerja pun berbeda). Pada model linear, kemungkinan\nbesar variasi terjadi saat mengganti data. Pada ANN, variasi kinerja ada\npada seluruh proses! Untuk membandingkan dua arsitektur ANN pada suatu\n_dataset_, kita dapat menggunakan _statistical hypothesis testing_ (arsitektur\nXlebih baik dari arsitekturYsecara signifikan dengan nilaip < threshold).\nPenulis merekomendasikan untuk membaca [14, 15] perihal _hypothesis testing_.\nApabila kamu pikir dengan seksama, ANN sebenarnya melakukan transformasi\nnon-linear terhadap _input_ hingga menjadi _output_. Parameter diperbarahui\nagar transformasi non-linear _input_ bisa menjadi semirip mungkin dengan _output_ yang\ndiharapkan. Dengan hal ini, istilah “ANN” memiliki asosiasi\nyang dekat dengan “transformasi non-linear”. Kami ingin kamu mengingat,\nANN (apapun variasi arsitekturnya) adalahgabungan fungsi nonlinear,\ndengan demikian ia mampu mengaproksimasi fungsi non-linear (decision\nboundarydapat berupa fungsi non-linear).\n_Deep learning_ menjadi penting karena banyaknya transformasi (banyaknya\n_hidden layers_ ) lebih penting dibanding lebar jaringan. Seringkali (pada permasalahan\npraktis), kita membutuhkan banyak transformasi agar _input_ bisa\nmenjadi _output_. Setiap transformasi ( _hidden layer_ ) merepresentasikan _input_\nmenjadi suatu representasi. Dengan kata lain, _hidden layers_ atu dan _hidden_\n_layer_ lainnya mempelajari bentuk representasi atau karakteristik _input_ yang\nberbeda.\n_Curriculum learning_ juga adalah tips yang layak disebutkan ( _mention_ )\n[61]. Penulis kurang mengerti detilnya, sehingga pembaca diharapkan\nmembaca sendiri. Intinya adalah memutuskan apa yang harus ANN pelajari\nterlebih dahulu (mulai dari mempelajari hal mudah sebelum mempelajari hal\nyang susah).\n\n"} {"text": "### 11.4 Multi _layer_ Perceptron\n\nKamu sudah belajar bagaimana proses _training_ untuk _single perceptron_. Selanjutnya\nkita akan mempelajari _multilayer perceptron_ (MLP) yang juga dikenal\nsebagai _feedforward neural network_. Kami tekankan sekali lagi,istilah\n“ANN” selanjutnya mengacu pada MLP dan arsitektur lebih kom-\npleks.\n\n\n```\n11.4 Multi _layer_ Perceptron 149\n```\nPerhatikan ilustrasi pada Gambar 11.5, _multilayer perceptron_ secara literal\nmemiliki beberapa _layers_. Pada buku ini, secara umum ada tiga _layers_ : _input_, _hidden_,\ndan _output layer_. _Input layer_ menerima _input_ (tanpa melakukan\noperasi apapun), kemudian nilai _input_ (tanpa dilewatkan ke fungsi aktivasi)\ndiberikan ke _hidden units_ (persamaan 11.6). Pada _hidden units_, _input_ diproses\ndan dilakukan perhitungan hasil fungsi aktivasi untuk tiap-tiap neuron, lalu\nhasilnya diberikan ke _layer_ berikutnya (persamaan 11.7,σadalah fungsi aktivasi). _Output_ dari _input_\n_layer_ akan diterima sebagai input bagi _hidden layer_.\nBegitupula seterusnya _hidden layer_ akan mengirimkan hasilnya untuk _output_\n_layer_. Kegiatan ini dinamakan _feed forward_ [45, 4]. Hal serupa berlaku untukartificial\n_neural network_ dengan lebih dari tiga _layers_. Parameter neuron\ndapat dioptimisasi menggunakan metode _gradient-based optimization_ (dibahas\npada subabb berikutnya, ingat kembali bab 5). Perlu diperhatikan, MLP\nadalah gabungan dari banyak fungsi non-linear. Seperti yang disampaikan\npada subbab sebelumnya, gabungan banyak fungsi non-linear ini lebih hebat\ndibanding _single perceptron_. Seperti yang kamu lihat pada Gambar 11.5,\nmasing-masing neuron terkoneksi dengan semua neuron pada _layer_ berikutnya.\nKonfigurasi ini disebut sebagai _fully connected_. MLP pada umumnya\nmenggunakan konfigurasi _fully connected_.\n\n```\nGambar 11.5: _Multilayer Perceptron_ 2.\n```\n\n150 11 Feed _forward_ Neural Network\n\n```\noj=σ\n```\n#### (K\n\n#### ∑\n\n```\nk=1\n```\n```\nxkwk,j+βj\n```\n#### )\n\n#### (11.6)\n\n```\nvi=σ\n```\n#### \n\n#### \n\n#### ∑J\n\n```\nj=1\n```\n```\nojuj,i+γi\n```\n#### \n\n```\n=σ\n```\n#### \n\n#### \n\n#### ∑J\n\n```\nj=1\n```\n```\nσ\n```\n#### (K\n\n#### ∑\n\n```\nk=1\n```\n```\nxkwk,j+βj\n```\n#### )\n\n```\nuj,i+γi\n```\n#### \n\n####  (11.7)\n\nPerhatikan persamaan 11.6 dan 11.7 untuk menghitung _output_ pada _layer_\nyang berbeda.u,wadalah _learning parameters_.β,γmelambangkan _noise_ atau\n_bias_.Kadalah banyaknya _input units_ danJadalah banyaknya _hidden units_.\nPersamaan 11.7 dapat disederhanakan penulisannya sebagai persamaan 11.8.\nPersamaan 11.8 terlihat relatif lebih “elegan”, dimanaσmelambangkan fungsi\naktivasi. Seperti yang disebutkan pada subbab sebelumnya, ANN dapat direpresentasikan\ndengan notasi aljabar linear.\n\nv=σ(oU+γ) =σ((σ(xW+β))U+γ) (11.8)\nUntuk melatih MLP, algoritma yang umumnya digunakan adalah _backpropagation_ [54].\nArti kata _backpropagation_ sulit untuk diterjemahkan ke\ndalam bahasa Indonesia. Kita memperbaharui parameter ( _synapse weights_ )\nsecara bertahap (dari _output_ ke _input layer_, karena itu disebut _backpropagation_ )\nberdasarkan _error_ / _loss_ ( _output_ dibandingkan dengan _desired output_ ).\nIntinya adalah mengkoreksi _synapse weight_ dari _output layer_ ke _hidden_\n_layer_, kemudian _error_ tersebut dipropagasi ke layer sebelum-sebelumnya.\nArtinya, perubahan _synapse weight_ pada suatu layer dipengaruhi oleh perubahansynapse\n_weight_ pada layer setelahnya.^5 Backpropagationtidak lain\ndan tidak bukan adalah metode _gradient-based optimization_ yang diterapkan\npada ANN.\nPertama-tama diberikan pasangan _input_ (x) dan _desired output_ (y) sebagai _training_\n_data_. Untuk meminimalkan _loss_, algoritma _backpropagation_\nmenggunakan prinsip _gradient descent_ (ingat kembali materi bab model linear).\nKamu akan memperlajari bagaimana cara menurunkan _backpropagation_\nmenggunakan teknik _gradient descent_, yaitu menghitung _loss_ ANN pada Gambar\n11.5yang menggunakan fungsi aktivasi sigmoid. Untuk fungsi aktivasi\nlainnya, pembaca dapat mencoba menurunkan persamaan sendiri!\nIngat kembali _chain rule_ pada perkuliahan diferensial\n\n```\nf(g(x))′=f′(g(x))g′(x). (11.9)\n```\n_Error_, untuk MLP diberikan oleh persamaan 11.10 (untuk satu data _point_ ),\ndimanaIadalah banyaknya _output unit_ danθadalah kumpulan _weight matrices_ (semua\nparameter pada MLP). Kami inggatkan kembali perhitungan\n_error_ bisa juga menggunakan nilai absolut.^6\n\n(^5) Kata “setelah” mengacu _layer_ yang menuju _output layer_ “sebelum” mengacu\n_layer_ yang lebih dekat dengan _input layer_.\n(^6) Kami menggunakan tanda kurung agar lebih mudah dibaca penurunan rumusnya.\n\n\n```\n11.5 Interpretability 151\n```\n```\nE(θ) =\n```\n#### 1\n\n#### 2\n\n#### ∑I\n\n```\ni=1\n```\n```\n(yi−vi)^2 (11.10)\n```\nMari kita lakukan proses penurunan untuk melatih MLP. _Error_ / _loss_ diturunkan\nterhadap tiap _learning parameter_.\nDiferensialuj,idiberikan oleh turunan _sigmoid function_\n\n```\nδE(θ)\nδuj,i\n= (yi−vi)\n```\n```\nδvi\nδuj,i\n= (yi−vi)vi(1−vi)oj\nDiferensialwk,jdiberikan oleh turunan _sigmoid function_\n```\n```\nδE(θ)\nδwk,j\n```\n#### =\n\n#### ∑I\n\n```\ni=1\n```\n```\n(yi−vi)\n```\n```\nδvi\nδwk,j\n```\n#### =\n\n#### ∑I\n\n```\ni=1\n```\n```\n(yi−vi)\n```\n```\nδvi\nδoj\n```\n```\nδoj\nδwk,j\n```\n#### =\n\n#### ∑I\n\n```\ni=1\n```\n```\n(yi−vi)(vi(1−vi)uj,i)(oj(1−oj)xk)\n```\nPerhatikan, diferensialwk,jmemiliki\n\n#### ∑\n\nsementarauj,itidak ada. Hal ini disebabkan\nkarenauj,ihanya berkorespondensi dengan satu _output_ neuron. Sementarawk,jberkorespondensi\ndengan banyak _output_ neuron. Dengan kata\nlain, nilaiwk,jmempengaruhi hasil operasi yang terjadi pada banyak _output_ neuron,\nsehingga banyak neuron mempropagasi _error_ kembali kewk,j.\nIlustrasi diberikan pada Gambar 11.6.\nMetode penurunan serupa dapat juga digunakan untuk menentukan perubahanβdanγ.\nJadi proses _backpropagation_ untuk kasus Gambar 11.5 dapat\ndiberikan seperti pada Gambar 11.7 dimanaηadalah _learning rate_. Untukartificial\n_neural network_ denganlebih dari 3 _layers_, kita pun bisa menurunkan\npersamaannya. Secara umum, proses melatih ANN (apapun variasi arsitekturnya)\nmengikuti _framework perceptron training rule_ (subbab 11.2). Cerita\npada buku ini menggunakan _error_ sebagai _utility function_ karena mudah diilustrasikan,\nserta contoh ini sering digunakan pada referensi lainnya. Pada\npermasalahan praktis, _cross entropy_ adalah _utility function_ yang sering digunakan\nuntuk melatih ANN (untuk permasalahan klasifikasi).\n\n"} {"text": "### 11.8 Multi-label Classification\n\nSeperti halnya _multi-class classification_, kita dapat menggunakan sebanyak\nC neuron untuk merepresentasikanC kelas pada _multi-label classification_.\nSeperti yang sudah dijelaskan pada bab 5, perbedaan _multi-class_ danmultilabelterletak\npada cara interpretasi _output_ dan evaluasi _output_. Pada umumnya, _layer_ terakhir\ndiaktivasi dengan fungsi sigmoid, dimana tiap neuronni\nmerepresentasikan probabilitas suatu dapat diklasifikasikan sebagai kelasci\n\n(^10) https://en.wikipedia.org/wiki/Sigmoid_ _function_\n\n\n```\n11.9 Deep Neural Network 155\n```\n"} {"text": "### 11.7 Multi- _class_ Classification\n\n_Multilayer perceptron_ dapat memiliki lebih dari satu _output unit_. Seumpama\nkita mempunyai empat kelas, dengan demikian kita dapat merepresentasikan\nkeempat kelas tersebut sebagai empat _output units_. Kelas pertama direpresentasikan\ndengan unit pertama, kelas kedua dengan unit kedua, dst. Untuk\nCkelas, kita dapat merepresentasikannya denganC output units. Kita dapat\nmerepresentasikan data harus dimasukkan ke kelas mana menggunakan\n_sparse vector_, yaitu bernilai 0 atau 1. Elemen ke-ibernilai 1 apabila data masuk\nke kelasci, sementara nilai elemen lainnya adalah 0 (ilustrasi pada Gambar\n11.9). _Output_ ANN dilewatkan pada suatu fungsi softmax yang melambangkan\nprobabilitas _class-assignment_ ; i.e., kita ingin _output_ agar semirip\nmungkin dengan _sparse vector_ ( _desired output_ ). Pada kasus ini, _output_ ANN\nadalah sebuah distribusi yang melambangkan _input_ di- _assign_ ke kelas tertentu.\nIngat kembali materi bab 5, _cross entropy_ cocok digunakan sebagai\n_utility function_ ketika _output_ berbentuk distribusi.\n\n```\n1 0\n0 1\n```\n```\n0 0\n0 0\n0 0\n0 0\n```\n```\n1 0\n0 1\n```\n```\nLabel=𝑐!\nLabel=𝑐\"\nLabel=𝑐#\nLabel=𝑐$\n```\n```\n𝑐( 𝑐) 𝑐* 𝑐+\n```\nGambar 11.9: Ilustrasi representasi _desired output_ pada _multi-class classification_ menggunakan _sparse_\nvector (sering disebut sebagai “one-hot vector” di\nkomunitas ANN).\n\n"} {"text": "### 0 1\n\n### 0 1\n\n### 0 1\n\n"} {"text": "### 11.5 Interpretability\n\n_Interpretability_ ada dua macam yaitu model interpretability (i.e., apakah\nstruktur model pembelajaran mesin dapat dipahami) dan _prediction interpretability_ (i.e.,\nbagaimana memahami dan memverifikasi cara _input_ dipetakan\n\n\n152 11 Feed _forward_ Neural Network\n\n```\n𝛽!\n```\n```\n𝒙𝟏 𝒙𝟐 𝒙𝑲\n```\n```\n𝛾\"\n```\n```\n_Output_ \t=\t𝑜𝑗\n```\n```\n_Output_ \t=\t𝑣𝑖\n```\n```\n𝑢!,\"\n```\n```\n𝑤$,!\n```\n```\n_Output_ Units (I units)\n```\n```\nHidden Units (J units)\n```\n```\n_Input_ Units (K units)\n```\nGambar 11.6: Justifikasi penggunaan\n\n#### ∑\n\npada penurunan dari _hidden_ ke _input_\n_layer_.\n\n```\nGambar 11.7: Proses latihan MLP menggunakan _backpropagation_.\n```\nmenjadi _output_ ) [55]. Contoh teknik pembelajaran mesin yang mudah diinterpretasikan\nbaik secara struktur dan prediksinya adalah decision tree\n(bab 6). Struktur _decision tree_ berupa pohon keputusan mudah dimengerti\noleh manusia dan prediksi (keputusan) dapat dilacak ( _trace_ ). Seperti yang\nsudah dijelaskan pada bagian pengantar, ANN (MLP) biasanya dianggap sebagai\nmetode _black box_ atau susah untuk dinterpretasikan (terutama _model_\n\n\n```\n11.6 Binary Classification 153\n```\n_interpretability_ -nya). Hal ini disebabkan oleh kedalaman ( _depth_ ) yaitu memiliki\nbeberapa _layer_ dan _non-linearities_. Suatu unit pada _output layer_ dipengaruhi\noleh kombinasi ( _arbitrary combination_ ) banyak parameter pada _layers_\nsebelumnya yang dilewatkan pada fungsi non-linear. Sulit untuk mengetahui\nbagaimana pengaruh bobot suatu unit pada suatu _layer_ berpengaruh pada\n_output layer_, beserta bagaimana pengaruh kombinasi bobot. Intinya, fitur dan\n_output_ tidak memiliki korespondensi satu-satu. Berbeda dengan model linear,\nkita tahu parameter (dan bobotnya) untuk setiap _input_. Salah satu arah riset\nadalah mencari cara agar keputusan yang dihasilkan oleh ANN dapat dijelaskan\n[56],^7 salah satu contoh nyata adalah _attention mechanism_ [57, 58]\n(subbab 13.4.4) untuk _prediction interpretability_. Survey tentang _interpretability_ dapat\ndibaca pada _paper_ oleh Doshi-Velez dan Kim [59].\nCara paling umum untuk menjelaskan keputusan pada ANN adalah menggunakanheat\nmap. Sederhananya, kita lewatkan suatu dataxpada ANN,\nkemudian kita lakukan _feed-forward_ sekali (misal dari _input_ ke _hidden layer_\ndengan parameterW). Kemudian, kita visualisasikanx·W(ilustrasi pada\nGambar 11.8). Dengan ini, kita kurang lebih dapat mengetahui bagian _input_\nmana yang berpengaruh terhadap keputusan di _layer_ berikutnya.\n\n```\nBeritaA BeritaB BeritaC BeritaD\nBudi\nmenendang\nbola\n```\nGambar 11.8: Contoh _heat map_ pada persoalan klasifikasi teks. _Input_ berupa\nkata-kata yang dimuat pada suatu berita. Output adalah kategori berita untuk\n_input_. Warna lebih gelap menandakan bobot lebih tinggi. Sebagai contoh, kata\n“menendang” berkorespondensi paling erat dengan kelas berita B.\n\n"} {"text": "### 1 0\n\n### 1 0\n\n### 1 0\n\n"} {"text": "### 0 0\n\n"} {"text": "### 1 1\n\n```\nLabel=𝑐!,𝑐\"\nLabel=𝑐#\nLabel=𝑐!,𝑐$\nLabel=𝑐#,𝑐\",𝑐$\n```\n```\n𝑐) 𝑐* 𝑐+ 𝑐,\n```\nGambar 11.10: Ilustrasi representasi _desired output_ pada _multi-label_ classifi-\ncation.\n\natau tidak (Gambar 11.10). Pada umumnya, _binary cross entropy_ digunakan\nsebagai _loss_ ( _utility function_ ) pada _multi-label classification_, yaitu perhitungancross\n_entropy_ untuk tiap-tiap _output_ unit (bukan sekaligus semua _output_\n_units_ eperti pada _multi-class classification_ ).\n\n"} {"text": "## Daftar Isi\n\n\n\n\n- Bagian I Pengetahuan Dasar\n- 1 Pengenalan\n - 1.1 Kecerdasan Buatan\n - 1.2 Intelligent Agent\n - 1.3 Konsep Belajar\n - 1.4 Statistical Learning Theory\n - 1.5 Training, Validation, Testing Set\n - 1.6 Supervised Learning\n - 1.7 Regresi\n - 1.8 Semi- _supervised_ Learning\n - 1.9 Un _supervised_ Learning\n - 1.10 Proses Belajar\n - 1.11 Tips\n - 1.12 Contoh Aplikasi\n - Soal Latihan\n- 2 Fondasi Matematis\n - 2.1 Probabilitas\n - 2.2 Probability Density Function\n - 2.3 Expectation dan Variance\n - 2.4 Bayesian Probability\n - 2.5 Gaussian Distribution\n - 2.6 Apakah Karakteristik Sampel Mencerminkan Populasi?\n - 2.7 Teori Keputusan\n - 2.8 Hypothesis Testing\n - 2.9 Teori Informasi\n - 2.10 Matriks\n - 2.11 Bacaan Lanjutan\n - Soal Latihan\n- 3 Data Analytics\n - 3.1 Pengenalan Data Analytics\n - 3.2 Nilai Atribut dan Transformasi\n - 3.3 Ruang Konsep\n - 3.4 Linear Separability DAFTAR ISI XI\n - 3.5 Seleksi Fitur\n - 3.6 Classification, Association, Clustering\n - 3.7 Mengukur Kinerja\n - 3.8 Evaluasi Model\n - 3.9 Kategori Jenis Algoritma\n - 3.10 Tahapan Analisis\n - Soal Latihan\n- Bagian II Algoritma Pembelajaran Mesin\n- 4 Algoritma Dasar\n - 4.1 Naive Bayes\n - 4.2 K- _mean_ s\n - 4.3 K-nearest-neighbor\n - Soal Latihan\n- 5 Model Linear\n - 5.1 Curve Fitting dan Error Function\n - 5.2 Binary Classification\n - 5.3 Log-linear Binary Classification\n - 5.4 Multi- _class_ Classification\n - 5.5 Multi-label Classification\n - 5.6 Pembelajaran sebagai Permasalahan Optimisasi\n - 5.7 Batasan Model Linear\n - 5.8 Overfitting dan Underfitting\n - 5.9 Regularization\n - 5.10 Transformasi Data\n - 5.11 Bacaan Lanjutan\n - Soal Latihan\n- 6 Pohon Keputusan\n - 6.1 Inductive Learning\n - 6.2 ID3\n - 6.3 Isu pada ID3\n - 6.4 Pembagian Ruang Konsep\n - Soal Latihan\n- 7 Support Vector Classifier\n - 7.1 Maximal Margin Classifier\n - 7.2 Support Vector Classifier\n - 7.3 Support Vector Machine\n - 7.4 Klasifikasi lebih dari dua kelas\n - 7.5 Tips\n - Soal Latihan XII DAFTAR ISI\n- 8 Hidden Markov Model\n - 8.1 Probabilistic Reasoning\n - 8.2 Generative Model\n - 8.3 Part-of-speech Tagging\n - 8.4 Hidden Markov Model Tagger\n - 8.5 Algoritma Viterbi\n - 8.6 Proses Training Hidden Markov Model\n - Soal Latihan\n- 9 Seleksi Fitur dan Metode Evaluasi\n - 9.1 Feature Engineering\n - 9.2 High Dimensional Data\n - 9.3 Feature Selection\n - 9.4 Evaluasi Kinerja Model\n - 9.5 Cross Validation\n - 9.6 Replicability, Overclaiming dan Domain Dependence\n - Soal Latihan\n- 10 Clustering\n - 10.1 K- _mean_ s, Pemilihan Centroid, Kemiripan Data\n - 10.2 Hierarchical Clustering\n - 10.3 Evaluasi\n - Soal Latihan\n- Bagian III Artificial Neural Network\n- 11 Feed _forward_ Neural Network\n - 11.1 Definisi Artificial Neural Network\n - 11.2 Single Perceptron\n - 11.3 Permasalahan XOR\n - 11.4 Multi _layer_ Perceptron\n - 11.5 Interpretability\n - 11.6 Binary Classification\n - 11.7 Multi- _class_ Classification\n - 11.8 Multi-label Classification\n - 11.9 Deep Neural Network\n - 11.10 Tips\n - 11.11 Regularization and Dropout\n - 11.12 Vanishing and Exploding Gradients\n - 11.13 Rangkuman\n - Soal Latihan\n- 12 Auto _encoder_\n - 12.1 Representation Learning DAFTAR ISI XIII\n - 12.2 Singular Value Decomposition\n - 12.3 Ide Dasar Auto _encoder_\n - 12.4 Resisting Perturbation\n - 12.5 Representing Context: Word Embedding\n - 12.6 Tips\n - Soal Latihan\n- 13 Arsitektur Neural Network\n - 13.1 Convolutional Neural Network\n - 13.2 Recurrent Neural Network\n - 13.3 Part-of-speech Tagging Revisited\n - 13.4 Sequence to Sequence\n - 13.5 Arsitektur Lainnya\n - 13.6 Architecture Ablation\n - 13.7 Transfer Learning\n - 13.8 Multi- _task_ Learning\n - Soal Latihan\n- Bagian IV Aplikasi dan Topik Tambahan\n- 14 Penerapan Pembelajaran Mesin\n - 14.1 Sistem Rekomendasi\n - 14.2 Peringkasan Dokumen\n - 14.3 Konklusi\n - 14.4 Saran Buku Lanjutan\n - Soal Latihan\n- Referensi\n\n\n\n"} {"text": "## 𝐄 𝐗#\n\nGambar 12.2: Hubungan auto _encoder_ dan singular value decomposition\n(analogi).\n\nPerhatikan, _hidden layer_ / _coding_ dapat dianalogikan sebagaiE=Uˆ Vˆ.\nDengan kata lain, kita dapat melakukan operasi _dot-product_ pada _coding_ untuk\nmerepresentasikan _dot-product_ pada data asliX. Ini adalah ide utama\n\n(^5) Pada banyak literatur, kumpulan _weight matrices_ ANN sering dilambangkan den-\nganθ\n(^6) Hanya sebuah analogi.\n\n\n168 12 Auto _encoder_\n\n_autoencoder_, yaitu meng-aproksimasi/meng _kompresi data_ asli menjadi bentuk\nlebih kecil _coding_. Kemudian, operasi pada bentuk _coding_ merepresentasikan\noperasi pada data sebenarnya.\n_Autoencoder_ terdiri dari _encoder_ (sebuah _neural network_ ) dan _decoder_\n(sebuah _neural network_ ). _Encoder_ merubah _input_ ke dalam bentuk dimensi\nlebih kecil (dapat dianggap sebagai kompresi). _Decoder_ berusaha merekonstruksi _coding_ menjadi\nbentuk aslinya. Secara matematis, kita dapat menulis\n_autoencoder_ sebagai persamaan 12.6, dimana dec melambangkan _decoder_, enc\nmelambangkan _encoder_ danx adalah _input_. _Encoder_ diberikan pada persamaan\n12.7 yang berarti melewatkan _input_ pada suatu _layer_ di _neural network_ untuk\nmenghasilkan representasixberdimensi rendah, disebut _coding_\nc.Udanαmelambangkan _weight matrix_ dan _bias_.\n\n```\nf(d,θ) = dec(enc(x)) (12.6)\n```\n```\nc= enc(x) =g(x,U,α) (12.7)\n```\nRepresentasicini kemudian dilewatkan lagi pada suatu _layer_ untuk merekonstruksi\nkembali _input_, kita sebut sebagai _decoder_. _Decoder_ diberikan pada persamaan\n12.8 dimanaWdanβmelambangkan _weight matrix_ dan _bias_. Baik\npada fungsi _encoder_ dan _decoder_,σmelambangkan fungsi aktivasi.\n\n```\nf(d,θ) = dec(c) =h(c,W,β) (12.8)\n```\nPada contoh sederhana ini, _encoder_ dan _decoder_ diilustrasikan sebagai sebuah\n_layer_. Kenyataannya, _encoder_ dan _decoder_ dapat diganti menggunakan sebuah\n_neural network_ dengan arsitektur kompleks.\nSekarang kamu mungkin bertanya-tanya, bila auto _encoder_ melakukan\nhal serupa seperti _singular value decomposition_, untuk apa kita menggunakan _autoencoder_ ?\n(mengapa tidak menggunakan aljabar saja?) Berbeda\ndengan teknik SVD, teknik _autoencoder_ dapat juga mempelajari fitur nonlinear.^7\nPada penggunaan praktis, _autoencoder_ adalah _neural network_ yang\ncukup kompleks (memiliki banyak _hidden layer_ ). Dengan demikian, kita dapat\n”mengetahui”berbagai macam representasiatau transformasi data.\n_Framework autoencoder_ yang disampaikan sebelumnya adalah framework\ndasar. Pada kenyataannya, masih banyak ide lainnya yang bekerja dengan\nprinsip yang sama untuk mencari _coding_ pada permasalahan khusus. _Output_\ndari _neural network_ juga bisa tidak sama _input_ -nya, tetapi tergantung permasalahan\n(kami akan memberikan contoh persoalan _word embedding_ ). Selain\nitu, _autoencoder_ juga relatif fleksibel; dalam artian saat menambahkan data\nbaru, kita hanya perlu memperbaharui parameter _autoencoder_ saja. Kami\nsa _rank_ an untuk membaca _paper_ [72, 73] perihal penjelasan lebih lengkap tentang\nperbedaan dan persamaan SVD dan _autoencoder_ secara lebih matematis.\nSecara sederhana, _representation learning_ adalah teknik untuk mengkompresi _input_ ke\ndalam dimensi lebih rendah tanpa (diharapkan) ada kehilangan\n\n(^7) Hal ini abstrak untuk dijelaskan karena membutuhkan pengalaman.\n\n\n```\n12.4 Resisting Perturbation 169\n```\ninformasi. Operasi vektor (dan lainnya) pada level _coding_ merepresentasikan\noperasi pada bentuk aslinya. Untuk pembahasan _autoencoder_ secara lebih\nmatematis, kamu dapat membaca pranala ini.^8 Setelah _autoencoder_ dilatih,\npada umumnya _encoder_ dapat digunakan untuk hal lainnya juga, e.g., klasifikasi\nkelas gambar.\n\n"} {"text": "## 𝐔#𝐕# 𝐔#𝐕#𝐖#𝑻\n\n"} {"text": "## 1 Pengenalan\n\n```\n“People worry that computers\nwill get too smart and take over\nthe world, but the real problem\nis that they’re too stupid and\nthey’ve al _ready_ taken over the\nworld.”\nPedro Domingos\n```\nPenulis yakin istilah _machine learning_ atau _deep learning_ sudah tidak asing\ndi telinga pembaca. _Machine learning_ dan _deep learning_ adalah salah satu\nmateri kuliah pada jurusan Teknik Informatika atau Ilmu Komputer. Selain\nmengenal kedua istilah tersebut dari perkuliahan, pembaca mungkin mengenal\nistilah tersebut karena digunakan untuk pemasaran (marketing). Sebagai\npermulaan, _machine learning_ dan _deep learning_ bukanlah kedua hal yang\nberbeda.^1 Perlu diingat, _deep learning_ adalah bagian dari _machine learning_.\n_Machine learning_ sudah diaplikasikan pada banyak hal, baik untuk klasifikasi\ngambar, mobil tanpa pengemudi, klasifikasi berita, dsb. Bab ini menjelaskan\nkonsep paling dasar dan utama _machine learning_.\n\n"} {"text": "### 1.4 Statistical Learning Theory\n\nPada masa sekarang ini data bertebaran sangat banyak dimana-mana. Pemrosesan\n_data_ secara manual tentu adalah hal yang kurang bijaksana. Beberapa\npemrosesan data yang dilakukan seperti kategorisasi (kategorisasi teks\nberita), peringkasan dokumen, ekstraksi informasi (mencari subjek, objek,\ndan relasi diatara keduanya pada teks), rekomendasi produk berdasarkan\n\n(^6) KBBI Web, diakses pada 10 Oktober 2016\n\n\n```\n1.4 Statistical Learning Theory 9\n```\ncatatan transaksi, dll [7]. Tujuan _machine learning_ minimal ada dua:memprediksi\nmasa depan( _unobserved event_ ); dan/ataumemperoleh ilmu\npengetahuan( _knowledge discovery/discovering unknown structure_ ). Kedua\nhal ini berkaitan sangat erat. Sebagai contoh, manusia tahu bahwa cara menggunakan\npensil dan pulpen sama, walaupun saat kita belum pernah menggunakan\npulpen (penulis berasumsi kamu belajar menulis menggunakan pensil).\nMemprediksi masa depan berarti kita tahu bahwa pulpen adalah alat tulis.\n_Knowledge discovery_ berarti kita tahu bahwa cara menggunakan pulpen dan\npensil itu sama, walaupun belum pernah menggunakan pulpen sebelumnya.^7\nUntuk mencapai tujuan tersebut, kita menggunakan data (sampel), kemudian\nmembuat model untuk menggeneralisasi “aturan” atau “pola” data sehingga\nkita dapat menggunakannya untuk mendapatkan informasi/membuat\nkeputusan [8, 9]. _Statistical learning theory_ (yang diaplikasikan padamachine\n_learning_ ) adalah teknik untuk memprediksi masa depan dan/atau menyimpulkan/mendapatkan\npengetahuan dari datasecara rasional dan nonpara _norm_ al.\nHal ini sesuai dengan konsep _intelligent agent_, yaitu bertingkah\nberdasarkan lingkungan. Dalam hal ini, yang bertindak sebagai lingkungan\nadalah data. _Performance measure_ -nya adalah seberapa akurat prediksi agen\ntersebut atau seberapa mirip “pola” data yang d _item_ ukan terhadap data asli.\nDisebut _statistical_ karena basis pembelajarannya memanfaatkan banyak teori\nstatistik untuk melakukan inferensi (misal memprediksi _unobserved event_ ).^8\n\n```\nGambar 1.3: Ilustrasi makanan pesta 1.\n```\nPerhatikan Gambar 1.3 (permasalahan yang disederhanakan). Misalkan\nkamu diundang ke suatu pesta. Pada pesta tersebut ada 3 jenis kue yang disajikan.\nKamu ingin mengetahui berapa rasio kue yang disajikan dibandingkan\nmasing-masing jenisnya (seluruh populasi). Tetapi, karena susah untuk menganalisis\nseluruh data atau keseluruhan data tidak tersedia, kamu mengam-\n\n(^7) Baca _zero-shot learning_\n(^8) Selain itu, _machine learning_ juga banyak memanfaatkan teori aljabar linier.\n\n\n10 1 Pengenalan\n\n```\nGambar 1.4: Ilustrasi makanan pesta 2.\n```\nbil beberapa sampel. Dari sampel tersebut, kamu mendapati bahwa ada 4\nbuah kue segi empat, 3 buah kue hati dan 2 buah kue segitiga. Lalu kamu\nmenyimpulkan ( _model_ ) bahwa perbandingan kuenya adalah 4:3:2 (segiempat:hati:segitiga).\nPerbandingan tersebut hampir menyerupai kenyataan seluruh\nkue yaitu 4:2.67:2. Cerita ini adalah kondisi ideal.\nPerhatikan Gambar 1.4, temanmu Haryanto datang juga ke pesta yang\nsama dan ingin melakukan hal yang sama (rasio kue). Kemudian ia mengambil\nbeberapa sampel kue. Dari sampel tersebut ia mendapati bahwa ada 3 buah\nsegiempat, 3 buah hati dan 2 buah segitiga, sehingga perbandingannya adalah\n3:3:2. Tentunya hal ini sangat melenceng dari populasi.\nDari dua sampel yang berbeda, kita menyimpulkan, meng _infer_ ensi ( _infer_ )\natau mengeneralisasi dengan berbeda. Kesimpulan yang kita buat berdasarkan\nsampel tersebut, kita anggap merefleksikan populasi, kemudian kita menganggap\npopulasi memiliki aturan/pola seperti kesimpulan yang telah kita ciptakan\n[10]. Baik pada statistika maupun _statistical machine learning_, pemilihan\nsampel (selanjutnya disebut _training data_ ) adalah hal yang sangat penting.\nApabila _training data_ tidak mampu merepresentasikan populasi, maka\n_model_ yang dihasilkan pembelajaran ( _training_ ) tidak bagus. Untuk itu, biasanya\nterdapat juga _validation data_ dan _test data_. Mesin dilatih menggunakan _training_\n_data_, kemudian diuji kinerjanya menggunakan _validation data_ ^9\ndan _test data_. Seiring dengan membaca buku ini, konsep _training data_, _validation_\n_data_, dan _test data_ akan menjadi lebih jelas. Cara mengevaluasi apakah\nsampel ( _data_ ) yang kita miliki cukup “bagus” untuk merepresentasikan populasi\nsangat bergantung pada domain dan aplikasi.\nSeperti halnya contoh sederhana ini, persoalan _machine learning_ sesungguhnya\nmenyerupai persoalan _statistical inference_ [10]. Kita berusaha mencari\ntahu populasi dengan cara menyelidiki fitur ( _features_ atau sifat-sifat)\nyang dimiliki sampel. Kemudian, meng _infer_ ensi aksi yang harus dilakukan\n\n(^9) Pada umumnya bertindak sebagai _stopping criterion_ saat proses _training_.\n\n\n```\n1.5 Training, Validation, Testing Set 11\n```\nterhadap _unobserved data_ berdasarkan kecocokan fitur-fitur _unobserved data_\ndengan model/aturan yang sudah ada.\nDari sisi metode pembelajaran, algoritma _machine learning_ dapat dikategorikan\nsebagai: _supervised learning_ (subbab 1.6), _semi-supervised learning_\n(subbab 1.8), _unsupervised learning_ (subbab 1.9), dan _reinforcement learning_.\nMasing-masing metode akan dibahas pada subbab berikutnya (kecuali\n_reinforcement learning_, karena diluar cakupan buku ini).\n\n"} {"text": "### 1.12 Contoh Aplikasi\n\nSebenarnya, aplikasi pemanfaatan _machine learning_ sudah terasa dalam kehidupan\nsehari-hari. Contoh mudahnya adalah produk-produk Google, misalnya\ngoogle translate ( _machine translation_, handwritten recognition, speech\nrecognition, Alpha Go). Berikut adalah beberapa artikel menarik:\n\n```\n1.techcrunch google AI beats go world champion\n2.http://www-formal.stanford.edu/jmc/whatisai/ _node_ 3.html\n3.https://www.google.com/selfdrivingcar/\n4.http://www.osnews.com/story/26838/Palm_I_m_ _ready_ _to_ _wallow_ _now/\npage2/\n```\n"} {"text": "### 1.5 Training, Validation, Testing Set\n\nTerdapat dua istilah penting dalam pembangunan model _machine learning_\nyaitu: _training_ dan _testing_. _Training_ adalah proses konstruksi model dan\n_testing_ adalah proses menguji kinerja model pembelajaran. _Dataset_ adalah\nkumpulan data (sampel dalam statistik). Sampel ini adalah data yang kita\ngunakan untuk membuat model maupun mengevaluasi model _machine learning_.\nUmumnya, _dataset_ dibagi menjadi tiga jenis yang tidak beririsan (suatu\nsampel pada himpunan tertentu tidak muncul pada himpunan lainnya):\n\n```\n1. _Training set_ adalah himpunan data yang digunakan untuk melatih atau\nmembangun model. Pada buku ini, istilah _training data_ (set)mengacu\npada _training set_.\n2. _Development set_ atau _validation set_ adalah himpunan data yang digunakan\nuntuk mengoptimisasi saat melatih model. Model dilatih menggunakan _training_\nsetdan pada umumnya kinerjasaat latihandiuji dengan _validation_\nset. Hal ini berguna untuk generalisasi (agar model mampu\nmengenali pola secara generik). Pada buku ini, istilah _development_ dan\n_validation data_ (set)mengacu pada hal yang sama.\n3. _Testing set_ adalah himpunan data yang digunakan untuk menguji model\nsetelahproses latihan selesai. Pada buku ini, istilah _testing data_ (set)\natau _test set_ mengacu pada _testing set_. Perlu kami tekankan, _testing set_\nadalah _unseen data_. Artinya, model dan manusia tidak boleh melihat sampel\nini saat proses latihan. Banyak orang yang tergoda untuk melihat _testing_\nsetsaat proses latihan walaupun itu adalah tingkah laku yang buruk\nkarena menyebabkan _bias_.\n```\nSuatu sampel pada himpunan data kita sebut sebagai _data point_ atau\n_instance_ yang merepresentasikan suatu kejadian statistik ( _event_ ). Perlu diingat, _training_, _validation_,\ndan _testing data_ secara ideal diambil ( _sampled_ )\ndari distribusi yang sama dan memiliki karakteristik yang sama ( _independent_ ly\nand identically distributed). Distribusi pada masing-masing dataset ini\njuga sebaiknya seimbang ( _balanced_ ) dan memuat seluruh kasus. Misal, sebuah\n_dataset_ _binary classification_ sebaiknya memuat 50% kasus positif dan\n50% kasus negatif.\n\n\n12 1 Pengenalan\n\nPada umumnya, rasio pembagian _dataset_ ( _training_ : _validation_ : _testing_ )\nadalah (80% : 10% : 10%) atau (90% : 5% : 5%). _Validation set_ pada umumnya\nbisa tidak digunakan apabila _dataset_ berukuran kecil (hanya dibagi menjadi _training_ dan _testing_\nsetsaja). Dalam kasus ini, pembagian _dataset_ menjadi _training_\ndan _testing_ set pada umumnya memiliki rasio (90% : 10%),\n(80% : 20%), (70% : 30%), atau (50% : 50%). Pada kasus ini, kinerja saat\n_training_ diuji menggunakan _training set_ (dikenal sebagai _closed testing_ ).\nSaat tidak menggunakan _validation set_ (hanya ada _training_ dan _testing_\nset), kita juga memiliki opsi untuk mengevaluasi model dengan metodeKcross- _validation_.^10\nArtinya, kita membagi _training data(set)_ setatau keseluruhan\n_dataset_ ) menjadiKbagian. Kita menggunakanK−1 bagian untuk _training_,\nkemudian menguji kinerja model saat latihan ( _validation_ ) menggunakan satu\nbagian. Hal ini diulangi sebanyakKkali dimana sebuah bagian data digunakan\nsebagai _testing set_ sebanyak sekali (bergilir). Mungkin sekarang kamu\nmerasa pusing karena membaca banyak istilah. Jangan khawatir! Kamu akan\nlebih meresapi arti istilah-istilah tersebut seiring membaca buku ini.\n\n"} {"text": "### 1.11 Tips\n\nJujur, pengarang sendiri belum menguasai bidang ini secara penuh, tetapi\nberdasarkan pengalaman pribadi (+membaca) dan beberapa rekan; ada beberapa\nmateri wajib yang harus dipahami untuk mengerti bidangmachine\n_learning_. Sederhananya, kamu harus menguasai banyak teori matematika dan\nprobabilitas agar dapat mengerti _machine learning_ sampai tulang dan jeroannya.\nKami tidak menyebutkan bahwa mengerti _machine learning_ secara intuitif\n(atau belajar dengan pendekatan deskriptif) itu buruk, tetapi untuk\nmengerti sampai dalam memang perlu mengerti matematika (menurut pengalaman\nkami). Disa _rank_ an untuk belajar materi berikut:\n\n1. Matematika Diskrit dan Teori Bilangan\n\n\n```\n1.12 Contoh Aplikasi 19\n```\n2. Aljabar Linier dan Geometri ( _vektor_, matriks, skalar, dekomposisi, trans-\n formasi, tensor, dsb)\n3. Kalkulus (diferensial dan integral)\n4. Teori Optimasi (Lag _range_ multiplier, Convex Iptimization, Gradient De-\n scent, Integer Linear Problem,dsb)\n5. Probabilitas dan Statistika (probabilitas, _probability densities_,hypothesis\n testing, _inter-rater agreement_, Bayesian, _sampling_ )\n6. Teori Fuzzy\n\nMungkin kamu sudah tahu, tetapi penulis ingin mengingatkan ada dua\nbuku yang sangat terkenal (“kitab”) sebagai materi belalajar _machine learning_ dan _deep_\n_learning_ :\n\n1. Patten Recognition and Machine Learning, oleh Christopher M. Bishop [8]\n2. Deep Learning, oleh Ian Goodfellow, Yoshua Bengio, dan Aaron Courville [11]\n\nApabila pembaca memiliki kesempatan, penulis sangat menya _rank_ an membaca\nkedua buku tersebut.\n\n"} {"text": "### Soal Latihan\n\n1.1. Aplikasi\n\n(a) Carilah contoh-contoh penerapan _machine learning_ pada kehidupan seharihari\nselain yang telah disebutkan!\n(b) Mengapa mereka menggunakan teknik _machine learning_ untuk menyelesaikan\npermasalahan tersebut?\n(c) Apakah tidak ada opsi teknik lainnya? Jelaskan bila ada!\n(d) Apa kelebihan dan kekurangan teknik _machine learning_ daripada teknik\nlainnya (yang kamu jelaskan pada soal (c))?\n\n\n20 1 Pengenalan\n\n1.2. Kecerdasan\nJelaskan tahapan perkembangan kecerdasan manusia berdasarkan kategori\nusia! Dari hal ini, kamu akan mengerti kenapa beberapa peneliti membuat\nagen cerdas berdasarkan kategori usia tertentu.\n\n\n"} {"text": "### 1.9 Un _supervised_ Learning\n\n```\nGambar 1.10: Ilustrasi _clustering_\n```\nJika pada _supervised learning_ ada guru yang mengajar, maka pada _unsupervised_\n_learning_ tidak ada guru yang mengajar. Contoh permasalahan un _supervised_\n_learning_ adalah _clustering_. Mengingat contoh kue sebelumnya, kita\ningin mengelompokkan kue-kue yang sama, diilustrasikan oleh Gambar 1.10.\nYang kamu lakukan adalah membuat kelompok-kelompok berdasarkan karakteristik\nkue, misal kelompok kue biru, kelompok kue kuning, atau kelompok\nkue merah. Teknik-teknik mengelompokkan ini akan dibahas pada babbab\nberikutnya. Contoh algoritma _unsupervised learning_ sederhana adalah\n_K-means_ (bab 4).\nPerhatikan Gambar 1.11 dan Gambar 1.12! Berbeda dengan supervised\n_learning_ yang memiliki _desired output_, pada _unsupervised learning_ tidak ada\n_desired output_ (jelas, tidak ada gurunya, tidak ada yang memberi contoh).\n\n\n```\n1.9 Un _supervised_ Learning 17\n```\n```\nGambar 1.11: _Unsupervised learning_ framework\n```\n```\nGambar 1.12:Generalization error of un _supervised learning_\n```\nKita ingin mencari tahu distribusi asli dataq(x), berdasarkan beberapa sampel\n_data_. _Learning_ dilakukan dengan mengoptimalkanp(x|w) yang mengoptimasi\nparameterw. Perbedaan antara estimasi dan fungsi asli disebut\nsebagai _generalization loss_ (atau _loss_ saja – dijelaskan pada bab 5). Kunci\npemahaman _unsupervised learning_ adalah mengingat persamaan 1.3, yaitu\nada _input_ dan parameter.\n\np(x|w) (1.3)\nPerlu kami tekankan, _unsupervised learning_ 6 = _clustering_ ! _Clustering_ adalah\nsalah satu bentuk _unsupervised learning_ ; yaitu salah satu hasil inferensi persamaan\n1.3. _Unsupervised learning_ adalah mencari sifat-sifat ( _properties_ )\n_data_. Kita ingin aproksimasip(x|w) semirip mungkin denganq(x), dimana\nq(x) adalah distribusi data yang asli. Dataset di-sampel dari distribusiq(x),\nkemudian kita ingin mencari tahuq(x) tersebut.\n\n\n18 1 Pengenalan\n\n"} {"text": "### 1.3 Konsep Belajar\n\nBayangkan kamu berada di suatu negara asing! Kamu tidak tahu norma yang\nada di negara tersebut. Apa yang kamu lakukan agar bisa menjadi orang\n“ _norm_ al” di negara tersebut? Tentunya kamu harusbelajar! Kamu mengamati\nbagaimana orang bertingkah laku di negara tersebut dan perlahan-lahan\nmengerti norma yang berlaku. Belajar adalah usaha memperoleh kepandaian\natau ilmu; berlatih; berubah tingkah laku atau tanggapan yang disebabkan\noleh pengalaman.^6 Pembelajaran adalah proses, cara, perbuatan atau menjadikan\norang atau makhluk hidup belajar. Akan tetapi, pada _machine learning_,\nyang menjadi siswa bukanlah makhluk hidup, tapi mesin.\nDefinsi sebelumnya mungkin sedikit “abstrak”, kita harus mengkonversi\ndefinisi tersebut sebagai definsi operasional (bentuk komputasi). Secara operasional,\nbelajar adalah perubahan tingkah laku berdasarkan pengalaman\n( _event_ / _data_ ) untuk menjadi lebih baik. Pada konteks _machine learning_, belajar\nadalah menyesuaikan konfigurasi parameter (tingkah laku) terhadaputility\n_function_ sesuai dengan data (lingkungan).\n\n"} {"text": "### 1.7 Regresi\n\nPada persoalan regresi, kita ingin memprediksi _output_ berupa bilangan kontinu.\nMisalnya pada regresi suatu fungsi polinomial, kita ingin mencari tahu\nfungsif(x) diberikan data{(x 1 ,y 1 ),···,(xN,yN)}. Setelah itu, kita gunakan\nfungsi aproksimasi untuk mencari tahu nilaiyN+1dari data baruxN+1. Perbedaan\nregresi dan klasifikasi adalah pada tipe _output_. Untuk regresi, tipe _output_\nadalah nilai kontinu; sementara tipe _output_ pada persoalan klasifikasi adalah\nsuatu objek pada himpunan (i.e., memilih opsi pada himpunan jawaban).\nTetapi, kita dapat mengkonversi fungsi regresi menjadi fungsi klasifikasi (dijelaskan\npada bab 5).\n\n\n16 1 Pengenalan\n\n"} {"text": "### 1.10 Proses Belajar\n\nSeperti yang sudah dijelaskan pada subbab sebelumnya, pada supervised\nmaupun _unsupervised learning_, kita ingin mengestimasi sesuatu dengan teknik\n_machine learning_. Kinerja model pembelajaran berubah-ubah sesuai dengan\nparameterw(parameter pembelajaran). Kinerja model diukur oleh fungsi\ntujuan ( _utility function_ –saat latihan, _performance measure_ –saat melakukan\nprediksi), yaitu mengoptimalkan nilai fungsi tertentu; misalnya meminimalkan\nnilai _error_ (dijelaskan kemudian). Secara intuitif, _learning machine_ mirip\nseperti saat manusia belajar. Kita awalnya membuat banyak kesalahan, tetapi\nkita mengetahui atau diberi tahu mana yang benar. Untuk itu kita menyesuaikan\ndiri secara perlahan agar menjadi benar (iteratif). Inilah yang juga\ndilakukan _learning machine_, yaitu mengubah-ubah parameterwuntuk mengoptimalkan\nsuatu fungsi tujuan. Akan tetapi, _machine learning_ membutuhkan\nsangat banyak data. Sementara, manusia dapat belajar dengan contoh\nyang sedikit. Perhatikan, dengan adanya parameterw, kamu mungkin\nakan menganggap bahwa teknik _machine learning_ adalah fungsi-parametrik.\nSebenarnya, ada juga algoritma _machine learning_ non-parametrik, tetapi algoritham\nparametrik yang lebih sering digunakan di masa buku ini ditulis.\nSecara bahasa lebih matematis, kami beri contoh _supervised learning_. Kita\nmempunyai distribusi klasifikasi asliq(y|x). Dari distribusi tersebut, kita\ndiberikan beberapa sampel pasangan _input-output_ {z 1 ,z 2 ,z 3 ,...,zn};zi =\n(xi,yi). Kita membuat modelp(y |x,w). Awalnya diberi (x 1 ,y 1 ), model\nmengestimasi fungsi asli dengan mengoptimalkan parameterwsesuai dengan\n_data_ yang ada. Seiring berjalannya waktu, ia diberikan data observasi lainnya,\nsehingga _learning machine_ menyesuaikan dirinya (konvergen) terhadap observasi\nyang baru (x 2 ,y 2 ),(x 3 ,y 3 ),.... Semakin lama, kita jadi makin percaya\nbahwa model semakin optimal (mampu memprediksi fungsi aslinya). Apabila\nkita diberikan lebih banyak data data sampai sejumlah tak hingga, aproksimasi\nkita akan semakin mirip dengan distribusi aslinya.\n\n"} {"text": "### 1.6 Supervised Learning\n\nJika diterjemahkan secara literal, _supervised learning_ adalah pembelajaran\nterarah/terawasi. Artinya, pada pembelajaran ini, ada guru yang mengajar\n(mengarahkan) dan siswa yang diajar. Kita disini berperan sebagai guru, kemudian\nmesin berperan sebagai siswa. Perhatikan Gambar 1.5 sebagai ilustrasi!\nPada Gambar 1.5, seorang guru menuliskan angka di papan “8, 6, 2”\nsebagai contoh untuk siswanya, kemudian gurunya memberikan cara membaca\nyang benar untuk masing-masing angka. Contoh angka melambangkan\n_input_, kemudian cara membaca melambangkan _desired output_ (sering disebut\n“ _gold standard_ ”). Pasangan _input_ – _desired output_ ini disebut sebagai\n_instance_ (untuk kasus _supervised learning_ ). Pembelajaran metode ini disebut\n_supervised_ karena ada yang memberikan contoh jawaban ( _desired output_ ).\nPerhatikan Gambar 1.6 dan Gambar 1.7,xadalah kejadian ( _event_ – _random_\nvariable), untuk event tertentu dapat dinotasikan sebagai{x 1 ,x 2 ,x 3 ,···,\nxN}.xdapat berupa vektor, teks, gambar, dan lain sebagainya (perhatikan\nkonteks pembahasan buku). Demi pembahasan yang cukup generik, pada bab\nini kita membicarakanxyang merepresentasikan _event_, _data point_, atau _input_.\nSeorang guru sudah mempunyai jawaban yang benar untuk masing-masing\ncontoh dengan suatu fungsi distribusi probabilitas kondisional (conditional\n_probability density function_ )q(y |x) baca: _function_ q for y _given_ x,\nmelambangkan hasil yang benar/diharapkan untuk suatu event. Siswa (mesin)\nmempelajari tiap pasang pasangan _input-desired output_ ( _training_\n_data_ )dengan mengoptimalkan _conditional probability density function_ p(y|\nx,w), dimanayadalah target ( _output_ ),xadalah input dan vektorwadalah\n\n(^10) https://www.openml.org/a/estimation-procedures/1\n\n\n```\n1.6 Supervised Learning 13\n```\n```\nGambar 1.5:Supervised learning.\n```\n_learning parameters_. Proses belajar, yaitu mengoptimalkanwdisebut sebagai\n_training_. Semakin kamu membaca buku ini, konsep ini akan menjadi\nsemakin jelas. Proses _training_ bertujuan untuk mengaproksimasiq(y |x)\nmelaluip(y|x,w). Proses pembelajaran bertujuan untuk mengubah-ubahw\nsedemikian sehinggap(y|,x,w) mirip denganq(y|x).\n\n```\nGambar 1.6:Supervised learning-mathematical explanation.\n```\nPerhatikan Gambar 1.8! model memiliki panah ke _training data_ dantest\n_data_, artinya model hasil _training_ sangat bergantung pada _data_ dan guru.\nModel yang dihasilkan _training_ (hasil pembelajaran kemampuan siswa) untuk\n_data_ yang sama bisa berbeda untuk guru yang berbeda.^11\nTujuan _supervised learning_, secara umum untuk melakukan klasifikasi\n( _classification_ ). Misalkan mengklasifikasikan gambar buah (apa nama buah\npada gambar), diilsutrasikan pada Gambar 1.9. Apabila hanya ada dua kategori,\ndisebut _binary classification_. Sedangkan bila terdapat lebih dari dua\nkategori, disebut _multi-class classification_. Contoh _multi-class_ classifica-\n\n(^11) Penulis rasa hal ini sangat intuitif berhubung hal serupa terjadi pada manusia.\n\n\n14 1 Pengenalan\n\n```\n8, 6, 2 ...\n```\n𝑥 (^1) ,𝑥 (^2) ,𝑥 (^3) ,... 𝑥𝑛\n𝑥 1 ,𝑥 2 ,𝑥 3 ,... ,𝑥𝑛\n𝑦 1 ,𝑦 2 ,𝑦 3 ,... ,𝑦𝑛\n𝑞(𝑥) 𝑞(𝑦|𝑥) 𝑥 𝑦\n𝑞𝑥𝑞𝑦𝑥 =𝑞(𝑥,𝑦)\np(𝑦|𝑥,𝒘)\n_ _Input_\nDesired output_\nGambar 1.7:Supervised learning-mathematical explanation2.\nGambar 1.8:Supervised learning framework.\ntionadalah mengklasifikasikan gambar buah ke dalam himpunan kelas: _apel_,\n_mangga_ atau _sirsak_.\nAda tipe klasifikasi lain disebut _multi-label classification_ yaitu ketika\nkita ingin mengklasifikasikan suatu sampel ke dalam suatu himpunan kelas.\nPerhatikan! Perbedaan _multi-class_ dan _multi-label classification_ agak _tricky_.\nPada _multi-class classification_, suatu sampel hanya bisa berkorespondensi\ndengan satu kelas. Sedangkan pada _multi-label classification_, satu sampel dapat\nberkorespondensi dengan lebih dari satu kelas. Misalnya, suatu berita\ndapat masuk ke kategori _agama_ dan _politik_ pada waktu bersamaan. Artinya,\nlabel pada _multi-class classification_ bersifat _mutually exclusive_, sedangkan\nlabel tidak bersifat _mutually exclusive_ pada _multi-label classification_.^12 Perhatikan\nGambar 1.1 sebagai ilustrasi, dimana setiap baris merepresentasikan\nkelas yang berkorespondensi dengan setiap _input_, nilai “1” melambangkan\nTRUE dan nilai “0” melambangkan FALSE. _Multi-label classification_ dapat\ndidekomposisi menjadi beberapa _Binary classification_, yaitu mengklasifikasikan\napakah _input_ dapat ditetapkan ke suatu kelas atau tidak (dijelaskan\nlebih lanjut pada bab-bab berikutnya).\nPemahaman _supervised learning_ adalah mengingat persamaan 1.1. Ada\ntiga hal penting pada _supervised learning_ yaitu _input_, _desired output_, dan\n(^12) https://scikit-learn.org/stable/modules/multi _class_.html\n\n\n```\n1.7 Regresi 15\n```\n```\nGambar 1.9: Ilustrasi _binary classification_.\n```\n```\nInstanceApel Mangga Sirsak\nGambar-1 1 0 0\nGambar-2 0 1 0\nGambar-3 0 0 1\n```\n```\n(a) Multi- _class_ classification.\n```\n```\nInstanceApel Mangga Sirsak\nGambar-1 1 1 0\nGambar-2 0 1 1\nGambar-3 1 0 1\n```\n```\n(b) Multi-label classification.\n```\nTabel 1.1: Ilustrasi _multi-label_ dan _multi-class classification_. Nilai “1” melambangkan\nTRUE dan “0” melambangkan FALSE ( _class assignment._.\n\n_learning parameters_. Perlu ditekankan _learning parameters_ berjumlah lebih\ndari satu, dan sering direpresentasikan dengan vektor ( _bold_ ) atau matriks.\nBerdasarkan model yang dibuat, kita dapat melakukan klasifikasi (misal simbol\nyang ditulis di papan adalah angka berapa). Secara konseptual, klasifikasi\ndidefinisikan sebagai persamaan 1.2 yaitu memilih label (kelas/kategoriy)\npaling optimal dari sekumpulan labelC, diberikan ( _given_ ) suatu sampel ( _instance_ )\n_data_ tertentu.\n\n```\np(y|x,w) (1.1)\n```\n```\nyˆi= arg max\nyi∈C\n```\n```\np(yi|xi,w) (1.2)\n```\n"} {"text": "### 1.1 Kecerdasan Buatan\n\nPada bagian pembukaan (kata pengantar) telah dijelaskan bahwa kami menganggap\nkamu sudah memiliki pengetahuan dasar tentangartificial intelligence\n( _kecerdasan buatan_ ), kami akan memberikan sedikit ikhtisar apa\nhubungan kecerdasan buatan dan _machine learning_. Saat pertama kali kamu\nmendengar istilah “ _kecerdasan buatan_ ”, mungkin kamu akan terpikir robot\nyang memiliki raga fisik. Tetapi, kecerdasan buatan tidak hanya terbatas\npada sesuatu yang memiliki raga fisik. Raga fisik berguna untuk interaksi\n\n(^1) Walau istilah _deep learning_ belakangan ini lebih populer.\n\n\n4 1 Pengenalan\n\nyang ramah bagi manusia. Tidak mesti memiliki raga fisik, kecerdasan buatan\nsesungguhnya adalah program^2 yang memiliki bentuk matematis (instruksi);\nkita sebut sebagaiagen. Berbeda dengan program biasa yang menghasilkan\naksi berdasarkan instruksi, tujuan kecerdasan buatan adalah menciptakan\nprogram yang mampu mem-program ( _output_ program adalah sebuah program).\nSecara teori, program adalahautomaton^3 yang menjalankan suatu\ninstruksi. Sama halnya dengan program pada umumnya, agen kecerdasan buatan\njuga menjalankan suatu instruksi. Yang menjadikanya beda dengan program\n_bias_ a adalahkemampuan untuk belajar.^4 “Belajar” yang dimaksud\ntidaklah sama dengan proses manusia belajar. Mesin mampu belajar apabila\nia mampu meng- _update_ parameter (dijelaskan lebih detil kemudian), dimana\nparameter tersebut kurang-lebih merepresentasikan “pengetahuan” mesin.\nPada bidang keilmuan kecerdasan buatan, kita ingin menciptakan agen\nyang mampu melakukan pekerjaan yang membutuhkan kecerdasan manusia.\nPerhatikan, disini disebut kecerdasan manusia; hewan pun cerdas, tapi kecerdasan\nmanusia dan hewan berbeda; yang kita ingin aproksimasi adalah kecerdasan\nmanusia. Akan tetapi, kecerdasan manusia susah didefinisikan karena\nmemiliki banyak aspek misalnya nalar (logika), kemampuan berbahasa, seni,\ndsb. Karena kecerdasan manusia memiliki banyak dimensi, kita dapat mencoba\nmenyelesaikan masalah pada sub bidang lebih kecil–spesifik domain (divide\nand conquer). Sampai saat ini pun, peneliti belum juga mengetahui secara\npasti apa yang membuat manusia cerdas, apa itu sesungguhnya cerdas,\ndan bagaimana manusia dapat menjadi cerdas. Dengan demikian, keilmuan\n_kecerdasan buatan_ adalah interdisiplin, memuat: psikologis, linguistik, ilmu\nkomputer, biologi, dsb. Bila kamu bertanya apakah program de _term_ inistik\ndapat disebut _kecerdasan buatan_, jawabannya “iya”, _to some extent_ (sampai\npada level tertentu) karena memenuhi dimensi _acting rationally_ (dijelaskan\npada subbab 1.2).\nPermasalahan utama bidang kecerdasan buatan terdiri dari (dari klasik\nsampai lebih modern),^5 yaitu:\n\n```\n1. _Planning_. Diberikan _start state_ dan _goal state_, agen harus merencanakan\nsekuens aksi untuk merubah _start state_ menjadi _goal state_. Contoh permasalahan _planning_\nadalah merencanakan rute perjalanan dari kota A\nke kota B. Bisa jadi, saat merencanakan sekuens aksi, ada kendala ( _constraints_ )\nyang harus dioptimisasi.\n```\n```\n2. _Representasi pengetahuan_, yaitu merepresentasikan pengetahuan dalam\nbentuk formal. Dengan representasi formal tersebut, kita dapat melakukan\n_infer_ ensi dengan operasi logika berbentuk simbolik, misal logika preposisi,\n```\n(^2) Secara sederhana, program adalah kumpulan atau sekuens instruksi.\n(^3) Kami sa _rank_ an untuk membaca buku [2] untuk materi automata.\n(^4) Perlu diperhatikan, definisi ini adalah pandangan modern.\n(^5) Silahkan merujuk Association for the Advancement of Artificial Intelligence\n(AAAI).\n\n\n```\n1.1 Kecerdasan Buatan 5\n```\n```\nlogika orde pertama ( _first-order logic_ ), teori Fuzzy, _abductive reasoning_,\nontologi, maupun jaringan semantik ( _semantic web_ ) [3].\n```\n```\n3. _Machine learning_, yaitu teknik untuk melakukan inferensi terhadap\n_data_ dengan pendekatan matematis. Inti _machine learning_ adalah untuk\nmembuat model (matematis) yang merefleksikan pola-pola data (seiring\nkamu membaca buku ini, kamu akan lebih mengerti). Ini adalah bahasan\nutama buku ini. Pada abad ke-21 ini, _machine learning_ banyak memanfaatkan\nstatistika dan aljabar linier.\n```\n```\n4. _Multi-agent system_, yaitu sistem yang memiliki banyak agen berinteraksi\nsatu sama lain untuk menyelesaikan permasalahan. Agen satu\nmengerjakan suatu hal tertentu, kemudian bekerja bersama untuk menyelesaikan\nmasalah yang lebih besar (tidak dapat diselesaikan sendiri).\n```\n5. Dan lain sebagainya, silahkan mengacu pada topik konferensiAssociation\n for the Advancement of Artificial Intelligence(AAAI).\nPerhatikan, sub keilmuan representasi pengetahuan dan _machine learning_ sama-sama\nmelakukan inferensi, tetapi pada representasi yang berbeda.\nInferensi pada bidang keilmuan representasi pengetahuan mencakup tentang\nbagaimana cara (langkah dan proses) mendapatkan sebuah keputusan,\ndiberikan premis. Sebagai contoh,aadalah anakb, dancadalah anakb, maka\napakah hubunganadanc? Jawab:cadalah cucua. Pada _machine learning_,\n_infer_ ensi yang dimaksud lebih menitikberatkan ranah hubungan variabel.\nMisalnya,apakah penjualan akan meningkat apabila kita meningkatkan biaya\nmarketing. Bila kamu ingat dengan mata pelajaran matematika SMA (logika\npreposisi), kamu sadar bahwa membuat sistem cerdas menggunakan representasi\npengetahuan simbolik itu susah. Kita harus mendefinisikan _term_, aturan\nlogika, dsb. Belum lagi kita harus mendefinisikan aturan-aturan secara manual.\nDisamping itu, pengetahuan manusia sangatlah kompleks, dan translasi\npengetahuan menjadi aturan-aturan formal tidaklah mudah. Representasi\npengetahuan secara tradisional dianggap relatif kurang _scalable_. Artinya, kita\ntidak dapat merubah basis pengetahuan dengan mudah (meng- _update_ “parameter”).\nSementara itu, _machine learning_ berada pada daerah representasi\n_data_ /ilmu/pengetahuan dalam bentuk matematis karena keilmuanmachine\n_learning_ diturunkan dari matematika dan statistika. Teknik _machine learning_ juga\nmenjadi semakin populer akibat kemampuan komputasi yang terus\nmeningkat.\nPada masa sekarang, kita dianugrahi dengan data yang banyak (bahkan\ntidak terbatas), teknik _machine learning_ menjadi intuitif untuk melakukan\n_infer_ ensi pada data yang besar. Hal ini yang menyebabkan _machine learning_ menjadi\npopuler karena konstruksi model inferensi dapat dilakukan secara\notomatis. _Machine learning_ ibarat sebuah “alat”, sama seperti rumus\nmatematika. Bagaimana cara menggunakannya tergantung pada domain per-\n\n\n6 1 Pengenalan\n\nmasalahan. Dengan demikian, kamu harus paham betul bahwa memahami\nteknik-teknik _machine learning_ saja tidak cukup. Kamu juga harus mengetahui\ndomain aplikasi yang bersesuaian karena pemanfaatan teknik-teknik\n_machine learning_ dapat berbeda pada domain yang berbeda. Sedikit cerita,\nsub keilmuan _data science_ mempelajari banyak domain, misalnya data pada\ndomain sosial, ekonomi, bahasa, maupun visual. Seiring kamu membaca buku\nini, kami harap kamu semakin mengerti hal ini.\n\n"} {"text": "### 1.2 Intelligent Agent\n\nAgen cerdas memiliki empat kategori berdasarkan kombinasi dimensi cara\n_infer_ ensi ( _reasoning_ ) dan tipe kelakuan ( _behaviour_ ) [4, 5]. Kategori agen\ndapat dilihat pada Gambar 1.1 dengan penjelasan sebagai berikut:\n\n```\nGambar 1.1: Dimensi kecerdasan.\n```\n```\n1. _Acting Humanly_. Pada dimensi ini, agen mampu bertingkah dan berinteraksi\nlayaknya seperti manusia. Contoh terkenal untuk hal ini adalah\n_turing test_. Tujuan dari _turing test_ adalah untuk mengevaluasi apakah\nsuatu sistem mampu “menipu” manusia. Disediakan seorang juri, kemudian\njuri berinteraksi dengan sesuatu di balik layar. Sesuatu di balik layar\nini bisa jadi manusia atau program. Program dianggap mampu bertingkah\n(berinteraksi) seperti layaknya manusia apabila juri tidak dapat membedakan\nia sedang berkomunikasi dengan manusia atau program.\n```\n```\n2. _Acting Rationally_. Pada dimensi ini, agen mampu bertingkah dengan\noptimal. Tindakan optimal belum tentu menyerupai tindakan manusia,\nkarena tindakan manusia belum tentu optimal. Misalnya, agen yang\nmampu memiliki rute terpendek dari suatu kotaAke kotaBuntuk mengoptimalkan\npenggunaan sumber daya. Sebagai manusia, bisa saja kita\nmencari jalan sesuka hati.\n```\n\n```\n1.2 Intelligent Agent 7\n```\n```\n3. _Thinking Humanly_. Pada dimensi ini, agen mampu berpikir seperti\nmanusia dalam segi kognitif (e.g. mampu mengerti apa itu kesedihan atau\nkesenangan). Dapat dibilang, meniru bagaima proses berpikir di otak terjadi\n(pe _model_ an otak).\n```\n```\n4. _Thinking Rationally_. Pada dimensi ini, agen mampu berpikir secara\nrasional. Sederhananya sesuai dengan konsep logika matematika.Thinking\nHumanlylebih cenderung pada pe _model_ an kognitif secara umum, sementara\ndimensi _thinking rationally_ cenderung pada pe _model_ an proses\nberpikir dengan prinsip optimisasi (apa yang harus dilakukan agar hasil\noptimal).\n```\nPerlu dicatat, “ _acting_ ” berarti agen mampu melakukan aksi. Sementara\n“ _thinking_ ” adalah pe _model_ an proses. Untuk mewujudkan interaksi manusiakomputer\nseperti manusia-manusia, tentunya kita ingin _intelligent agent_ bisa\nmewujudkan dimensi _acting humanly_ dan _thinking humanly_. Sayangnya, manusia\ntidak konsisten [6]. Sampai saat ini, konsep kecerdasan buatan adalah\nmeniru manusia; apabila manusia tidak konsisten, peneliti susah untuk me _model_ kan\ncara berpikir atau tingkah laku manusia. Berhubung agen dilatih menggunakan\ncontoh-contoh data buatan manusia, ketidak-konsistensi-an agen\nsemata-mata mencerminkan ketidak-konsistensi-an pembuat data. Dengan hal\nitu, saat ini kita paling mungkin menciptakan agen yang mempunyai dimensi\n_acting rationally_.\n\n```\nGambar 1.2:Agentvs _environment_ [7].\n```\nPerhatikan Gambar 1.2! Agen mengumpulkan informasi dari lingkungannya,\nkemudian memberikan respon berupa aksi. Lingkungan ( _environment_ )\nyang dimaksud bisa jadi macam-macam, misal: rumah, papan catur, agen\nlain, dsb. Kita ingin agen melakukan aksi yang benar. Tentu saja kita perlu\nmendefinisikan secara detail, teliti, tepat ( _precise_ ), apa arti “aksi yang benar.”\nDengan demikian, lebih baik apabila kita mengukur kinerja agen, menggunakan\nukuran kinerja yang objektif (disebut _performance measure_ ). Misal-\n\n\n8 1 Pengenalan\n\nnya untuk robot pembersih rumah, _performance measure_ -nya adalah seberapa\npersen debu yang dapat ia bersihkan. _Performance measure_ adalah ukuran\nbagaimana model pembelajaran mesin dievaluasi secara eksternal. Di sisi internal,\n_model_ harus mengoptimalkan suatu fungsi utiiltas ( _utility function_ ),\nyaitu fungsi apa yang harus dimaksimalkan atau diminimalkan oleh agen\ntersebut khususnya pada tahap latihan ( _training_ ). Misalnya, robot pembersih\nrumah memiliki _utility function_ untuk mengukur kotoran di tempat terbatas\ntempat ia berada atau rute paling efisien untuk membersihkan rumah. Setiap\ntindakan yang dilakukan agen rasional harus mengoptimalkan baik nilaiutility\n_function_ (internal) dan _performance measure_ (eksternal). Pada buku ini, istilahperformance\nmeasuredan _utility function_ merujuk pada hal yang berbeda.\nTetapi, pada beberapa kasus, _utility function_ dan _performance measure_ dapat\ndiukur dengan fungsi yang sama. Mungkin kamu merasa penjelasan ini\nagak abstrak pada saat ini. Tetapi, kamu akan semakin mengerti perbedaan\nkeduanya setelah membaca buku ini.\n\n"} {"text": "### 1.8 Semi- _supervised_ Learning\n\n_Semi-supervised learning_ mirip dengan _supervised learning_, bedanya pada\nproses pelabelan data. Pada _supervised learning_, ada “guru” yang harus membuat\n“kunci jawaban” _input-output_. Sedangkan pada _semi-supervised learning_\ntidak ada “kunci jawaban” eksplisit yang harus dibuat guru. Kunci jawaban\nini dapat diperoleh secara otomatis (misal dari hasil _clustering_ ). Pada kategori\npembelajaran ini, umumnya kita hanya memiliki sedikit data. Kita kemudian\nmenciptakan data tambahan baik menggunakan _supervised_ ataupun\n_unsupervised learning_, kemudian membuat model belajar dari data tambahan\ntersebut.\n\n"} {"text": "### Untuk Tuhan, Bangsa, dan Almamater\n\n\n\n"} {"text": "### 2.10 Matriks\n\nSubbab ini adalah pengingat untuk operasi perjumlahan, pengurangan, perkalian,\ndan transpose matriks karena banyak digunakan di buku ini. Diberikan\ndua buah matriksUdanV.UdanVdapat dijumlahkan jika dan hanya jika\ndimensi kedua matriks itu sama. Perjumlahan matriks dinotasikan dengan\n\n(^3) kamu dapat mencoba library entropy di scipy (python) untuk mendapat gambaran\nlebih detil\nhttps://docs.scipy.org/doc/scipy/reference/ _generate_ d/scipy\n.stats. _entropy_.html\n(^4) https://towards _data_ science.com/ _entropy_ - _cross-entropy_ -and-kl_divergen_\nce-explained-b09cdae917a\n\n\n36 2 Fondasi Matematis\n\nU+V=C. MatriksCmemiliki dimensi yang sama denganUdanV. Nilai\nelemen baris ke-idan kolom ke-j(Ci,j) dihitung sebagai penjumlahan nilai\nelemen matriksUdanVpada baris dan kolom yang bersesuaian, seperti\ndiilustrasikan pada persamaan 2.18. Pengurangan dua buah matriks dilakukan\nserupa.\n\nCi,j=Ui,j+Vi,j (2.18)\nDua buah matriksUdanVdapat dikalikan jikaUmemiliki kolom sebanyak\nbaris padaV. Misalkan matriksUberdimensiN×MdanVberdimensiM×O,\nmaka kedua matriks tersebut dapat dikalikan dan menghasilkan\nmatriksCdengan dimensiN×O(dimensi barisUdan kolomV), dimana\ntiap elemen pada matriksCdihitung dengan persamaan 2.19 (operasi antara\n_vektor_ baris dan vektor kolom).\n\n```\nCx,y=\n```\n#### ∑M\n\n```\ni=1\n```\n```\nUx,i+Vi,y (2.19)\n```\nSelain perkalian antar dua buah matriks, sebuah matriks juga dapat dikalikan\ndengan skalar, dinotasikan denganaU. Hasil perkalian adalah sebuah matriks\ndengan dimensi yang sama denganU, dimana tiap elemen dikalikan dengan\nnilai skalar.\n(aU)i,j=a×Ui,j (2.20)\nSuatu matriksUberdimensiN×Mapabila di transpose menghasilkan\nmatriksUTberdimensiM×N, dimana elemen ke-i,jpada matriksUTadalah\nelemen ke-j,ipada matriksU, seperti diilustraiskan pada persamaan 2.19.\n\n```\nUTi,j=Uj,i (2.21)\n```\nAda satu istilah lagi yang perlu kamu ketahui yaitutensor. Tensor adalah\ngeneralisasi untuk vektor (1 dimensi) dan matriks (2 dimensi) yang memilikiN\ndimensi. Tensor sering digunakan untuk notasi pada _artificial neural network_.\nTetapi demi kemudahan pengertian, penulis menggunakan notasi matriks.\n\n"} {"text": "### 2.7 Teori Keputusan\n\nDiberikan himpunan pasangan data _input-output_ (xi,yi);x = input,y =\n_output_ / _target_ ; walaupun tidak pasti, kita ingin mengestimasi hubungan antara _input_ dan _output_.\nUntuk itu kita melakukan estimasip(y|x,w), dimana\nwadalah _learning parameters_. Pada bab pertama, kamu telah mempelajari\nbahwa kita mampu melakukan hal ini dengan teknik _machine learning_. Lebih\njauh lagi, kita juga harus mampu untuk membuat keputusan berbasiskan\nperkiraan nilaiy, aspek ini disebut _decision theory_ [8].\nDalam _machine learning_ kita dapat membangun model dengan tujuan\nuntuk meminimalkan _error_ (secara umum meminimalkan _loss_ ); konsep meminimalkan _error_ dijelaskan\npada materi model linear (bab 5). Ibaratnya untuk\nsebuah robot, kita ingin robot tersebut tidak melakukan tindakan yang\nsalah. Tetapi, kadang kala meminimalkan _error_ belum tentu membuat model\nmenjadi lebih baik. Kami ilustrasikan menggunakan contoh dari Bishop [8].\n\n\n```\n2.7 Teori Keputusan 31\n```\nMisalkan kita diminta untuk membuat model klasifikasi kanker. Kita dapat\nmengklasifikasikan pasien menjadi dua kelas{kanker, _norm_ al}.\nApabila kita ingin meminimalkan _error_ saja maka kita ingin mengklasifikasikan\nsecara tepat orang yang kanker dianggap memiliki kanker dan yang\ntidak dianggap sebagai tidak. Akan tetapi, terdapat _tradeoff_ yang berbeda\nsaat salah klasifikasi. Apabila kita mengklasifikasikan orang yang normal sebagai\nkanker, konsekuensi yang mungkin adalah membuat pasien menjadi\nstres atau perlu melakukan pemeriksaan ulang. Tetapi bayangkan, apabila\nkita mengklasifikasikan orang kanker sebagai normal, konsekuensinya adalah\npenanganan medis yang salah. Kedua kasus ini memiliki beban yang berbeda.\nSecara sederhana, kesalahan klasifikasi bisa memiliki bobot berbeda untuk\ntiap kelasnya. Untuk penyederhanaan pembahasan, pada buku ini, kita\nanggap kesalahan klasifikasi memiliki bobot yang sama.\nFungsi tujuan pembelajaran (secara umum untuk merepresentasikan _error_\natau _loss_ ) dituangkan dalam _utility function_. Sekali lagi kami tekankan,\ntujuan _machine learning_ adalah memaksimalkan kinerja. Kinerja diukur\nberdasarkan _utility function_. _Loss_ adalah ukuran seberapa dekat atau\nberbeda model yang dihasilkan dengan konsep asli, sementara _error_\nadalah salah satu fungsi untuk mengukur _loss_.\nUntuk mengukur nilai _loss_ ; dapat diekspresikan dengan _loss function_. Secara\numum, ada dua macam _loss_, yaitu _generalization loss/error_ dan\n_training loss/error_. _Generalization loss/error_ adalah ukuran sejauh mana\nalgoritma mampumemprediksi _unobserved data_ dengan tepat, karena kita\nhanya membangun model dengan data yang terbatas, tentunya bisa saja terdapat\nketidakcocokan dengan data yang asli. Sedangkan _training loss/error_\nseperti namanya, ukuran _loss_ saat _training_. Misalkanq(x) adalah distribusi\n_data_ asli. Menggunakan sampel data dengan distribusip(x), _generalization_\n_loss_ dan _training loss_ dapat dihitung dengan persamaan 2.13. Fungsi ini disebut\nsebagai _cross entropy loss_. Perhatikan, masih banyak fungsi lain yang\nbisa digunakan untuk mengukur _loss_.\n\n#### H=−\n\n#### ∑N\n\n```\ni=1\n```\n```\nq(x)log (p(x)) (2.13)\n```\nTentunya sekarang kamu bertanya-tanya. Kita tidak mengetahui bagaimana\nq(x) aslinya, bagaimana cara menghitung _generalization loss_ ? Nah, untuk itulah\nada teknik-teknik pendekatan distribusi populasiq(x), misalnyamaximum\n_likelihood_ method, maximum posterior methoddanBayesian\nmethod(silahkan dieksplorasi). Ekspektasi terhadap biasanyaq(x) diaproksimasi\ndengan menggunakan data sampel yang kita miliki. Bentuk persamaan 2.13\nmemiliki kaitan dengan _confidence_. Konsep ini akan dijelaskan lebih detil pada\nbab 5.\nSecara lebih filosofis, berkaitan dengan meminimalkan _loss_ ; tugasmachine\n_learning_ adalah untuk menemukan struktur tersembunyi (discovering hidden\nstructure). Hal ini sangat erat kaitannya dengan _knowledge discovery_ dan _data_\n\n\n32 2 Fondasi Matematis\n\nmining. Bila kamu membuka forum di internet, kebanyakan akan membahas\nperihal _learning machine_ yang memaksimalkan akurasi (meminimalkan _error_ ).\nSelain harus memaksimalkan akurasi (meminimalkan salah _assignment_ ),\nkita juga harus mampu membuat model yang cukup generik. Artinya tidak\nhanya memiliki kinerja tinggi pada _training data_, tapi juga mampu memiliki\nkinerja yang baik untuk _unseen data_. Hal ini dapat tercapai apabila model\nyang dihasilkan melakukan inferensi yang mirip dengan inferensi sebenarnya\n(konsep asli). Kami tekankan kembali, meminimalkan _loss_ adalah hal yang\nlebih penting, dimana meminimalkan _error_ dapat digunakan sebagai sebuah\n_proxy_ untuk mengestimasi _loss_ (pada banyak kasus).\n\n"} {"text": "### 2.8 Hypothesis Testing\n\nDiberikan dua model pembelajaran mesin dengan kinerjaAdanB. Kita ingin\nmemutuskan model pembelajaran mesin mana yang “lebih baik”. Perhatikan,\nkualitas model tidak hanya tergantung pada satu metrik (misal akurasi),\ntetapi kita juga mempertimbangkan kompleksitas model ( _running time_ ) dan\nsebagainya. Hal ini membuat keputusan model mana yang “lebih baik” menjadi\ncukup kompleks. Demi penyederhanaan pembahasan, anggap kita hanya\nmelihat dari sisi performa yang diukur menggunakan skor tertentu.\nBanyak makalah penelitian pembelajaran mesin yang hanya melihat nilai\nkinerja secara mentah. Artinya, apabila kinerjaA > Bmaka modelAmemiliki\n“lebih baik” dari modelB. Hal ini terkadang tidak sesuai dengan prinsip\nstatistik, dimana suatu model bisa saja mendapatkan kinerjaAsecara kebetulan.\nKonsep _Statistical hypothesis testing_ menjadi penting untuk menarik\nkonklusi apakah memang benarA > Bsecara tidak kebetulan.\nKonsep ini menjadi semakin penting saat menggunakanartificial neural\n_network_ (ANN). Parameter model ANN pada umumnya diinisiasi secara _random_.\nArtinya, apabila kita melatih arsitektur yang sama sebanyak\ndua kali, kita belum tentu mendapatkan model dengan kinerja sama persis.\nReimers dan Gurevych [13] menjelaskan betapa pentingnya melatih model\nANN berkali-kali.\nKita hanya dapat menyimpulkan dengan benar model mana yang “lebih\nbaik” hanya setelah melakukan _statistical hypothesis testing_. Ada banyak cara\nuntuk melakukan _hypothesis testing_, dan tes yang digunakan berbeda tergantung\nmetrik _performance measure_. Buku ini tidak akan membahas dengan\ndetil, dan kami merekomendasikan untuk membaca paper oleh Dror\net al. [14, 15]. Kami harap pembaca dapat menangkap bahwa memutuskan\napakah suatu modelAlebih baik dariBtidak cukup hanya dengan melihat\nukuran kinerja secara numerik, tetapi hal ini harus dibuktikan menggunakan\n_statistical hypothesis testing_.\n\n\n```\n2.9 Teori Informasi 33\n```\n"} {"text": "### Soal Latihan\n\n2.1. KL- _divergen_ ce\nCari tahu lebih lanjut apa itu Kullback-Leibler (KL) Divergence. Apa hubungan\nKL- _divergen_ ce dengan _utility function_ ? Pada kasus apa saja kita dapat\nmenggunakan KL- _divergen_ ce sebagai _utility function_ ?\n\n2.2. Utility Function\nSelain _utility function_ yang telah disebutkan, sebutkan dan jelaskanutility\n_function_ lainnya!\n\n2.3. Gaussian Mixture Model\n\n(a) Sebutkan algoritma-algoritma _machine learning_ yang ( _in a sense_ ) dapat\nmengaproksimasi _Gaussian Mixture Model_ !\n(b) Apa yang begitu spesial pada GMM sehingga algoritmamachine learing\nmencoba mengaproksimasi GMM?\n\n\n\n"} {"text": "### 2.5 Gaussian Distribution\n\nDistribusi adalah fenomena acak atau deskripsi matematis suatu _random variable_.\nDistribusi paling terkenal (mungkin juga terpenting) adalah _bell curve_\natau distribusi normal. Distribusi normal adalah bentuk khusus dariGaussian\ndistribution. Ada beberapa macam distribusi yang akan dibahas pada bab\nini, yaitu: _Univariate Gaussian_, _Multivariate Gaussian_, danGaussian Mixture\nModel. Pertama kita bahas _Univariate Gaussian_ terlebih dahulu.\nDisebut _univariate_ karena distribusinya bergantung padasatu _input_ variabel,\nmisalkanx. Distribusi univariate Gaussian dikarakteristikkan oleh variabelx, _mean_ (μ)\ndan _variance_ (σ^2 ) diberikan pada persamaan 2.10.μdanσ^2\nadalah rata-rata dan _variance_ untuk kumpulan data. Karena nilaiμdanσ^2\nbergantung padax, maka kita dapat menganggap bahwa _univariate gaussian_\nbergantung pada satu _random variable_ saja yaitux.\n\n```\nN(x|μ,σ^2 ) =\n```\n#### 1\n\n#### √\n\n```\n2 πσ^2\n```\n```\ne\n```\n```\n(\n−(x 2 −σμ 2 )^2\n```\n```\n)\n(2.10)\n```\nPerhatikan Gambar 2.3,xadalah absis dan nilaiNuntukxtertentu (persamaan\n2.10) adalah ordinat pada kurva ini. Bentuk distribusi berubah-ubah\nsesuai dengan nilai rata-rata ( _mean_ ), serta _variance_. Semakin besar _variance_ nya,\nmaka kurva distribusi semakin lebar (seperti yang dijelaskan sebelumnya).\nUntuk menggeser-geser kurva ke kiri maupun ke kanan, dapat dilakukan\ndengan menggeser nilai _mean_. Untuk mencari nilai pada suatu interval tertentu,\ncukup mengintegralkan fungsi pada interval tersebut. Nilai integral\nfungsi dari−∞, hingga∞adalah satu.\n_Multivariate Gaussian_ adalah distribusi gaussian yang bergantung pada\nlebih dari satu _random variable_. Sedangkan _Gaussian Mixture Model_ (GMM)\nadalah gabungan dari satu atau lebih distribusi Gaussian. Masing-masing distribusi\nGaussian memiliki bobot yang berbeda di GMM. Konon katanya,\n\n(^1) source:wikimedia.org by Inductiveload\n\n\n28 2 Fondasi Matematis\n\n```\nGambar 2.3: Univariate Gaussian.^1\n```\nGMM dapat me _model_ kan fungsi apapun [12]. Ilustrasinya diberikan pada\nGambar 2.4 yang tersusun dari 3 buah _Univariate gaussian_. Distribusi populasi\nberwarna merah, sedangkan GMM berwarna biru.\n\n```\nGambar 2.4: Gaussian Mixture Model.^2\n```\n"} {"text": "### 2.4 Bayesian Probability\n\nPada subbab sebelumnya, kita menghitung probabilitas dengan frekuensi kejadian\nyang dapat diulang. Pada pandangan Bayesian, kita ingin menguantifikasi\nketidakpastian untuk kejadian yang mungkin sulit untuk diulang. Misalkan\nkita ingin tahu, seberapa peluang Mars dapat dihuni. Ini adalah sesuatu\nyang tidak dapat dihitung dengan frekuensi, maupun sebuah kejadian yang\ndapat diulangi (pergi ke mars, lihat berapa orang yang hidup). Akan tetapi,\ntentunya kita memiliki sebuah asumsi awal ( _prior_ ). Dengan sebuah alat canggih\nbaru, kita dapat mengumpulkan data baru tentang Mars. Dengan data\ntersebut, kita mengoreksi pendapat kita tentang Mars ( _posterior_ ). Hal ini\nmenyebabkan perubahan dalam pengambilan keputusan.\nPada keadaan ini, kita ingin mampu menguantifikasi ekspresi ketidakpastian;\ndan membuat revisi tentang ketidakpastian menggunakan bukti baru [8].\nDalam Bayesian, nilai probabilitas digunakan untuk merepresentasikan derajat\nkepercayaan/ketidakpastian.\n\n```\nP(x|y) =\nP(y|x)P(x)\nP(y)\n```\n#### (2.8)\n\nP(x) disebut _prior_, yaitu pengetahuan/asumsi awal kita. Setelah kita\nmengobservasi fakta baruy(dapat berupa sekumpulan data atau satu _data_\n_point_ / _event_ ), kita mengubah asumsi kita.P(y|x) disebut _likelihood function_.Likelihood\n_function_ mendeskripsikan peluang data, untuk asumsi/ pengetahuan\ntentang x yang berubah-ubah (xsebagai parameter yang dapat\ndiatur). Dengan _likelihood function_ tersebut, kita mengoreksi pendapat akhir\nkita yang dapat digunakan untuk mengambil keputusan ( _posterior_ ). Secara\numum probabilitas Bayesian mengubah _prior_ menjadi _posterior_ akibat adanya\nkepercayaan baru ( _likelihood_ ).\n\n```\n_posterior_ ∝ _likelihood_ × _prior_ (2.9)\n```\nTeori ini hebat karena kita dapat mentransformasiP(x|y) dimanaxdependen\nterhadapymenjadi bentukP(y|x) yang manaydependen terhadapx.\nTransformasi ini sangat berguna pada berbagai macam persoalan.\nPada umumnya, untuk mengestimasi _likelihood_, digunakanmaximum likelihood\nestimator; yang berarti mengatur nilaixuntuk memaksimalkan nilai\nP(y|x). Dalam literatur _machine learning_, banyak menggunakannegative log\nof likelihood function[8]. Ingat kembali nilai probabilitas 0≤P≤1. Kadangkala,\nnilai dibelakang koma (0.xxxx) sangatlah panjang, sehingga dapat terjadiunderflowpada\nkomputer. Kita menggunakan nilai logaritma probabilitas\nuntuk menghindariunderflow. Nilai probabilitas 0≤P≤1 membuat nilai\nlogaritmanya sebagaian besar negatif, secara monotonik bertambah, maka\nmemaksimalkan nilai _likelihood_ ekuivalen dengan meminimalkan negatif logaritma\nprobabilitas.\n\n\n```\n2.5 Gaussian Distribution 27\n```\nPerhatikan kembali persamaan 2.8, secara intuitif, _posterior_ dipengaruhi\n_prior_, artinya bergantung pada sampel yang kita punya, karena _prior_ didapatkan\natau diestimasi berdasarkan sampel. Hal ini berlaku padamachine\n_learning_, kualitas model yang dihasilkan bergantung pada kualitas training\n_data_.\nPada umumnya, kita tidak mengetahui seluruh informasi tentang situasi\ntertentu dan tidak mengetahui seluruh informasi probabilitas. Sebagai contoh,\nprobabilitasP(x|y) dapat dihitung dengan PP(x,y(x)). Tetapi, kita tidak\ntahu seberapa banyak kejadian (x,y) pada saat bersamaan. Oleh sebab itu,\nkita bisa menggunakan teori bayes untuk menghitung probabilitas dengan\ninformasi lain yang kita tahu.\n\n"} {"text": "### 2.11 Bacaan Lanjutan\n\nUntuk lebih mengerti, silahkan membaca buku _statistical mechanis_ oleh Hitoshi\nNishimori [17], buku probabilitas dan statistika oleh Walpole et al. [18]\natau Brian Caffo [10], buku aljabar linear oleh Gilbert Strang [19] dan buku\n_statistical learning theory_ oleh James et al. [20].\n\n\n```\n2.11 Bacaan Lanjutan 37\n```\n"} {"text": "### 2.2 Probability Density Function\n\n_Probability density function_ dikenal juga dengan istilah distribusi, yaitu tentang\npersebaran nilai. Sebagai contoh, penulis menceritakan pelajaran di sekolah.\nTerdapat ujian mata pelajaran di kelas yang beranggotakan 10 siswa,\ndiberikan pada Tabel 2.1. Terdapat 3 orang anak mendapatkan nilai 50, 2\norang anak mendapatkan nilai 75 dan 80, 1 orang anak mendapatkan nilai\n\n\n24 2 Fondasi Matematis\n\n```\nid nilai\n1 50\n2 75\n3 80\n4 100\n5 50\n6 50\n7 75\n8 80\n9 40\n10 10\n```\n```\nTabel 2.1: Contoh daftar nilai siswa.\n```\n100, 1 orang anak mendapat nilai 40, serta 1 orang anak mendapatkan nilai\n10.\n\n```\nHistogram of data\n```\n```\nNilai\n```\n```\nProbabilitas\n```\n```\n20 40 60 80 100\n```\n```\n0.0\n```\n```\n0.1\n```\n```\n0.2\n```\n```\n0.3\n```\n```\n0.4\n```\n```\nGambar 2.2: Persebaran probabilitas nilai siswa Tabel 2.1.\n```\nGuru ingin mengetahui persebaran (distribusi) nilai ujian untuk menentukan\nbatas kelas nilai menggunakan _quantile_. Grafik persebaran nilai mengkuantifikasi\nseberapa mungkin suatu siswa mendapat nilai tertentu, dapat dilihat\npada Gambar 2.2. Grafik ini disebut sebagai distribusi. Fungsi yang menghasilkan\ndistribusi tersebut disebut _probability density function_. Apabila kita\n\n\n```\n2.3 Expectation dan Variance 25\n```\nmenjumlahkan probabilitas (probabilitas siswa mendapat nilai 0–100) nilainya\nadalah 1.\nIni adalah contoh untuk data diskrit, tetapi sering kali kita berurusan\ndengan data kontinu. Untuk mengetahui nilai probabilitas dari himpunan\n_event_ /kejadian, kita dapat mengintegralkan kurva distribusi kejadian pada\ninterval tertentu. Ciri _probability density function_, nilai dibawah kurva pada\ninterval−∞sampai∞adalah 1, i.e.,p(x)≥0;\n\n#### ∫∞\n\n```\n−∞p(x)dx= 1.\n```\n"} {"text": "### 2.1 Probabilitas\n\nDi dunia ini, ada banyak hal yang tidak pasti (uncertain). Ssungguhnya,machine\n_learning_ berurusan dengan ketidakpastian ( _uncertainty_ ). Dengan begitu,machine\n_learning_ memiliki kaitan yang sangat erat dengan statistika.\nProbabilitas menyediakan _framework_ untuk kuantifikasi dan manipulasi ketidakpastian\n[8]. Mari kita lihat contoh sederhana. Terdapat dua buah kotak\n\n\n22 2 Fondasi Matematis\n\nberwarna merah dan berwarna biru. Pada kotak merah terdapat 3 _apel_ dan\n1 jeruk. Pada kotak biru, terdapat 2 _apel_ dan 4jeruk, kita ingin mengambil\nbuah dari salah satu kotak tersebut. Ilustrasi persoalan dapat dilihat pada\nGambar 2.1. Dalam hal ini, kotak adalah _random variable_. _Random variable_\nk(melambangkan kotak) dapat bernilaimerahataubiru. Begitu pula dengan\nbuah, dilambangkan dengan variabelb, dapat bernilai _apel_ ataujeruk.\n\n```\nGambar 2.1: Kotak apel dan jeruk.\n```\nSaat kita mengambil buah dari kotak biru, peluang untuk memilih _apel_\nbernilai^26 , sedangkan peluang untuk memilihjerukbernilai^46 ; kita tulis probabilitas\nini sebagaiP(b= _apel_ ) =^26 ; danP(b=jeruk) =^46. Artinya, jika kita\nmengambil buah dari kotak biru, mungkin kita mendapatkan jeruk. Dengan\nmengkuantifikasi ketidakpastian, kita bisa mengatur ekspektasi. Nilai suatu\nprobabilitas harus lebih besar sama dengan nol sampai kurang dari atau sama\ndengan satu (0≤P ≤1). Nilai nol berarti suatu kejadian tidak mungkin\nmuncul, sementara nilai satu berarti suatu kejadian pasti terjadi.\nLalu sekarang ada pertanyaan baru; pada suatu percobaan, berapakah\nprobabilitas mengambil sebuah _apel_ dari kotak biruatausebuahjerukdari\nkotak merah. Hal ini dituliskan sebagaiP((k=biru,b= _apel_ )atau(k=\nmerah,b=jeruk)). Nilai probabilitas tersebut dapat dihitung dengan\n\n```\nP((k=biru,b= _apel_ )∨(k=merah,b=jeruk))\n=P(k=biru,b= _apel_ ) +P(k=merah,b=jeruk)\n```\n#### (2.1)\n\n- P(k=biru,b= _apel_ ) disebut _joint probability_, yaitu probabilitas kejadian\n yang dipengaruhi oleh beberapa variabel (kondisi untuk kedua variabel\n terpenuhi).\n- P(k=biru,b= _apel_ ) +P(k=merah,b=jeruk) disebutaturan tam-\n bah.\n\nPenting untuk diingat bahwa hasil operasi apapun terhadap probabilitas (baik\ntambah, kurang, kali, atau bagi) haruslah lebih besar sama dengan nol sampai\nkurang dari atau sama dengan satu (0≤P≤1).\n\n\n```\n2.2 Probability Density Function 23\n```\nMisalkan terdapat percobaan lain, kali ini kamu mengambil 1 buah. Kamu\ningin mengetahui berapakah probabilitas untuk mengambil buah _apel_ kotak\nmana saja. Hal ini dihitung dengan persamaan 2.2.\n\n```\nP(b= _apel_ ) =\n```\n#### ∑I\n\n```\ni=1\n```\n```\nP(k=ki,b= _apel_ ) (2.2)\n```\nAturan tambah seperti ini disebut _marginal probability_ karena hasilnya\ndidapat dengan menjumlahkan probabilitas seluruh kemungkinan nilai pada\nvariabel tertentu (buah) dengan mengontrol variabel lainnya (kotak).\nKemudian, kamu ingin melakukan percobaan lain. Kali ini kamu mengambil\n2 buah sekaligus dari kedua kotak. Kamu ingin mengetahui berapakah\nprobabilitas mengambil buah _apel_ yang berasal dari kotak birudanbuah\njerukyang berasal dari kotak merah. Dalam kasus ini, kejadiannya adalah\nsaling bebas ( _independent_ ), artinya mengambil buah dari kotak biru tidak\nakan mempengaruhi hasil pengambilan dari kotak merah (dan sebaliknya).\nApabila kedua _random variable_ xdanybersifat _independent_ (tidak bergantung\nsatu sama lain), makaP(x=X,y=Y) =P(X)×P(Y). Permasalahan\nmengambil buah dapat dihitung dengan persamaan 2.3.\n\n```\nP((k=biru,b= _apel_ )∧(k=merah,b=jeruk))\n=P(k=biru,b= _apel_ )×P(k=merah,b=jeruk)\n```\n#### (2.3)\n\nAturan ini disebutaturan kali.\nUntuk _joint probability_, secara umum dapat ditulis sebagaiP(x,y), yaitu\npeluangxdanymuncul bersamaan. Apabila kedua variabelxdanytidak saling\nbebas, maka keduanya disebut _dependent_. Artinyaxdanysaling mempengaruhi.\nApabila suatu variabelxdikondisikan ( _conditioned_ ) oleh variabel\nlain (misaly). Maka probabilitasxadalah _conditional probability function_,\nditulisP(x|y). Artinya probabilitasxyang dikondisikan olehy.P(x|y) dapat\ndihitung dengan persamaan 2.4, yaitu peluang kejadianxdanymuncul\nbersamaan dibagi dengan peluang kejadiany. Apabilaxternyata tidak dikondisikan\noleh variabely, makaP(x|y) =P(x).\n\n```\nP(x|y) =\nP(x,y)\nP(y)\n```\n#### (2.4)\n\n"} {"text": "### 2.3 Expectation dan Variance\n\nSalah satu operasi paling penting dalam probabilitas adalah menemukan nilai\nrata-rata ( _average_ ) sebuah fungsi [8]. Hal ini disebut menghitung ekspektasi\n( _expectation_ ). Untuk sebuah fungsif(x) dengan distribusi probabilitas _random_\nvariableadalahp(x), nilai expectation diberikan pada persamaan 2.5.\n\n```\nE(f) =\n```\n#### {∑\n\n```\n∫ xp(x)f(x); diskrit\np(x)f(x)dx; kontinu\n```\n#### (2.5)\n\nDalam kasus nyata, misalkan diberikanNbuah sampel, _random variable_\nxdan fungsif(x), dimana sampel tersebut diambil dengan distribusi tertentu\nyang kita tidak ketahui, maka fungsi untuk menghitung nilai _expectation_ menjadi\npersamaan 2.6, dimanaximerepresentasikan data ke-i( _point_ ).\n\n```\nE(f)'\n```\n#### 1\n\n#### N\n\n#### ∑N\n\n```\ni=1\n```\n```\nf(xi) (2.6)\n```\nPerhatikan, persamaan ini sama dengan persamaan untuk menghitung\nrata-rata ( _mean_ atauμ) seperti yang sudah kamu pelajari di SMA. Untuk\nmengetahui seberapa variasi nilaif(x) di sekitar nilai rata-ratanya, kita\nmenghitungnya mengunakan _variance_, disimbolkan denganvar(f) atauσ^2\n(persamaan 2.7).\n\n```\nσ^2 =var(f) =E\n```\n#### (\n\n```\n(f(x)−E(f))^2\n```\n#### )\n\n#### (2.7)\n\nBila nilai _variance_ tinggi, secara umum banyak variabel yang nilainya jauh\ndari nilai rata-rata. Interpretasi secara “geometris” mata, berarti distribusinya\nsemakin “lebar” seperti pada Gambar 2.3. Untuk fungsi dengan lebih dari satu\n_random variable_, kita menghitung _covariance_. _Covariance_ adalah _variance_\nuntuk kombinasi variabel.\nAkar dari _variance_, yaitu\n\n#### √\n\nσ^2 =σdisebut _standard deviation_ (sering\ndisingkat “SD”). SD melambangkan seberapa jauh jarak dari masing-masing\n_data point_ xidengan rata-rataμ. SD cukup penting karena merupakan ukuran\n“persebaran” ( _spread out_ ) data.\n\n\n26 2 Fondasi Matematis\n\n"} {"text": "### 2.6 Apakah Karakteristik Sampel Mencerminkan Populasi?\n\nSekarang bayangkan kita diberikanM buah data (diskrit) hasil observasi.\nDiasumsikan observasi dihasilkan oleh distribusi univariate GaussianNdengan\nrata-rataμdan _variance_ σ^2. Ilustrasi diberikan pada Gambar 2.5. Setiap\n_data_ diambil secara independen dari distribusi yang sama, disebut _independent_\nand identically distributed(iid). Kita tahu bahwa data yang in-\n\n(^2) [http://dirichletprocess.weebly.com/ _clustering_.html](http://dirichletprocess.weebly.com/ _clustering_.html)\n\n\n```\n2.6 Apakah Karakteristik Sampel Mencerminkan Populasi? 29\n```\n```\n− 2 − 1 0 1 2\n```\n```\n0.05\n```\n```\n0.10\n```\n```\n0.15\n```\n```\n0.20\n```\n```\n0.25\n```\n```\n0.30\n```\n```\n0.35\n```\n```\n0.40\n```\n```\nx\n```\n```\nN\n```\n```\n𝑥!\n```\nGambar 2.5: Contoh _sampling_ dari distribusi normal. Titik berwarna merah\nmelambangkan sampel ( _instance_ ).\n\ndependen, apabila dihitung probabilitasnya maka tersusun atas probabilitas\nmasing-masing data, seperti pada persamaan 2.11.\n\n```\np(x|μ,σ^2 ) =\n```\n#### ∏M\n\n```\ni=1\n```\n```\nN(xi|μ,σ^2 ) (2.11)\n```\nKita ingin mencari tahu bagaimana distribusi yang sebenarnya. Untuk\nitu, kita harus mencari nilaiμdanσ^2 padap(x|μ,σ^2 ). Kita dapat menggunakan\nteknik _maximum likelihood estimation_, untuk mengestimasi parameter\nyang memberikan distribusi (silahkan dieksplorasi lebih lanjut). Secara empiris,\nternyata _mean_ dari sampel dan _variance_ dari sampel (diberikan sampel\ndenganMyang cukup banyak) cukup baik untuk mengestimasi _mean_ dan\n_variance_ dari distribusi sebenarnya (persamaan 2.12).\n\n```\nμ≈μsample=\n```\n#### 1\n\n#### M\n\n#### ∑M\n\n```\ni=1\n```\n```\nxi; σ^2 ≈σ^2 sample=\n```\n#### 1\n\n#### M\n\n#### ∑M\n\n```\ni=1\n```\n```\n(xi−μsample)^2 (2.12)\n```\nPada statistik, apabila kita mengetahui (atau mengasumsikan) bahwa suatu\nkumpulan sampel diambil dari suatu distribusiq, maka kita bisa mengestimasi\ndistribusiqmenggunakan sampel yang ada sebagaip. Apabila sampel\nyang diberikan berjumlah sangat banyak (M→ ∞), makapakan semakin\nmirip denganq(konvergen). Kami menya _rank_ an pembaca untuk menonton\nkuliah _statistical inference_ oleh Professor Brian Caffo, dimana konsep mengestimasi _mean_ dan _variance_ populasi\ndiestimasi menggunakan _mean_ dan _variance_ sampel\ndijelaskan dengan sangat baik (dengan banyak ilustrasi).\n\n\n30 2 Fondasi Matematis\n\nHal ini memiliki interpretasi (secara kasar) yang cukup penting padamachine\n_learning_. Masih ingat materi bab 1? Pada _machine learning_, kita juga\nmengestimasi sesuatu yang kita tidak ketahui (populasi) dengan sampel data\nyang kita miliki. Kita anggap populasi memiliki karakteristik yang sama dengan\nsampel data. Semakin banyak sampel data yang kita miliki, maka semakin\nbagus estimasi kita terhadap populasi (jumlah dataset menjadi sangat pent-\ning).\nDengan bahasa lebih manusiawi, misal kamu diminta untuk membuat\n_model_ klasifikasi berita otomatis untuk outlet berita tertentu. Populasi data\nyang ada yaitu: (1) berita yang sudah di- _publish_ selama ini dan (2) berita di\nmasa akan datang. Sampel yang kita punya adalah (1), yaitu berita masa lalu.\nKita asumsikan bahwa sampel ini dapat mencerminkan karakteristik berita\nyang akan datang. Sehingga, model yang dilatih dengan data (1) dapat digunakan\nuntuk memproses data (2).\nWalau demikian, asumsi bahwa sampel berita yang dimiliki memiliki\nkarakteristik yang sama dengan berita yang akan muncul di masa akan datang\nbelum tentu tepat di dunia nyata. Sebagai contoh, kata _data science_ belum\ndigunakan pada tahun 1990an. Kosa kata selalu berkembang sesuai jaman.\nBagaimana jika editor outlet berita bersangkutan mengundurkan diri dan\ndiganti dengan editor lainnya? Gaya penulisan bisa saja berubah. Artinya,\nkaraketeristik data sampel yang kita miliki hanya dapat mencerminkan data\nmasa depan apabila banyak kondisi tetap sama, i.e., (1) dan (2) diambil dari\ndistribusi yang sama. Sedangkan pada kenyataan, (1) dan (2) bisa jadi diambil\ndari distribusi yang berbeda. Pada kasus ini, model pembelajaran mesin\nyang dihasilkan menjadi _obsolete_, dan kita harus membuat model yang baru.\nMelatih atau membuat model baru menjadi peling untuk merefleksikan perubahan\npada dunia.\n\n"} {"text": "### 2.9 Teori Informasi\n\nKami tidak akan membahas bagian ini terlalu detail, jika kamu membaca\nbuku, topik ini sendiri bisa mencapai satu buku [16]. Mudah-mudahan bab\nini dapat memberikan gambaran (serius, ini sekedar gambaran!).Information\nTheory/Teori Informasi menjawab dua pertanyaan fundamental, pertama:\nbagaimana cara kompresi data terbaik (jawab: _entropy_ ); kedua: apakah cara\ntransmisi komunikasi terbaik (jawab: channel capacity) [16]. Dalam _statistical_\n_learning_ theory, fokus utama adalah menjawab pertanyaan pertama, yaitu\nbagaimana melakukan kompresi informasi. Contoh aplikasi _entropy_ adalah\n_decision tree learning_.\nPada _machine learning_, kita ingin fitur pembelajaran yang digunakan\nmampu melambangkan _information source properties_. Artinya, kita ingin\nmemilih fitur yang memuat informasi terbanyak (relatif terhadapinformation\nsource). Karena hal tersebut, mengerti entropy menjadi penting. Ada sebuah\nst _rate_ gi pemilihan fitur ( _feature selection_ ) dengan membangun _decision tree_.\nAwalnya kita bentuk _training data_ dengan semua kemungkinan fitur, kemudian\nmengambil beberapa fitur yang dekat dengan _root_. Hal tersebut dimaksudkan\nuntuk mencari fitur yang memuat banyak informasi. Kemudian, fitur\ntersebut dapat dicoba pada algoritma learning lainnya. Detil akan dijelaskan\npada bab 6.\n\n2.9.1 Entropy\n\nDiberikan sebuah random variabelx, kita ingin mengetahui seberapa banyak\ninformasi yang kita dapatkan ketika kita mengobservasi sebuah nilai spesifik\nxi. Kuantitas informasi yang kita dapatkan bisa dipandang sebagai “degree\nof surprise” [8]. Misalkan kita mengetahui seorang temanAsering makan es\nkrim. Suatu ketika kita diberitahu bahwa dia sedang makan es krim, tentu\nkita tidak heran lagi karena hal tersebut sudah lumrah. Tetapi, apabila kita\ndiberitahu bahwa temanAtidak memakan es krim yang diberikan teman\nB(padahal kita tahu dia suka), maka akan ada efek “kaget”. Kasus kedua\nmemuat lebih banyak informasi karena suatu kejadian yang seharusnya tidak\nmungkin, terjadi. Hal ini dikuantifikasi dengan persamaanShannon En-\ntropy2.14.\n\n```\nS(x) =−\n```\n#### ∑N\n\n```\ni=1\n```\n```\np(xi)log(p(xi)) (2.14)\n```\nMari kita ambil contoh dari Bishop [8]. Misalkan sebuah _random variable_\nxmemiliki 8 kemungkinan kejadian yang kemungkinannya sama (yaitu^18 ).\n_Entropy_ untuk kasus ini adalah (log dalam basis 2) diberikan oleh\n\n#### S=− 8\n\n#### 1\n\n#### 8\n\n```\nlog(\n```\n#### 1\n\n#### 8\n\n#### ) = 3 (2.15)\n\n\n34 2 Fondasi Matematis\n\nSekarang mari kita ambil contoh dari [16]. Misalkan sebuah _random variable_ xmemiliki\n8 kemungkinan kejadian{a,b,c,d,...,h}dengan peluang\n1\n2 ,\n\n```\n1\n4 ,\n```\n```\n1\n8 ,\n```\n```\n1\n16 ,\n```\n```\n1\n64 ,\n```\n```\n1\n64 ,\n```\n```\n1\n64 ,\n```\n1\n64\nMaka _entropy_ -nya adalah 2. Dari contoh ini, kita tahu bahwa distribusi yang\n_uniform_ memiliki _entropy_ yang lebih besar dibanding distribusi yang tidak\n_uniform_. Banyaknya informasi sebanding denganturunnyanilai _entropy_.\nSeperti yang telah diceritakan sebelumnya, _event_ yang memiliki “efek\nkaget” memiliki banyak informasi. Dari sisi _information transmission_, dapat\ndiinterpretasikan kita dapat mengirimkan data sebuah distribusi dengan\njumlah bit lebih sedikit untuk distribusi yang uniform. Distribusi yang memberikan\nnilai _entropy_ maksimal adalah distribusi Gaussian [8]. Nilai _entropy_\nbertambah seiring _variance_ distribusi bertambah. Dari sisi fisika, kamu dapat\nmempelajari _entropy_ pada _statistical mechanics_ ( _microstate_, _macrostate_ ).\nPerhatikan, _entropy_ (persamaan 2.14) dan _cross entropy_ (persamaan 2.13)\nmemiliki persamaan agak berbeda (adanya distribusi asliq). Tetapi interpretasi\nkedua formula adalah sama. Distribusi yang memiliki nilai cukup uniform\nmemiliki nilai _entropy_ / _cross entropy_ yang tinggi, sementara memiliki nilai\nrendah untuk distribusi yang condong ke nilai tertentu ( _skewed_ ).\n\n2.9.2 Relative Entropy dan Mutual Information\n\nKami harap kamu masih ingat materi bab 1, karena materi bagian ini juga\nmenyinggung kembali materi tersebut. Misalkan kita mempunyai data dengan\n_probability density function_ q(x). Sebuah _learning machine_ mengaproksimasi\n_data_ tersebut dengan _probability density function_ p(x). Ingat! _Machine learning_ adalah\npendekatan ( _approximation_ ). Ketika kita melakukan aproksimasi,\nseringkali aproksimasi yang dilakukan tidaklah tepat seperti pada Gambar 2.6.\nTentunya kita ingin tahu seberapa bagus aproksimasi kita, untuk mengukurnya\nterdapat sebuah perhitungan yang bernamaKullback-Leibler\nDivergence(KL- _divergen_ ce). Secara konseptual, dirumuskan sebagai persamaan\n2.16. Perlu diperhatikanKL(q||p) 6 =KL(p||q) (kecualip=q).\n\n```\nKL(q||p) =−\n```\n#### ∫\n\n```\nq(x)log\n```\n#### (\n\n```\nq(x)\np(x)\n```\n#### )\n\n```\ndx (2.16)\n```\nPersamaan 2.16 dapat diminimalkan jika dan hanya jikaq(x) =p(x). Kita\ndapat menganggap KL- _divergen_ ce sebagai ukuran seberapa jauh aproksimasi\ndan distribusi populasi. Akan tetapi, kita tidak mengetahuiq(x). Karena itu,\nkita harus mengaproksimasi KL- _divergen_ ce. Misalkan kita diberikan _training_\n_data_ x={x 1 ,x 2 ,...xn}yang kita asumsikan diambil ( _drawn_ ) dari suatu\ndistribusiq(x). Lalu kita membuat _learning machine_ p(x|w). Ekspektasi\nterhadapq(x) dapat diaproksimasi dengan menggunakan data sampel ini, dituangkan\nmenjadi persamaan 2.17 [8].\n\n```\nKL(q||p)≈\n```\n#### 1\n\n#### N\n\n#### ∑N\n\n```\ni=1\n```\n```\n(−log(p(xi|w)) + log(q(xi))) (2.17)\n```\n\n```\n2.10 Matriks 35\n```\n```\nGambar 2.6: Information source vs learning machine.\n```\nKL- _divergen_ ce disebut juga sebagai _relative entropy_.^3 Dari sisi pemrosesan\ninformasi, KL- _divergen_ ce dapat diinterpretasikan sebagai berapa informasi\ntambahan rata-rata untuk mengirimkan data distribusi dengan menggunakan\nfungsi aproksimasi dibanding menggunakan distribusi sebenarnya,\nseberapa pengurangan ketidakyakinan terhadap _posterior_ seiring diberikannya\n_data_ observasi yang baru. Dengan kata lain,seiring diberikan observasi\nyang baru, kita semakin yakin terhadap nilai posterior(semakin\nbanyak jumlah sampel yang kita miliki maka model lebih dapat dipercaya).\nKL-Divergence = Cross Entropy - Entropy (buktikan!).^4\n\n"} {"text": "### Soal Latihan\n\n14.1. Cold Start Problem\n\n(a) Jelaskan apa itu _cold start problem_ pada sistem rekomendasi, serta bagaimana\ncara menangani permasalahan tersebut!\n(b) Pada teknik sistem rekomendasi manakah ( _content-based filtering_ atau\n_collaborative filtering_ ) _cold start problem_ mungkin muncul? Mengapa?\n\n14.2. Eksplorasi Sistem Rekomendasi\nBangunlah suatu sistem rekomendasi dengan teknik _collaborative filtering_\npada dataset MovieLens dengan memanfaatkan libraryrecommenderlab^5!\n\n14.3. Peringkasan Dokumen\n\n(a) Presentasikanlah di kelasmu, _paper_ sistem peringkasan dokumen otomatis\noleh Kupiec et al. (1995) [116]!^6 yang menggunakan _pipelined approach_ !\n(b) Presentasikanlah di kelasmu, _paper_ sistem peringkasan dokumen otomatis\noleh Cheng and Lapata [121]!^7 yang menggunakan _single-view approach_ !\n(c) Jelaskan perbedaan, kelebihan, dan kelemahan pendekatan-pendekatan\nsistem peringkasan dokumen!\n\n(^5) https://cran.r-project.org/web/packages/recommenderlab/index.html\n(^6) https://dl.acm.org/citation.cfm?id=215333\n(^7) [http://www.aclweb.org/anthology/P16-1046](http://www.aclweb.org/anthology/P16-1046)\n\n\n\n"} {"text": "### 14.4 Saran Buku Lanjutan\n\nPenulis ingin memberikan beberapa rekomendasi bacaan pembelajaran mesin\nselanjutnya (teoritis). Buku-buku berikut (diurutkan secara subjektif berdasarkan\nkualitas konten dan kemudahan dimengerti):\n\n1. _Deep Learning_ oleh Ian Goodfellow et al. [11]. Banyak yang mengganggap\nbuku ini sebagai “kitab” _deep learning_ modern. Buku ini juga mencakup\nmateri matematika dasar (e.g., aljabar linier) yang dibutuhkan untuk\nmengerti _deep learning_.\n2. _Neural Network Methods in Natural Language Processing_ oleh Goldberg\n[1]. Buku ini ditujukan sebagai bahan transisi bagi peneliti bidang\npemrosesan bahasa alami untuk menggunakan metode _neural network_.\nApabila kamu tidak tertarik dengan pemrosesan bahasa alami, kamu bisa\nmembaca bab 1-5 pada buku ini sebagai pengenalan _neural network_.\n3. _Pattern Recognition and Machine Learning_ oleh Bishop [8]. Menurut\npenulis, banyak yang tahu buku ini karena dianggap sebagai “kitab”. Penjelasan\nbuku ini sangat matematis dan relatif berat untuk dimengerti.\nTetapi, kamu dapat menjadi _master_ apabila memahami seluruh materi\npada buku ini. Algoritma _machine learning_ yang disajikan juga relatif\nlebih “klasik” dibanding rekomendasi pertama.\n4. _Machine Learning_ oleh Tom Mitchel [4]. Buku ini memuat materimachine\n_learning_ yang cukup “klasik”. Buku ini cocok sebagai materi pengenalan,\ntapi relatif kurang dalam.\nSedikit tambahan pesan sponsor karena penulis berlatar belakang dari\nbidang pemrosesan bahasa alami, penulis menya _rank_ an membaca buku-buku\n(teoritis) berikut sebagai dasar pengetahuan pemrosesan bahasa alami (diurutkan\ndari konten paling dasar):\n\n```\n1. _Foundations of Statistical Natural Language Processing_ oleh Christopher\nD. Mannning dan Hinrich Schutze [64]. Buku ini dapat dideskripsikan\ndengan satu kata,TOP. Buku ini memuat materi pemrosesan bahasa\nalami dengan sudut pandang matematis, dapat dianggap sebagai _framework_ berpikir\nyang modern.\n2. _Speech and Language Processing_ oleh Daniel Jurafsky dan James H. Martin\n[12]. Buku ini jauh lebih tebal dari buku pertama dan memuat materi\nyang lebih luas. Penulis merekomendasikan buku ini untuk mengetahui\npermasalahan-permasalahan pemrosesan bahasa alami.\n3. _An introduction to Information Retrieval_ oleh Manning et al. [65]. Walaupun\nberjududul _information retrieval_, penulis pertama kali mengenal konsep _embedding_ dari\nbuku ini. Buku ini ditulis dengan apik.\n4. _Neural Network Methods in Natural Language Processing_ oleh Goldberg\n[1]. Apabila kamu telah membaca buku-buku yang disebutkan sebelumnya,\nkamu dapat membaca buku ini untuk transisi ke metode _neural_\n_network_.\n```\n\n```\n14.4 Saran Buku Lanjutan 225\n```\nPada saat menulis buku ini, penulis berharap bisa menulis pada level diantara\nbuku Tom Mitchel [4] dan Bishop [8] yaitu cukup matematis, lumayan\nmudah dipahami, dan lumayan dalam. Mudah-mudahan pembaca merasa tujuan\nini tercapai dan menikmati membaca buku ini. Sebagai kalimat penutup,\nterimakasih sudah membaca sampai tahap ini.\n\n"} {"text": "### 14.2 Peringkasan Dokumen\n\nMeringkas dokumen berarti mengerti keseluruhan isi teks/dokumen, kemudian\nmampu menyampaikan kembalisebanyak/seakurat mungkinmaksud\ndokumen asli, ke dalam bentuk yang lebih singkat [105, 106, 57]. Suatu\nringkasan harus lebih pendek dibanding dokumen asli. Dengan demikian, sulit\nuntuk dikatakan bahwa suatu ringkasan dapat memuat keseluruhan isi dokumen.\nKarena itu, ringkasan hanya memuatsebanyak/seakurat mungkin\nmaksud dokumen asli, diberikan _constraint_ jumlah kata maksimum pada\nringkasan. Ada beberapa jenis peringkasan dokumen dilihat dari berbagai\nsudut pandang, misal:\n\n1. Banyaknya dokumen yang diringkas, meringkas satu dokumen (single-\n document summarization) [107] atau banyak dokumen (multi-document\n summarization) [108] menjadi satu ringkasan.\n2. Indikatif atau Informatif. Indikatif berarti menyediakan _pointer_ ke bagian\n dokumen (misal membuat daftar isi). Informatif berarti meyampaikan se-\n banyak/seakurat mungkin maksud dokumen asli ke dalam bentuk lebih\n singkat. Pada masa sekarang, hampir seluruh riset peringkasan dokumen\n mengacu untuk menyediakan ringkasan yang informatif.\n3. Domain. Hasil ringkasan bergantung pada domain dokumen, misalkan\n berita atau novel. Pada domain berita, hal yang penting untuk dimuat\n\n\n220 14 Penerapan Pembelajaran Mesin\n\n```\ndalam ringkasan adalah 5W1H (what, who, when, whom, where, how) [109],\nsementara pada novel mungkin kita ingin tahu kejadian-kejadian yang ada\n(beserta urutannya).\n```\n4. Generik, _query-based_, atau _tailored_. Generik berarti menghasilkan ringkasan\n untuk umum, dalam artian tidak ada _target user_ secara spesifik, e.g.,re-\n viewbuku [105]. _Query-based_ artinya menghasilkan ringkasan dokumen\n berdasarkan _query_ yang diberikan _user_, i.e., ringkasan adalah informasi\n spesifik yang dibutuhkan oleh _user_ [110]. _Tailored_ berarti menyajikan\n informasi dengan tipe spesifik. Misalkan pada berita terdapat informasi\n 5W1H, kita hanya ingin mencari tahu informasihow.\n5. Ekstraktif [111] atau abstraktif [57]. Ekstraktif berarti ringkasan hanya\n memuat unit informasi yang ada di dokumen asli. Analoginya seperti\n memilih potongan dari dokumen asli sebagai ringkasan ( _copy_ ). Abstraktif\n berarti ringkasan dapat memuat unit informasi yang mungkin tidak ada\n di dokumen asli. Analoginya seperti mengerti dokumen kemudian menulis\n ulang (parafrase).\nHal terpenting untuk diingat adalah peringkasan dokumen (apa yang\ndiringkas, ringkasan harus memuat apa, dsb) sangat bergantung padatujuan\nringkasan(siapa pembaca ringkasan, untuk apa ringkasan dihasilkan).\nDiktat ini akan membahas _framework_ (kerangka kerja/berpikir) peringkasan\ndokumen dan bagaimana _machine learning_ membantu peringkasan dokumen.\nSecara umum, ada beberapa tahap pada proses peringkasan dokumen secara\notomatis, terlepas dari tipe peringkasan dokumen yang dijabarkan [105,\n112, 113, 106, 114, 109, 108, 107, 57, 115]:\n\n1.Representation– Melakukan pemisahan dan representasi unit informasi;\npada umumnya adalah kalimat, kata, atau frase. Dalam artian, kita menganggap\ndokumen tersusun atas sekuens kalimat, kata, atau frase. Kita\npotong-potong unit informasi pada dokumen lalu, unit informasi dapat direpresentasikan\nsebagai vektor untuk tiap unitnya [116]. Kita pun dapat\nmenggali hubungan antara unit informasi (misal direpresentasikan sebagai\ngraf) untuk kemudian mencari unit mana yang sentral [109, 117].\n2.Filtering– Menyaring informasi. Unit manakah yang penting/tidak penting.\nUnit mana yang dibutuhkan/tidak dibutuhkan. Unit mana yang\nrelevan/tidak relevan. Unit mana yang representatif/tidak representatif.\nTeknik menyaring informasi sangat bergantung pada representasi unit\npada tahap sebelumnya (e.g., vektor atau graf). Secara singkat, tahap ini\nmemilih unit informasi berdasarkan tujuan. Model pembelajaran mesin\n_bias_ anya paling sering digunakan pada tahap ini.\n3.Gene _ratio_ n – Menghasilkan ( _generate_ ) ringkasan. Bagian ini membutuhkan\npengetahuan mengenai bidang pemrosesan bahasa alami (natural\nlanguage processing) (NLP). Pada diktat ini, tidak akan dibahas.\nTeknik _machine learning_ dapat berperan penting pada keseluruhan tahapan\ndiatas, khususnya tahap kedua ( _filtering_ ). Kami akan memberikan studi\n\n\n```\n14.2 Peringkasan Dokumen 221\n```\nkasus pada subbab 14.2.1 agar lebih jelas. Sistem peringkasan dokumen yang\nmembagi-bagi proses menjadi tahapan-tahapan tersebut disebut _pipelined approach_.\nArtinya kita melakukan proses diatas sebagai tahap-tahap berbeda\n(independen satu sama lain). Selain _pipelined approach_, kita juga dapat memandang\nperingkasan dokumen dengan _single-view approach_ (subbab 14.2.2),\nartinya keseluruhan proses tersebut terjadi bersamaan.\n\n14.2.1 Pipelined Approach\n\nSubbab ini akan memuat cerita singkat tentang peringkasan _paper_ [112, 115].\nBerdasarkan teori _argumentative zoning_ [112], _paper_ terdiri dari zona-zona\ndengan tujuan komunikatif yang berbeda. Dengan bahasa yang lebih mudah,\ntiap kalimat (unit informasi) pada _paper_ memiliki tujuan komunikasi yang\nberbeda. Misalnya ada kalimat yang menyatakan tujuan penelitian, latar belakang\npenelitian, atau hasil penelitian. Tujuan komunikasi kalimat disebut\n_rhetorical categories_ [118].\nRingkasan, dalam bentuk abstrak atau judul _paper_ memiliki pola [119,\n115]. Dalam artian, suatu ringkasan bisa jadi hanya memuat informasi denganrhetorical\ncategoriestertentu ( _tailored summary_ ). _Machine learning_ dapat\ndigunakan untuk mengklasifikasikan kalimat (unit informasi) ke kelas\nmasing-masing [118, 115]. Pertama-tama setiap kalimat direpresentasikan\nmenjadi _feature vector_ (ingat kembali materi bab 3 dan bab 4). Sebagai contoh, _paper_ [115]\nmerepresentasikan kalimat pada _paper_ sebagai _feature vector_\nberdasarkan fitur-fitur sebagai berikut:\n\n1. Posisi. Lokasi kalimat dibagi dengan panjang teks (numerik).\n2. Kata kunci ( _lexicon_ ). Apakah kalimat memuat kata kunci yang eksklusif\n untuk _rhetorical category_ tertentu ( _binary_ – ya atau tidak).\n3. Bobot kalimat, i.e., seberapa “penting” kalimat tersebut. Hal ini dapat\n dihitung menggunakan TF-IDF (ingat bab 12) kata pada kalimat (nu-\n merik).\n4. Kategori sebelumnya. _Rhetorical category_ kalimat sebelumnya (nominal).\n Setelah diubah menjadi _feature vector_, teknik _machine learning_ digunakan\nuntuk mengklasifikasikan kalimat menjadi kelas _rhetorical categories_ yang\nsesuai. Dengan demikian, kita dapat menyaring kalimat berdasarkan tipe informasi\nmana yang kita inginkan, berdasarkan tujuan peringkasan. Selanjutnya,\nteknik NLP digunakan untuk memproses informasi yang disaring untuk\nmenghasilkan ringkasan. Materi tersebut diluar bahasan diktat ini.\n\n14.2.2 Single-view Approach\n\nPada _pipelined approach_, setiap tahapan peringkasan dokumen ( _representation_, _filtering_,\ndan _generation_ ) dianggap sebagai tahap yang independen satu\nsama lain. Permasalahannya adalah kesalahan pada suatu tahap akan mempengaruhi\ntahap berikutnya. Opsi lain adalah dengan melakukan keseluruhan\n\n\n222 14 Penerapan Pembelajaran Mesin\n\nproses sebagai satu tahapan yang utuh ( _end-to-end_ ). Metode ini memiliki kaitan\nyang erat dengan teknik _machine translation_, yang pada masa sekarang\npopuler didekati dengan teknik _deep learning_ ( _sequence to sequence_ encoder–\n_decoder_ ) [57, 81, 80, 89, 120, 121]. Dokumen tersusun atas sejumlahTsekuens\nunit informasi (e.g., kata, frase)u=u 1 ,u 2 ,...,uT. Sebuah ringkasan adalah\nM buah sekuens unit informasir =r 1 ,r 2 ,...,rM dimana M < T. Tujuan\nperingkasan adalah untuk mencarirterbaik, sedemikian sehingga dapat\nmemenuhi persamaan 14.1.\n\n```\narg max\nr\n```\n```\np(r|u) (14.1)\n```\nPada umumnya, terdapat suatu variabel tambahanθyang mengendalikan\n( _govern_ ) probabilitas tersebut. Sehingga secara lebih tepat, persamaan 14.1\ndiubah menjadi persamaan 14.2.\n\n```\narg max\nr\n```\n```\np(r|u,θ) (14.2)\n```\nPerhatikan, persamaan 14.2 adalah bentuk yang dapat di _model_ kan menggunakansequence\nto sequence encoder– _decoder_. Selain peringkasan dokumen,\nbanyak permasalahan pada bidang _natural language processing_ memiliki bentuk\nyang “mirip”, seperti: _part-of-speech tagging_ [122], _named entity recognition_ [123],\nmesin translasi [81] dan rekonstruksi paragraf [124].\n\n"} {"text": "### 14.3 Konklusi\n\nTeknik _machine learning_ sangatlah berguna untuk berbagai macam permasalahan.\nTetapi perlu dipahami bahwa teknik yang ada belum mampu\nme _model_ kan proses berpikir manusia dengan benar. Proses berpikir manusia\nsangatlah kompleks, dan model yang ada sekarang ini adalah bentuk simplifikasi.\nSebagai contoh, seorang bayi sekali melihat kucing mungkin akan\nmengetahui kucing lainnya walaupun tidak memiliki rupa yang sama persis.\nSementara itu, model _machine learning_ harus diberikan banyak sampel.\nManusia memiliki otak yang luar biasa hebat karena mampu belajar dengan\nsedikit contoh.\nPersoalan-persoalan yang diberikan pada buku ini secara umum mencakup _supervised_\ndan _unsupervised learning_ saja. Terdapat satu pe _model_ an\nmasalah penting lainnya yaitu _reinforcement learning_ dimana kita ingin\nmemaksimalkan hasil untuk sekuens aksi (sekuens keputusan). Setiap keputusan\ndapat diberikan bobot yang berbeda. Kemudian, agen memaksimalkan\nnilai untuk sekuens keputusan ( _cummulative reward_ ).^2 Pada _supervised learning_,\nkita hanya perlu membuat satu keputusan saja (menggolongkan data ke\nkelas mana). Pada konferensi-konferensi, para _master_ banyak menyebutkan\n\n(^2) https://en.wikipedia.org/wiki/Reinforcement_ _learning_\n\n\n```\n14.3 Konklusi 223\n```\nmasa depan _machine learning_ berada pada _unsupervised_ ataureinforcement\n_learning_. Aplikasi mutakhir yang ada sekarang ini didominasi oleh _supervised_\n_learning_. Pada kenyataannya, sebagian besar (hampir semua) data yang ada\ndi dunia ini tidak berlabel. Karena itu, representasi data secara _unsupervised_\nmenjadi topik riset hangat ( _representation learning_ ).\nBuku ini telah menjelaskan berbagai macam teknik, tetapi perlu diketahui\nbahwa materi yang diberikan adalah simplifikasi agar mampu dipahami secara\nintuitif. Selain itu, buku ini di desain sebagai materi pengantar saja. Untuk\nmemahami teknik _machine learning_ secara lebih jauh dan sempurna, penulis\nmenya _rank_ an untuk membaca buku referensi [8, 11].\nMateri yang disajikan pada buku ini adalah persoalan-persoalanmachine\n_learning_ dari sudut pandang optimisasi. Yaitu mencari himpunan ( _set of_ ) parameter\nagar model pembelajaran yang dibangun mampu memberi keputusan\nyang optimal. Kami menya _rank_ an pembaca untuk mencari referensi lebih jauh\ntentang _machine learning_ dari sudut pandang eksplorasi, yaitu mencariconcept\n_space_ dimana model dapat bekerja dengan “baik”. Sebagai contoh, kita\nmemiliki sebuah mesin (fisik) dengan berbagai macam konfigurasi (parameter).\nApabila kita menjalankan mesin dengan konfigurasi parameter tertentu,\nmesin akan rusak. Tugas kita adalah mencari _parameters space_ dimana mesin\ndapat berjalan dengan optimal dan tidak rusak. Sedangkan, pada persoalan\noptimisasi, kita mencari satu konfigurasi terbaik.\n_Machine learning_ adalah bidang yang sangat luas (lebih luas dari apa\nyang diceritakan pada buku ini) dan berkembang pesat. Penulis menya _rank_ an\npembaca untuk membaca makalah dari konferensi^3 top-tieruntuk mengetahui\nperkembangan terkini. Sebagai contoh (diurutkan berdasarkan abjad):^4\n\n- AAAI. AAAI Conference on Artificial Intelligence\n- ACL. Annual Meeting of Association for Computational Linguistics\n- CVPR. IEEE Conference on Computer Vision and Pattern Recognition\n- EMNLP. Empirical Methods in Natural Language Processing\n- ICCV. IEEE International Conference on Computer Vision\n- ICLR. International Conference on Learning Representation\n- ICML. International Conference on Machine Learning\n- IJCAI. International Conference on Artificial Intelligence\n- INTERSPEECH. Conference of the International Speech Association\n- NeurIPS (dahulu disebut NIPS). Neural Information Processing System\n- SIGIR. ACM Special Interest Group in Information Retrieval\n- SIGKDD. ACM Special Interest Group in Knowl _edge_ Discovery and Data\n Mining\n\n(^3) Kamu lebih mudah mengetahui informasi terkini dari konferensi dibanding jurnal\nkarena proses _peer-review_ yang lebih cepat. Pada bidang keilmuan ilmu komputer/teknik\ninformatika, konferensi internasional lebih penting dibanding jurnal.\n(^4) Konferensi penting untuk bidang pemrosesan bahasa alami terdaftar padahttps:\n//aclanthology.coli.uni-saarland.de/\n\n\n224 14 Penerapan Pembelajaran Mesin\n\n"} {"text": "### 14.1 Sistem Rekomendasi\n\nBagian sistem rekomendasi ditulis olehCandy Olivia Mawalim(Japan\nAdvanced Institute of Science and Technology). Penulis ingin berterima kasih\natas sumbangsih yang diberikan.\nSalah satu penerapan pembelajaran mesin adalah sistem rekomendasi. Sistem\nrekomendasi dimotivasi oleh keinginan pemilik usaha untuk meningkatkan\npenjualan dengan cara mengerti pola pembelian pengguna. Aplikasi yang memanfaatkan\nsistem rekomendasi dapat kita temukan dalam kehidupan seharihari,\nmisalnya Youtube yang memberikan rekomendasi video berdasarkan riwayat\nvideo yang telah kita lihat sebelumnya dan Amazon yang merekomendasikan\nproduknya dengan cara menawarkan produk yang sering dibeli pengguna\nlain yang memiliki karakteristik yang “mirip” dengan kita. Ada dua\nkomponen penting pada sistem rekomendasi yaitu: pengguna dan _item_. Pengguna\nadalah sang pengguna sistem, sementara _item_ dapat berupa video, buku,\ndan lain sebagainya (produk/layanan yang ditawarkan sistem).\nSecara umum, terdapat dua teknik untuk membangun sistem rekomendasi\nyaitu: (1) _content-based filtering_ dan (2) _collaborative filtering_. Teknik\npertama berfokus pada karakteristik pengguna secara spesifik. Teknik kedua\nberfokus pada selera terhadap suatu _item_. Dalam sistem rekomendasi, teknik\n_machine learning_ dapat digunakan untuk memprediksi _item_ yang mungkin\ndisukai pengguna. Dua subbab berikutnya memuat aplikasi teknikmachine\n_learning_ untuk kedua teknik sistem rekomendasi(14.1.1 dan 14.1.2). Setelah\nproses _filtering_ (memprediksi _item_ yang mungkin disukai pengguna), biasanya\nada tahapan _post-processing_. Misalnya menampilkan _item_ yang bersesuaian\ndengan usia pengguna. Contoh lain adalah _post-processing_ untuk memberikan\nrekomendasi yang cukup beranekaragam [100].\n\n14.1.1 Content-based Filtering\n\nTeknik membangun sistem rekomendasi berdasarkan _content-based filtering_\nmemanfaatkan informasi mengenai profil seorang pengguna beserta uraian\n_item_ yang sangat menarik bagi pengguna tersebut [101]. Profil pengguna diartikan\nsebagai karakteristik (atribut dan _behavior_ ) yang dimiliki pengguna.\nAtribut pengguna misalnya _gender_, kewarganegaraan, umur, dan lain-lain. Informasi\nmengenai _behavior_ mencakup karakteristik _item_ yang seorang pengguna\nsukai. Misalkan _item_ adalah film, karakteristik film dapat ditentukan\ndari aktor yang terlibat dalam film, pembuat film, tahun pembuatan film,\ndan _genre_ dari film (misalnya _action_, _horror_, _comedy_ ). Dengan ka _rate_ ristik\nini, kita dapat menentukan kemiripan antar-film.\nKedua informasi ini dapat direpresentasikan sebagai vektor (ekuivalen denganfeature\nvector) agar mudah untuk dilakukan operasi aritmatika, dikenal\ndengan istilah _user embedding_ dan _item embedding_. Cara melakukan _embedding_ untuk\nprofil pengguna dan uraian item mirip dengan cara _word embedding_ yang\ntelah dijelaskan pada subbab 12.5.3, _one-hot encoding_.\n\n\n```\n14.1 Sistem Rekomendasi 217\n```\nRekomendasi _item_ yang diberikan pada pengguna adalah _item_ yang paling\nmungkin disukai pengguna berdasarkan karakteristiknya. Agar mendapat\ngambaran lebih jelas, penulis mengajak pembaca untuk mengikuti tutorial\npembuatan sistem rekomendasi film sangat sederhana menggunakan dataset\nMovieLens^1 berukuran kecil (100K). Dataset ini memuat berbagai informasi\nsebagai berikut:\n\n1. Informasi _rating_ pengguna untuk masing-masing film.\n2. Informasi film, misalkan berupa _genre_ dan tanggal _release_.\n3. Demografik pengguna, misal usia, _gender_, pekerjaan, dan lain lain.\n\nUntuk menyederhanakan tutorial, kami hanya akan menjelaskan contoh penggunaan _genre_ film\nuntuk membuat sistem rekomendasi. Pertama-tama, kita\nbangun representasi _item embedding_, yaitu _genre_ untuk masing-masing film\n(Tabel 14.1). Setiap baris pada tabel tersebut merepresentasikan _item embedding_ untuk\nsuatu film. Perhatikan! Setiap sel pada tabel diisi nilai “1” apabila\nfilm memiliki _genre_ yang tertera pada kolom bersesuaian, “0” apabila tidak.\n\n```\nMovieId Adventure Animation Children Comedy\n6 1 1 1 1\n22 1 0 1 0\n50 0 0 0 1\n```\n```\nTabel 14.1: Representasi _item embedding_ untuk film berdasarkan _genre_.\n```\nKedua, kita bangun representasi _user embedding_, yaitu apakah pengguna\nmenyukai suatu film atau tidak ( _binary_ ). Suka atau tidaknya pengguna terhadap\nsuatu film dapat dilihat berdasarkan _rating_ yang ia berikan. Sebagai\ncontoh sederhana, kita anggap apabila pengguna menyukai suatu film apabila\nmemberi nilai _rating_ lebih dari atau sama dengan 4. Sebagai contoh, perhatikan\nTabel 14.2. Apabila user menyukai suatu film, nilai “1” diisi pada\nkolom “Like or Not”, dan “0” apabila sebaliknya.\n\n```\nUserId MovieId Like or Not\n1 6 0\n1 22 0\n1 50 1\n```\nTabel 14.2: Representasi _user embedding_ berdasarkan _rating_ yang diberikan\npengguna.\n\n(^1) https://grouplens.org/ _dataset_ s/movielens/\n\n\n218 14 Penerapan Pembelajaran Mesin\n\nBerdasarkan _item embedding_ dan _user embedding_ yang kita punya, kita\nganti kolom MovieId pada Tabel 14.2 menggunakan baris pada _item embedding_.\nSekarang, kita memiliki dataset _behavior_ pengguna dengan UserId=1\n(Tabel 14.3). Perhatikan! Tabel tersebut seperti dataset _machine learning_\nyang sudah kamu pelajari pada bab-bab sebelumnya. Diberikan _feature vector_ dan\nkelas (Like or Not) yang berkorespondensi. Menggunakan data seperti\n\n```\nMovieId Adventure Animation Children Comedy Like or Not\n6 1 1 1 1 0\n22 1 0 1 0 0\n50 0 0 0 1 1\n```\n```\nTabel 14.3: Dataset _behavior_ pengguna dengan UserId=1.\n```\npada Tabel 14.3 yang dirata-ratakan, kita dapat menggunakan teknikmachine\n_learning_ untuk memprediksi apakah suatu pengguna akan menyukai film tertentu,\nberdasarkan _genre_ yang dimuat oleh film tersebut. Sederhananya, bisa\nmenggunakan K-nearest-neighbordengan menghitung _cosine similarity_ antara _item_\n_embedding_ dan _user embedding_.\nTeknik _content-based filtering_ memiliki keunggulan dimana kita tidak\nmemerlukan banyak informasi tentang pengguna lain. Kita hanya memerlukan\ninformasi uraian _item_ dan informasi karakteristik suatu pengguna. Hal ini\nmengakibatkan rekomendasi yang diberikan sangat bergantung pada kepribadian\npengguna. Apabila pengguna tidak konsisten, sistem rekomendasi juga\nbingung.\n\n14.1.2 Collaborative Filtering\n\nTeknik ini diperkenalkan oleh Paul Resnick dan Hal Varian pada 1997 [102].\nPrinsip _collaborative filtering_ adalah asumsi bahwa selera penggunaan terhadap\nsuatu _item_ cenderung sama dari waktu ke waktu [103]. Pada contoh\nkasus sederhana untuk sistem rekomendasi film, teknik ini memanfaatkan informasi _rating_ dari\nbanyak pengguna. Kita dapat merepresentasikan tingkah\nlaku ( _behaviour_ ) semua pengguna menggunakan matriks utilitas dimana baris\nmerepresentasikan profil pengguna dan kolom merepresentasikan _item_. Sebagai\ncontoh, perhatikanlah Tabel 14.4.\nAda dua metode varian _collaborative filtering_ yaitu: (1)neighborhood-based\n_collaborative filtering_ ( _memory-based method_ ) dan (2) _model_ -based collaborative\n_filtering_. Metode _neighborhood-based collaborative filtering_ bekerja dengan\nfakta bahwa pengguna yang “mirip” memiliki pola yang “mirip” dalam\nmemberikan _rating_ untuk _item_ [104] (pada Tabel 14.4, pengguna yang mirip\nmemiliki baris yang mirip). Selain itu, _item_ yang memiliki kemiripan, akan\nmemiliki pola _rating_ yang mirip (pada Tabel 14.4, _item_ yang mirip memiliki\n\n\n```\n14.2 Peringkasan Dokumen 219\n```\n```\n_item_ 1 item 2 ... itemN\n_user_ 1 2 3 ... 4\n_user_ 2 5 3 ... 1\n```\n```\n_user_ 3 4 1 ... 2\n```\n```\nTabel 14.4: Matriks utilitas.\n```\nkolom yang mirip). Dengan itu, kita dapat menggunakan perhitungan kemiripan\n_vektor_ untuk menghitung pengguna mana yang mirip dengan suatu penggunap.\nSaat memberikan rekomendasi film bagi penggunap, kita tunjukkan\nfilm-film yang pernah ditonton pengguna yang mirip dengannya, atau kita\ntunjukkan film-film yang mirip dengan film-film yang pernah ditonton oleh\npenggunap.\nUntuk _model-based collaborative filtering_, prediksi dibangun dengan menggunakan\nteknik _machine learning_ [104]. Untuk suatu sistem dengan data yang\n_sparse_, matriks utilitas seperti Tabel 14.4 tidaklah efisien secara memori. Kita\ndapat memanfaatkan teknik-tenik sepertimatrix factorization/principal component\nanalysisdan _autoencoder_ untuk mengurangi ukuran matriks. Silakan\nmembaca lebih lanjut materi-materi tersebut (ingat kembali materi bab 12).\n\n"} {"text": "# Table of Contents\n\n- [Pengenalan Konsep](<./Pengenalan-Konsep.md>)\n- [Pembelajaran Mesin dan Deep](<./Pembelajaran-Mesin-dan-Deep.md>)\n- [Learning](<./Learning.md>)\n - [Edisi1.4 ( 17 Agustus2020)](<./Learning/Edisi1.4--17-Agustus2020.md>)\n - [Jan Wira Gotama Putra](<./Learning/Jan-Wira-Gotama-Putra.md>)\n - [Untuk Tuhan, Bangsa, dan Almamater](<./Learning/Jan-Wira-Gotama-Putra/Untuk-Tuhan-Bangsa-dan-Almamater.md>)\n - [Kata Pengantar](<./Learning/Kata-Pengantar.md>)\n - [Daftar Isi](<./Learning/Daftar-Isi.md>)\n - [Bagian I Pengetahuan Dasar](<./Learning/Bagian-I-Pengetahuan-Dasar.md>)\n - [1 Pengenalan](<./Learning/1-Pengenalan.md>)\n - [1.1 Kecerdasan Buatan](<./Learning/1-Pengenalan/1.1-Kecerdasan-Buatan.md>)\n - [1.2 Intelligent Agent](<./Learning/1-Pengenalan/1.2-Intelligent-Agent.md>)\n - [1.3 Konsep Belajar](<./Learning/1-Pengenalan/1.3-Konsep-Belajar.md>)\n - [1.4 Statistical Learning Theory](<./Learning/1-Pengenalan/1.4-Statistical-Learning-Theory.md>)\n - [1.5 Training, Validation, Testing Set](<./Learning/1-Pengenalan/1.5-Training-Validation-Testing-Set.md>)\n - [1.6 Supervised Learning](<./Learning/1-Pengenalan/1.6-Supervised-Learning.md>)\n - [1.7 Regresi](<./Learning/1-Pengenalan/1.7-Regresi.md>)\n - [1.8 Semi- _supervised_ Learning](<./Learning/1-Pengenalan/1.8-Semi--_supervised_-Learning.md>)\n - [1.9 Un _supervised_ Learning](<./Learning/1-Pengenalan/1.9-Un-_supervised_-Learning.md>)\n - [1.10 Proses Belajar](<./Learning/1-Pengenalan/1.10-Proses-Belajar.md>)\n - [1.11 Tips](<./Learning/1-Pengenalan/1.11-Tips.md>)\n - [1.12 Contoh Aplikasi](<./Learning/1-Pengenalan/1.12-Contoh-Aplikasi.md>)\n - [Soal Latihan](<./Learning/1-Pengenalan/Soal-Latihan.md>)\n - [2 Fondasi Matematis](<./Learning/2-Fondasi-Matematis.md>)\n - [2.1 Probabilitas](<./Learning/2-Fondasi-Matematis/2.1-Probabilitas.md>)\n - [2.2 Probability Density Function](<./Learning/2-Fondasi-Matematis/2.2-Probability-Density-Function.md>)\n - [2.3 Expectation dan Variance](<./Learning/2-Fondasi-Matematis/2.3-Expectation-dan-Variance.md>)\n - [2.4 Bayesian Probability](<./Learning/2-Fondasi-Matematis/2.4-Bayesian-Probability.md>)\n - [2.5 Gaussian Distribution](<./Learning/2-Fondasi-Matematis/2.5-Gaussian-Distribution.md>)\n - [2.6 Apakah Karakteristik Sampel Mencerminkan Populasi?](<./Learning/2-Fondasi-Matematis/2.6-Apakah-Karakteristik-Sampel-Mencerminkan-Populasi.md>)\n - [2.7 Teori Keputusan](<./Learning/2-Fondasi-Matematis/2.7-Teori-Keputusan.md>)\n - [2.8 Hypothesis Testing](<./Learning/2-Fondasi-Matematis/2.8-Hypothesis-Testing.md>)\n - [2.9 Teori Informasi](<./Learning/2-Fondasi-Matematis/2.9-Teori-Informasi.md>)\n - [2.10 Matriks](<./Learning/2-Fondasi-Matematis/2.10-Matriks.md>)\n - [2.11 Bacaan Lanjutan](<./Learning/2-Fondasi-Matematis/2.11-Bacaan-Lanjutan.md>)\n - [Soal Latihan](<./Learning/2-Fondasi-Matematis/Soal-Latihan.md>)\n - [3 Data Analytics](<./Learning/3-Data-Analytics.md>)\n - [3.1 Pengenalan Data Analytics](<./Learning/3-Data-Analytics/3.1-Pengenalan-Data-Analytics.md>)\n - [3.2 Nilai Atribut dan Transformasi](<./Learning/3-Data-Analytics/3.2-Nilai-Atribut-dan-Transformasi.md>)\n - [3.3 Ruang Konsep](<./Learning/3-Data-Analytics/3.3-Ruang-Konsep.md>)\n - [3.4 Linear Separability](<./Learning/3-Data-Analytics/3.4-Linear-Separability.md>)\n - [3.5 Seleksi Fitur](<./Learning/3-Data-Analytics/3.5-Seleksi-Fitur.md>)\n - [3.6 Classification, Association, Clustering](<./Learning/3-Data-Analytics/3.6-Classification-Association-Clustering.md>)\n - [3.7 Mengukur Kinerja](<./Learning/3-Data-Analytics/3.7-Mengukur-Kinerja.md>)\n - [3.8 Evaluasi Model](<./Learning/3-Data-Analytics/3.8-Evaluasi-Model.md>)\n - [3.9 Kategori Jenis Algoritma](<./Learning/3-Data-Analytics/3.9-Kategori-Jenis-Algoritma.md>)\n - [3.10 Tahapan Analisis](<./Learning/3-Data-Analytics/3.10-Tahapan-Analisis.md>)\n - [Soal Latihan](<./Learning/3-Data-Analytics/Soal-Latihan.md>)\n - [Bagian II Algoritma Pembelajaran Mesin](<./Learning/Bagian-II-Algoritma-Pembelajaran-Mesin.md>)\n - [4 Algoritma Dasar](<./Learning/4-Algoritma-Dasar.md>)\n - [4.1 Naive Bayes](<./Learning/4-Algoritma-Dasar/4.1-Naive-Bayes.md>)\n - [4.2 K- _mean_ s](<./Learning/4-Algoritma-Dasar/4.2-K--_mean_-s.md>)\n - [4.3 K-nearest-neighbor](<./Learning/4-Algoritma-Dasar/4.3-K-nearest-neighbor.md>)\n - [Soal Latihan](<./Learning/4-Algoritma-Dasar/Soal-Latihan.md>)\n - [5 Model Linear](<./Learning/5-Model-Linear.md>)\n - [5.1 Curve Fitting dan Error Function](<./Learning/5-Model-Linear/5.1-Curve-Fitting-dan-Error-Function.md>)\n - [5.2 Binary Classification](<./Learning/5-Model-Linear/5.2-Binary-Classification.md>)\n - [5.3 Log-linear Binary Classification](<./Learning/5-Model-Linear/5.3-Log-linear-Binary-Classification.md>)\n - [5.4 Multi- _class_ Classification](<./Learning/5-Model-Linear/5.4-Multi--_class_-Classification.md>)\n - [5.5 Multi-label Classification](<./Learning/5-Model-Linear/5.5-Multi-label-Classification.md>)\n - [5.6 Pembelajaran sebagai Permasalahan Optimisasi](<./Learning/5-Model-Linear/5.6-Pembelajaran-sebagai-Permasalahan-Optimisasi.md>)\n - [5.7 Batasan Model Linear](<./Learning/5-Model-Linear/5.7-Batasan-Model-Linear.md>)\n - [5.8 Overfitting dan Underfitting](<./Learning/5-Model-Linear/5.8-Overfitting-dan-Underfitting.md>)\n - [5.9 Regularization](<./Learning/5-Model-Linear/5.9-Regularization.md>)\n - [5.10 Transformasi Data](<./Learning/5-Model-Linear/5.10-Transformasi-Data.md>)\n - [5.11 Bacaan Lanjutan](<./Learning/5-Model-Linear/5.11-Bacaan-Lanjutan.md>)\n - [Soal Latihan](<./Learning/5-Model-Linear/Soal-Latihan.md>)\n - [6 Pohon Keputusan](<./Learning/6-Pohon-Keputusan.md>)\n - [6.1 Inductive Learning](<./Learning/6-Pohon-Keputusan/6.1-Inductive-Learning.md>)\n - [6.2 ID3](<./Learning/6-Pohon-Keputusan/6.2-ID3.md>)\n - [6.3 Isu pada ID3](<./Learning/6-Pohon-Keputusan/6.3-Isu-pada-ID3.md>)\n - [6.4 Pembagian Ruang Konsep](<./Learning/6-Pohon-Keputusan/6.4-Pembagian-Ruang-Konsep.md>)\n - [Soal Latihan](<./Learning/6-Pohon-Keputusan/Soal-Latihan.md>)\n - [7 Support Vector Classifier](<./Learning/7-Support-Vector-Classifier.md>)\n - [7.1 Maximal Margin Classifier](<./Learning/7-Support-Vector-Classifier/7.1-Maximal-Margin-Classifier.md>)\n - [7.2 Support Vector Classifier](<./Learning/7-Support-Vector-Classifier/7.2-Support-Vector-Classifier.md>)\n - [7.3 Support Vector Machine](<./Learning/7-Support-Vector-Classifier/7.3-Support-Vector-Machine.md>)\n - [7.4 Klasifikasi lebih dari dua kelas](<./Learning/7-Support-Vector-Classifier/7.4-Klasifikasi-lebih-dari-dua-kelas.md>)\n - [7.5 Tips](<./Learning/7-Support-Vector-Classifier/7.5-Tips.md>)\n - [Soal Latihan](<./Learning/7-Support-Vector-Classifier/Soal-Latihan.md>)\n - [8 Hidden Markov Model](<./Learning/8-Hidden-Markov-Model.md>)\n - [8.1 Probabilistic Reasoning](<./Learning/8-Hidden-Markov-Model/8.1-Probabilistic-Reasoning.md>)\n - [8.2 Generative Model](<./Learning/8-Hidden-Markov-Model/8.2-Generative-Model.md>)\n - [8.3 Part-of-speech Tagging](<./Learning/8-Hidden-Markov-Model/8.3-Part-of-speech-Tagging.md>)\n - [8.4 Hidden Markov Model Tagger](<./Learning/8-Hidden-Markov-Model/8.4-Hidden-Markov-Model-Tagger.md>)\n - [8.5 Algoritma Viterbi](<./Learning/8-Hidden-Markov-Model/8.5-Algoritma-Viterbi.md>)\n - [8.6 Proses Training Hidden Markov Model](<./Learning/8-Hidden-Markov-Model/8.6-Proses-Training-Hidden-Markov-Model.md>)\n - [Soal Latihan](<./Learning/8-Hidden-Markov-Model/Soal-Latihan.md>)\n - [9 Seleksi Fitur dan Metode Evaluasi](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi.md>)\n - [9.1 Feature Engineering](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/9.1-Feature-Engineering.md>)\n - [9.2 High Dimensional Data](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/9.2-High-Dimensional-Data.md>)\n - [9.3 Feature Selection](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/9.3-Feature-Selection.md>)\n - [9.4 Evaluasi Kinerja Model](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/9.4-Evaluasi-Kinerja-Model.md>)\n - [9.5 Cross Validation](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/9.5-Cross-Validation.md>)\n - [9.6 Replicability, Overclaiming dan Domain Dependence](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/9.6-Replicability-Overclaiming-dan-Domain-Dependence.md>)\n - [Soal Latihan](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/Soal-Latihan.md>)\n - [10 Clustering](<./Learning/10-Clustering.md>)\n - [10.1 K- _mean_ s, Pemilihan Centroid, Kemiripan Data](<./Learning/10-Clustering/10.1-K--_mean_-s-Pemilihan-Centroid-Kemiripan-Data.md>)\n - [10.2 Hierarchical Clustering](<./Learning/10-Clustering/10.2-Hierarchical-Clustering.md>)\n - [10.3 Evaluasi](<./Learning/10-Clustering/10.3-Evaluasi.md>)\n - [Soal Latihan](<./Learning/10-Clustering/Soal-Latihan.md>)\n - [Bagian III Artificial Neural Network](<./Learning/Bagian-III-Artificial-Neural-Network.md>)\n - [11 Feed _forward_ Neural Network](<./Learning/11-Feed-_forward_-Neural-Network.md>)\n - [11.1 Definisi Artificial Neural Network](<./Learning/11-Feed-_forward_-Neural-Network/11.1-Definisi-Artificial-Neural-Network.md>)\n - [11.2 Single Perceptron](<./Learning/11-Feed-_forward_-Neural-Network/11.2-Single-Perceptron.md>)\n - [11.3 Permasalahan XOR](<./Learning/11-Feed-_forward_-Neural-Network/11.3-Permasalahan-XOR.md>)\n - [11.4 Multi _layer_ Perceptron](<./Learning/11-Feed-_forward_-Neural-Network/11.4-Multi-_layer_-Perceptron.md>)\n - [11.5 Interpretability](<./Learning/11-Feed-_forward_-Neural-Network/11.5-Interpretability.md>)\n - [11.6 Binary Classification](<./Learning/11-Feed-_forward_-Neural-Network/11.6-Binary-Classification.md>)\n - [11.7 Multi- _class_ Classification](<./Learning/11-Feed-_forward_-Neural-Network/11.7-Multi--_class_-Classification.md>)\n - [11.8 Multi-label Classification](<./Learning/11-Feed-_forward_-Neural-Network/11.8-Multi-label-Classification.md>)\n - [1 0](<./Learning/11-Feed-_forward_-Neural-Network/1-0.md>)\n - [0 1](<./Learning/11-Feed-_forward_-Neural-Network/0-1.md>)\n - [0 0](<./Learning/11-Feed-_forward_-Neural-Network/0-0.md>)\n - [1 1](<./Learning/11-Feed-_forward_-Neural-Network/1-1.md>)\n - [11.9 Deep Neural Network](<./Learning/11-Feed-_forward_-Neural-Network/11.9-Deep-Neural-Network.md>)\n - [11.10 Tips](<./Learning/11-Feed-_forward_-Neural-Network/11.10-Tips.md>)\n - [11.11 Regularization and Dropout](<./Learning/11-Feed-_forward_-Neural-Network/11.11-Regularization-and-Dropout.md>)\n - [11.12 Vanishing and Exploding Gradients](<./Learning/11-Feed-_forward_-Neural-Network/11.12-Vanishing-and-Exploding-Gradients.md>)\n - [11.13 Rangkuman](<./Learning/11-Feed-_forward_-Neural-Network/11.13-Rangkuman.md>)\n - [Soal Latihan](<./Learning/11-Feed-_forward_-Neural-Network/Soal-Latihan.md>)\n - [12 Auto _encoder_](<./Learning/12-Auto-_encoder_.md>)\n - [12.1 Representation Learning](<./Learning/12-Auto-_encoder_/12.1-Representation-Learning.md>)\n - [12.2 Singular Value Decomposition](<./Learning/12-Auto-_encoder_/12.2-Singular-Value-Decomposition.md>)\n - [12.3 Ide Dasar Auto _encoder_](<./Learning/12-Auto-_encoder_/12.3-Ide-Dasar-Auto-_encoder_.md>)\n - [𝐗 Encoder Decoder](<./Learning/𝐗-Encoder-Decoder.md>)\n - [𝐔#𝐕# 𝐔#𝐕#𝐖#𝑻](<./Learning/𝐔𝐕-𝐔𝐕𝐖𝑻.md>)\n - [𝐄 𝐗](<./Learning/𝐄-𝐗.md>)\n - [12.4 Resisting Perturbation](<./Learning/𝐄-𝐗/12.4-Resisting-Perturbation.md>)\n - [12.5 Representing Context: Word Embedding](<./Learning/𝐄-𝐗/12.5-Representing-Context-Word-Embedding.md>)\n - [CBOW Skip-gram](<./Learning/𝐄-𝐗/CBOW-Skip-gram.md>)\n - [12.6 Tips](<./Learning/𝐄-𝐗/12.6-Tips.md>)\n - [Soal Latihan](<./Learning/𝐄-𝐗/Soal-Latihan.md>)\n - [13 Arsitektur Neural Network](<./Learning/13-Arsitektur-Neural-Network.md>)\n - [13.1 Convolutional Neural Network](<./Learning/13-Arsitektur-Neural-Network/13.1-Convolutional-Neural-Network.md>)\n - [13.2 Recurrent Neural Network](<./Learning/13-Arsitektur-Neural-Network/13.2-Recurrent-Neural-Network.md>)\n - [13.3 Part-of-speech Tagging Revisited](<./Learning/13-Arsitektur-Neural-Network/13.3-Part-of-speech-Tagging-Revisited.md>)\n - [13.4 Sequence to Sequence](<./Learning/13-Arsitektur-Neural-Network/13.4-Sequence-to-Sequence.md>)\n - [13.5 Arsitektur Lainnya](<./Learning/13-Arsitektur-Neural-Network/13.5-Arsitektur-Lainnya.md>)\n - [13.6 Architecture Ablation](<./Learning/13-Arsitektur-Neural-Network/13.6-Architecture-Ablation.md>)\n - [13.7 Transfer Learning](<./Learning/13-Arsitektur-Neural-Network/13.7-Transfer-Learning.md>)\n - [13.8 Multi- _task_ Learning](<./Learning/13-Arsitektur-Neural-Network/13.8-Multi--_task_-Learning.md>)\n - [Soal Latihan](<./Learning/13-Arsitektur-Neural-Network/Soal-Latihan.md>)\n - [Bagian IV Aplikasi dan Topik Tambahan](<./Learning/Bagian-IV-Aplikasi-dan-Topik-Tambahan.md>)\n - [14 Penerapan Pembelajaran Mesin](<./Learning/14-Penerapan-Pembelajaran-Mesin.md>)\n - [14.1 Sistem Rekomendasi](<./Learning/14-Penerapan-Pembelajaran-Mesin/14.1-Sistem-Rekomendasi.md>)\n - [14.2 Peringkasan Dokumen](<./Learning/14-Penerapan-Pembelajaran-Mesin/14.2-Peringkasan-Dokumen.md>)\n - [14.3 Konklusi](<./Learning/14-Penerapan-Pembelajaran-Mesin/14.3-Konklusi.md>)\n - [14.4 Saran Buku Lanjutan](<./Learning/14-Penerapan-Pembelajaran-Mesin/14.4-Saran-Buku-Lanjutan.md>)\n - [Soal Latihan](<./Learning/14-Penerapan-Pembelajaran-Mesin/Soal-Latihan.md>)\n - [Referensi](<./Learning/Referensi.md>)\n - [Biografi Penulis](<./Learning/Biografi-Penulis.md>)"} {"text": "# Pengenalan Konsep\n\n"} {"text": "# Pembelajaran Mesin dan Deep\n\n"} {"text": "# Learning\n\n"}