text
stringlengths
9
25.2k
## 12 Auto _encoder_ ``` “The goal is to turn data into information, and information into insight.” ``` ``` Carly Fiorina ``` Bab ini memuat materi yang relatif sulit (karena agakhigh level). Bab ini memuat materi _autoencoder_ serta penerapannya pada pemrosesan bahasa alami ( _natural language processing_ –NLP). Berhubung aplikasi yang diceritakan adalah aplikasi pada NLP, kami akan memberi sedikit materi (background _knowledge_ ) agar bisa mendapat gambaran tentang persoalan pada domain tersebut. Bagi yang tertarik belajar NLP, kami sa _rank_ an untuk membaca buku [64]. Teknik yang dibahas pada bab ini adalah _representation_ _learning_ untuk melakukan pengurangan dimensi pada _feature vector_ (dimensionality reduction), teknik ini biasanya digolongkan sebagai _unsupervised_ _learning_. Artinya, _representation learning_ adalah mengubah suatu representasi menjadi bentuk representasi lain yang ekuvalen, tetapi berdimensi lebih rendah; sedemikian sehingga informasi yang terdapat pada representasi asli tidak hilang/terjaga. Ide dasar teknik ini bermula dari dekomposisi matriks pada aljabar linear.
## 11 Feed _forward_ Neural Network ``` “If you want to make information stick, it’s best to learn it, go away from it for a while, come back to it later, leave it behind again, and once again return to it–to engage with it deeply across time. Our memories naturally degrade, but each time you return to a _memory_, you reactivate its neural _network_ and help to lock it in.” Joshua Foer ``` Penulis cukup yakin pembaca sudah menanti-nanti bagian ini. Bagian ketiga membahas algoritma _machine learning_ yang sedang populer belakangan ini, yaitu _artificial neural network_. Buku ini lebih berfokus pada penggunaan artifical neural networkuntuk _supervised learning_. Pembahasan dimulai dari hal-hal sederhana ( _single perceptron_, _multilayer perceptron_ ) sampai yang lebih kompleks. Sebelum membaca bab ini, ada baiknya kamu mengulang membaca bab 5 karena memberikan fondasi matematis untuk mengerti bab ini.
## 10 Clustering ``` “Most of us cluster somewhere in the middle of most statistical distributions. But there are lots of bell curves, and pretty much everyone is on a tail of at least one of them. We may collect st _range_ memorabillia or read esoteric books, hold unsual religious beliefs or wear odd-sized shoes, suffer rare diseases or enjoy obscure moveis.” Virginia Postrel ``` Pada bab 4, kamu sudah mempelajari salah satu teknik _clustering_ yang cukup umum yaitu K- _mean_ s. Bab ini akan mengupas _clustering_ secara lebih dalam. Kami sa _rank_ an kamu untuk membaca paper [41], walaupun relatif lama, tetapi paper tersebut memberikan penjelasan yang mudah dimengerti tentang _clustering_. Selain itu, kamu juga dapat membaca _paper_ oleh Saad et al. [42]. _Clustering_ adalah pengelompokkan data dengan sifat yang mirip. Data untuk _clustering_ tidak memiliki label (kelas). Secara umum, algoritma _clustering_ dapat dikategorikan menjadi dua macam berdasarkan hasil yang dinginkan [43]: (1) _partitional_, yaitu menentukan partisi sebanyakKdan (2) _hierarchical_, yaitu mengelompokan data berdasarkan struktur taksonomi. Contoh algoritma _partitional_ adalah _K-means_ pada subbab 10.1, sementara contoh algoritma _hierarchical_ adalah _agglomerative clustering_ pada subbab 10.2. 136 10 Clustering
## 6 Pohon Keputusan ``` “Some _time_ s you make the right decision, some _time_ s you make the decision right.” Phil McGraw ``` Bab ini akan menjelaskan salah satu varian pohon keputusan yaitu ID3 oleh Quinlan [33, 34] yang terinspirasi oleh teori informasi [35]. Algoritma ini sudah cukup tua, tetapi layak dimengerti. ID3 adalah salah satu varian dari _supervised learning_.
## Bagian III Artificial Neural Network
## 7 Support Vector Classifier ``` “More data beats clever algorithms, but better data beats more data.” Peter Norvig ``` Saat membaca judul bab ini, kamu mungkin berpikir bahwa _support vector_ machineakan dibahas.Support vector classifierdan _support vector machine_ adalah dua hal yang berbeda, walau kedua istilah tersebut sering digunakan pada konteks yang mirip [20].Support vector classifiersesungguhnya adalah konsep yang lebih sederhana. Walaupun bab ini menyinggung kulit _support vector machine_, kami tidak membahas secara rinci. Akan tetapi, kami berharap pembaca mampu mendapatkan intuisi. Kamu dapat menganggap bab ini sebagai kelanjutan cerita bab 5. Referensi utama bab ini adalah buku karangan James et al. [20].
## 3 Data Analytics ``` “Hiding within those mounds of _data_ is knowl _edge_ that could change the life of a patient, or change the world” Atul Butte ``` Bab ini memuat penjelasan tahapan-tahapan umum untuk analisis data, serta beberapa karakteristik tipe data. Materi pada bab ini dapat dianggap sebagai kerangka berpikir ( _framework_ ) atau langkah kerja. Karena buku ini hanya bersifat pengantar, materi yang disampaikan mungkin kurang lengkap. Penulis menya _rank_ an pembaca untuk membaca buku oleh Witten et al. [21] dan Jeff Leek [22].
## 2 Fondasi Matematis ``` “He uses statistics as a drunken man uses lamp posts – for support rather than for illumination.” ``` ``` Andrew Lang ``` Mungkin saat pertama kali membaca bab ini, kamu merasa bab ini tidak masuk akal atau kurang dibutuhkan. Seiring membaca buku ini, mungkin bab ini akan sering dikunjungi kembali. Bab ini hanyalah pengingat materi yang sudah kamu pernah pelajari saja (semacamcheatsheet). Kamu boleh melewati bab ini apabila sudah familiar dengan materi probabilitas, statistika, serta aljabar linier. Seharusnya, bab ini memang diberikan paling awal. Tetapi penulis khawatir pembaca mungkin merasa buku ini tidak menarik apabila bab ini diberikan paling awal. Bab ini memuat sekilas tentang probabilitas, statistika, dan operasi matriks. Tentunya untuk mengerti materi tersebut sebaiknya kamu mengambil kuliah khusus berkaitan karena kamu diharapkan sudah memiliki cukup latar pengetahuan, bab ini sebenarnya hanyalah sekilas pengingat. Kami akan banyak memakai contoh-contoh dari buku Bishop [8] untuk materi probabilitas. Penulis merekomendasikan untuk menonton kuliah _statistical inference_ (coursera) oleh Professor Brian Caffo.
## Biografi Penulis JanWiraGotama Putra adalah PhD Candidate (JSPS Research Fellow) di Computational Linguistics laboratory, Artificial Intelligence Major, Department of Computer Science, Tokyo Institute of Technology. Sebelumnya, penulis mendapatkan gelar sarjana di jurusan Teknik Informatika, Institut Teknologi Bandung. Kemudian, melanjutkan magister di Tokyo Institute of Technology dengan pendanaan MEXT scholarship. Penulis memiliki pengalaman menulis makalah ilmiah pada bidang pemrosesan bahasa alami dan menerapkan teknik pembelajaran mesin untuk perusahaan IT (saat _internship_ ), e.g., _discourse processing_, klasifikasi teks, peringkasan teks, _automatic hashtag-ing_, dan _content filtering_ ( _moderation_ ). Penulis pernah mendapatkanbest _paper_ awarddi workshop internasional dan memenangkan lomba _data mining_ (terbuka untuk publik) di Indonesia. Penulis masih terus mempelajari teknik _machine learning_. Buku ini adalah catatan yang ingin ia bagikan. ``` https://wiragotama.github.io/ ```
## Bagian II Algoritma Pembelajaran Mesin
## 1 Pengenalan ``` “People worry that computers will get too smart and take over the world, but the real problem is that they’re too stupid and they’ve al _ready_ taken over the world.” Pedro Domingos ``` Penulis yakin istilah _machine learning_ atau _deep learning_ sudah tidak asing di telinga pembaca. _Machine learning_ dan _deep learning_ adalah salah satu materi kuliah pada jurusan Teknik Informatika atau Ilmu Komputer. Selain mengenal kedua istilah tersebut dari perkuliahan, pembaca mungkin mengenal istilah tersebut karena digunakan untuk pemasaran (marketing). Sebagai permulaan, _machine learning_ dan _deep learning_ bukanlah kedua hal yang berbeda.^1 Perlu diingat, _deep learning_ adalah bagian dari _machine learning_. _Machine learning_ sudah diaplikasikan pada banyak hal, baik untuk klasifikasi gambar, mobil tanpa pengemudi, klasifikasi berita, dsb. Bab ini menjelaskan konsep paling dasar dan utama _machine learning_.
## 𝐄 𝐗# Gambar 12.2: Hubungan auto _encoder_ dan singular value decomposition (analogi). Perhatikan, _hidden layer_ / _coding_ dapat dianalogikan sebagaiE=Uˆ Vˆ. Dengan kata lain, kita dapat melakukan operasi _dot-product_ pada _coding_ untuk merepresentasikan _dot-product_ pada data asliX. Ini adalah ide utama (^5) Pada banyak literatur, kumpulan _weight matrices_ ANN sering dilambangkan den- ganθ (^6) Hanya sebuah analogi. 168 12 Auto _encoder_ _autoencoder_, yaitu meng-aproksimasi/meng _kompresi data_ asli menjadi bentuk lebih kecil _coding_. Kemudian, operasi pada bentuk _coding_ merepresentasikan operasi pada data sebenarnya. _Autoencoder_ terdiri dari _encoder_ (sebuah _neural network_ ) dan _decoder_ (sebuah _neural network_ ). _Encoder_ merubah _input_ ke dalam bentuk dimensi lebih kecil (dapat dianggap sebagai kompresi). _Decoder_ berusaha merekonstruksi _coding_ menjadi bentuk aslinya. Secara matematis, kita dapat menulis _autoencoder_ sebagai persamaan 12.6, dimana dec melambangkan _decoder_, enc melambangkan _encoder_ danx adalah _input_. _Encoder_ diberikan pada persamaan 12.7 yang berarti melewatkan _input_ pada suatu _layer_ di _neural network_ untuk menghasilkan representasixberdimensi rendah, disebut _coding_ c.Udanαmelambangkan _weight matrix_ dan _bias_. ``` f(d,θ) = dec(enc(x)) (12.6) ``` ``` c= enc(x) =g(x,U,α) (12.7) ``` Representasicini kemudian dilewatkan lagi pada suatu _layer_ untuk merekonstruksi kembali _input_, kita sebut sebagai _decoder_. _Decoder_ diberikan pada persamaan 12.8 dimanaWdanβmelambangkan _weight matrix_ dan _bias_. Baik pada fungsi _encoder_ dan _decoder_,σmelambangkan fungsi aktivasi. ``` f(d,θ) = dec(c) =h(c,W,β) (12.8) ``` Pada contoh sederhana ini, _encoder_ dan _decoder_ diilustrasikan sebagai sebuah _layer_. Kenyataannya, _encoder_ dan _decoder_ dapat diganti menggunakan sebuah _neural network_ dengan arsitektur kompleks. Sekarang kamu mungkin bertanya-tanya, bila auto _encoder_ melakukan hal serupa seperti _singular value decomposition_, untuk apa kita menggunakan _autoencoder_ ? (mengapa tidak menggunakan aljabar saja?) Berbeda dengan teknik SVD, teknik _autoencoder_ dapat juga mempelajari fitur nonlinear.^7 Pada penggunaan praktis, _autoencoder_ adalah _neural network_ yang cukup kompleks (memiliki banyak _hidden layer_ ). Dengan demikian, kita dapat ”mengetahui”berbagai macam representasiatau transformasi data. _Framework autoencoder_ yang disampaikan sebelumnya adalah framework dasar. Pada kenyataannya, masih banyak ide lainnya yang bekerja dengan prinsip yang sama untuk mencari _coding_ pada permasalahan khusus. _Output_ dari _neural network_ juga bisa tidak sama _input_ -nya, tetapi tergantung permasalahan (kami akan memberikan contoh persoalan _word embedding_ ). Selain itu, _autoencoder_ juga relatif fleksibel; dalam artian saat menambahkan data baru, kita hanya perlu memperbaharui parameter _autoencoder_ saja. Kami sa _rank_ an untuk membaca _paper_ [72, 73] perihal penjelasan lebih lengkap tentang perbedaan dan persamaan SVD dan _autoencoder_ secara lebih matematis. Secara sederhana, _representation learning_ adalah teknik untuk mengkompresi _input_ ke dalam dimensi lebih rendah tanpa (diharapkan) ada kehilangan (^7) Hal ini abstrak untuk dijelaskan karena membutuhkan pengalaman. ``` 12.4 Resisting Perturbation 169 ``` informasi. Operasi vektor (dan lainnya) pada level _coding_ merepresentasikan operasi pada bentuk aslinya. Untuk pembahasan _autoencoder_ secara lebih matematis, kamu dapat membaca pranala ini.^8 Setelah _autoencoder_ dilatih, pada umumnya _encoder_ dapat digunakan untuk hal lainnya juga, e.g., klasifikasi kelas gambar.
## 𝐗 Encoder Decoder
## 13 Arsitektur Neural Network ``` “As students cross the threshold from outside to insider, they also cross the threshold from superficial learning motivated by grades to deep learning motivated by engagement with questions. Their transformation entails an awakening–even, perhaps, a falling in love.” John C. Bean ``` Seperti yang sudah dijelaskan pada bab 9 dan bab 12, data memiliki karakteristik (dari segi struktur) misal _sequential data_, _compositional_ data, dsb. Terdapat arsitektur khusus _artificial neural network_ (ANN) untuk menyelesaikan persoalan pada tipe data tertentu. Pada bab ini, kami akan memberikan beberapa contoh variasi arsitektur ANN yang cocok untuk tipe data tertentu. Penulis akan berusaha menjelaskan semaksimal mungkin ide-ide penting pada masing-masing arsitektur. Tujuan bab ini adalah memberikan pengetahuan konseptual (intuisi). Pembaca harus mengeksplorasi tutorial pemrograman untuk mampu mengimplementasikan arsitektur-arsitektur ini. Penjelasan pada bab ini bersifat abstrak dan kamu harus mengerti penjelasan bab-bab sebelumnya untuk mengerti konsep pada bab ini.
## 9 Seleksi Fitur dan Metode Evaluasi ``` “The key to artificial intelligence has always been the _representation_.” ``` ``` Jeff Hawkins ``` Bab ini membahas beberapa tips dan trik yang sebenarnya sudah disinggung pada bab 3 dan bab 5. Hanya saja, beberapa hal lebih baik dijelaskan secara lebih mendalam ketika sudah mempelajari beberapa algoritma pembelajaran mesin, seperti pentingnya _feature engineering_, _feature selection_ dan penjelasan lebih lanjut _cross validation_. Kamu dapat menganggap bab ini sebagai kelanjutan tips dan trik pembelajaran mesin lanjutan bab 3 dan bab 5.
### Edisi1.4 ( 17 Agustus2020)
## 5 Model Linear ``` “Some _time_ s an entirely inaccu _rate_ formula is a handy way to move you in the right direction if it offers simplicity.” ``` ``` Scott Adams ``` Bab ini membahas tentang model linear (algoritma parametrik), sebagai contoh pembelajaran yang sederhana karena cukup mudah dipahami idenya. Bab ini juga membahas _error function_ dan _stochastic gradient descent_. Dimulai dari bab ini, kita akan memasuki materi lebih serius. Materi pada bab ini dijelaskan dengan sangat baik dan mendalam pada bukuAn Introduction to Statistical Learning[20].
## Referensi ``` [1] Yoav Goldberg. _Neural Network Methods in Natural Language Processing_. Morgan & Claypool Publishers, 2017. [2] Peter Linz. _An Introduction to Formal Language and Automata_. Jones and Bartlett Publishers, Inc., USA, 2006. [3] Ronald Brachman and Hector Levesque.Knowl _edge_ Representation and Reasoning. Morgan Kaufmann Publishers Inc., San Francisco, CA, USA, 2004. [4] Tom Mitchell. _Machine Learning_. McGraw-Hill, 1997. [5] Stuart Russel and Peter Norvig. _Artificial Intelligence: A Modern Approach_. Prentice Hall, 1995. [6] Jonathan Gratch and Stacell Marsella. Computationally modelling human emotion. _Communications of the ACM_, 57(12):71–99, 2014. [7] Masayu Leylia Khodra and Dessi Puji Lestari. Odd semester lecture on _machine learning_. Lecture of Institute Teknologi Bandung, 2015. [8] Christopher M. Bishop. Pattern Recognition and Machine Learning. Springer, 2006. [9] Sumio Watanabe and Hidetoshi Nishimori. Fall lecture note on statistical _learning_ theory. Lecture note for Tokyo Institute of Technology, 2016. [10] Brian Caffo. Statistical Inference for Data Science. Lean Publishing, 2015. [11] Ian Goodfellow, Yoshua Bengio, and Aaron Courville. Deep Learning. MIT Press, 2016. [12] Daniel Jurafsky and James H. Martin. _Speech and Language Processing_ Second Edition. Prentice Hall, 2009. [13] Nils Reimers and Iryna Gurevych. Reporting score distributions makes a difference: Performance study of LSTM- _network_ s for sequence tagging. InProceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pages 338–348, Copenhagen, Denmark, September ``` 2017. Association for Computational Linguistics. 228 Referensi ``` [14] Rotem Dror, Gili Baumer, Segev Shlomov, and Roi Reichart. The hitchhiker’s guide to testing statistical significance in natural language processing. InProceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1383– 1392, Melbourne, Australia, July 2018. Association for Computational Linguistics. [15] Rotem Dror, Segev Shlomov, and Roi Reichart. Deep dominance - how to properly compare deep neural models. InProceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 2773–2785, Florence, Italy, July 2019. Association for Computational Linguistics. [16] Thomas M. Cover and Joy A. Thomas. _Elements of Information Theory_. Wiley, 1991. [17] Hidetoshi Nishimori.Statistical Physics of Spin Glasses and Information Processing: An Introduction. Clarendon Press, 2001. [18] Sharon L. Myres Ronald E. Walpole, Raymond H. Myers and Keying Ya. Probability and Statistics for Engineers and Scientists. Prentice Hall, 2012. [19] Gilbert Strang. Linear algebra and its applications. Thomson, Brooks/Cole, Belmont, CA, 2006. [20] G. James, D. Witten, T. Hastie, and R. Tibshirani.An Introduction to Statistical Learning, with applications in R. Springer, 2013. [21] Ian H. Witten, Eibe F _rank_, and Mark A. Hall.Data Minin gg: Practical _Machine Learning_ Tools and Techniques. Morgan Kaufmann Publishers Inc., San Francisco, CA, USA, 3rd edition, 2011. [22] Jeff Leek. _The Elements of Data Analytic Style_. Leanpub, 2015. [23] Takao Terano and Tsuyoshi Murata. Spring lecture on machine learning. Lecture of Tokyo Institute of Technology, 2017. [24] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: A method for automatic evaluation of machine translation. InProceedings of the 40th Annual Meeting on Association for Computational Linguistics, ACL ’02, pages 311–318, Stroudsburg, PA, USA, 2002. Association for Computational Linguistics. [25] Chin-Yew Lin. Rouge: A package for automatic evaluation of summaries. InProc. ACL workshop on Text Summarization Branches Out, page 10, 2004. [26] Irina Rish. An empirical study of the naive bayes classifier. InIJCAI 2001 workshop on empirical methods in artificial intelligence, volume 3, pages 41–46. IBM New York, 2001. [27] J. A. Hartigan and M. A. Wong. A k- _mean_ s clustering algorithm.JSTOR: Applied Statistics, 28(1):100–108, 1979. [28] T. Cover and P. Hart. Nearest neighbor pattern classification. IEEE Trans. Inf. Theor., 13(1):21–27, September 2006. [29] Mohammad S. Sorower. A literature survey on algorithms for multilabel _learning_. 2010. ``` ``` Referensi 229 ``` [30] John Duchi, Elad Hazan, and Yoram Singer. Adaptive sub _gradient_ methods for online learning and stochastic optimization, 2010. [31] Corinna Cortes and Vladimir Vapnik. Support-vector networks. Machine _Learning_, 20(3):273–297, Sep 1995. [32] Marti A. Hearst. Support vector machines. _IEEE Intelligent Systems_, 13(4):18–28, July 1998. [33] J. R. Quilan. Discovering rules by induction from large collections of examples. Edinburgh University Press, 1979. [34] J.R. Quinlan. Induction of decision trees. Mach. Learn., 1(1):81–106, March 1986. [35] C. E. Shannon. A mathematical theory of communication. The Bell System Technical Journal, 27(3):379–423, 1948. [36] Takao Terano and Tsuyoshi Murata. Spring lecture on machine learning. Lecture of Tokyo Institute of Technology, 2017. [37] L. R. Rabiner and B. H. Juang. An introduction to hidden markov _model_ s. _IEEE ASSp Magazine_, 1986. [38] James Allen. Natural Language Understanding. Benjamin-Cummings Publishing Co., Inc., 1995. [39] Eliyahu Kiperwasser and Yoav Goldberg. Simple and accu _rate_ dependency parsing using bidirectional LSTM feature representations.Trans _action_ s of the Association for Computational Linguistics, 4:313–327, 2016. [40] Vishal M. Patel, Raghuraman Gopalan, Ruonan Li, and Rama Chellappa. Visual domain adaptation: A survey of recent advances. IEEE Signal Process. Mag., 32(3):53–69, 2015. [41] George Karypis Michael Steinbach and Vipin Kumar. A comparison of document clustering techniques. InKDD Workshop on Text Mining, pages 525 – 526, 2000. [42] Omer I. E. Mohamed Fathi H. Saad and Rafa E. Al-Qutaish. Comparison of hierarchical agglomerative algorithms for clustering medical documents. International Journal of Software Engineering and Applications (IJSEA), 3(3), 2012. [43] Rajeev Rastogi Sudipto Guha and Kyuseok Shim. Cure: An efficient _clustering_ algorithm for large databases. InProceedings of ACMSIGMOD International Conference on Management of Data, pages 73 – 84, 1998. [44] Jack D. Cowan. Neural networks: The early days. InProceedings of Advances in Neural Information Processing Systems 2, 1989. [45] Amir Atiya. Learning Algorithms for Neural Network. PhD thesis, California Institute of Technology, 1994. [46] Al. Cripps. Using artificial neural nets to predict academic performance. In _Proceedings of the 1996 ACM Symposium on Applied Computing_, pages 33–37, 1996. [47] Thomas Mikolov. Statistical Language Models Based on Neural Networks. PhD thesis, Brno University of Technology, 2012. 230 Referensi ``` [48] Kai Chen Greg Corrado Thomas Mikolov, Ilya Sutskever and Jeffrey Dean. Distributed representations of words and phrases and their compositionality. In _Proceedings of CoRR_, 2013. [49] Gred Corrado Thomas Mikolov, Kai Chen and Jeffrey Dean. Efficient estimation of word representations in vector space. InProceedings of _CoRR_, 2013. [50] Kai Yu. Large-scale deep learning at baidu. InProceedings of the 22nd ACM International Conference on Information and Knowl _edge_ Management, pages 2211–2212, 2013. [51] M. A. Aizerman, E. A. Braverman, and L. Rozonoer. Theoretical foundations of the potential function method in pattern recognition learning. In _Automation and Remote Control,_, number 25, pages 821–837, 1964. [52] F. Rosenblatt. The perceptron: A probabilistic model for information storage and organization in the brain. _Psychological Review_, pages 65– 386, 1958. [53] Marvin L. Minsky and Seymour A. Papert. _Perceptrons: Expanded Edition_. MIT Press, Cambridge, MA, USA, 1988. [54] D. E. Rumelhart, G. E. Hinton, and R. J. Williams. Parallel distributed processing: Explo _ratio_ ns in the microstructure of cognition, vol. 1. chapter _Learning_ Internal Representations by Error Propagation, pages 318– ``` 362. MIT Press, Cambridge, MA, USA, 1986. [55] Tao Lei, Regina Barzilay, and Tommi Jaakkola. Rationalizing neural _prediction_ s. InProceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pages 107–117, Austin, Texas, November 2016. Association for Computational Linguistics. [56] David Alvarez-Melis and Tommi Jaakkola. A causal framework for explaining the predictions of black-box sequence-to-sequence models. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pages 412–421, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [57] Dzmitry Bahdanau, KyungHyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. InProceedings of the International Conference on Learning and Representation (ICLR), 2015. [58] Thang Luong, Hieu Pham, and Christopher D. Manning. Effective approaches to attention-based neural machine translation. InProceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pages 1412–1421, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [59] Finale Doshi-Velez and Been Kim. A roadmap for a rigorous science of _interpretability_. In _ArXiv e-prints_. [60] Jeffrey L. Elman. Learning and development in neural networks: The importance of starting small. _Journal of Cognition_, (48):71–99, 1993. [61] Yoshua Bengio, J ́erˆome Louradour, Ronan Collobert, and Jason Weston. _Curriculum learning_. InProceedings of the 26th Annual International ``` Referensi 231 ``` Conference on Machine Learning, ICML ’09, pages 41–48, New York, NY, USA, 2009. ACM. [62] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: A simple way to pr _event_ neural networks from overfitting.J. Mach. Learn. Res., 15(1):1929–1958, January 2014. [63] Dzmitry Bahdanau Kyunghyun Cho, Bart van Merrienboer and Yoshua Bengio. On the properties of neural machine translation: Encoder– _decoder_ approaches. InProceedings of SSST-8, Eighth Workshop on Syntax, Semantics and Structure in Statistical Translation, pages 103– 111, Doha, Qatar, October 2014. Association for Computational Lin- guistics. [64] Christopher D. Manning and Hinrich Schutze.Foundations of Statistical Natural Language Processing. MIT Press, 1999. [65] Prabhakar Raghavan Christopher D. Manning and Hinrich Schutze.An Introduction to Information Retrieval. Cambridge UP, 2009. [66] Andrew Y. Ng Richard Socher, Cliff Chiung-Yu Lin and Christopher D. Manning. Parsing natural scenes and natural language with recursive _neural network_ s. InProceedings of the 28thInternational Conference on _Machine Learning_, 2011. [67] Jean Y. Wu Jason Chuang Richard Socher, Alex Perelygin and Christopher D. Manning. Recursive deep models for semantic compositionality over a sen _time_ nt treebank. InProceedings of the Emperical Methods in Natural Language Processing, 2013. [68] Erhc H. Huang Andrew Y. Ng Richard Socher, Jeffrey Pennington and Christoper D. Manning. Semi- _supervised_ recursive auto _encoder_ s for predicting sen _time_ nt distributions. InProceedings of the Emperical Methods in Natural Language Processing, 2011. [69] Quoc Le and Tomas Mikolov. Distributed representations of sentences and documents. InProceedings of the 31stInternational Conference on _Machine Learning_, 2014. [70] Richard Socher Jeffrey Pennington and Christopher D. Manning. Glove: Global vectors for word representation. InProceedings of the Emperical Methods in Natural Language Processing, pages 1532 – 1543, 2014. [71] Yoshua Bengio, R ́ejean Ducharme, Pascal Vincent, and Christian Janvin. A neural probabilistic language model. J. Mach. Learn. Res., 3:1137–1155, March 2003. [72] Omer Levy, Yoav Goldberg, and Ido Dagan. Improving distributional similarity with lessons learned from word embeddings.Trans _action_ s of the Association for Computational Linguistics, 3:211–225, 2015. [73] Guoqiang Zhong, Li-Na Wang, Xiao Ling, and Junyu Dong. An overview on data representation learning: From traditional feature learning to recent deep learning.The Journal of Finance and Data Science, 2(4):265 - 278, 2016. 232 Referensi ``` [74] Peter D. Turney and Patrick Pantel. From frequency to meaning: Vector _space_ models of semantics. Journal of Artificial Intelligence Research, (37):141–188, 2010. [75] Jan Wira Gotama Putra and Takenobu Tokunaga. Evaluating text coherence based on semantic similarity graph. In Proceedings of TextGraphs-11: the Workshop on Graph-based Methods for Natural Language Processing, pages 76–85, Vancouver, Canada, August 2017. Association for Computational Linguistics. [76] Y. LeCun and Y. Bengio. Convolutional networks for images, speech, and time-series. In M. A. Arbib, editor,The Handbook of Brain Theory and Neural Networks. MIT Press, 1995. [77] Jeffrey L. Elman. Finding structure in time. Cognitive Science, 14(2):179–211, 1990. [78] Sepp Hochreiter and J ̈urgen Schmidhuber. Long short- _term_ memory. _Neural Comput._, 9(8):1735–1780, November 1997. [79] Paul J. Werbos. Backpropagation through time: what does it do and how to do it. In _Proceedings of IEEE_, volume 78, pages 1550–1560, 1990. [80] Caglar Gulcehre Dzmitry Bahdanau Fethi Bougares HolgerSchwenk Kyunghyun Cho, Bart van Merrienboer and Yoshua Bengio. Learning phrase representations using rnn encoder– _decoder_ for statistical machine translation. InProceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 1724–1734, Doha, Qatar, October 2014. Association for Computational Linguistics. [81] Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to sequence _learning_ with neural networks. InProceedings of the 27th International Conference on Neural Information Processing Systems, NIPS’14, pages 3104–3112, Cambridge, MA, USA, 2014. MIT Press. [82] Yan Shao, Christian Hardmeier, J ̈org Tiedemann, and Joakim Nivre. Character-based joint segmentation and pos tagging for chinese using _bidirectional_ rnn-crf. InProceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pages 173–183, Taipei, Taiwan, November 2017. Asian Fede _ratio_ n of Natural Language Processing. [83] To _bias_ Horsmann and Torsten Zesch. Do lstms really work so well for pos tagging? – a replication study. InProceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pages 727–736, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [84] Barbara Plank, Anders Søgaard, and Yoav Goldberg. Multilingual partof-speech _tagging_ with bidirectional long short- _term_ memory models and auxiliary loss. InProceedings of the 54th Annual Meeting of the Association for Computational Linguistics, ACL 2016, August 7-12, 2016, Berlin, Germany, Volume 2: Short Papers, 2016. [85] Ryohei Sasano Hiroya Takamura Yuta Kikuchi, Graham Neubig and Manabu Okumura. Controlling output length in neural encoder- ``` ``` Referensi 233 ``` _decoder_ s. InProceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pages 1328–1338, Austin, Texas, November 2016. Association for Computational Linguistics. [86] Ramesh Nallapati, Bowen Zhou, C ́ıcero Nogueira dos Santos, and aglar G ̈ulehre and Bing Xiang. Abstractive text summarization using sequence-to-sequence rnns and beyond. In _CoNLL_, 2016. [87] Yan-Kai Lin Cun-Chao Tu Yu Zhao Zhi-Yuan Liu Ayana, Shi-Qi Shen and Mao-Song Sun. Recent advances on neural headline gene _ratio_ n. _Journal of Computer Science and Technology_, 32(4):768–784, Jul 2017. [88] Chlo ́e Kiddon, Luke Zettlemoyer, and Yejin Choi. Globally coherent text gene _ratio_ n with neural checklist models. InProceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pages 329–339, Austin, Texas, November 2016. Association for Computational Linguistics. [89] Xiaojun Wan Jiwei Tan and Jianguo Xiao. Abstractive document summarization with a graph-based attentional neural model. InProceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1171–1181, Vancouver, Canada, July 2017. Association for Computational Linguistics. [90] Oriol Vinyals, Alexander Toshev, Samy Bengio, and Dumitru Erhan. Show and tell: A neural image caption generator. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 3156–3164, 2015. [91] Zichao Yang, Diyi Yang, Chris Dyer, Xiaodong He, Alex Smola, and Eduard Hovy. Hierarchical attention networks for document classification. InProceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 1480–1489, San Diego, California, June 2016. Association for Computational Linguistics. [92] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors,Advances in Neural Information Processing Systems 30, pages 5998–6008. Curran Associates, Inc., 2017. [93] Karl Weiss, Taghi M. Khoshgoftaar, and DingDing Wang. A survey of _transfer learning_. _Journal of Big Data_, 3(1):9, May 2016. [94] Sebastian Ruder, Matthew E. Peters, Swabha Swayamdipta, and Thomas Wolf. Transfer learning in natural language processing. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Tutorials, pages 15–18, Minneapolis, Minnesota, June 2019. Association for Computational Lin- guistics. 234 Referensi [95] Ronan Collobert, Jason Weston, L ́eon Bottou, Michael Karlen, Koray Kavukcuoglu, and Pavel Kuksa. Natural language processing (almost) from scratch.J. Mach. Learn. Res., 12:2493–2537, November 2011. [96] Daxiang Dong, Hua Wu, Wei He, Dianhai Yu, and Haifeng Wang. Multi _task_ _learning_ for multiple language translation. InProceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pages 1723–1732. Association for Computational Linguistics, 2015. [97] Pengfei Liu, Xipeng Qiu, and Xuanjing Huang. Adversarial multi- _task_ _learning_ for text classification. InProceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1–10. Association for Computational Linguistics, 2017. [98] Anne Lauscher, Goran Glavaˇs, Simone Paolo Ponzetto, and Kai Eckert. Investigating the role of argumentation in the rhetorical analysis of scientific publications with neural multi- _task_ learning models. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 3326–3338. Association for Computational Linguistics, 2018. [99] Alex Kendall, Yarin Gal, and Roberto Cipolla. Multi- _task_ learning using _uncertainty_ to weigh losses for scene geometry and semantics. In 2018 IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2018, Salt Lake City, UT, USA, June 18-22, 2018, pages 7482–7491, 2018. [100] Arda Antikacioglu and R. Ravi. Post processing recommender systems for diversity. InProceedings of the 23rd ACM SIGKDD International Conference on Knowl _edge_ Discovery and Data Mining, KDD 17, page 707716, New York, NY, USA, 2017. Association for Computing Machin- ery. [101] Daniel Billsus and Michael J. Pazzani. The adaptive web. chapter Adaptive News Access, pages 550–570. Springer-Verlag, Berlin, Heidelberg, 2007. [102] Paul Resnick and Hal R. Varian. Recommender systems. Commun. ACM, 40(3):56–58, March 1997. [103] Daniar Asanov. Algorithms and methods in recommender systems. Berlin Institute of Technology, 2011. [104] Charu C. Aggrawal. Recommender Systems: The Textbook. Springer International Publishing Switzerland, 2016. [105] Eduard Hovy and Chin-Yew Lin. Automated text summarization and the summarist system. InProceedings of a Workshop on Held at Baltimore, Maryland: October 13-15, 1998, TIPSTER ’98, pages 197–214, Stroudsburg, PA, USA, 1998. Association for Computational Linguis- tics. ``` Referensi 235 ``` [106] Liang Zhou and Eduard Hovy. Template- _filter_ ed headline summarization. InIn the Proceedings of the ACL workshop, Text Summarization Branches Out, pages 56–60, 2004. [107] Amin Mantrach Carlos A. Colmenares, Marina Litvak and Fabrizio Silvestri. Heads: Headline gene _ratio_ n as sequence prediction using an abstract feature-rich space. InProceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 133–142, Denver, Colorado, May–June 2015. Association for Computational Linguistics. [108] Daniele Pighin Enrique Alfonseca and Guillermo Garrido. Heady: News headline abstr _action_ through event pattern clustering. InProceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1243–1253, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [109] Pierre-Etienne Genest and Guy Lapalme. Framework for abstractive summarization using text-to-text gene _ratio_ n. In Proceedings of the Workshop on Monolingual Text-To-Text Gene _ratio_ n, pages 64–73, Portland, Oregon, June 2011. Association for Computational Linguistics. [110] Shufeng Xiong and Donghong Ji. Query-focused multi-document summarization using hypergraph-based ranking. Inf. Process. Manage., 52(4):670–681, July 2016. [111] David Zajic, Bonnie J. Dorr, and Richard Schwartz. Bbn/umd at duc2004: Topiary. InProceedings of the North Americal Chapter of the Association for Computational Linguistics Workshop on Document Understanding, pages 112–119, 2004. [112] Simone Teufel and Marc Moens. Argumentative classification of extracted _sentence_ s as a first step towards flexible abstr _acting_. InAdvances in automatic Text Summarization, pages 155–171. MIT Press, 1999. [113] Bonnie J. Dorr, David Zajic, and Richard Schwartz. H _edge_ trimmer: A parse-and-trim approach to headline gene _ratio_ n. In Dragomir Radev and Simone Teufel, editors,Proceedings of the HLT-NAACL 03 Text Summarization Workshop, pages 1–8, 2003. [114] Jurij Leskovec, Natasa Milic-Frayling, and Marko Grobelnik. Extr _acting_ summary sentences based on the document semantic graph. Micro _soft_ Research, 2005. [115] Jan Wira Gotama Putra. Rhetorical sentence classification for automatic title gene _ratio_ n in scientific article. _TELKOMNIKA_, 15(2):656– 664, 2017. [116] Jan Pedersen Julian Kupiec and Francine Chen. A trainable document summarizer. InProceedings of the 18th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR ’95, pages 68–73, New York, NY, USA, 1995. ACM. [117] Hans-Martin Ramsl Daraksha Parveen and Michael Strube. Topical coherence for graph-based extractive summarization. InConference on 236 Referensi Empirical Methods in Natural Language Processing, pages 1949–1954. The Association for Computational Linguistics, 2015. [118] Simone Teufel and Marc Moens. Summarizing scientific articles: Experiments with relevance and rhetorical status. Comput. Linguist., 28(4):409–445, December 2002. [119] DiarmuidO S ́eaghdha and Simone Teufel. Un _supervised learning_ of ́ rhetorical structure with un-topic models. InProceedings of COLING 2014, the 25th International Conference on Computational Linguistics: Technical Papers, pages 2–13, Dublin, Ireland, August 2014. Dublin City University and Association for Computational Linguistics. [120] Vibhu O. Mittal Michele Banko and Michael J. Witbrock. Headline _generation_ based on statistical translation. InProceedings of the 38th Annual Meeting on Association for Computational Linguistics, ACL ’00, pages 318–325, Stroudsburg, PA, USA, 2000. Association for Computational Linguistics. [121] Jianpeng Cheng and Mirella Lapata. Neural summarization by extr _acting_ _sentence_ s and words. _CoRR_, abs/1603.07252, 2016. [122] Christopher D. Manning. Part-of-speech tagging from 97% to 100%: Is it time for some linguistics? InProceedings of the 12th International Conference on Computational Linguistics and Intelligent Text Processing - Volume Part I, CICLing’11, pages 171–189, Berlin, Heidelberg, 2011. Springer-Verlag. [123] Lev Ratinov and Dan Roth. De _sign_ challenges and misconceptions in _named entity recognition_. InProceedings of the Thirteenth Conference on Computational Natural Language Learning, CoNLL ’09, pages 147– 155, Stroudsburg, PA, USA, 2009. Association for Computational Lin- guistics. [124] Jiwei Li and Dan Jurafsky. Neural net models of open-domain discourse coherence. InProceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pages 198–209, Copenhagen, Denmark, September 2017. Association for Computational Linguistics.
## Bagian I Pengetahuan Dasar
## 4 Algoritma Dasar ``` “It is a capital mistake to theorize before one has data.” Arthur Conan Doyle ``` Sebelum masuk ke algoritma _machine learning_ yang cukup modern/ matematis, kami akan memberi contoh algoritma yang lebih mudah yaitu _Naive Bayes_, _K-means_, danK-nearest-neighbor. Algoritma-algoritma ini tergolongnon-parametrik. Bab ini akan memuat contoh sederhana _supervised_ dan _unsupervised_ _learning_. Mudah-mudahan bab ini memberikan kamu gambaran aplikasi _machine learning_ sederhana.
## Bagian IV Aplikasi dan Topik Tambahan
## 8 Hidden Markov Model ``` “Probability is expectation founded upon partial knowl _edge_. A perfect acquaintance with all the circumstances affecting the occurrence of an event would change expectation into certainty, and leave neither room nor demand for a theory of probabilities.” George Boole ``` _Hidden Markov Model_ (HMM) adalah algoritma yang relatif cukup lama [37]. Tetapi algoritma ini penting untuk diketahui karena digunakan sebagai teknik dasar untukautomatic speech recognition (ASR) danpart-of-speech (POS) _tagging_. Bab ini akan membahas ide dasar HMM serta aplikasinya pada POS _tagging_ ( _natural language processing_ ). Aplikasi tersebut dipilih karena penulis lebih familiar dengan POS _tagging_. Selain itu, POS _tagging_ relatif lebih mudah dipahami dibandingkan aplikasi HMM pada ASR.^1 HMM adalah kasus spesialBayesian Inference[12, 38, 5]. Untuk mengertiBayesian Inference, ada baiknya kamu membaca materi _graphical model_ pada bukupattern recognition and machine learning[8]. Bab ini relatif lebih kompleks secara matematis dibanding bab-bab sebelumnya. Oleh karena itu, kami harap kamu membaca dengan sabar.
## Kata Pengantar Buku ini ditujukan sebagai bahan pengantar (atau penunjang) mata kuliah _machine learning_ untuk mahasiswa di Indonesia, khususnya tingkat sarjana (tidak menutup kemungkinan digunakan untuk tingkat pascasarjana). Buku ini hanya merupakan komplemen, bukan sumber informasi utama. Buku ini memuat materi dasar _machine learning_, yang ditulis sedemikian rupa sehingga pembaca mampu mendapatkanintuisi. Materi pada buku ini tidaklah dalam (tapi tidak dangkal); artinya, pembaca masih harus membaca buku-buku lainnya untuk mendapatkan pemahaman lebih dalam. Walaupun tidak sempurna, mudah-mudahan buku ini mampu memberi inspirasi. Anggap saja membaca buku ini seperti sedang membaca “ _light novel_ ”. Penulis ingin buku ini bisa menjadi _pointer_ ; i.e. dengan membaca buku ini, diharapkan kawan-kawan juga mengetahui harus belajar apa secara lebih jauh. Setelah membaca buku ini, pembaca diharapkan mampu membaca literatur _machine learning_ yang dijelaskan secara lebih matematis ataupun mendalam (kami memberi rekomendasi bacaan lanjutan). Di Indonesia, penulis banyak mendengar baik dari teman, junior, senior, dll; suatu pernyataan “kuliah mengajari teori saja, praktiknya kurang, dan tidak relevan dengan industri.” Tentu saja pernyataan ini cukup benar, tetapi karena permikiran semacam ini terkadang kita tidak benar-benar mengerti permasalahan. Ketika mengalami kendala, kita buntu saat mencari solusi karena fondasi yang tidak kokoh. Banyak orang terburu-buru “menggunakan _tools_ ” karena lebih praktikal. Penulis ingin mengajak saudara/i untuk memahami konsep _machine learning_ secara utuh sebelum memanfaatkan. Ada perbedaan yang mendasar antara orang yang hanya mampu menggunakan _tools_ dan mengerti konsep secara utuh. Buku ini menjelaskan algoritma _machine learning_ dari sudut pandang agak matematis. Pembaca disa _rank_ an sudah memahami/mengambil setidaknya mata kuliah statistika, kalkulus, aljabar linear, pengenalan kecerdasan buatan, dan logika fuzzy. Penulis merasa banyak esensi yang hilang ketika materi _machine learning_ hanya dijelaskan secara deskriptif karena itu buku ini ditulis dengan bahasa agak matematis. Walaupun demikian, VIII Kata Pengantar penulis berusaha menggunakan notasi matematis seminimal dan sesederhana mungkin, secukupnya sehingga pembaca mampu mendapatkan intuisi. Saat membaca buku ini, disa _rank_ an membaca secara runtun. Gaya penulisan buku inisantai/semiformalagar lebih mudah dipahami, mudah-mudahan tanpa mengurangi esensi materi. Buku ini ditulis menggunakan template monograph (LATEX) dari Springer yang dimodifikasi. Dengan demikian, mungkin ada kesalahan pemenggalan kata. Tentunya, buku tidak lepas dari kekurangan, misalnya kesalahan tipografi. Kami sa _rank_ an pembaca untuk membaca secara seksama, termasuk menginterpretasikan variabel pada persamaan. Petunjuk Penggunaan Struktur penyajian buku ini dapat dijadikan acuan sebagai struktur kuliahmachine _learning_ yang berdurasi satu semester (bab 1 untuk sesi pertama, dst). Agar dapat memahami materi per bab, bacalah keseluruhan isi bab secara utuh sebelum mempertanyakan isi materi. Penulis sangat menya _rank_ an untuk membahas soal latihan sebagai tambahan materi (bisa juga sebagai PR). Soal latihan ditujukan untuk mengarahkan apa yang harus dibaca/dipahami lebih lanjut. Pembaca dipersilahkan menyebarkan ( _share_ ) buku ini untuk alasanNON KOMERSIAL(pendidikan), tetapidimohon kesadarannya untuk tidak menyalin atau meniru isi buku ini. Bila ingin memuat konten diktat ini pada media yang pembaca kelola, dimohon untuk mengontak pengarang terlebih dahulu. Tidak semua istilah bahasa asing diterjemahkan ke Bahasa Indonesia supaya makna sebenarnya tidak hilang (atau penulis tidak tahu versi Bahasa Indonesia yang baku). Bab lebih awal memuat materi yang relatif lebih “mudah” dipahami dibanding bab berikutnya. Buku ini memberikan contoh dimulai dari contoh sederhana (beserta contoh data). Semakin menuju akhir buku, notasi yang digunakan akan semakin simbolik, beserta contoh yang lebih abstrak. Penulis sangat menya _rank_ an untukmembaca buku ini secara sekuensial. Kutipan Buku ini tergolong _self-published work_ (atau mungkin lebih tepat dikatakan sebagai _draft_ ), tetapi sudah di- _review_ oleh beberapa orang. Kami yakin para _reviewer_ adalah orang yang berkompeten. Silahkan merujuk buku ini sesuai dengan paduan cara merujuk _self-published work_, apabila memang diperbolehkan untuk merujuk _self-published work_ pada pekerjaan pembaca. Notasi Penting Karakter bold kapital merepresentasikan matriks (X,Y,Z). Dimensi matriks ditulis dengan notasiN×MdimanaNmerepresentasikan banyaknya baris danMmerepresentasikan banyaknya kolom. Elemen matriks direpresentasikan olehXi,j,X[i,j], atauxi,juntuk baris ke-ikolom ke-j(penggunaan akan menyesuaikan konteks pembahasan agar tidak ambigu). Karakter di- ``` Kata Pengantar IX ``` _bold_ merepresentasikan vektor (x). Elemen vektor ke-idirepresentasikan oleh xiatau x[i]tergantung konteks. Ketika penulis menyebutkan vektor, yang dimaksud adalah _vektor_ baris( _row vector_, memiliki dimensi 1×N, mengadopsi notasi Goldberg [1]). Perhatikan, literatur _machine learning_ lainnya mungkin tidak menggunakan notasi _row vector_ tetapi _column vector_. Kami harap pembaca mampu beradaptasi. Simbol “·” digunakan untuk melambangkan operator _dot-product_. Kumpulan data (atau himpunan) direpresentasikan dengan karakter kapital (C,Z), dan anggotanya ( _data point_, _data entry_ ) ke-idirepresentasikan dengan karakterci. Perhatikan, elemen vektor dan anggota himpunan bisa memiliki notasi yang sama (himpunan dapat direpresentasikan di komputer sebagai _array_, jadi penggunaan notasi vektor untuk himpunan pada konteks pembicaraan kita tidaklah salah). Penulis akan menggunakan simbolx[i]sebagai elemen vektor apabila ambigu. Fungsi dapat direpresentasikan dengan huruf kapital maupun non-kapitalf(...),E(...),G(...). Ciri fungsi adalah memiliki parameter! Pada suatu koleksi vektor (himpunan vektor)D, vektor ke-idirepresentasikan dengandi, dan elemen ke-jdari vektor ke-idirepresentaiskan dengandi[j],Di,j, atauD[i,j](karena sekumpulan vektor dapat disusun sebagai matriks). Karakter non-kapital tanpa _bold_ dan tanpa indeks, seperti (a,b,c,x,y,z), merepresentasikan _random variable_ (statistik) atau variabel (matematik). Secara umum, saat _random variable_ memiliki nilai tertentu, dinotasikan dengan x=X(nilai tertentu dinotasikan dengan huruf kapital), kecuali disebutkan secara khusus saat pembahasan. Probabilitas direpresentasikan dengan karakter kapital (P), dengan karakter non-kapital merepresentasikanprobability density(p). Penulis yakin pembaca dapat menyesuaikan interpretasi simbol berdasarkan konteks pembahasan. Untuk menginterpretasikan notasi lain, selain yang diberikan pada paduan ini, mohon menyesuaikan dengan ceritera pembahasan. Ucapan Terima Kasih Terima kasih pada Bapak/Ibu/Saudara/i atas kontribusi pada penulisan buku ini: Adhiguna Surya Kuncoro, Arief Yudha Satria, Candy Olivia Mawalim, Chairuni Aulia Nusapati, Genta Indra Winata, Hayyu Luthfi Hanifah, I Gede Mahendra Darmawiguna, dan Tifani Warnita. Terima kasih pada Natasha Christabelle Santosa atas desain cover. Catatan lain Buku ini adalah _ongoing project_. Versi terakhir dan terakurat dapat diakses padahttps://wiragotama.github.io/. Buku ini lebih baik dibaca versi full pdf-nya agar pranala bisa di-klik dan gambar memiliki kualitas terbaik. Tokyo, Jepang Jan Wira Gotama Putra
## 14 Penerapan Pembelajaran Mesin ``` “Leading is not the same as being the leader. Being the leader means you hold the highest rank, either by earning it, good fortune or navigating internal politics. Leading, however, means that others willingly follow you–not because they have to, not because they are paid to, but because they want to.” Simon Sinek ``` Bab ini memuat contoh penggunaan _machine learning_ untuk dua permasalahan praktis yaitu: (1) sistem rekomendasi dan (2) sistem peringkasan dokumen. Dua domain ini dipilih karena tidak asing (familiar) bagi penulis. Seperti yang sudah dideskripsikan pada bab-bab sebelumnya, penerapanmachine _learning_ pada suatu domain membutuhkan pengetahuan/keahlian pada domain tersebut. Bab ini tidak akan membahas domain secara detail, tetapi secara abstrak (bertujuan memberikan gambaran/pengenalan). Untuk mengerti domain yang dibahas secara mendalam, silakan membaca sumber lainnya. Bab ini akan memuat secara sangat singkat, apa guna _machine learning_ dan pada contoh kasus seperti apa teknik _machine learning_ diterapkan pada permasalahan spesifik domain. Tujuan bab ini adalah untuk memberikan gambaran, bahwa mengetahui _machine learning_ saja mungkin tidak cukup. Sekali lagi penulis ingin menekankan, pembaca harus mengerti domain aplikasi. Selain itu, bab ini mengilustrasikan bahwa model _machine learning_ tidak berdiri sendiri. Artinya, model _machine learning_ bisa jadi hanyalah sebuah modul (untuk mengeksekusi fungsi tertentu) pada sebuah perangkat lunak. 216 14 Penerapan Pembelajaran Mesin
### 7.1 Maximal Margin Classifier Ingat kembali kedua bab sebelumnya bahwa model klasifikasi mencari suatu _decision boundary_ untuk memisahkan data pada kelas satu dan kelas lainnya. Apabila kamu memiliki data berdimensi dua, maka _decision boundary_ yang kita dapat berupa garis. Pada data tiga dimensi, _decision boundary_ berupa sebuah bidang ( _plane_ ). Sebagai ilustrasi, lihatlah Gambar 7.1. Secara umum, konsep bidang pemisah disebut sebagai _hyperplane_. Untuk data berdimensi F, bidang pemisah kita memiliki dimensiF−1. Secara matematis, _hyperplane_ didefinisikan pada persamaan 7.1 (dapat ditulis ulang seperti persamaan 7.2), dimanaxmelambangkan suatu fitur,x adalah _input_ dalam bentuk _feature vector_ danFmelambangkan banyaknya fitur. Ingat kembali, ruas kiri pada persamaan adalah bentuk dasar pada model linear. Dengan demikian, kita mengasumsikan bahwa data dapat dipisahkan 92 7 Support Vector Classifier ``` Gambar 7.1: Ilustrasi _hyperplane_. ``` secara linear. x 1 w 1 +x 2 w 2 +···+xFwF+b= 0 (7.1) x·w+b= 0 (7.2) Untuk permasalahan klasifikasi dua kelas, kita dapat memisahkan keputusan berdasarkan letak data pada _hyperplane_, misal di atas atau di bawah _hyperplane_ pada Gambar 7.1. Secara lebih matematis, seperti pada persamaan 7.3 dan 7.4. Konsep ini mirip seperti yang sudah dijelaskan pada bab 5 tentang melakukan _binary classification_ menggunakan fungsi _sign_ dan _thresholding_. ``` ifx·w+b > 0 ,then classA (7.3) ``` ifx·w+b < 0 ,then classB (7.4) Apabila kita memang mampu memisahkan data dua kelas secara sempurna dengan suatu _hyperplane_ ( _linearly separable_ ), pilihan _hyperplane_ yang dapat kita buat tidaklah satu. Artinya, kita dapat menggeser-geser garis pembatas, disamping tetap memisahkan data secara sempurna, seperti diilustrasikan pada Gambar 7.2. _Hyperplane_ terbaik dari beberapa pilihan yang ada adalah yang memiliki _maximal margin_. Artinya, suatu _hyperplane_ yang memiliki jarak terjauh terhadap data pada suatu kelas. Dengan demikian, ada jarak yang besar dari _hyperplane_ dengan data. Ilustrasi diberikan pada Gambar 7.3. Kita harap, suatu _hyperplane_ yang memiliki _margin_ besar dapat melakukan klasifikasi dengan baik pada data yang belum kita lihat, karena kita memberikan _margin_ yang besar untuk suatu data baru masuk ke daerah kelas masing-masing. Bentuk lingkaran yang memiliki _border_ berwarna hitam pada Gambar 7.3 menandakan data terluar pada masing-masing kelas, dikenal ``` 7.1 Maximal Margin Classifier 93 ``` Gambar 7.2: Ilustrasi banyak pilihan _hyperplane_. Garis hitam melambangkan opsi _hyperplane_ untuk memisahkan data secara sempurna. sebagai _support vectors_. Garis putus-putus melambangkan garis yang dibentuk oleh masing-masing _support vectors_ untuk masing-masing kelas ( _margin_ ). Apabila kita definisikan (simbolkan) kelas pertama dengan _output_ bernilai 1 dan kelas kedua bernilai−1 (ingat kembali materi fungsi _sign_ ), makasupport vectorsadalah poinxyang memenuhi kriteria pada persamaan 7.5. Dengan demikian, semua data berlabel 1 dan−1 memenuhi persamaan 7.6, dimanay melambangkan kategori. Hal inilah yang disebut sebagai _maximal margin_ _classifier_. Kita mencari _support vectors_ yang memberikan _hyperplane_ yang memiliki _maximal margin_. Lihatlah ilustrasi pada Gambar 7.4! ``` |x·w+b|= 1 (7.5) ``` yi(x·w+b)≥ 1 (7.6) Misalkan kita ambil satu _support vector_ dari masing-masing kelas. Pada kelas pertama, ia memenuhixc^1 ·w+b= 1. Pada kelas kedua, ia memenuhi xc^2 ·w+b=−1. Apabila kita kurangi kedua persamaan tersebut, kita mendapatkan persamaan 7.7. Persamaan 7.8 memberikan perhitungan _margin_ antara _support vectors_ dan _hyperplane_ yang memberikan nilai maksimal. ``` w·(xc^1 −xc^2 ) = 2 (7.7) ``` ``` w ‖w‖ ·(xc^1 −xc^2 ) = ``` #### 2 ``` ‖w‖ ``` #### (7.8) Sekarang, kita formalisasi _maximal margin classifier_ secara matematis. Objektifnya adalah memaksimalkan _margin_ (persamaan 7.9) dengan menjaga setiap _training data_ diklasifikasikan dengan benar (persamaan 7.10). 94 7 Support Vector Classifier Gambar 7.3: _Maximal Margin Hyperplane_. Bentuk lingkaran yang memiliki _border_ di- _bold_ berwarna hitam menandakan data terluar pada masing-masing kelas, dikenal sebagai _support vectors_. Garis putus-putus melambangkan garis yang dibentuk oleh masing-masing _support vectors_ untuk masing-masing kelas ( _margin_ ). ``` Objective : maximize Margin = ``` #### 2 ``` ‖w‖ ``` #### (7.9) ``` Subject to :yi(xi·w+b)≥ 1 (7.10) ``` Tidak sama dengan _model linear_ yang sudah dijelaskan sebelumnya, kita ingin mengoptimasi sebuah fungsi sembari memenuhi kendala ( _constraint_ ) dari fungsi lain. Ini adalah bentuk _integer linear programming_, dan solusi untuk _maximal margin classifier_ dapat diselesaikan menggunakan _lagrange multiplier_. Untuk detail penyelesaiannya, silahkan membaca sumber lainnya. Seperti yang kamu sadari, _maximal margin classifier_ hanya bergantung pada subset _training data_ yang dipilih sebagai _support vectors_. Dengan demikian, metode ini sangat sensitif terhadap tiap-tiap observasi. Satu observasi baru yang menjadi _support vector_ dapat merubah _decision boundary_. Kita kenal ini sebagai _overfitting_. Ilustrasi permasalahan ini diberikan pada Gambar 7.5. Selain itu, _maximal margin classifier_ mengasumsikan bahwa data bersifatlinearly separable, walaupun kebanyakan data tidak bersifat demikian. ``` 7.1 Maximal Margin Classifier 95 ``` ``` Gambar 7.4:Maximal Margin Classifier. ``` Gambar 7.5:Maximal Margin Classifiersangatlah sensitif terhadap perubahan _training_ _data_. Lingkaran berwarna oranye melambangkan _training data_ baru. Akibat kemuculan data baru ini, _decision boundary_ awal (garis berwarna hitam) berubah secara cukup dramatis (garis berwarna oranye). 96 7 Support Vector Classifier
### 7.3 Support Vector Machine ``` Transformasi ``` Gambar 7.7: Ilustrasi transformasi data. Garis berwarna hijau (dashed) melambangkan _decision boundary_. Berhubung banyak _decision boundary_ tidak dapat di _model_ kan dengan suatu bentuk atau persamaan linear, kita harus me _model_ kan _decision boundary_ sebagai fungsi non-linear. Ekstensi _support vector classifier_ adalahsupport vector machineyang menggunakan teknik _kernel_. Suatu fungsi _kernel_ mentransformasi data ke ruang ( _space_ atau dimensi) lainnya ( _bias_ anya ke dimensi lebih tinggi). Data yang ditransformasi ini (pada dimensi lebih tinggi), kita harapkan dapat dipisahkan dengan fungsi linear. Apabila kita lihat balik pada dimensi asli, _decision boundary_ pada dimensi yang baru me _model_ kan suatudecision boundarynon-linear pada dimensi aslinya. Hal ini diilustrasikan pada Gambar 7.7. Fungsi _kernel_ ini ada banyak, beberapa yang terkenal di- antaranya:^1 1. Polynomial Kernel (persamaan 7.13) ``` k(xi,xj) = (xi·xj+ 1)d (7.13) ``` 2. Radial Basis Function Kernel (persamaan 7.14,σ^2 melambangkan varians) ``` k(x,y) = exp ``` #### ( #### − ``` ‖x−y‖^2 2 σ^2 ``` #### ) #### (7.14) Yang membedakan _support vector machine_ dan _support vector classifier_ adalah mengintegrasikan fungsi _kernel_ pada model. Sebelum membahas bagaimana fungsi _kernel_ diintegrasikan pada SVM, kita sedikit bahas kembali _support vector classifier_. Ingat kembalisupport vector classifier mencari _maximal margin_ (persamaan 7.9) dengan kendala persamaan 7.11 dan 7.12. Suatu _support vector classifier_ yang memenuhi seluruh kendala tersebut dapat direpresentasikan sebagai persamaan 7.15 dimana (^1) https:// _data_ -flair. _training_ /blogs/svm- _kernel_ - _function_ s/ 98 7 Support Vector Classifier x′melambangkan suatu data baru,xiadalah suatu _instance_ pada _training_ _data_ danNadalah banyaknya _training data_. Operasi〈x′,xi〉melambangkan _inner product_. Cara menghitung _inner product_ dari dua vektor diberikan pada persamaan 7.16, dimanaFmelambangkan panjangnya vektor. _Inner product_ dapat diinterpretasikan sebagai perhitungan kemiripan dua vektor. ``` f(x′) =β 0 + ``` #### ∑N ``` i=1 ``` ``` αi〈x′,xi〉 (7.15) ``` ``` 〈a,b〉= ``` #### ∑F ``` j=1 ``` ``` ajbj (7.16) ``` Untuk menghitung parameterβdanαpada persamaan 7.15, kita membu- tuhkan #### (N ``` 2 ``` #### ) kombinasi pasangan _instance_ yang ada pada _training data_. Akan tetapi, pada saat melewatkan suatu _input_ baru pada persamaan tersebut, kita sebenarnya cukup menghitung seberapa kedekatan (kemiripan) antara _input_ dan _support vectors_. Hal ini disebabkanαbernilai 0 untuk _instance_ selain _support vectors_, i.e., diatur hanya bernilai _nonzero_ untuk _support vectors_. Artinya, keputusan klasifikasi bergantung pada pilihan _support vectors_. Dengan demikian, kita dapat menulis kembali persamaan 7.15 sebagai persamaan 7.17, dimanaSmelambangkan _support vectors_. ``` f(x′) =β 0 + ``` #### ∑ ``` xi∈S ``` ``` αi〈x′,xi〉 (7.17) ``` Ketika menggunakan fungsi _kernel_, kita menghitung kemiripan ( _inner product_ ) antara dua vektor pada dimensi transformasi. Kita menggantiinner productmenggunakan suatu fungsi _kernel_, ditulis sebagai persamaan 7.18. Persamaan inilah yang dikenal sebagai _support vector machine_ (SVM). Untuk me _model_ kan _non-linear decision boundary_, kita menggunakan fungsi yang bersifat non-linear sebagai _kernel_. ``` f(x′) =β 0 + ``` #### ∑ ``` xi∈S ``` ``` αik(x′,xi) (7.18) ``` Untuk memahami SVM lebih dalam, kamu bisa membaca buku karangan Bishop [8].
### Soal Latihan 7.1. Metode _Kernel_ Baca dan jelaskanlah konsep metode kernel yang dijelaskan pada buku Bishop [8]! 7.2. Fungsi _Kernel_ Jelaskanlah macam-macam fungsi _kernel_ yang sering digunakan untuksupport vector machine! 7.3. SVM- _rank_ Walau umumnya digunakan untuk permasalahan klasifikasi, SVM juga dapat diaplikasikan pada permasalahan _ranking_ ( _learning to rank_ ), dikenal sebagai SVM- _rank_.^2. Permasalahan ini adalah inti dari _search engine_ Jelaskanlah bagaimana cara kerja SVM- _rank_ ! (^2) https://www.cs.cornell.edu/people/tj/svm_ _light/svm_ _ _rank_.html
### 7.5 Tips Untuk memahami materi yang disampaikan pada bab ini secara lebih dalam, kami menya _rank_ an kamu untuk mempelajari _optimization theory_ danope _ratio_ n research (i.e., integer linear programming). Penulis harus mengakui tidak terlalu familiar dengan teori-teori tersebut. Sejarah dan perkembangansupport vector machinedapat dibaca pada paper- _paper_ yang diberikan di pranalahttp://www.svms.org/ _history_.html. Walaupun penjelasan pada bab ini hanya bersifat “kulit”-nya saja, kami harap pembaca mampu mendapatkan intuisi.
### 7.4 Klasifikasi lebih dari dua kelas Penjelasan pada bab ini berfokus pada _binary classification_. Memang,maximal _margin_ classifierdan ekstensinya difokuskan pada permasalahan _binary classification_. Kita dapat mengekstensinya untuk _multi-class classification_. Ada dua teknik yang umumnya digunakan, yaitu _one versus one_ danone versus allseperti yang sudah dijelaskan pada bab 5. Kita dapat mendekomposisi _classifier_ untuk _multi-label classification_ menjadi beberapa _binary classifiers_, seperti yang sudah dijelaskan pada bab 5. ``` 7.5 Tips 99 ```
### 7.2 Support Vector Classifier _Support Vector Classifier_ adalah ekstensi dari _maximal margin classifier_. Ide utamanya adalah relaksasi kendala pada persamaan 7.10. Sebelumnya,maximal _margin_ classifiermengasumsikan bahwa data bersifatlinearly separabledan dipisahkan secara sempurna. Akan tetapi, kenyataan tidaklah demikian. Ide _support vector classifier_ adalah memperbolehkan beberapa data diklasifikasikan dengan salah. Kita modifikasi _constraint_ persamaan 7.10 menjadi persamaan 7.11 untuk memperbolehkan model salah mengklasifikasikan _data_ dengan parameter kontrol, melambangkan apakah suatu observasi boleh berada pada ruang yang tidak tepat. Kita juga dapat membatasi seberapa banyak kesalahan yang dibuat dengan _constraint_ baru yang diberikan pada persamaan 7.12. ``` Maximize margin,subject to :yi(xi·w+b)≥1(1−i) (7.11) ``` ``` i≥0; ``` #### ∑ ``` i≤C (7.12) ``` Ilustrasi _support vector classifier_ diberikan pada Gambar 7.6. Disini, kita sedikit modifikasi definisi _support vectors_ sebagai observasi yang tepat jauh pada _margin_ atau pada daerah yang tidak sesuai dengan kelasnya [20]. Gambar 7.6: Support Vector Classifier. Lingkaran dengan border di- _bold_ berwarna hitam melambangkan _support vectors_, garis putus-putus melambangkan _margin_. Walaupun memperbolehkan beberapa observasi boleh tidak berada pada ruang yang tepat (berdasarkan _margin_ ), _support vector classifier_ masih memiliki asumsi bahwa _decision boundary_ berbentuk suatu fungsi linear. Ini adalah batasan utama model ini. ``` 7.3 Support Vector Machine 97 ```
### 4.2 K- _mean_ s Pada _supervised learning_ kita mengetahui kelas data untuk setiap _feature vector_, sedangkan untuk _unsupervised learning_ kita tidak tahu. Tujuan _unsupervised_ _learning_ salah satunya adalah melakukan _clustering_. Yaitu mengelompokkan _data_ - _data_ dengan karakter mirip. Untuk melakukan pembelajaran menggunakan _K-means_ [27], kita harus mengikuti langkah-langkah sebagai berikut: 1. Tentukan jumlah kelompok yang kita inginkan. 2. Inisiasi _centroid_ untuk setiap kelompok (pada bab ini, secara acak). Cen- troid adalah data yang merepresentasikan suatu kelompok (ibaratnya ke- tua kelompok). 3. Hitung kedekatan suatu data terhadap _centroid_, kemudian masukkan data tersebut ke kelompok yang _centroid_ -nya memiliki sifat terdekat dengan dirinya. 4. Pilih kembali _centroid_ untuk masing-masing kelompok, yaitu dari anggota kelompok tersebut (semacam memilih ketua yang baru). 5. Ulangi langkah-langkah sebelumnya sampai tidak ada perubahan anggota untuk semua kelompok. ``` id rich intelligent good looking 1 yes yes yes 2 yes no no 3 yes yes no 4 no no no 5 no yes no 6 no no yes ``` ``` Tabel 4.5: Contoh dataset orang kaya ``` Perhatikan Tabel 4.5, kita akan mengelompokkan data pada tabel tersebut menjadi dua _clusters_ (dua kelompok) yaituk 1 ,k 2 menggunakan algoritma ``` 4.2 K- _mean_ s 57 ``` ``` id perbedaan dengan _centroid_ 1 perbedaan dengan _centroid_ 2 as _sign_ ment 2 2 2 k 1 3 1 3 k 1 4 3 1 k 2 5 2 2 k 1 ``` ``` Tabel 4.6:As _sign_ ment _K-means_ langkah 1 ``` ``` id perbedaan dengan _centroid_ 1 perbedaan dengan _centroid_ 2 as _sign_ ment 1 2 3 k 1 3 1 3 k 1 5 3 1 k 2 6 2 2 k 1 ``` ``` Tabel 4.7:As _sign_ mentK-Means langkah 2 ``` _K-means_. Pertama-tama kita inisiasi centroid secara acak,id 1 untukk 1 dan id 6 untukk 2. Kita hitung kedekatan data lainnya terhadap _centroid_. Untuk mempermudah contoh, kita hitung perbedaan data satu dan lainnya dengan menghitung perbedaan nilai atribut (nilai atributnya sama atau tidak). Apabila perbedaan suatu data terhadap kedua centroid bernilai sama, kita masukkan ke kelas dengan nomor urut lebih kecil. Setelah langkah ini, kelompok satu beranggotakan{id 1 ,id 2 ,id 3 ,id 5 }sementara kelompok dua beranggotakan{id 4 ,id 6 }. Kita pilih kembali centroid untuk masing-masing kelompok yang mana berasal dari anggota kelompok itu sendiri. Misal kita pilih secara acak,^1 centroid untuk kelompok pertama adalah id 2 sementara untuk kelompok kedua adalahid 4. Kita hitung kembali _assignment_ anggota kelompok yang ilustrasinya dapat dilihat pada Tabel 4.7. Hasil langkah ke-2 adalah perubahan anggota kelompok,k 1 ={id 1 ,id 2 ,id 3 ,id 5 } dank 2 ={id 4 ,id 6 }. Anggap pada langkah ke-3 kita memilih kembaliid 2 dan id 4 sebagai centroid masing-masing kelompok sehingga tidak ada perubahan keanggotaan. Bila kamu membaca buku literatur lain, kemungkinan besar akan dijelaskan bahwa _clustering_ itu memilikihubungan erat denganGaussian Mixture Model. Secara sederhana,satu _cluster_ (atau satu kelas)sebenarnya seolah-olah dapat dipisahkan dengan kelas lainnya oleh distribusi gaussian. Perhatikan Gambar 4.1! Suatu _cluster_ atau kelas, seolah olah “dibungkus” oleh suatu distribusi gaussian. Distribusi seluruh dataset dapat diaproksimasi dengan _Gaussian Mixture Model_ (GMM). Ingat kembali bahwa data memiliki suatu pola (dalam statistik disebut distribusi), kemudian pada bab 2 telah disebutkan bahwa GMM dipercaya dapat mengaproksimasi fungsi apapun (silahkan perdalam pengetahuan statistik (^1) Cara lain memilih akan dijelaskan pada bab 10. 58 4 Algoritma Dasar ``` Gambar 4.1: Ilustrasi hubungan Clustering, kelas, dan Gaussian ``` kamu untuk hal ini). Dengan demikian, _machine learning_ yang mempunyai salah satu tujuan untuk menemukan pola dataset, memiliki hubungan yang sangat erat dengan distribusi gaussian karena pola tersebut dapat diaproksimasi dengan distribusi gaussian.
### Soal Latihan 4.1. Data numerik (a) Carilah suatu contoh dataset numerik. (b) Pikirkanlah st _rate_ gi untuk mengklasifikasi data numerik pada algoritma _Naive Bayes_ danK-nearest-neighbor! 4.2. K- _mean_ s, KNN, GMM, EM Buktikan bahwa K- _mean_ s, K-nearest-neighbor, _Gaussian Mixture Model_, dan _Expectation Maximization_ Algorithm memiliki hubungan! (apa kesamaan mereka). 4.3. K- _mean_ s (a) Cari tahu cara lain untuk memilih _centroid_ pada algoritma K- _mean_ s (selain cara acak) baik untuk data nominal dan numerik! (b) Cari tahu cara lain untuk menghitung kedekekatan suatu data dengan _centroid_ baik untuk data nominal dan numerik! Hint: _euclidian distance_, _manhattan distance_, _cosine similarity_.
### 4.3 K-nearest-neighbor IdeK-nearest-neighbor(KNN) adalah mengelompokkan data ke kelompok yang memiliki sifat termirip dengannya [28]. Hal ini sangat mirip denganK _mean_ s. Bila K- _mean_ s digunakan untuk _clustering_, KNN digunakan untuk klasifikasi. Algoritma klasifikasi ini disebut juga algoritma malas karena tidak mempelajari cara mengkategorikan data, melainkan hanya mengingat data yang sudah ada.^2 Pada subbab 4.2, kita telah mengelompokkan data orang kaya menjadi dua kelompok. KNN mencariK _feature vector_ dengan sifat termirip, kemudian mengelompokkan _data_ baru ke kelompok _feature vector_ tersebut. Sebagai ilustrasi mudah, kita lakukan klasifikasi algoritma KNN denganK= 3 untuk data baru {rich=no,intelligent=yes,good looking=yes}. Kita tahu pada subbab sebelumnya bahwa kelompok satuk 1 ={id 1 ,id 2 ,id 3 ,id 5 }dank 2 ={id 4 ,id 6 }, pada Tabel 4.8. _feature vector_ termirip dimiliki oleh data denganid 1 ,id 5 ,id 6 seperti diilustrasikan pada Tabel 4.8. Kita dapat menggunakan st _rate_ gi untuk mengurusi permasalahan ini, misalnya memberikan prioritas memasukkan ke kelompok yang rata-rata perbedaannya lebih kecil.^3 Dengan st _rate_ gi tersebut, kita mengklasifikasikan data baru ke kelompok pertama. (^2) https://sebastianraschka.com/faq/docs/lazy-knn.html (^3) Silahkan eksplorasi cara lain juga! ``` 4.3 K-nearest-neighbor 59 ``` ``` id perbedaan 1 1 2 3 3 3 4 2 5 1 6 1 ``` ``` Tabel 4.8: Perbedaan data baru vs data orang kaya ```
### 4.1 Naive Bayes _Naive Bayes_ adalah algoritma _supervised learning_ yang sangat sederhana [26]. Idenya mirip dengan probabilitas bayesian pada bab 2. Secara formal, persamaanNaive Bayesuntuk klasifikasi diberikan pada persamaan 4.1 dimana ciadalah suatu nilai kelas,Cadalah pilihan kelas (himpunan),tadalah fitur (satu fitur, bukan _feature vector_ ) danF adalah banyaknya fitur. Kita memprediksi kelas berdasarkan probabilitas kemunculan nilai fitur pada kelas tersebut. Pertama, kita hitung _likelihood_ suatu _feature vector_ diklasifikasikan ke kelas tertentu berdasarkan bagaiman probabilitas korespondensi fitur-fiturnya terhadap kelas tersebut (persamaan 4.1). Kemudian, kita normalisasi _likelihood_ semua kelas untuk mendapatkan probabilitas _class-assignment_ ( _softmax_ – persamaan 4.2). Akhirnya, kita pilih kelas dengan probabilitas tertinggi (persamaan 4.3). ``` _likelihood_ (ci) =P(ci) ``` #### ∏F ``` f=1 ``` ``` P(tf|ci) (4.1) ``` 54 4 Algoritma Dasar ``` id outlook temperature humidity windy play ( _class_ ) 1 sunny hot high false no 2 sunny hot high true no 3 overcast hot high false yes 4 rainy mild high false yes 5 rainy cool normal false yes 6 rainy cool normal true no 7 overcast cool normal true yes 8 sunny mild high false no 9 sunny cool normal false yes 10 rainy mild normal false yes 11 sunny mild normal true yes 12 overcast mild high true yes 13 overcast hot normal false yes 14 rainy mild high true no ``` ``` Tabel 4.1: Contoh dataset _play tennis_ (UCI machine learning repository) ``` ``` _outlook_ temperature humidity windy play ( _class_ ) yes no yes no yes no yes no yes no sunny 2 3 hot 2 3 high 3 4 false 6 2 9 5 overcast 4 0 mild 4 2 normal 6 1 true 3 3 rainy 3 2 cool 3 1 ``` ``` Tabel 4.2: Frekuensi setiap nilai atribut ``` ``` _outlook_ temperature humidity windy play ( _class_ ) yes no yes no yes no yes no yes no sunny 2/9 3/5 hot 2/9 3/5 high 3/9 4/5 false 6/9 2/5 9/14 5/14 overcast 4/9 0/5 mild 4/9 2/5 normal 6/9 1/5 true 3/9 3/5 rainy 3/9 2/5 cool 3/9 1/5 ``` ``` Tabel 4.3: Probabilitas setiap nilai atribut ``` ``` P _assignment_ (ci) = ``` ``` _likelihood_ (ci) ∑ cjC _likelihood_ (cj) ``` #### (4.2) ``` cˆi= arg max ciC ``` ``` P _assignment_ (ci) (4.3) ``` Agar mendapatkan gambaran praktis, mari kita bangun model Naive Bayes untuk Tabel 4.1. Tabel ini disebut sebagai _dataset_, yaitu memuat _entry_ data (tiap baris disebut sebagai _instance_ ). Kita anggap Tabel 4.1 sebagai _training_ _data_. Untuk menghitung probabilitas, pertama-tama kita hitung terlebih dahulu frekuensi nilai atribut seperti pada Tabel 4.2, setelah itu kita bangun model probabilitasnya seperti pada Tabel 4.3. Untuk menguji kebenaran model yang telah kita bangun, kita menggunakan _testing_ _data_, diberikan pada Tabel 4.4. _testing data_ berisiunseen exampleyaitu contoh yang tidak ada pada _training data_. ``` 4.1 Naive Bayes 55 ``` ``` id outlook temperature humidity windy play ( _class_ ) 1 sunny cool high true no ``` ``` Tabel 4.4: Contoh testing data _play tennis_ [7] ``` ``` _likelihood_ ( _play=yes_ ) =P(yes)P(sunny|yes)P(cool|yes)P(high|yes) P(true|yes) ``` ``` = ``` #### 9 #### 14 #### ∗ #### 2 #### 9 #### ∗ #### 3 #### 9 #### ∗ #### 3 #### 9 #### ∗ #### 3 #### 9 #### = 0. 0053 ``` _likelihood_ ( _play=no_ ) =P(no)P(sunny|no)P(cool|no)P(high|no) P(true|no) ``` ``` = ``` #### 5 #### 14 #### ∗ #### 3 #### 5 #### ∗ #### 1 #### 5 #### ∗ #### 4 #### 5 #### ∗ #### 3 #### 5 #### = 0. 0206 ``` P _assignment_ ( _play=yes_ ) = ``` ``` _likelihood_ ( _play=yes_ ) _likelihood_ ( _play=yes_ ) + likelihood( _play=no_ ) ``` ``` = ``` #### 0. 0053 #### 0 .0053 + 0. 0206 #### = 0. 205 ``` P _assignment_ ( _play=no_ ) = _likelihood_ ( _play=no_ ) _likelihood_ ( _play=yes_ ) + likelihood( _play=no_ ) ``` ``` = ``` #### 0. 0206 #### 0 .0053 + 0. 0206 #### = 0. 795 KarenaP _assignment_ ( _play_ =no)> P _assignment_ ( _play_ =yes) maka diputuskan bahwa kelas untuk _unseen example_ adalah _play=no_. Proses klasifikasi untuk data baru sama seperti proses klasifikasi untuk _testing data_, yaitu kita ingin menebak kelas data. Karena model berhasil menebak kelas pada _training_ _data_ dengan tepat, akurasi model adalah 100% (kebetulan contohnya hanya ada satu). Perhatikan! Kamu mungkin berpikir kita dapat langsung menggunakan _likelihood_ untuk mengklasifikasi, karena probabilitas dengan _likelihood_ terbesar akan dipilih. Hal ini cukup berbahaya apabila _likelihood_ untuk masingmasing kelas memiliki jarak yang cukup dekat. Sebagai contoh, menghitung probabilitas apabila (kasus abstrak) _likelihood_ ={ 0. 70 , 0. 60 }, sehingga probabilitas kelas menjadi={ 0. 54 , 0. 46 }. Karena perbedaan probabilitas kelas relatif tidak terlalu besar (contoh ini adalah penyederhanaan), kita mungkin harus 56 4 Algoritma Dasar berpikir kembali untuk mengklasifikasikan _instance_ ke kelas pertama. Hal ini berkaitan dengan seberapa yakin kamu mengklasifikasikan suatu sampel ke kelas tertentu. Perbedaan _likelihood_ yang besar menandakan keyakinan, sementara perbedaan yang tipis menandakan ketidakyakinan. Perhatikan, jumlah _likelihood_ mungkin lebih dari 1. Sementara, probabilitas atau jumlahnya berada pada range [0,1] (0 ≤P ≤1). Pada contoh sebelumnya, nilai _likelihood_ diubah menjadi bentuk probabilitas dengan menggunakan teknik _softmax_. Fungsi _softmax_ berbentuk seperti pada persamaan 4.2.
### 4.1 Naive Bayes _Naive Bayes_ adalah algoritma _supervised learning_ yang sangat sederhana [26]. Idenya mirip dengan probabilitas bayesian pada bab 2. Secara formal, persamaanNaive Bayesuntuk klasifikasi diberikan pada persamaan 4.1 dimana ciadalah suatu nilai kelas,Cadalah pilihan kelas (himpunan),tadalah fitur (satu fitur, bukan _feature vector_ ) danF adalah banyaknya fitur. Kita memprediksi kelas berdasarkan probabilitas kemunculan nilai fitur pada kelas tersebut. Pertama, kita hitung _likelihood_ suatu _feature vector_ diklasifikasikan ke kelas tertentu berdasarkan bagaiman probabilitas korespondensi fitur-fiturnya terhadap kelas tersebut (persamaan 4.1). Kemudian, kita normalisasi _likelihood_ semua kelas untuk mendapatkan probabilitas _class-assignment_ ( _softmax_ – persamaan 4.2). Akhirnya, kita pilih kelas dengan probabilitas tertinggi (persamaan 4.3). ``` _likelihood_ (ci) =P(ci) ``` #### ∏F ``` f=1 ``` ``` P(tf|ci) (4.1) ``` 54 4 Algoritma Dasar ``` id outlook temperature humidity windy play ( _class_ ) 1 sunny hot high false no 2 sunny hot high true no 3 overcast hot high false yes 4 rainy mild high false yes 5 rainy cool normal false yes 6 rainy cool normal true no 7 overcast cool normal true yes 8 sunny mild high false no 9 sunny cool normal false yes 10 rainy mild normal false yes 11 sunny mild normal true yes 12 overcast mild high true yes 13 overcast hot normal false yes 14 rainy mild high true no ``` ``` Tabel 4.1: Contoh dataset _play tennis_ (UCI machine learning repository) ``` ``` _outlook_ temperature humidity windy play ( _class_ ) yes no yes no yes no yes no yes no sunny 2 3 hot 2 3 high 3 4 false 6 2 9 5 overcast 4 0 mild 4 2 normal 6 1 true 3 3 rainy 3 2 cool 3 1 ``` ``` Tabel 4.2: Frekuensi setiap nilai atribut ``` ``` _outlook_ temperature humidity windy play ( _class_ ) yes no yes no yes no yes no yes no sunny 2/9 3/5 hot 2/9 3/5 high 3/9 4/5 false 6/9 2/5 9/14 5/14 overcast 4/9 0/5 mild 4/9 2/5 normal 6/9 1/5 true 3/9 3/5 rainy 3/9 2/5 cool 3/9 1/5 ``` ``` Tabel 4.3: Probabilitas setiap nilai atribut ``` ``` P _assignment_ (ci) = ``` ``` _likelihood_ (ci) ∑ cjC _likelihood_ (cj) ``` #### (4.2) ``` cˆi= arg max ciC ``` ``` P _assignment_ (ci) (4.3) ``` Agar mendapatkan gambaran praktis, mari kita bangun model Naive Bayes untuk Tabel 4.1. Tabel ini disebut sebagai _dataset_, yaitu memuat _entry_ data (tiap baris disebut sebagai _instance_ ). Kita anggap Tabel 4.1 sebagai _training_ _data_. Untuk menghitung probabilitas, pertama-tama kita hitung terlebih dahulu frekuensi nilai atribut seperti pada Tabel 4.2, setelah itu kita bangun model probabilitasnya seperti pada Tabel 4.3. Untuk menguji kebenaran model yang telah kita bangun, kita menggunakan _testing_ _data_, diberikan pada Tabel 4.4. _testing data_ berisiunseen exampleyaitu contoh yang tidak ada pada _training data_. ``` 4.1 Naive Bayes 55 ``` ``` id outlook temperature humidity windy play ( _class_ ) 1 sunny cool high true no ``` ``` Tabel 4.4: Contoh testing data _play tennis_ [7] ``` ``` _likelihood_ ( _play=yes_ ) =P(yes)P(sunny|yes)P(cool|yes)P(high|yes) P(true|yes) ``` ``` = ``` #### 9 #### 14 #### ∗ #### 2 #### 9 #### ∗ #### 3 #### 9 #### ∗ #### 3 #### 9 #### ∗ #### 3 #### 9 #### = 0. 0053 ``` _likelihood_ ( _play=no_ ) =P(no)P(sunny|no)P(cool|no)P(high|no) P(true|no) ``` ``` = ``` #### 5 #### 14 #### ∗ #### 3 #### 5 #### ∗ #### 1 #### 5 #### ∗ #### 4 #### 5 #### ∗ #### 3 #### 5 #### = 0. 0206 ``` P _assignment_ ( _play=yes_ ) = ``` ``` _likelihood_ ( _play=yes_ ) _likelihood_ ( _play=yes_ ) + likelihood( _play=no_ ) ``` ``` = ``` #### 0. 0053 #### 0 .0053 + 0. 0206 #### = 0. 205 ``` P _assignment_ ( _play=no_ ) = _likelihood_ ( _play=no_ ) _likelihood_ ( _play=yes_ ) + likelihood( _play=no_ ) ``` ``` = ``` #### 0. 0206 #### 0 .0053 + 0. 0206 #### = 0. 795 KarenaP _assignment_ ( _play_ =no)> P _assignment_ ( _play_ =yes) maka diputuskan bahwa kelas untuk _unseen example_ adalah _play=no_. Proses klasifikasi untuk data baru sama seperti proses klasifikasi untuk _testing data_, yaitu kita ingin menebak kelas data. Karena model berhasil menebak kelas pada _training_ _data_ dengan tepat, akurasi model adalah 100% (kebetulan contohnya hanya ada satu). Perhatikan! Kamu mungkin berpikir kita dapat langsung menggunakan _likelihood_ untuk mengklasifikasi, karena probabilitas dengan _likelihood_ terbesar akan dipilih. Hal ini cukup berbahaya apabila _likelihood_ untuk masingmasing kelas memiliki jarak yang cukup dekat. Sebagai contoh, menghitung probabilitas apabila (kasus abstrak) _likelihood_ ={ 0. 70 , 0. 60 }, sehingga probabilitas kelas menjadi={ 0. 54 , 0. 46 }. Karena perbedaan probabilitas kelas relatif tidak terlalu besar (contoh ini adalah penyederhanaan), kita mungkin harus 56 4 Algoritma Dasar berpikir kembali untuk mengklasifikasikan _instance_ ke kelas pertama. Hal ini berkaitan dengan seberapa yakin kamu mengklasifikasikan suatu sampel ke kelas tertentu. Perbedaan _likelihood_ yang besar menandakan keyakinan, sementara perbedaan yang tipis menandakan ketidakyakinan. Perhatikan, jumlah _likelihood_ mungkin lebih dari 1. Sementara, probabilitas atau jumlahnya berada pada range [0,1] (0 ≤P ≤1). Pada contoh sebelumnya, nilai _likelihood_ diubah menjadi bentuk probabilitas dengan menggunakan teknik _softmax_. Fungsi _softmax_ berbentuk seperti pada persamaan 4.2.
### 3.6 Classification, Association, Clustering Padasupervsied learning, kita memprediksi kelas berdasarkan _feature vector_ yang merepresentasikan suatu sampel ( _data_ /observasi). _Feature vector_ bisa diibaratkan sebagai sifat-sifat atau keadaan yang diasosiasikan dengan kelas. Pada _supervised learning_, setiap _feature vector_ berkorespondisi dengan kelas tertentu. Mencari kelas yang berkorespondensi terhadap suatu _input_ disebutklasifikasi( _classification_ ). Contoh klasifikasi adalah mengkategorikan gambar buah (e.g. apel, jeruk, dsb). Sementara itu, apabila kita ingin mencari hubungan antara satu atribut dan atribut lainnya, disebutassociation. Sebagai contoh pada Tabel 3.1, apabila _outlook=sunny_, maka sebagian besar _humidity=high_. Di lain pihak, pada _unsupervised learning_ tidak ada kelas yang berkorespondensi; kita mengelompokkan data dengan sifat-sifat yang mirip, disebut _clustering_. Contoh _clustering_ adalah pengelompokkan barang di supermarket. Perlu kamu catat bahwa _unsupervised learning_ 6 = _clustering_. _Clustering_ adalah salah satu _task_ pada _unsupervised learning_. Pada Tabel 3.1, hanya ada dua kelas, klasifikasi data ini disebut binary _classification_. Apabila kelas klasifikasi lebih dari dua ( _mutually exclusive_ ), disebut _multi-class classification_. Apabila kelas-kelas tersebut tidak bersifat _mutually exclusive_, maka kita melakukan _multi-label classification_. Mohon bedakan antara _multi-label classification_ danmultilevel/ _hierarchical_ _classification_. Pada _multi-level/hierarchical classification_, pertama-tama kita melakukan klasifikasi untuk suatu kelas generik, lalu (^5) https://en.wikipedia.org/wiki/Feature_selection (^6) [http://scikit-learn.org/stable/modules/feature_selection.html](http://scikit-learn.org/stable/modules/feature_selection.html) 46 3 Data Analytics dilanjutkan mengklasifikan data ke kelas yang lebih spesifik. Contohmultilevel _classification_ adalah _kingdom_ (biologi), pertama diklasifikasikan ke _kingdom_ animalia, lalu lebih spesifiknya ke _phylum Vertebrata_, dst.Multi-label _classification_ hanya proses klasifikasi ke dalam banyak “kelas” tanpa tinjauan hirarkis. _Multi-class classification_ yang telah dijelaskan sebelumnya disebut juga sebagai _hard classification_, artinya apabila data diklasifikasikan ke kelas tertentu, maka tidak mungkin data berada di kelas lainnya (ya atau tidak). _Multi-label classification_ bersifat lebih _soft_, karena dapat mengklasifikasikan ke beberapa kelas, misal data X memiliki masuk ke kategori kelas A, B dan C sekaligus (dengan nilai probabilitas masing-masing).
### 3.3 Ruang Konsep Dengan data yang diberikan, kita ingin melakukan generalisasi aturan/ konsep yang sesuai dengan data. Hal ini disebut sebagai _inductive learning_. Cara paling sederhana untuk _inductive learning_ adalah mengenumerasi seluruh kemungkinan kombinasi nilai sebagai _rule_, kemudian mengeleminasi _rule_ yang tidak cocok dengan contoh. Metode ini disebut _list-then-eleminate_. Silahkan baca buku Tom Mitchell [4] untuk penjelasakn lebih rinci. Kemungkinan kombinasi nilai ini disebut sebagai ruang konsep ( _concept space_ ). Sebagai contoh pada Tabel 3.1 himpunan nilai masing-masing atribut yaitu: - outlook={sunny,overcast,rainy} - temperature={hot,mild,cold} - humidity={high, _norm_ al} - windy={true,false} - play={yes,no} sehingga terdapat 3× 3 × 2 × 2 ×2 = 72 kemungkinan kombinasi. Tentunya kita tidak mungkin mengenumerasi seluruh kemungkinan kombinasi nilai karena secara praktikal, atribut yang digunakan banyak. Terlebih lagi, apabila mengenumerasi kombinasi atribut bertipe numerik. Ada algoritma lain yang mendaftar “seluruh kemungkinan kombinasi” bernama _candidate-elemination algorithm_ yang lebih efisien dibandinglistthen-eliminate. Akan tetapi, algoritma ini _computationally expensive_ secara praktikal, dalam artian memiliki kompleksitas yang besar dan tidak bisa menyelesaikan permasalahan nyata. Kamu dapat membaca algoritma ini pada buku Tom Mitchell [4] juga. Selain _inductive learning_, kita juga dapat melakukan _deductive learning_ yaitu melakukan inferensi dari hal general menjadi lebih spesifik. Walau demikian, secara praktis kita sebenarnya melakukan _inductive learning_.
### 3.2 Nilai Atribut dan Transformasi Perhatikan Tabel 3.1 yang merupakan contoh _dataset_ pada _machine learning_. _Dataset_ adalah kumpulan sampel. Seorang anak ingin bermain tenis, tetapi keputusannya untuk bermain tenis ( _play_ ) tergantung pada empat variabel { _outlook_, temperature, humidity, windy}. Keempat variabel ini disebutfitur. Setiap fitur memilikiatributnilai dengantipe datadan _range_ tertentu. Keputusan untuk bermain ( _play_ ) disebut sebagai label atau kelas ( _class_ ). Pada bab 1 kamu telah diperkenalkan _supervised learning_ dan _unsupervised_ _learning_. Pada _supervised learning_, kita ingin mengklasifikasikan apakah seorang anak akan bermain atau tidak, diberikan fitur-fitur yang memuat kondisi observasi. Pada _unsupervised learning_, informasi kolom _play_ tidak diberikan, kita harus mengelompokkan data tersebut sesuai dengan fitur-fiturnya (contoh lebih nyata diberikan pada bab 4). Dari segi data statistik, terdapat beberapa tipe atribut [23]: 1.Nominal. Nilai atribut bertipe nominal tersusun atas simbol-simbol yang berbeda, yaitu suatu himpunan terbatas. Sebagai contoh, fitur _outlook_ pada Tabel 3.1 memiliki tipe datanominalyaitu nilainya tersusun oleh himpunan{sunny, overcast, rainy}. Pada tipe nominal, tidak ada urutan ataupun jarak antar atribut. Tipe ini sering juga disebutkategorialatau enumerasi. Secara umum, tipe _output_ pada _supervised learning_ adalah _data_ nominal. ``` 2.Ordinal. Nilai ordinal memiliki urutan, sebagai contoh 4> 2 >1. Tetapi jarak antar suatu tipe dan nilai lainnya tidak harus selalu sama, seperti 4 − 26 = 2−1. Atribut ordinal kadang disebut sebagainumerikataukon- tinu. ``` ``` 3.Interval. Tipe interval memiliki urutan dan _range_ nilai yang sama. Sebagai contoh 1− 5 , 6 − 10 ,dst. Kita dapat mentransformasikan/ mengkonversi nilai numerik menjadi nominal dengan cara merubahnya menjadi ``` 42 3 Data Analytics ``` id outlook temperature humidity windy play ( _class_ ) 1 sunny hot high false no 2 sunny hot high true no 3 overcast hot high false yes 4 rainy mild high false yes 5 rainy cool normal false yes 6 rainy cool normal true no 7 overcast cool normal true yes 8 sunny mild high false no 9 sunny cool normal false yes 10 rainy mild normal false yes 11 sunny mild normal true yes 12 overcast mild high true yes 13 overcast hot normal false yes 14 rainy mild high true no ``` ``` Tabel 3.1: Contoh dataset _play tennis_ (UCI machine learning repository). ``` ``` interval terlebih dahulu. Lalu, kita dapat memberikan nama (simbol) untuk masing-masing interval. Misalkan nilai numerik dengan _range_ 1 − 100 dibagi menjadi 5 kategori dengan masing-masing interval adalah{ 1 − 20 , 21 − 40 ,..., 81 − 100 }. Setiap interval kita beri nama, misal interval 81 −100 diberi namanilai A, interval 61−80 diberi namanilai B. ``` ``` 4.Ratio. Tipe _ratio_ (rasio) didefinisikan sebagai perbandingan antara suatu nilai dengan nilai lainnya, misalkan massa jenis (fisika). Pada tipe _ratio_ terdapat _absolute zero_ (semacam _ground truth_ ) yang menjadi acuan, dan _absolute zero_ ini memiliki makna tertentu. ``` Secara umum, data pada _machine learning_ adalah nominal atau numerik (ordinal). Variabel yang kita prediksi yaitu _play_ disebutkelas/ _class_ /label. Untuk setiap baris pada Tabel 3.1, baris kumpulan nilai variabel non-kelas disebut _vektor_ fitur/ _feature vector_. Contohnya pada Tabel 3.1,feature vector-nya untuk data denganid= 4 adalahx 4 ={ _outlook=rainy_, temperature=mild, _humidity=high_, windy=false}. _Feature vector_ adalah representasi dari suatu observasi/ _data_. Pada _machine learning_, kita melakukan operasi terhadap _data_ pada representasi _feature vector_ -nya. Kami serahkan pada pembaca untuk mencari contoh dataset dengan tipe numerik sebagai pekerjaan rumah.^2 (^2) https://www.cs.waikato.ac.nz/ml/weka/ _dataset_ s.html ``` 3.4 Linear Separability 43 ```
### 3.7 Mengukur Kinerja Pada bab 1, sudah dijelaskan bahwa kita harus mengukur kinerja model dengan cara yang kuantitatif. Pada saat proses latihan, kita ingin model mengoptimalkan suatu nilai _utility function_, misal meminimalkan nilai _error_ atau _entropy_. Pada saat latihan, model pembelajaran mesin dapat mengoptimalkan _utility function_ yang berbeda-beda (tergantung algoritma). Kita juga dapat mengevaluasi model secara eksternal dengan melewatkan _data_ pada model (umumnya _validation_ dan _testing data_ ), kemudian mengevaluasi prediksi final model tersebut dengan ukuran _performance measure_.Performance measuredapat mengukur kinerja model yang dikonstruksi oleh algoritma yang berbeda (akan lebih jelas sembari kamu membaca buku ini). Sebagai contoh, kamu dapat membandingkan kinerja prediksi model dengan menggunakan metrik seperti akurasi, presisi, _recall_, F1-measure, BLEU [24], ROUGE [25], _intra-cluster similarity_, dsb. Masing-masing _performance measure_ mengukur hal yang berbeda. Perlu kamu ketahui bahwa memilih ukuran kinerja tergantung pada domain permasalahan. Misalkan pada translasi otomatis, peneliti menggunakan ukuran BLEU; pada peringkasan dokumen, menggunakan ROUGE. Sementara itu, pada _information retrival_ /sistem temu balik informasi menggunaan presisi, _recall_, F1-measure, atau _mean_ average precision (MAP). Pada domain klasifikasi gambar, menggunakan akurasi. Masing-masing _performance measure_ dapat memiliki karakteristik nilai optimal yang berbeda. Kamu harus mengerti domain permasalahan untuk mengerti cara mencapai titik optimal. Sebagai pengantar, diktat ini tidak dapat membahas seluruh domain. Dengan demikian, kamu harus membaca lebih lanjut literatur spesifik domain, misal buku pemrosesan bahasa alami atau sistem temu balik informasi, dsb. Sebagai contoh, untuk permasalahan klasifikasi, akurasi sering digunakan. Akurasi didefinisikan pada persamaan 3.1. Buku ini akan membahas _performance measure_ dengan lebih lengkap pada bab 9. ``` akurasi = ``` ``` # _input_ diklasifikasikan dengan benar banyaknya data ``` #### (3.1) ``` 3.8 Evaluasi Model 47 ```
### Soal Latihan 3.1. Konversi atribut Sebutkan dan jelaskan macam-macam cara untuk mengkonversi atribut! Sebagai contoh, numerik-nominal dan nominal-numerik. 3.2. Transformasi data Sebutkan dan jelaskan macam-macam cara transformasi data (e.g. merubah _non-linearly separable_ menjadi _linearly separable_ ) 3.3. Seleksi fitur Bacalah algoritma seleksi fitur pada _library_ sklearn. Jelaskan alasan ( _rationale_ ) dibalik penggunaan tiap algoritma yang ada! 3.4. Inductive Learning Jelaskanlah algoritma _list-then-eliminate_ dan _candidate-elimination_ ! 3.5. Tahapan analisis Agar mampu memahami tahapan analisis data dan pembelajaran mesin secara lebih praktikal, kerjakanlah tutorial berikut! https://scikit-learn.org/stable/tutorial/basic/tutorial.html
### 3.1 Pengenalan Data Analytics Secara umum, subbab ini adalah ringkasan dari buku Jeff Leek [22]. Untuk detailnya, kamu dapat membaca buku tersebut secara langsung. Penulis merekomendasikan buku tersebut karena ringkas dan mudah dipahami bahkan oleh pemula. Kita tahu di dunia ini ada banyak masalah. Masalah adalah ketika tujuan yang diinginkan tidak tercapai ( _current state_ bukanlah _desired state_ ). Agar _current state_ menjadi _desired state_, kita melakukan kegiatan yang disebut penyelesaian masalah ( _problem solving_ ). Tiap bidang (domain) mendefinisikan permasalahan secara berbeda. Oleh karena itu, mengetahui teknikmachine _learning_ tanpa mengetahui domain aplikasi adalah sesuatu yang kurang baik (semacam buta). Kamu memiliki ilmu, tetapi tidak tahu ilmunya mau digunakan untuk apa. Contohnya, bidang keilmuan pemrosesan bahasa alami ( _natural language processing_ ) menggunakan _machine learning_ untuk mengklasifikasikan teks; bidang keilmuan pemrosesan suara menggunakanmachine 40 3 Data Analytics _learning_ untuk mentranskripsikan suara manusia menjadi teks. Tiap bidang merepresentasikan permasalahan ke dalam formulasi yang berbeda. Bisa jadi bentuk komputasi (representasi) pada bidang satu berbeda dengan bidang lainnya. Hal ini perlu kamu ingat karena interpretasi representasi sangat bergantung pada konteks permasalahan (domain). Buku ini adalah pengenalan teknik yang bersifat umum. Seperti yang sudah dijelaskan pada bab-bab sebelumnya. _Machine learning_ adalah _infer_ ensi berdasarkan data. _Raw data_ atau data mentah adalah sekumpulan fakta ( _record_, _event_ ) yang kemungkinan besar tidak memberikan penjelasan apapun. Sama halnya dengan kebanyakan data di dunia nyata,raw _data_ bersifat tidak rapih, misalnya mengandung _missing value_, i.e., ada data yang tidak memiliki label padahal data lainnya memiliki label (ingat kembali materi bab 1). Agar mampu menganalisis _raw data_ menggunakan teknik _machine learning_, pertama-tama kita harus merapikan data sesuai dengan format yang kita inginkan ( _dataset_ ). Kemudian, mencari fitur-fitur yang dapat merepresentasikan data. Kedua kegiatan ini secara umum dikenal dengan istilah _pre-processing_. Setelah _pre-processing_, kita menggunakan teknik-teknik yang ada untuk menemukan pola-pola yang ada di data (membangun model). Pada beberapa bidang, _pre-processing_ adalah tahapan yang memakan waktu paling banyak pada eksperimen _machine learning_, sedangkan proses melatih _model_ mungkin memakan waktu jauh lebih singkat. Dalam komunitas peneliti basis data, dipercaya bahwa data memiliki sangat banyak relasi yang mungkin tidak bisa dihitung. Teknik _machine learning_ hanya mampu mengeksplorasi sebagian relasi yang banyak itu. Lalu, kita analisis informasi yang kita dapatkan menjadi pengetahuan yang digunakan untuk memecahkan permasalahan atau membuat keputusan. Setelah kita menganalisis data dan mendapatkan pengetahuan baru, pengetahuan yang kita temukan dari data pada umumnya dipresentasikan (konferensi, rapat, dsb). Hal umum yang dipaparkan saat presentasi, yaitu: ``` 1. _Performance measure_. Seberapa “bagus” model atau metode yang kamu usulkan, dibandingkan menggunakan model yang sudah ada.Performance measure biasa disajikan dalam bentuk tabel. Perhatikan, mengatakan _model_ /metode kamu “lebih bagus” adalah suatu hal subjektif, untuk itu gunakanlah metode kuantitatif, seperti _p-value_ dalam statistik (hypothesis _testing_ )^1 untuk mengatakan bahwa memang metode kamu lebih baik (berbeda) dari _baseline_. ``` 2. Tren. Bagaimana pola-pola umum yang ada di data, sesuai dengan tujuan analisis (permasalahan). Biasa disajikan dalam bentuk teks, kurva, atau grafik. ``` 3. _Outlier_. Sajikan data- _data_ yang “jarang” atau tidak sesuai dengan tren yang ada. Apa beda sifat data _outlier_ ini dibanding data pada tren? Kamu ``` (^1) https://onlinecourses.science.psu.edu/statprogram/ _node_ /138 ``` 3.2 Nilai Atribut dan Transformasi 41 ``` ``` harus menganalisis hal ini untuk meningkatkan _performance measure_ pada penelitian atau analisis men _data_ ng. Apakah _outlier_ ini penting untuk diurus atau bisa dipandang sebelah mata tanpa membahayakan keputusan/sistem? Tidak jarang kamu mendapat inspirasi untuk meningkatkan kinerja sistem setelah menganalisis _outlier_. ``` Langkah kerja yang dijelaskan ini adalah pekerjaan rutin _data scientist_. Penulis ingin menekankan sekali lagi, bahwa memahami _machine learning_ saja tidak cukup,kamu harus memahami domain permasalahanagar mampu melakukan analisis dengan tepat. Terdapat banyak hal yang hanya mampu kamu pahami dari menganalisis data, apabila kamu mengerti domain aplikasi.
### 3.4 Linear Separability ``` id humidity windy swim ( _class_ ) 1 high high yes 2 normal normal no ``` ``` Tabel 3.2: Contoh dataset _linearly separable_. ``` Perhatikan Tabel 3.2. Data pada tabel tersebut kita sebut _linearly separable_. Sederhananya, untuk suatu nilai tertentu, fitur hanya berkorespondensi dengan kelas tertentu. Ambil contoh pada Tabel 3.2, saat _humidity=high_ maka 44 3 Data Analytics swim=yes. Secara geometris, bila kita proyeksikan _feature vector_ ke suatu ruang dimensi, memisahkan kelas satu dan kelas lainnya dapat diperoleh dengan cara menciptakan garis linier ( _linear line_ )–secara lebih umum, menggunakan _hyperplane_.^3 Ilustrasi dapat dilihat pada Gambar 3.1. Sementara pada Tabel 3.1, bila kita hanya melihat fitur _humidity_ saja, ketika _humidity=high_ bisa jadi _play=yes_ atau _play=no_. Kasus ini disebut _non-linearly separable_. Hidup kita tentu akan mudah apabila seluruh data bersifat _linearly separable_, sayangnya kebanyakan data yang ada bersifat _non-linearly separable_. ``` Gambar 3.1:LinearlyvsNon-Linearly Separable. ``` Untuk memudahkan proses pada data _non-linearly separable_, kita pertamatama mentransformasikan data menjadi _linearly-separable_. Kita dapat menggunakan teknik transformasi data menggunakan _kernel function_ sepertiradial basis function.^4 Pada umumnya, _kernel function_ mentransformasi data menjadi lebih tinggi (semacam menambah fitur). Misal dari data yang memiliki dua fitur, ditransformasi menjadi memiliki tiga fitur. Akan tetapi, hal ini tidak praktikal untuk banyak kasus (dijelaskan pada bab 11). Cara lainnya adalah memisahkan data menggunakan model non-linear, contoh:artificial _neural network_. Hal ini penting dipahami karena data yang bersifatlinearly separablemudah dipisahkan satu sama lain sehingga mudah untuk melakukan _classification_ atau _clustering_.
### 3.8 Evaluasi Model Ada beberapa hal yang perlu kamu catat tentang proses evaluasi suatu model pembelajaran mesin: ``` 1. _Data splitting_. Seperti yang sudah dijelaskan pada subbab 1.5, pada umumnya kita memiliki _training_, _validation/validation_, dan _testing data_. Mesin dilatih menggunakan _training data_, saat proses _training_,performance measurediukur berdasarkan kemampuan mengenali/ mengeneralisasi _validation_ _data_. Perlu diketahui, _performance measure_ diukur menggunakan _validation_ _data_ untuk menghindari _overfitting_ dan _underfitting_. Setelah selesai dilatih, maka model hasil pembelajaran dievaluasi dengan _testing data_. _Training_, _validation_, dan _testing_ data tersusun oleh data yang independen satu sama lain (tidak beririsan) untuk memastikan model yang dihasilkan memiliki generalisasi cukup baik. 2. _Overfitting dan Underfitting_. _Overfitting_ adalah keadaan ketika model memiliki kinerja baik hanya untuk _training data/seen examples_ tetapi tidak memiliki kinerja baik untuk _unseen examples_.Underfttingadalah keadaan ketika model memiliki kinerja buruk baik untuk _training data_ dan _unseen examples_. Hal ini akan dibahas lebih detil pada subbab 5.8. 3. _Cross validation_. _Cross validation_ adalah teknik untuk menganalisis apakah suatu model memiliki generalisasi yang baik (mampu memiliki kinerja yang baik pada _unseen examples_ ). Seperti yang kamu ketahui, kita dapat membagi data menjadi _training_, _validation_, dan _testing data_. Saat proses _training_, kita latih model dengan _training data_ serta dievaluasi menggunakan _validation data_. Teknik _cross validation_ bekerja dengan prinsip yang sama, yaitu membagi sampel asli menjadi beberapa subsampel dengan partisi sebanyakK(K- _fold_ ). Ilustrasi diberikan oleh Gambar 3.2. Persegi panjang melambangkan suatu sampel. Saat proses _training_, kita bagi data menjadi _training data_ dan _test data_ (i.e., _validation_ _data_ ). Hal ini diulang sebanyakKkali. Kita evaluasi kemampuan generalisasi _model_ dengan merata-ratakan kinerja pada tiap iterasi. Setelah itu, _model_ dengan kinerja terbaik (pada iterasi teretentu) digunakan lebih lanjut untuk proses _testing_ atau dipakai secara praktis. Perlu diperhatikan, setiap subsampel sebaiknya memiliki distribusi yang sama dengan sampel aslinya (keseluruhan sampel); i.e., pada contoh, proporsi warna biru dan merah adalah sama tiap partisi tiap iterasi. Konsep tersebut lebih dikenal dengan _stratified sampling_.^7 ``` (^7) https://en.wikipedia.org/wiki/Stratified_ _sampling_ 48 3 Data Analytics Gambar 3.2: Ilustrasi 3- _fold_ cross validation. Warna merah dan biru melambangkan sampel ( _instance_ ) yang tergolong ke dua kelas berbeda.
### 3.10 Tahapan Analisis Bagian ini adalah ringkasan bab ini. Untuk menganalisis data, terdapat langkah yang perlu kamu perhatikan 1. Memutuskan tujuan analisis data ( _defining goal_ ) 2. Mendapatkan data 3. Merapihkan data 4. Merepresentasikan data sebagai _feature vector_ 5. Melakukan transformasi dan/atau _feature selection_ (mengurasi dimensi feature vector) 6. Melatih model ( _training_ ) dan menganlisis kinerjanya pada _validation_ (de- velopment) _data_. 7. Melakukan _testing_ dan analisis model baik secara kuantitatif dan kuali- tatif 8. Menyajikan data (presentasi) Saat ini, mungkin kamu merasa bab ini kurang berguna. Hal ini disebabkan karena konsep yang dipaparkan oleh bab ini bersifat _high-level_. Kamu mungkin harus membaca bab ini kembali setelah selesai membaca seluruh buku agar mendapatkan pemahaman lebih mendalam.
### 3.5 Seleksi Fitur Pada subbab sebelumnya, telah dijelaskan bahwa kita dapat mentransformasi _data_ _non-linearly separable_ menjadi _linearly separable_ dengan cara menam- (^3) https://en.wikipedia.org/wiki/ _Hyperplane_ (^4) Silakan baca teknik transformasi lebih lanjut pada literatur lain. ``` 3.6 Classification, Association, Clustering 45 ``` bah dimensi data. Pada bab ini, penulis akan menjelaskan justru kebalikannya! Pada permasalahan praktis, kita seringkali menggunakan banyak fitur ( _computationally expensive_ ). Kita ingin menyederhanakan fitur-fitur yang digunakan, misalkan dengan memilih subset fitur awal, atas dasar beberapa alasan [22, 4]:^5 1. Menyederhanakan data atau model agar lebih mudah dianalisis. 2. Mengurangi waktu _training_ (mengurangi kompleksitas model dan infer- ensi). 3. Menghindari _curse of dimensionality_. Hal ini dijelaskan lebih lanjut pada bab 12. 4. Menghapus fitur yang tidak informatif. 5. Meningkatkan generalisasi dengan mengurangi _overfitting_. Salah satu contoh cara seleksi fitur adalah menghapus atribut yang memiliki _variance_ bernilai 0. Berdasarkan _information theory_ atau _entropy_, fitur ini tidak memiliki nilai informasi yang tinggi. Dengan kata lain, atribut yang tidak dapat membedakan satu kelas dan lain bersifat tidak informatif. Kamu dapat membaca beberapa contoh algoritma seleksi fitur pada library sklearn.^6
### 3.9 Kategori Jenis Algoritma Algoritma pembelajaran mesin dapat dibagi menjadi beberapa kategori. Dari sudut pandang apakah algoritma memiliki parameter yang harus dioptimasi, dapat dibagi menjadi:^8 1. Parametrik. Pada kelompok ini, kita mereduksi permasalahan sebagai optimisasi parameter. Kita mengasumsikan permasalahan dapat dilam- bangkan oleh fungsi dengan bentuk tertentu (e.g., linier, polinomial, dsb). Contoh kelompok ini adalah model linier. 2. Non parametrik. Pada kelompok ini, kita tidak mengasumsikan per- masalahan dapat dilambangkan oleh fungsi dengan bentuk tertentu. Con- toh kelompok ini adalah _Naive Bayes_, _decision tree_ (ID3) danK-Nearest Neighbors. Dari sudut pandang lainnya, jenis algoritma dapat dibagi menjadi: 1. Model linear, contoh regresi linear, regresi logistik, _support vector_ ma- chine. 2. Model probabilistik, contoh _Naive Bayes_, _hidden markov model_. 3. Model non-linear, yaitu ( _typically_ ) _artificial neural network_. Selain kedua skema pengkategorian ini, terdapat skema pengkategorian lain (silahkan eksplorasi sendiri). (^8) Artificial Neural Networkdapat dikategorikan ke dalam keduanya. ``` 3.10 Tahapan Analisis 49 ```
### 5.4 Multi- _class_ Classification Subbab ini akan membahas tentang _multi-class classification_, dimana terdapat lebih dari dua kemungkinan kelas. Terdapat himpunan kelasCberanggotakan {c 1 ,c 2 ,...,cK}. Untuk suatu data dengan representasi _feature vector_ -nya, kita ingin mencari tahu kelas yang berkorespondesi untuk data tersebut. Contoh ``` 5.4 Multi- _class_ Classification 67 ``` permasalahan ini adalah mengklasifikasi gambar untuk tiga kelas: _apel_,jeruk, atau _mangga_. Cara sederhana adalah memiliki tiga buah vektor parameter dan _bias_ berbeda,w _apel_,wjeruk,w _mangga_, dan _bias_ b{ _apel_,jeruk, _mangga_ }. Untuk menentukan suatu data masuk ke kelas mana, kita dapat memprediksi skor tertinggi yang diberikan oleh operasi _feature vector_ terhadap masing-masing _vektor_ parameter. Konsep matematisnya diberikan pada persamaan 5.12, dimana ˆcadalah kelas terpilih (keputusan), yaitu kelas yang memiliki nilai tertinggi.Cmelambangkan himpunan kelas. ``` c _apel_ =x·w _apel_ +b _apel_ cjeruk=x·wjeruk+bjeruk c _mangga_ =x·w _mangga_ +b _mangga_ ˆc= arg max ci∈C ``` ``` (ci) ``` #### (5.12) Tiga set parameter wci dapat disusun sedemikian rupa sebagai matriks W∈Rd×^3 , dimanadadalah dimensi _feature vector_ (x∈R^1 ×d). Demikian pula kita dapat susun bias menjadi vektorb∈R^1 ×^3 berdimensi tiga. Dengan demikian, persamaan 5.12 dapat ditulis kembali sebagai persamaan 5.13, dimanacadalah _vektor_ yang memuat nilai fungsi terhadap seluruh kelas. Kita memprediksi kelas berdasarkan indeks elemencyang memiliki nilai terbesar (persamaan 5.14). Analogika, seperti memilih kelas dengan nilai _likelihood_ tertinggi. ``` c=f(x) =x·W+b (5.13) ``` ``` ˆc= arg max ci∈c ``` ``` (ci) (5.14) ``` Seperti yang diceritakan pada subbab berikutnya, kita mungkin juga tertarik dengan probabilitas masing-masing kelas, bukan hanya _likelihood_ -nya. Kita dapat menggunakan fungsi _softmax_ ^3 untuk hal ini. Fungsi _softmax_ mentransformasicagar jumlah semua nilainya berada pada range [0,1]. Dengan itu,cdapat diinterpretasikan sebagai distribusi probabilitas. Konsep ini dituangkan pada persamaan 5.15, dimanaciadalah elemen vektor ke-i, melambangkan probabilitas masuk ke kelas ke-i. ``` ci= e(x·W+b)[i] ∑ je ``` ``` (x·W+b)[j] (5.15) ``` Karena _output_ fungsi berupa distribusi probabilitas, kita juga dapat menghitung _loss_ menggunakancross _entropy_. Seperti yang sudah dijelaskan sebelumnya pada _binary classification_, kita ingin hasil perhitungan _cross entropy_ seke- (^3) https://en.wikipedia.org/wiki/Softmax_ _function_ 68 5 Model Linear cil mungkin karena meminimalkan nilai _cross entropy_ meningkatkan _confidence_ saat proses klasifikasi. Hal ini dapat dianalogikan dengan jargon “winner takes it all”. Sebagai ilustrasi, lihatlah Gambar 5.5. Kita ingin agar bentuk distribusi probabilitas _output_ kelas (c) condong ke salah satu sisi saja. ``` Gambar 5.5:Classification Entropy. ``` ``` Gambar 5.6:One versus one. ``` ``` 5.4 Multi- _class_ Classification 69 ``` ``` Gambar 5.7:One versus all. ``` Selain mengekstensi suatu model untuk melakukan _multi-class classification_ secara langsung, kita juga dapat menggabungkan beberapa model _binary_ _classifier_ untuk melakukan _multi-class classification_. Teknik ini memiliki dua varian yaitu _one versus one_ dan _one versus all_. Pada teknik _one versus one_, kita membuat sejumlah kombinasi pasangan kelas #### (N ``` 2 ``` #### ) , untukN= banyaknya kelas. Kemudian, kita biarkan masingmasing _model_ mengklasifikasikan _input_ ke dalam satu dari dua kelas. Akhirnya, kita memilih kelas klasifikasi berdasarkan kelas yang paling sering muncul dari semua model. Hal ini diilustrasikan pada Gambar 5.6 (untuk lima kelas), dimanafi,jmelambangkan _binary_ _classifier_ untuk kelasidan kelasj. Pada teknik _one versus all_, kita membuat sejumlah model juga, tetapi kombinasinya tidak sebanyak _one versus one_. Model pertama mengklasifikasikan _inputs_ ebagai kelas pertama atau bukan kelas pertama. Setelah itu, dilanjutkan ke model kedua mengklasifikasikan _inputs_ ebagai kelas kedua atau bukan kelas kedua, dan seterusnya. Hal ini diilustrasikan pada Gambar 5.7 (untuk lima kelas). 70 5 Model Linear
### 5.5 Multi-label Classification Seperti halnya _multi-class classification_, kita dapat mendekomposisimultilabel _classification_ menjadi beberapa _binary classifier_ (analogi persamaan 5.12). Yang membedakan _multi-class_ dan _multi-label_ adalah outputc. Padamulti _class_ _classification_,ci∈cmelambangkan skor suatu _input_ masuk ke kelas ci. Keputusan akhir _class assignment._ idapatkan dari elemencdengan nilai terbesar. Untuk _multi-label classification_ nilaici∈cmelambangkan apakah suatu kelas masuk ke kelasciatau tidak. Bedanya, kita boleh meng- _assign_ lebih dari satu kelas (atau tidak sama sekali). Misalci≥ 0 .5, artinya kita anggap model tersebut layak masuk ke kelasci, tanpa harus membandingannya dengan nilaicj(i 6 =j) lain. Inilah yang dimaksud dengan prinsipmutual exclusivity. Perhatikan Tabel 5.1 sebagai ilustrasi, dimana “1” melambangkan _class assignment._ ``` InstanceAgama Politik Hiburan Berita-1 1 0 0 Berita-2 0 1 0 Berita-3 0 0 1 ``` ``` (a) Multi- _class_ classification. ``` ``` InstanceAgama Politik Hiburan Berita-1 1 1 0 Berita-2 0 1 1 Berita-3 1 0 1 ``` ``` (b) Multi-label classification. ``` Tabel 5.1: Ilustrasi _multi-label_ dan _multi-class classification_. Nilai “1” melambangkan TRUE dan “0” melambangkan FALSE ( _class assignment._. Sekali lagi, nilaici∈cbernilai [0,1] tetapi keputusan klasifikasi apakah suatu kelas masuk ke dalamcitidak bergantung pada nilaicj(i 6 =j) lainnya. Berdasarkan prinsip _mutual exclusivity_, output cpada classifier 5.7 tidak ditransformasi menggunakan _softmax_. Pada umumnya, _multi-label classifier_ melewatkan _output_ cke dalam fungsi sigmoid. Dengan demikian, persamaan 5.15 diganti menjadi persamaan 5.16 pada _multi-label classifier_. ci= sigmoid(ci) (5.16) Berhubung cara menginterpretasikan _output_ berbeda dengan _multi-class_ _classification_, cara evaluasi kinerja juga berbeda. Ada dua pendekatan evaluasi pada _multi-label classification_. Pertama, kita evaluasi kinerja _binary classification_ untuk setiap kelas. Pada pendekatan ini, seolah-olah kita memiliki banyak _binary classifier_ untuk melakukan klasifikasi. Kedua, kita dapat mengevaluasi kinerja _multi-label classification_ itu sendiri. Perhatikan Gambar 5.8! Pendekatan pertama ibarat membandingkan kolom _desired output_ untuk masing-masing kelas dengan _prediction_ yang berkorespondensi. Pada pendekatan kedua, kita membandingkan baris untuk tiap-tiap prediksi (seperti biasa). Saat kita membandingkan tiap-tiap baris prediksi, kita bisa jadi menda- ``` 5.6 Pembelajaran sebagai Permasalahan Optimisasi 71 ``` ``` Instance Agama Politik Hiburan Berita- 1 1 1 0 Berita- 2 0 1 1 Berita- 3 1 0 1 ``` ``` Instance Agama Politik Hiburan Berita- 1 1 1 0 Berita- 2 0 1 1 Berita- 3 1 0 1 ``` ``` Original Instance Agama Politik Hiburan Berita- 1 1 1 1 Berita- 2 0 1 1 Berita- 3 0 0 1 ``` ``` Prediction ``` ``` Instance Agama Politik Hiburan 1 1 0 0 0 1 0 1 0 ``` ``` Exact match Partially correct Complete incorrect ``` ``` Evaluate binary _classification_ sepa _rate_ ly ``` ``` Evaluate multi-label _classification_ at once Original Prediction ``` ``` Gambar 5.8: Cara mengevaluasi _multi-label classifier_. ``` patkan prediksi tipe _exact match_ (seluruh prediksi sama dengan _desired output_ ),partially correct(sebagian prediksi sama dengan _desired output_ ) atau _complete incorrect_ (tidak ada prediksi yang sama dengan _desired output_ ). Dengan ini, evaluasi _multi-label classification_ relatif lebih kompleks dibanding _multi-class classification_ biasa. Untuk mendapatkan _multi-label classification_ accuracy, kita dapat menghitung berapa seberapa banyak _exact match_ dibandingkan banyaknya _instance_ (walaupun hal ini terlalu ketat). Selain itu, kita dapat menghitung _loss_ menggunakan _cross entropy_ untuk mengevaluasi kinerja saat melatih _multi-label classifier_, layaknya _multi-class classifier_. Kamu dapat membaca [29] lebih lanjut untuk teknik evaluasi _multi-label_ classifica- tion.
### 5.7 Batasan Model Linear Model linear, walaupun mudah dimengerti, memiliki beberapa batasan. Ada dua batasan paling kentara [20]: (1) _additive assumption_ dan (2)linear as- sumption. _Additive assumption_ berarti model linear menganggap hubungan antara _input_ dan _output_ adalah linear. Artinya, perubahan nilai pada suatu fiturxi pada inputxakan merubah nilai _output_ secara independen terhadap fitur lainnya. Hal ini terkadang berakibat fatal karena fitur satu dan fitur lainnya dapat berinteraksi satu sama lain. Solusi sederhana untuk permasalahan ini adalah dengan me _model_ kan interaksi antar-fitur, seperti diilustrasikan pada persamaan 5.24 untuk _input_ yang tersusun atas dua fitur. ``` f(x) =x 1 w 1 +x 1 w 2 +x 1 x 2 w 3 +b (5.24) ``` Dengan persamaan 5.24, apabilax 1 berubah, maka kontribusix 2 terhadap _output_ juga akan berubah (dan sebaliknya). Akan tetapi, seringkali interaksi 76 5 Model Linear antar-fitur tidaklah sesederhana ini. Misal, semua fitur berinteraksi satu sama lain secara non-linear. _Linear assumption_ berarti perubahan pada suatu fiturximengakibatkan perubahan yang konstan terhadap _output_, walaupun seberapa besar/kecil nilai xitersebut. Seringkali, perubahan pada _output_ sesungguhnya bergantung juga pada nilaixi itu sendiri, bukan hanya pada∆xi. Solusi sederhana untuk permasalahan ini adalah me _model_ kan fungsi linear sebagai fungsi polinomial dengan orde (M) tertentu, diilustrasikan pada persamaan 5.25. Akan tetapi, pe _model_ an inipun tidaklah sempurna karena rawan _overfitting_. ``` f(x) =x 1 w 1 + +x^22 w 2 +···+xMMwM+b (5.25) ``` Asumsi yang sebelumnya dijelaskan pada pe _model_ an polinomial, dapat diekstensi menjadi _generalized additive model_ (GAM) untuk mengatasi masalah _linear assumption_, seperti diilustrasikan pada persamaan 5.26 [20]. Artinya, kita melewatkan setiap fiturxipada suatu fungsigi, sehingga deltaxitidak mengakibatkan perubahan yang konstan terhadap _output_. Ekstensi ini dapat me _model_ kan hubungan non-linear antara fitur dan _output_. ``` f(x) =g 1 (x 1 ) + +g 2 (x 2 ) +···+gN(xN) +b (5.26) ``` Tetapi, GAM masih saja memiliki batasan _additive assumption_. Dengan demikian, interaksi antar-variabel tidak dapat di _model_ kan dengan baik.
### 5.10 Transformasi Data Seperti yang sudah dijelaskan sebelumnya, alangkah baik apabila semua data memiliki hubungan secara linear atau bersifat _linearly separable_. Kenyataan- (^10) https://en.wikipedia.org/wiki/Norm_(mathematics) (^11) https://stats.stackexchange.com/questions/136895/ why-is-the-l1- _norm_ -in-lasso-not- _differentiable_ 80 5 Model Linear nya, kebanyakan data bersifat _non-linearly separable_. Kita dapat mentransformasi _data_ yang bersifat _non-linearly separable_ menjadi _linearly-separable_ sebelum menggunakan model linear untuk mengklasifikasikan data. Sebagai contoh, perhatikan Gambar 5.15. Pada gambar bagian kiri, terdapat empat titik yang _non-linearly separable_. Titik-titik itu ditransformasi sehingga menjadi gambar bagian kanan. Fungsi transformasi yang digunakan diberikan pada persamaan 5.30. ``` Gambar 5.15: Contoh transformasi [7]. ``` ``` φ(x,y) = ``` #### {√ ``` x^2 +y^2 ≥ 2 →(4−x+‖x−y‖, 4 −x+‖x−y‖) √ x^2 +y^2 ≤ 2 →(x,y) ``` #### (5.30) Secara umum, fungsi transformasi tidaklah sesederhana contoh yang sudah diberikan. Fungsi transformasi pada umumnya menambah dimensi data (misal dari dua dimensi menjadi tiga dimensi). Beberapa fungsi transformasi (dikenal juga dengan istilah _kernel_ ) yang terkenal diantaranya:^12 1. Fisher Kernel 2. Graph Kernel 3. Kernel Smoother 4. Polynomial Kernel 5. Radial Basis Function Kernel 6. String Kernel Untuk penjelasan masing-masing _kernel_, silahkan membaca literatur lain lebih lanjut. Model linear yang memanfaatkan fungsi-fungsi _kernel_ ini adalahsupport vector machine(SVM) [31, 32]. Perhatikan, algorithma SVM sebenarnya sangatlah penting. Akan tetapi, perlu kami informasikan bahwa buku ini tidak memuat materi SVM secara detil. Dengan demikian, kami harap pembaca dapat mencari referensi lain tentang SVM. Metode transformasi pun tidaklah (^12) https://en.wikipedia.org/wiki/ _Kernel_ _method ``` 5.11 Bacaan Lanjutan 81 ``` sempurna, seperti yang akan dijelaskan pada bab 11, karena memang data secara alamiah memiliki sifat yang non-linear. Dengan demikian, lebih baik apabila kita langsung saja me _model_ kan permasalahan dengan fungsi non-linear.
### Soal Latihan 5.1. Hill Climbing Baca dan jelaskanlah konsep Hill Climbing! 5.2. Variasi Optimisasi Baca dan jelaskanlah variasi konsep optimisasi lain, selainstochastic gradient descent! 5.3. Convex Optimization Bacalah literatur yang memuat materi tentang _convex optimization_ ! Jelaskan pada teman-temanmu apa itu fungsi _convex_ dan _concave_, tidak lupa isi materi yang kamu baca! Bagaimana hubungan _convex optimization_ dan pembelajaran mesin? 5.4. Sum of Squared Errors Salah satu cara untuk mencari nilai parameter pada regresi adalah menggunakan teknik _sum of squared errors_. Jelaskanlah bagaimana cara kerja metode tersebut! (Hint: baca buku oleh James et al. [20]) 5.5. Linear Discriminant Analysis Jelaskan prinsip dan cara kerja _linear discriminant analysis_ ! (Hint: baca buku oleh James et al. [20])
### 5.11 Bacaan Lanjutan Kami harap pembaca mampu mengeksplorasi materi _kernel method_ dansupport vector machine(SVM). Kami mencantumkan materi SVM pada buku ini sedemikian pembaca mampu mendapatkan intuisi, tetapi tidaklah detil. Kami sa _rank_ an kamu membaca pranalahttps://www.svm-tutorial.com/karena ditulis dengan cukup baik. Mengerti materi SVM dan _convex optimization_ secara lebih dalam akan sangat membantu pada bab-bab berikutnya. Selain itu, kami juga menya _rank_ an pembaca untuk melihat kedua pranala tambahan tentang _learning rate_ dan momentum: ``` 1.http:// _user_ s.ics.aalto.fi/jhollmen/dippa/ _node_ 22.html 2.http://www.willamette.edu/~gorr/ _class_ es/cs449/mom _rate_.html ```
### 5.6 Pembelajaran sebagai Permasalahan Optimisasi Salah satu tujuan dari pembelajaran ( _training_ ) adalah untuk meminimalkan _error_ sehingga kinerja learning machine ( _model_ ) diukur oleh squared error. Dengan kata lain, _utility function_ adalah meminimalkan _squared error_. Secara lebih umum, kita ingin meminimalkan/memaksimalkan suatu fungsi yang dijadikan tolak ukur kinerja ( _utility function_ ), diilustrasikan pada per- 72 5 Model Linear samaan 5.17, dimanaθadalah _learning parameter_,^4 ˆθadalah nilai parameter paling optimal, danLadalah _loss function_. Perhatikan, “arg min” dapat juga diganti dengan “arg max” tergantungoptimisasiapa yang ingin dilakukan. Perubahan parameter dapat menyebabkan perubahan _loss_. Karena itu, _loss_ _function_ memilikiθsebagai parameternya. ``` θˆ= arg min θ ``` ``` L(θ) (5.17) ``` Sekarang, mari kita hubungkan dengan contoh yang sudah diberikan pada subbab sebelumnya. Kita coba melakukan estimasi _minimum squared error_ E, dengan mencari nilai _learning parameters_ wyang meminimalkan nilai _error_ pada model linear (persamaan 5.18).^5 Parameter model pembelajaran mesin _bias_ anya diinisialisasi secara acak atau menggunakan distribusi tertentu. Terdapat beberapa cara untuk memimalkan _squared error_. Yang penulis akan bahas adalah _stochastic gradient descent method_.^6 Selanjutnya apda buku ini, istilah _gradient descent_, _gradient-based method_ dan _stochastic gradient descent_ mengacu pada hal yang sama. ``` wˆ= arg min w ``` ``` E(w) (5.18) ``` Bayangkan kamu sedang berada di puncak pegunungan. Kamu ingin mencari titik terendah pegunungan tersebut. Kamu tidak dapat melihat keseluruhan pegunungan, jadi yang kamu lakukan adalah mencari titik terendah (lokal) sejauh mata memandang, kemudian menuju titik tersebut dan menganggapnya sebagai titik terendah (global). Layaknya asumsi sebelumnya, kamu juga turun menuju titik terendah dengan cara melalui jalanan dengan kemiringan paling tajam, dengan anggapan bisa lebih cepat menuju ke titik terendah [9]. Sebagai ilustrasi, perhatikan Gambar 5.9! Seluruh area pegunungan adalah nilai _error_ E yang mungkin (pada persoalanmu), dan titik terendah pada daerah tersebut adalah nilai _error_ Eterendah. Jalanan dengan kemiringan paling tajam adalah−grad E(w), dimana E(w) adalah nilai _error_ saat model memiliki parameterw. Dengan definisi gradE(w) diberikan pada persamaan 5.19 dan persamaan 5.20, dimanawi adalah nilai elemen vektor ke-i. ``` gradE(w) = ``` #### ( #### ∂E ``` ∂w 1 ``` #### , #### ∂E ``` ∂w 2 ``` #### ,..., #### ∂E ``` ∂wF ``` #### ) #### (5.19) (^4) Dapat berupa skalar, vektor, matriks, atau tensor. Demi istilah yang lebih generik, kita gunakanθ. (^5) wboleh diganti denganW, saat ini penulis menggunakan vektor untuk menyedenakan pembahasan. (^6) Konsep _Hill Climbing_ dapat digunakan untuk memaksimalkan _utility function_ Konsep tersebut sangat mirip dengan _gradient descent_ https://en.wikipedia. org/wiki/Hill_climbing. ``` 5.6 Pembelajaran sebagai Permasalahan Optimisasi 73 ``` ``` Gambar 5.9:Stochastic Gradient Descent. ``` ``` dw dt ``` ``` =−gradE(w);t= _time_ (5.20) ``` Ingat kembali materi diferensial. Gradien adalah turunan (diferensial) fungsi. Untuk mencari turunan paling terjal, sama halnya mencari nilai − _gradient_ terbesar. Dengan demikian, menghitung −grad E(w) terbesar sama dengan jalanan turun paling terjal. Tentunya seiring berjalannya waktu, kita mengubah-ubah parameterwagar kinerja model optimal. Nilai optimal diberikan oleh turunanwterhadap waktu, yang bernilai sama dengan −gradE(w). Bentuk diskrit persamaan 5.20 diberikan pada persamaan 5.21, ``` w(t+ 1) =w(t)−ηgradE(w(t)) (5.21) ``` dimanaηdisebut _learning rate_ danw(t) adalah nilaiwsaat waktu/iterasi t. _Learning rate_ digunakan untuk mengatur seberapa pengaruh keterjalan terhadap pembelajaran. Silahkan mencari sumber tambahan lagi agar dapat mengerti _learning rate_ secara lebih dalam/matematis. Pada implementasi,η juga sering diubah-ubah nilainya sepanjang waktu. Semakin kita sudah dekat dengan tujuan (titik _loss_ terendah), kita mengurangi nilaiη, ibaratnya seperti mengerem kalau sudah dekat dengan tujuan [30]. Walaupun kamu berharap bisa menuju titik terendah dengan menelusuri jalan terdekat dengan kemiringan paling tajam, tapi kenyataanya hal tersebut bisa jadi bukanlah jalan tercepat, seperti yang diilustrasikan pada Gambar 5.10. Warna merah melambangkan jalan yang dilalui _gradient descent_, sementara warna biru melambangkan jalanan terbaik (tercepat). Pandangan kita yang terbatas layaknya kita tidak bisa melihat keseluruhan pengunungan secara keseluruhan (anggap ada kabut), kita juga tidak bisa melihat keseluruhan nilai _error_ untuk semua parameterw. Secara filosofis, hal tersebut juga berlaku saat membaca buku, oleh karena itu sebaiknya kamu membaca beberapa buku saat belajar. Dalam _local point of view_, _steepest gradient descent_ adalah cara tercepat menuju titik terendah, tetapi tidak pada _global point of view_. Kita dapat macet/berhenti saat sudah mencapai _local minima_, yaitu nilai minimum pada suatu daerah lokal saja. Sebagai ilustrasi, perhatikan Gambar 5.11. Kamu berada di puncak pegunungan kemudian turun bertahap. Kemudian, kamu sampai di suatu daerah landai (−gradE(w) = 0). Kamu pikir daerah landai 74 5 Model Linear ``` Gambar 5.10:Stochastic Gradient Descent2. ``` ``` Local Minima −grad 𝐸𝒘 = 0 ``` ``` Global Minimum −grad 𝐸𝒘 = 0 ``` ``` Start Point ``` ``` Andaiaku sebelumnya meloncat! ``` ``` Loncat ``` ``` Gambar 5.11:Stuck at local minima. ``` tersebut adalah titik terendah, tetapi, kamu ternyata salah. Untuk menghindari hal tersebut, kita menggunakan _learning rate_ (η). Apabila nilai _learning_ _rate_ (η) pada persamaan 5.21 relatif kecil, maka dinamika perubahan parameterwjuga kecil. Tetapi, bila nilainya besar, maka jalanan menuju titik terendah akan bergoyang-goyang ( _swing_ ), seperti pada Gambar 5.12. Goyangan tersebut ibarat “meloncat-loncat” pada ilustrasi Gambar 5.11. Kemampuan untuk “meloncat” ini dapat menghindarkan model _stuck_ di _local minima_. Untuk mengontrol _learning parameter_ wsehingga memberikan nilaiE(w) terendah, persamaan _steepest gradient descent_ dapat ditambahkan dengan ``` 5.7 Batasan Model Linear 75 ``` ``` Gambar 5.12:Swing. ``` _momentum_ (α) pada persamaan 5.23. Alfa adalah momentum karena dikalikan dengan hasil perbedaan descent pada tahap sebelumnya. Alfa adalah parameter kontrol tambahan untuk mengendalikan _swing_ yang sudah dibahas sebelumnya. ``` w(t+ 1) =w(t)−ηgradE(w(t)) +α(∆w) (5.22) ``` ∆w=w(t)−w(t−1) (5.23) Apabila gradien bernilai 0, artinya model sudah berada pada titiklocal/global optimum. Kondisi ini disebut sebagaikonvergen( _converging_ ). Sementara _model_ yang tidak menuju titik optimal, malah menuju ke kondisi yang semakin tidak optimum, disebut _divergen_ ( _diverging_ ).
### 5.8 Overfitting dan Underfitting Tujuan _machine learning_ adalah membuat model yang mampu memprediksi _data_ yang belum pernah dilihat ( _unseen instances_ ) dengan tepat; disebut sebagai generalisasi ( _generalization_ ). Seperti yang sudah dijelaskan pada bab pertama, kita dapat membagi dataset menjadi _training_, _validation_, dan _testing_ _dataset_. Ketiga dataset ini berasal dari populasi yang sama dan dihasilkan oleh distribusi yang sama ( _identically and independently distributed_ ). Dalam artian, ketiga jenis dataset mampu melambangkan (merepresentasikan) karakteristik yang sama.^7 Dengan demikian, kita ingin _loss_ atau _error_ pada _training_, _validation_, dan _testing_ bernilai kurang lebih bernilai sama (i.e., kinerja yang sama untuk data dengan karakteristik yang sama). Akan tetapi, _underfitting_ dan _overfitting_ mungkin terjadi. _Underfitting_ adalah keadaan ketika kinerja model bernilai buruk baik pada _training_ atau _validation_ maupun testing data. _Overfitting_ adalah keadaan ketika kinerja model bernilai baik untuk _training_ tetapi buruk pada unseen _data_. Hal ini diilustrasikan pada Gambar 5.13. _Underfitting_ terjadi akibat _model_ yang terlalu tidak fleksibel, yaitu memiliki kemampuan yang rendah untuk mengestimasi variasi fungsi. Sedangkan, _overfitting_ terjadi ketika (^7) Baca teknik _sampling_ pada buku statistika. (^8) Rekonstruksi https://www.inf.ed.ac.uk/teaching/courses/iaml/slides/ eval-2x2.pdf ``` 5.8 Overfitting dan Underfitting 77 ``` ``` Gambar 5.13: _Underfitting_ vs _Overfitting_.^8 ``` _model_ terlalu fleksibel, yaitu memiliki kemampuan yang terlalu tinggi untuk mengestimasi banyak fungsi atau terlalu mencocokkan diri terhadap _training_ data. Perhatikan kembali Gambar 5.13, dataset asli diambil ( _sampled_ ) dari fungsi polinomial orde-3. Model _underfitting_ hanya mampu mengestimasi dalam orde-1 (kemampuan terlalu rendah), sedangkan model _overfitting_ mampu mengestimasi sampai orde-9 (kemampuan terlalu tinggi). Apabila kita gambarkan grafik kinerja terhadap konfigurasi model ( _model_ order), fenomena underfitting dan overfitting dapat diilustrasikan seperti Gambar 5.14. Model yang ideal adalah model yang memiliki kinerja yang baik pada _training_, _validation_, dan _testing_ data. Artinya, kita ingin perbedaan kinerja _model_ pada berbagai dataset bernilai sekecil mungkin. Untuk menghindari _overfitting_ atau _underfitting_, kita dapat menambahkan fungsi _noise/bias_ (selanjutnya disebut _noise/bias_ saja) dan regularisasi (subbab 5.9). Hal yang paling perlu pembaca pahami adalah untuk jangan merasa senang ketika _model_ _machine learning_ yang kamu buat memiliki kinerja baik pada _training_ _data_. Kamu harus mengecek pada _validation_ dan _testing_ data, serta memastikan kesamaan karakteristik data, e.g., apakah _training_ dan _testing_ data benar diambil dari distribusi yang sama. Selain itu, kamu juga harus memastikan apakah data yang digunakan mampu merepresentasikan kompleksitas pada permasalahan asli/dunia nyata. Sering kali, dataset yang digunakan pada banyak eksperimen adalah _toy dataset_, semacam simplifikasi permasalahan dengan banyak sampel yang relatif sedikit. Kamu harus hati-hati terhadap 78 5 Model Linear ``` _Error_ ``` ``` Model order ``` ``` _Training_ Error ``` ``` Generalization (Testing) Error ``` ``` _Underfitting_ Area Overfitting Area ``` ``` Optimal Performance (Optimal Model) ``` ``` Gambar 5.14:Selection Error. ``` _overclaiming_, i.e., menjustifikasi model dengan performa baik pada _toy dataset_ sebagai model yang baik secara umum.
### 5.3 Log-linear Binary Classification Pada subbab sebelumnya, telah dijelaskan fungsi binary classifier memetakan _data_ menjadi nilai [− 1 ,1], dengan−1 merepresentasikan kelas pertama dan 1 merepresentasikan kelas kedua. Tidak hanya kelas yang berkorespondensi, kita juga terkadang ingin tahu seberapa besar peluang data tergolong pada kelas tersebut. Salah satu alternatif adalah dengan menggunakan fungsi sigmoid dibanding fungsi _sign_ untuk merubah nilai fungsi menjadi [0,1] yang merepresentasikan peluangp _data_ diklasifikasikan sebagai kelas tertentu (1−p untuk kelas lainnya). Konsep ini dituangkan menjadi persamaan 5.9, dimana ymerepresentasikan probabilitas _input x_ digolongkan ke kelas tertentu,x merepresentasikan data ( _feature vector_ ), danbmerepresentasikan _bias_. Ingat kembali materi bab 4, algoritma _Naive Bayes_ melakukan hal serupa. Hasil fungsi sigmoid, apabila di- _plot_ maka akan berbentuk seperti Gambar 5.1 (berbentuk karakter “S”). 66 5 Model Linear ``` y=σ(f(x)) = ``` #### 1 ``` 1 +e−(x·w+b) ``` #### (5.9) Perhatikan, persamaan 5.9 juga dapat diganti dengan persamaan 5.10 yang dikenal juga sebagai fungsi logistik. ``` y= logistik (f(x)) = ``` ``` e(x·w+b) 1 +e(x·w+b) ``` #### (5.10) Varibelyadalah nilai probabilitas data masuk ke suatu kelas. Sebagai contoh, kita ingin nilaiy= 1 apabila data cocok masuk ke kelas pertama dany= 0 apabila masuk ke kelas kedua. Ketika fungsi _machine learning_ menghasilkan nilai berbentuk probabilitas, kita dapat menggunakan _cross entropy_ sebagai _utility function_. Persamaan 5.11 adalah cara menghitung _cross entropy_, dimanaT(ci) melambangkan _desired probability_ ( _desired output_ ).P(ci) melambangkan probabilitas (prediksi) _input_ diklasifikasikan ke kelasci danN melambangkan banyaknya kelas. Untuk _binary classification_,T(c 1 ) = 1−T(c 2 ). Pada umumnya,Tbernilai antara [0, 1]. Nilai 1 untuk kelas yang berkorespondensi dengan _input_ ( _desired output_ ) dan 0 untuk kelas lainnya. #### H=− #### ∑N ``` i=1 ``` ``` T(ci) log (P(ci)) (5.11) ``` Kita ingin meminimalkan nilai _cross entropy_ untuk model pembelajaran mesin yang baik. Ingat kembali materi teori informasi, nilai _entropy_ yang rendah melambangkan distribusi tidak _uniform_. Sementara, nilai _entropy_ yang tinggi melambangkan distribusi lebih _uniform_. Artinya, nilai _cross entropy_ yang rendah melambangkan _high confidence_ saat melakukan klasifikasi. Kita ingin model kita se _bias_ a mungkin menghasilkan _output_ bernilai 1 untuk mendiskriminasi seluruh data yang masuk ke kelas pertama, dan 0 untuk kelas lainnya. Dengan kata lain, model dapat mendiskriminasi data dengan pasti. _Cross entropy_ bernilai tinggi apabila perbedaan nilai probabilitas masuk ke kelas satu dan kelas lainnya tidak jauh, e.g.,P(c 1 ) = 0.6 &P(c 2 ) = 0.4. Semakin rendah nilai _cross entropy_, kita bisa meningkatkan “keyakinan” kita terhadap kemampuan klasifikasi model pembelajaran mesin, yaitu perbedaan nilai probabilitas masuk ke kelas satu dan kelas lainnya tinggi, e.g., P(c 1 ) = 0.8 &P(c 2 ) = 0.2.
### 5.2 Binary Classification _Binary classification_ adalah mengklasifikasikan data menjadi dua kelas ( _binary_ ). Contoh model linear sederhana untuk _binary classification_ diberikan pada persamaan 5.6. Perhatikan, pada persamaan 5.6, suatu data direpresentasikan sebagai _feature vector_ x, dan terdapat _bias_ b.^2 Klasifikasi dilakukan dengan melewatkan data pada fungsi yang memiliki parameter. Fungsi tersebut menghitung bobot setiap fitur pada vektor dengan mengalikannya dengan parameter ( _dot product_ ). Persamaan 5.6 dapat ditulis kembali sebagai persamaan 5.7, dimanaximerupakan elemen ke-idari vektorx. Fungsi ini memiliki _range_ [−∞,∞]. Pada saat ini, kamu mungkin bingung. Bagaimana mungkin fungsi regresi yang menghasilkan nilai kontinu digunakan untuk klasifikasi kelas kategorial. Kita dapat menggunakan _thresholding_, atau dengan memberikan batas nilai tertentu. Misal, bilaf(x)> thresholdmaka dimasukkan ke kelas pertama; dan sebaliknyaf(x)≤ _threshold_ dimasukkan ke kelas kedua. _Threshold_ menjadi bidang pembatas antara kelas satu dan kelas kedua ( _decision boundary_, Gambar 5.3). Pada umumnya, teknik _threshold_ diterapkan dengan menggunakan fungsi _sign_ (sgn, Gambar 5.4) untuk merubah nilai fungsi menjadi [− 1 ,1] sebagai _output_ (persamaan 5.8); dimana −1 merepresentasikan _input_ dikategorikan ke kelas pertama dan nilai 1 merepresentasikan _input_ dikategorikan ke kelas kedua. ``` f(x) =x·w+b (5.6) ``` ``` f(x) =x 1 w 1 +x 1 w 2 +···+xNwN+b (5.7) ``` _output_ = sgn(f(x) (5.8) Seperti halnya fungsi regresi, kita juga dapat menghitung performa _binary_ _classifier_ sederhana ini menggunakan _squared error function_ (umumnya menggunakan akurasi), dimana nilai target fungsi berada pada range [− 1 ,1]. Secara sederhana, model _binary classifier_ mencari _decision boundary_, yaitu garis (secara lebih umum, _hyperplane_ ) pemisah antara kelas satu dan lainnya. Sebagai contoh, garis hitam pada Gambar 5.3 adalah _decision boundary_. (^2) Perhatikan! _Bias_ pada variabel fungsi memiliki arti yang berbeda dengan _statistical_ _bias_ ``` 5.3 Log-linear Binary Classification 65 ``` ``` Gambar 5.3: Contoh _decision boundary_. ``` ``` Gambar 5.4: Fungsi _sign_. ```
### 5.9 Regularization _Gradient-based method_ mengubah-ubah parameter modelwsehingga _loss_ dapat diminimalkan. Perhatikan kembali Gambar 5.2, ibaratnya agar fungsi aproksimasi kita menjadi sama persis dengan fungsi asli pada Gambar 5.1. Perhatikan, karena nilaiwberubah-ubah seiring waktu, bisa jadi urutan _training_ _data_ menjadi penting.^9 Pada umumnya, kita menggunakan _batch method_ agar kinerja model tidak bias terhadap urutan data. Artinya, menghitung _loss_ untuk beberapa data sekaligus. Hal ini akan kamu lebih mengerti setelah mambaca bab 11. Selain permasalahan model yang sensitif terhadap urutan _training data_, _model_ yang kita hasilkan bisa jadi _overfitting_ juga. Yaitu memiliki kinerja baik pada _training data_, tetapi memiliki kinerja buruk untuk _unseen data_. Salah satu cara menghindari _overfitting_ adalah dengan menggunakan _regularization_. Idenya adalah untuk mengontrol kompleksitas parameter (i.e. konfigurasi parameter yang lebih sederhana lebih baik). Dengan ini, objektif _training_ pada persamaan 5.17 dapat kita ubah menjadi persamaan 5.27, dimana R(w) adalah fungsi _regularization_ danλadalah parameter kontrol. ``` wˆ= arg min w ``` ``` L(w) +λR(w) (5.27) ``` (^9) Baca buku Yoav Goldberg [1] untuk mendapat penjelasan lebih baik. ``` 5.10 Transformasi Data 79 ``` Pilihan umum untuk fungsi _regularization_ pada umumnya adalahL 2 dan L 1 norm. L 2 regularization menggunakan jumlah kuadrat dari Euclidean _norm_ ^10 seluruh parameter, seperti pada persamaan 5.28. Sedangkan,L 1 regularizationmenggunakan jumlah dari nilai _absolute-value norm_ seluruh parameter, diberikan pada persamaan 5.29. ``` R(w) =‖w‖^22 = ``` #### ∑ ``` i ``` ``` (wi)^2 (5.28) ``` ``` R(w) =‖w‖= ``` #### ∑ ``` i ``` ``` |wi| (5.29) ``` Perlu kamu perhatikan, metode _gradient descent_ memiliki syarat bahwa fungsi yang digunakan haruslah dapat diturunkan ( _differentiable_ ).L 2 dapat diturunkan pada seluruh poin, sementaraL 1 tidak dapat diturunkan pada semua poin.^11 Kita dapat menggunakan teknik _subgradient_ untuk menyelesaikan permasalahan ini. Kami serahkan pembaca untuk mengeksplorasi teknik tersebut sendiri. Implikasi penggunakan regularisasi terhadap kompleksitas model dibahas lebih lanjut pada bab 9. Selain itu, ada hal lainnya yang perlu diperhatikan saat menggunakan _gradient descent_ yaitu apakah suatu fungsi _convex_ atau _concave_. Izinkan saya mengutip pernyataan dari buku Yoav Goldberg [1] halaman 31 secara langsung menggunakan bahasa Inggris agar tidak ada makna yang hilang. ``` Convexity. In gradient-based optimization, it is common to distinguish between _convex_ (or _concave_ ) _function_ s and _non-concave_ functions. A _convex_ _function_ is a function whose second-derivative is always non-negative. As a consequence, convex functions have a single minimum point. Similarly, _concave_ _function_ sare functions whose second-derivatives are always negative or zero, and as a consequence have a single maximum point. Convex ( _concave_ ) _function_ s have the property that they are easy to minimize (maximize) using _gradient-based optimization_ –simply follow the gradient until an extremum _point_ is reached, and once it is reached we know we obtained the global extremum _point_. In contrast, for functions that are neither convex or concave, a gradient-based optimization procedure may converge to a local extremum _point_, missing the global optimum. ```
### 5.1 Curve Fitting dan Error Function Pertama, penulis ingin menceritakan salah satu bentuk _utility function_ untuk _model_ matematis bernama _error function_. Fungsi ini sudah banyak diceritakan pada bab-bab sebelumnya secara deskriptif. Mulai bab ini, kamu akan mendapatkan pengertian lebih jelas secara matematis. _Error function_ paling mudah dijelaskan dalam permasalahan regresi. Diberikan (x,y)∈Rsebagai _random variable_. Terdapat sebuah fungsif(x)→ y, yang memetakanxkey, berbentuk seperti pada Gambar 5.1. sekarang fungsif(x) tersebut disembunyikan (tidak diketahui), diberikan contoh-contoh pasangan (xi,yi),i= 1, 2 ,...,6; yang direpresentasikan dengan lingkaran biru pada ruang dua dimensi (titik sampel). Tugasmu adalah untuk mencari tahu f(x)! Dengan kata lain, kita harus mampu memprediksi sebuah bilangan riil y, diberikan suatux. Kamu berasumsi bahwa fungsif(x) dapat diaproksimasi dengan fungsi linearg(x) =xw+b. Artinya, kamu ingin mencariwdanbyang memberikan 62 5 Model Linear ``` Gambar 5.1: Contoh fungsi Sigmoid. Titik biru merepresentasikan sampel. ``` nilai sedemikian sehinggag(x) mirip denganf(x).wadalah parameter sementarabadalah _bias_. Anggap kamu sudah berhasil melakukan pendekatan dan menghasilkan fungsi linearg(x); seperti Gambar 5.2 (garis berwarna hijau). Akan tetapi, fungsi approksimasi ini tidak 100% tepat sesuai dengan fungsi aslinya (ini perlu ditekankan).^1 Jarak antara titik biru terhadap garis hijau disebut _error_. ``` Gambar 5.2: Pendekatan fungsi Sigmoid. ``` Salah satu cara menghitung _error_ fungsig(x) adalah menggunakansquared _error function_ dengan bentuk konseptual pada persamaan 5.1. Estimasi terhadap persamaan tersebut disajikan dalam bentuk diskrit pada persamaan 5.2, dimana (xi,yi) adalah pasangan _training data_ ( _input_ dan _desired output_ ). Nilai _squared error_ dapat menjadi tolak ukur untuk membandingkan kinerja (^1) Kamu patut curiga apabila model pembelajaran mesinmu memberikan kinerja 100% ``` 5.1 Curve Fitting dan Error Function 63 ``` suatu _learning machine_ ( _model_ ). Secara umum, bila nilainya tinggi, maka kinerja dianggap relatif buruk; sebaliknya bila rendah, kinerja dianggap relatif baik. Hal ini sesuai dengan konsep _intelligent agent_ [5]. ``` E(g) = ``` #### ∫ ∫ ``` ‖y−g(x)‖^2 q(x,y)dx dy (5.1) ``` ``` E(g) = ``` #### 1 #### N #### ∑N ``` i=1 ``` ``` ‖yi−g(xi)‖^2 (5.2) ``` Secara konseptual, bentuk fungsi regresi dilambangkan sebagai persamaan 5.3 [9]. ``` g(x) = ``` #### ∫ ``` y q(y|x)dy (5.3) ``` Persamaan 5.3 dibaca sebagai “ _expectation of_ y, _with the distribution of_ q.” Secara statistik, regresi dapat disebut sebagai ekspektasi untukyberdasarkan/ dengan _input x_. Perlu diperhatikan kembali, regresi adalah pendekatan sehingga belum tentu 100% benar (hal ini juga berlaku pada modelmachine _learning_ pada umumnya). Kami telah memberikan contoh fungsi linear sederhana, yaitug(x) = xw+b. Pada kenyataannya, permasalahan kita lebih dari persoalan skalar. Untukx( _input_ ) yang merupakan vektor, biasanya kita mengestimasi dengan lebih banyak variable, seperti pada persamaan 5.4. Persamaan tersebut dapat ditulis kembali dalam bentuk aljabar linear sebagai persamaan 5.5. ``` g(x) =x 1 w 1 +x 2 w 2 +···+xNwN+b (5.4) ``` g(x) =x·w+b (5.5) Bentuk persamaan 5.4 dan 5.5 relatif _interpretable_ karena setiap fitur pada _input_ (xi) berkorespondensi hanya dengan satu parameter bobotwi. Artinya, kita bisa menginterpretasikan seberapa besar/kecil pengaruh suatu fiturxiterhadap keputusan ( _output_ ) berdasarkan nilaiwi. Hal ini berbeda dengan algoritma non-linear (misal _artificial neural network_, bab 11) dimana satu fitur pada _input_ bisa berkorespondensi dengan banyak parameter bobot. Perlu kamu ingat, model yang dihasilkan oleh fungsi linear lebih mudah dimengerti dibanding fungsi non-linear. Semakin suatu model pembelajaran mesin berbentuk non-linear, maka ia semakin susah dipahami. Ingat kembali bab 1, _learning machine_ yang direpresentasikan dengan fungsigbisa diatur kinerjanya dengan parameter _training_ w. _Squared error_ untuk _learning machine_ dengan parameter _training_ wdiberikan oleh persamaan 5.2, dimana (xi,yi) adalah pasangan _input-desired output_. Selain untuk menghitung _squared error_ pada _training data_, persamaan 5.2 juga dapat digunakan untuk menghitung _squared error_ pada _test data_. Tujuan dari regresi/machine _learning_ secara umum adalah untuk meminimalkan nilai _loss_ 64 5 Model Linear baik pada _training_ maupun _unseen instances_. Misal, menggunakan _error function_ sebagai _proxy_ untuk _loss_. Selain _error function_, ada banyak fungsi lainnya seperti _Hinge_, _Log Loss_, _Cross-entropy loss_, _Ranking loss_ [1].
### 13.7 Transfer Learning Walau konsep _transfer learning_ (TL) tidak terbatas pada _neural network_, subbab ini membahas pemanfaatan TL paling umum pada _neural network_. Pembaca dipersilahkan mengeksplorasi lebih lanjut. Bayangkan kondisi berikut. Ada dua orang, Haryanto dan Wira. Saat masih kecil, Wira pernah belajar cara memainkan Ukulele, sedangkan Haryanto tidak. Ketika kedua orang tersebut belajar memainkan gitar, menurutmu siapa yang bisa menguasai gitar lebih cepat? Pada TL, kita ingin menggunakan suatu pengetahun ( _knowledge_ ) pada suatu _task_ T 1 , untuk menyelesaikan permasalahan _task_ T 2 [93, 94]. Kita memiliki asumsi bahwaT 1 memiliki kaitan denganT 2 , sedemikian sehingga fasih pada T 1 akan menyebabkan kita fasih padaT 2 (atau lebih fasih dibandingan tidak menguasaiT 1 sama sekali). Perhatikan Gambar 13.27 yang mengilustrasikan perbedaan pembelajaran mesin biasa dan penggunaan TL. Pada pembelajaran mesin biasa, kita melatih model untuk masing-masing _task_. Pada TL, kita menggunakan model yang sudah ada, disebut _pretrained model_, untuk _task_ baru. Selain dimotivasi oleh kemiripan kedua _tasks_, TL juga dimotivasi oleh ketersediaan data. Misal dataset untuk _task_ T 1 banyak, sedangkan untuk _task_ T 2 sedikit. BerhubungT 1 danT 2 memiliki kemiripan, model untuk ``` 13.7 Transfer Learning 205 ``` T 1 yang diadaptasi untukT 2 akan konvergen lebih cepat dibanding melatih _model_ dari awal untukT 2. Gambar 13.27: Pembelajaran mesin tradisional vs. menggunakantransfer _learning_. ``` Gambar 13.28: Proses _transfer learning_. ``` Proses mengadaptasi suatu _pretrained model_ disebut _finetuning_ (Gambar 13.28). Pertama-tama kita ganti _layer terakhir_ ( _prediction layer_ ) pada _pretrained model_ menggunakan _layer_ baru yang diinisialisasi secara _random_.^20 Kemudian, kita latih kembali model yang sudah ada menggunakan data untuk T 2. Secara umum, ada tiga cara untuk melakukan _finetuning_. 1.Freeze some layers. Kita _freeze_ beberapa _layer_ (parameternya tidak diperbaharui saat fine _tuning_ ), kemudian latih _layer_ lainnya. Ilustrasi diberikan pada Gambar 13.29. 2.Train only new last layer. Kita _freeze_ semua _layer_, kecuali _layer_ terakhir untuk taskT 2. Ilustrasi diberikan pada Gambar 13.30 3.Train all layers. Setelah menggantu _layer terakhir_, kita latih semua _layer_ untuk taskT 2. Ilustrasi diberikan pada Gambar 13.31. (^20) Penulis rasa, hal ini hampir wajib hukumnya 206 13 Arsitektur Neural Network ``` Pretrained Layer 1 ``` ``` Pretrained Layer 2 ``` ``` Prediction Layer ( _softmax_ ) ``` ``` Retrain Layer 1 ``` ``` Pretrained Layer 2 ``` ``` New Prediction Layer ( _softmax_ ) ``` ``` _Dataset_ A for task 𝑇! Dataset B for task 𝑇" Adaptation (Fine _tuning_ ) ``` ``` Freeze ``` ``` Train ``` ``` Train ``` ``` Gambar 13.29:Freeze some layers. ``` ``` Pretrained Layer 1 ``` ``` Pretrained Layer 2 ``` ``` Prediction Layer ( _softmax_ ) ``` ``` Pretrained Layer 1 ``` ``` Pretrained Layer 2 ``` ``` New Prediction Layer ( _softmax_ ) ``` ``` _Dataset_ A for task 𝑇! Dataset B for task 𝑇" Adaptation (Fine _tuning_ ) ``` ``` Freeze ``` ``` Train ``` ``` Gambar 13.30:Train only new last layer. ``` ``` Pretrained Layer 1 ``` ``` Pretrained Layer 2 ``` ``` Prediction Layer ( _softmax_ ) ``` ``` Retrain Layer 1 ``` ``` Retrain Layer 2 ``` ``` New Prediction Layer ( _softmax_ ) ``` ``` _Dataset_ A for task 𝑇! Dataset B for task 𝑇" Adaptation (Fine _tuning_ ) ``` ``` Train ``` ``` Gambar 13.31:Train all layers. ``` Selain alasan yang sudah disebutkan, TL juga digunakan untuk mempercepat _training_. Konon _pre-trained_ model pada umumnya membutuhkan waktu _training_ yang lebih cepat (lebih sedikit iterasi) dibanding melatih model baru. Dengan demikian, kita dapat menghemat listrik dan mengurangi polusi CO 2. TL juga berkaitan erat dengan _successive learning_ (bab 11), dimana ``` 13.8 Multi- _task_ Learning 207 ``` kita melatih arsitektur lebih kecil kemudian menggunakannya pada arsitektur yang lebih besar. Demikian konsep paling dasar TL. Selebihkan, penulis menya _rank_ an untuk membaca _paper_ atau tutorial terkait, seperti dibawah berikut. - https://www.cs.uic.edu/ liub/Lifelong- _Learning_ -tutorial-slides.pdf - https://www.aclweb.org/anthology/attachments/ N19-5004.Presentation.pdf
### 13.3 Part-of-speech Tagging Revisited Pada bab sebelumnya, kamu telah mempelajari konsep dasar _recurrent_ neural _network_. Selain digunakan untuk klasifikasi (i.e., _hidden state_ terakhir digunakan sebagai _input_ klasifikasi), RNN juga dapat digunakan untuk memprediksi sekuens seperti persoalan _part-of-speech tagging_ (POS _tagging_ ) [82, 83, 84]. Kami harap kamu masih ingat materi bab 8 yang membahas apa itu persoalan POS _tagging_. Diberikan sebuah sekuens katax = {x 1 ,···,xT}, kita ingin mencari sekuens _output_ y={y 1 ,···,yT}( _sequence prediction_ ); dimanayiadalah kelas kata untukxi. Perhatikan, panjang _input_ dan _output_ adalah sama. Ingat kembali bahwa pada persoalan POS _tagging_, kita ingin memprediksi suatu kelas kata yang cocokyidari kumpulan kemungkinan kelas kataC ketika diberikan sebuah _history_ seperti diilustrasikan oleh persamaan 13.5, dimana _time_ lambangkan kandidat POStagke-i. Pada kasus ini, biasanya yang dicari tahu setiap langkah ( _unfolding_ ) adalah probabilitas untuk memilih suatu kelas katat∈Csebagai kelas kata yang cocok untuk di- _assign_ sebagaiyi. Ilustrasi diberikan oleh Gambar. 13.14. ``` y 1 ,···,yT= arg max t 1 ,···,tT;ti∈C ``` ``` P(t 1 ,···,tT|x 1 ,···,xT) (13.5) ``` Apabila kita melihat secara sederhana ( _markov assumption_ ), hal ini tidak lain dan tidak bukan adalah melakukan klasifikasi untuk setiap _instance_ pada sekuens _input_ (persamaan 13.6). Pada setiap time step, kita ingin menghasilkan _output_ yang bersesuaian. ``` yi= arg max ti∈C ``` ``` P(ti|xi) (13.6) ``` Akan tetapi, seperti yang sudah dibahas sebelum sebelumnya, _markov assumption_ memiliki kelemahan. Kelemahan utama adalah tidak menggunakan 192 13 Arsitektur Neural Network ``` Gambar 13.14: POS _tagging_ menggunakan Recurrent Neural Network. ``` keseluruhan _history_. Persoalan ini cocok untuk diselesaikan oleh RNN karena kemampuannya untuk mengingat seluruh sekuens (berbeda dengan _hidden_ markov model(HMM) yang menggunakan _markov assumption_ ). Secara teoritis (dan juga praktis–sejauh yang penulis ketahui.) Pada banyak persoalan, RNN menghasilkan performa yang lebih baik dibanding HMM. Tetapi hal ini bergantung juga pada variasi arsitektur. Dengan ini, persoalan POS _tagging_ ( _full history_ ) diilustrasikan oleh persamaan 13.7. ``` yi= arg max ti∈C ``` ``` P(ti|x 1 ,···,xT) (13.7) ``` Gambar 13.15:Sequence predictionmenggunakan Recurrent Neural Network. Pada bab sebelumnya, kamu diberikan contoh persoalan RNN untuk satu _output_ ; i.e., diberikan sekuens _input_, _output_ -nya hanyalah satu kelas yang mengkategorikan seluruh sekuens _input_. Untuk persoalan POS _tagging_, kita harus sedikit memodifikasi RNN untuk menghasilkan _output_ bagi setiap elemen sekuens _input_. Hal ini dilakukan dengan cara melewatkan setiap _hidden_ _layer_ pada RNN pada suatu jaringan (anggap sebuah MLP+ _softmax_ ). ``` 13.3 Part-of-speech Tagging Revisited 193 ``` Gambar 13.16:Sequence predictionmenggunakan RNN (disederhakan) [1]. Persegi berwarna merah umumnya melambangkan _multi-layer perceptron_. Kita lakukan prediksi kelas kata untuk setiap elemen sekuens _input_, kemudian menghitung _loss_ untuk masing-masing elemen. Seluruh _loss_ dijumlahkan untuk menghitung _backpropagation_ pada RNN. Ilustrasi dapat dilihat pada Gambar. 13.15. Tidak hanya untuk persoalan POS _tagging_, arsitektur ini dapat juga digunakan pada persoalan _sequence prediction_ lainnya sepertinamed entity recognition.^10 Gambar. 13.15 mungkin agak sulit untuk dilihat, kami beri bentuk lebih sederhananya (konseptual) pada Gambar. 13.16. Pada setiap langkah, kita menentukan POStagyang sesuai dan menghitung _loss_ yang kemudian digabungkan. _Backpropagation_ dilakukan dengan mempertimbangkan keseluruhan (jumlah) _loss_ masing-masing prediksi. Gambar 13.17:Sequence prediction menggunakan Recurrent Neural Network (disederhakan), dimana prediksi saat waktu ke-tdipengaruhi oleh hasil prediksi pada waktut−1. Berdasarkan arsitektur yang sudah dijelaskan sebelumnya, prediksi POS tagke-ibersifat independen dari POStaglainnya. Padahal, POStaglain- (^10) https://en.wikipedia.org/wiki/Named-entity_recognition 194 13 Arsitektur Neural Network nya memiliki pengaruh saat memutuskan POStagke-i(ingat kembali materi bab 8); sebagai persamaan 13.8. ``` yi= arg max ti∈C ``` ``` P(ti|y 1 ,···,yi− 1 ,x 1 ,···,xi) (13.8) ``` Salah satu st _rate_ gi untuk menangani hal tersebut adalah dengan melewatkan POStagpada sebuah RNN juga, seperti para persamaan 13.9 [1] (ilustrasi pada Gambar. 13.17). Untuk mencari keseluruhan sekuens terbaik, kita dapat menggunakan teknik _beam search_ (detil penggunaan dijelaskan pada subbab berikutnya). RNNxpada persamaan 13.9 juga lebih intuitif apabila diganti menggunakan _bidirectional RNN_ (dijelaskan pada subbab berikutnya). ``` P(ti|y 1 ,···,yi− 1 ,x 1 ,···,xi) = _softmax_ (MLP([RNNx(x 1 ,···,xi); RNNtag(t 1 ,···,ti− 1 )])) ``` #### (13.9)
### Soal Latihan 13.1. POS _tagging_ Pada subbab 13.3, disebutkan bahwa _bidirectional recurrent neural network_ lebih cocok untuk persoalan POS _tagging_. Jelaskan mengapa! (hint pada bab 8) 13.2. Eksplorasi Jelaskanlah pada teman-temanmu apa dan bagaimana prinsip kerja: (a) _Boltzman Machine_ (b) _Restricted Boltzman Machine_ (c) _Generative Adversarial Network_
### 13.6 Architecture Ablation Pada bab 9, kamu telah mempelajari _feature ablation_, yaitu memilih-milih elemen pada _input_ (untuk dibuang), sehingga model memiliki kinerja optimal. Pada _neural network_, proses _feature engineering_ mungkin tidak sepenting pada model- _model_ yang sudah kamu pelajari sebelumnya (e.g., model linear) karena ia dapat me _model_ kan interaksi yang kompleks dari seluruh elemen _input_. Pada _neural network_, masalah yang muncul adalah memilih arsitektur yang tepat. Untuk menyederhanakan pencarian arsitektur, pada umumnya kita dapat mengganggap sebuah _neural network_ tersusun atas beberapa (^18) https:// _deep_ _learning_ 4j.org/restrictedboltzmannmachine (^19) https:// _deep_ _learning_ 4j.org/ _generative_ -adversarial- _network_ 204 13 Arsitektur Neural Network “modul”. Pembagian _neural network_ menjadi modul adalah hal yang relatif. Untuk mencari tahu konfigurasi arsitektur yang memberikan performa maksimal, kita dapat melakukan _architecture ablation_. Idenya mirip denganfeature ablation, dimana kita mencoba mengganti-ganti bagian (modul) neural network. Sebagai contoh, ingat kembali arsitektur _sequence to sequence_ dimana kita memiliki _encoder_ dan _decoder_. Kita dapat menggunakan RNN, Bidirectional RNN, ataupun Stacked RNN sebagai _encoder_. Hal ini adalah salah satu contoh _architecture ablation_. Akan tetapi, bisa jadi kita mengasumsikan modul yang lebih kecil. Sebagai contoh, menggunakan RNN _encoder_ padasequence to sequencedan kita coba mengganti-ganti fungsi aktivasi. _Architecture ablation_ ini bisa menjadi semakin rumit tergantung persepsi kita tentang definisi modul pada _neural network_, seperti sampai menentukan jumlah _hidden layers_ dan berapa jumlah unit pada masing-masing _layer_. Contoh lain adalah memilih fungsi aktivasi yang cocok untuk setiap _hidden layer_. Pada kasus ini “modul” kita adalah sebuah _layer_. Walaupun _neural network_ memberikan kita kemudahan dari segi pemilihan fitur, kita memiliki kesulitan dalam menentukan arsitektur. Terlebih lagi, alasan pemilihan banyaknya _units_ pada suatu _layer_ (e.g., 512 dibanding 256 _units_ ) mungkin tidak dapat dijustifikasi dengan akurat. Pada _feature ablation_, kita dapat menjustifikasi alasan untuk menghilangkan suatu fitur. Pada _neural network_, kita susah menjelaskan alasan pemilihan arsitektur (dan konfigurasi parameter) karenasearch _space_ -nya jauh lebih besar.
### 13.8 Multi- _task_ Learning Subbab ini akan menjelaskan _framework_ melatih model pembelajaran mesin menggunakan _multi-task learning_ (MTL). Walaupun konsep MTL tidak terbatas pada _neural network_, bab ini membahas konsep tersebut menggunakan arsitektur _neural network_ sebagai contoh (karena itu dimasukkan ke dalam bab ini). Kami hanya memberikan penjelasan paling inti MTL menggunakan contoh yang sederhana. Pada MTL, kita melatih model untuk mengerjakan beberapa hal yang mirip atau berkaitan, secara bersamaan. Misalnya, melatih model POS _tagging_ dan _named-entity recognition_ [95], mesin penerjemah untuk beberapa pasangan bahasa [96], klasifikasi teks [97] dan _discourse parsing_ [98]. Karena model dilatih untuk beberapa permasalahan yang mirip (sejenis), kita berharap agar _model_ mampu mendapatkan “intuisi” dasar yang dapat digunakan untuk menyelesaikan semua permasalahan. Perbedaan TL (dalam konteks pembahasan sebelumnya) dan MTL terletak pada _timing_ pelatihan. Apabila pada TL, model untuk _task_ T 1 danT 2 dilatih pada waktu yang berbeda, sedangkan untuk MTL, dilatih bersamaan. Perhatikan Gambar 13.32 yang merupakan ilustrasi permasalahan POS _tagging_. Diberikan _input_ sekuens katax, kita ingin mencari sekuenstagy terbaik untuk melambangkan kelas tiap kata. Kami harap kamu masih ingat definisi permasalahan tersebut karena sudah dibahas pada bab-bab sebelumnya. Kita ingin me _model_ kan _conditional probability_ p(y|x,θ). POS _tagging_ adalah salah satu _sequence tagging task_, dimana setiap elemen _input_ berkorespondensi dengan elemen _output_. Kita dapat melatih model BiRNN ditambah dengan MLP untuk melakukan prediksi kelas kata. Sebelumnya, telah dijelaskan bahwa BiRNN mungkin lebih intuitif untuk POS _tagging_ dibanding RNN biasa. Hal ini karena kita dapat me _model_ kan “konteks” kata (surrounding _word_ s) dengan lebih baik, yaitu informasi dari kata sebelum dan sesudah (BiRNN), dibanding hanya mendapat informasi dari kata sebelum (RNN). Sekarang kamu perhatikan Gambar 13.33 yang mengilustrasikannamed entity recognition task(NER). _Named entity_ secara sederhana adalah objek yang bernama, misal lokasi geografis, nama perusahaan, dan nama orang. Pada NER, kita ingin mengekstrasi _named entity_ yang ada pada _input_. _Task_ ini biasanya direpresentasikan dengan BIO _coding scheme_. Artinya, _output_ 208 13 Arsitektur Neural Network ``` Gambar 13.32: POStagger. ``` untuk NER adalah pilihan B ( _begin_ ), I ( _inside_ ) dan O ( _outside_ ). Apabila suatu kata adalah kata pertama dari suatu _named entity_, kita mengasosiasikannya dengan _output_ B. Apabila suatu kata adalah bagian dari _named entity_, tetapi bukan kata pertama, maka diasosiasikan dengan _output_ I. Selain keduanya, diasosiasikan dengan _output_ O. Seperti POS _tagging_, NER juga merupakan _sequence tagging_ karena kita ingin me _model_ kanp(y|x,θ) untukxadalah _input_ danyadalah _output_ (BIO). ``` Gambar 13.33: _Named Entity Recognition_. ``` POS _tagging_ dan NER dianggap sebagai _task_ yang “mirip” karena keduanya memiliki cara penyelesaian masalah yang mirip. Selain dapat diselesaikan dengan cara yang mirip, kedua _task_ tersebut memiliki _nature_ yang sama. Dengan alasan ini, kita dapat melatih model untuk POS _tagging_ dan NER dengan kerangka _multi-task learning_. Akan tetapi, menentukan apakah dua _task_ memiliki _nature_ yang mirip ibarat sebuah seni (butuh _sense_ ) dibandinghard science[1]. Gambar 13.34: _Multi-task Learning_ untuk POS _tagging_ danNamed Entity Recognition. ``` 13.8 Multi- _task_ Learning 209 ``` Ide utama MTL adalah melatih _shared representation_. Sebagai ilustrasi, perhatikan Gambar 13.34. Sebelumnya, kita melatih dua model dengan BiRNN yang dilewatkan pada MLP. Pada saat ini, kita melatih BiRNN yang dianggap sebagai _shared representation_. BiRNN diharapkan memiliki “intuisi” untuk menyelesaikan kedua permasalahan, berhubung keduanya memiliki _nature_ yang sama. Setiap _hidden layer_ pada BiRNN dilewatkan pada MLP untuk melakukan prediksi pada masing-masing _task_. Tujuan utama MTL adalah untuk meningkatkan kinerja. Kita melatih model untuk _task_ Xdengan meminjam “intuisi” penyelesaikan dari _task_ Ydengan harapan “intuisi” yang dibawa dari _task_ Y dapat memberikan informasi tambahan untuk penyelesaian _task_ X. ``` Gambar 13.35: _Multi-task Learning_ pada mesin translasi. ``` Perhatikan contoh berikutnya tentang MTL pada mesin translasi (Gambar 13.35). Pada permasalahan mesin translasi, kita melatih model menggunakan _data_ paralel kombinasi pasangan bahasaX-Y. Penggunaan MTL pada mesin mesin translasi pada umumnya dimotivasi oleh dua alasan. - Pada kombinasi pasangan bahasa tertentu, tersedia _dataset_ dengan jum- lah yang banyak. Tetapi, bisa jadi kita hanya memiliki _dataset_ berukuran kecil untuk bahasa tertentu. Sebagai contoh, data mesin translasi untuk pasangan English-France lebih besar dibanding English-Indonesia. Karena kedua kombinasi pasangan bahasa memiliki _nature_ yang cukup sama, kita dapat menggunakan MTL sebagai kompensasi data English-Indonesia 210 13 Arsitektur Neural Network ``` yang sedikit agar model pembelajaran bisa konvergen. Dalam artian, _encoder_ yang dilatih menggunakan sedikit data kemungkinan memiliki performa yang kurang baik. Dengan ini, kita latih suatu _encoder_ menggunakan _data_ English-France dan English-Indonesia agar model bisa konvergen. Pada kasus ini, transfer learning juga dapat digunakan. Kita melatih _model_ English-France, kemudian memasangkan _encoder_ yang sudah dilatih dengan _decoder_ baru untuk bahasa Indonesia. ``` - Seperti yang sudah dijelaskan sebelumnya, kita ingin menggunakan “in- tuisi” penyelesaian suatu permasalahan untuk permasalahan lainnya, berhubung solusinya keduanya mirip. Dengan hal ini, kita harap kita mampu meningkatkan kinerja model. Sebagai contoh, kombinasi pasangan bahasa English-Japanese dan English-Korean, berhubung kedua bahasa target memiliki struktur yang mirip. Pada kerangka MTL, _utility function_ atau objektif _training_ adalah meminimalkanjoint _loss_ semua _tasks_ (hal ini juga membedakan TL dan MTL), diberikan pada persamaan 13.19. Kita dapat mendefinisikan _loss_ pada kerangka MTL sebagai penjumlahan _loss_ pada masing-masing _task_, seperti pada persamaan 13.20. Apabila kita mengganggap suatu _task_ lebih penting dari _task_ lainnya, kita dapat menggunakan _weighted sum_, seperti pada persamaan 13.21. Kita juga dapat menggunakan _dynamic weighting_ untuk memperhitungkan _uncertainty_ pada tiap _task_, seperti pada persamaan 13.22 [99], dimanaσ melambangkan varians _task-specific loss_. ``` LMTL=q(LT 1 ,...LTD) (13.19) ``` ``` q(LT 1 ,...LTD) = ``` #### ∑D ``` i ``` ``` LTi (13.20) ``` ``` q(LT 1 ,...LTD) = ``` #### ∑D ``` i ``` ``` αiLTi (13.21) ``` ``` q(LTi,...LTD) = ``` #### ∑D ``` i ``` #### 1 ``` 2 σ^2 i ``` ``` LTi+ ln(σi) (13.22) ``` Saat melatih MTL, tujuan _training_ dapat mempengaruhi proses penyajian _data_. Seumpama saat melatih mesin translasi untuk English-{Chinese, Japanese, Korean}, kita ingin menganggap English-Korean sebagai _main task_ sementara sisanya sebagai _supporting task_, kita dapat melakukan _pre-training_ menggunakan data English-Chinese dan English-Japanese terlebih dahulu, diikuti oleh English-Korean (tetapi _loss_ tetap _joint loss_ ). Pada kasus ini, penggunaan _joint weighted loss_ dapat dijustifikasi. Di lain pihak, apabila kita mengganggap semua _tasks_ penting, kita dapat melakukan data _shuffling_ sehingga urutan _training data_ tidak bias pa _data_ sk tertentu. Pada kasus ini, ``` 13.8 Multi- _task_ Learning 211 ``` ``` Gambar 13.36: _Multi-task Learning_ setup. ``` penggunaan _joint loss_ –sumdapat dijustifikasi. Ilustrasi diberikan pada Gambar 13.36.
### 13.2 Recurrent Neural Network Ide dasar _recurrent neural network_ (RNN) adalah membuat topologi jaringan yang mampu merepresentasikan data _sequential_ (sekuensial) atau _time series_ [77], misalkan data ramalan cuaca. Cuaca hari ini bergantung kurang lebih pada cuaca hari sebelumnya. Sebagai contoh apabila hari sebelumnya (^4) mathworks.com ``` 13.2 Recurrent Neural Network 187 ``` mendung, ada kemungkinan hari ini hujan.^5 Walau ada yang menganggap sifat data sekuensial dan _time series_ berbeda, RNN berfokus sifat data dimana _instance_ waktu sebelumnya (t−1) mempengaruhi _instance_ pada waktu berikutnya (t). Intinya, mampu mengingat _history_. Secara lebih umum, diberikan sebuah sekuens _input x_ = (x 1 ,···,xT). Dataxt(e.g., vektor, gambar, teks, suara) dipengaruhi oleh data sebelumsebelumnya ( _history_ ), ditulis sebagaiP(xt | {x 1 ,···,xt− 1 }). Kami harap kamu ingat kembali materi _markov assumption_ yang diberikan pada bab 8. Pada _markov assumption_, diasumsikan bahwa dataxt( _data point_ ) hanya dipengaruhi olehbeberapa data sebelumnya saja(analogi: _windowing_ ). Setidaknya, asumsi ini memiliki dua masalah: 1. Menentukan _window_ terbaik. Bagaimana cara menentukan banyaknya data sebelumnya (secara optimal) yang mempengaruhi data sekarang. 2. Apabila kita menggunakan _markov assumption_, artinya kita mengganggap informasi yang dimuat oleh data lama dapat direpresentasikan oleh data lebih baru, i.e.,xtjuga memuat informasixt−J,...,xt− 1 ;Jadalah ukuran window. Penyederhanaan ini tidak jarang mengakibatkan informasi yang hilang. RNN adalah salah satu bentuk arsitektur ANN untuk mengatasi masalah yang ada pada _markov assumption_. Ide utamanya adalah memorisasi,^6 kita ingin mengingatkeseluruhansekuens (dibanding _markov assumption_ yang mengingat sekuens secara terbatas), implikasinya adalah RNN yang mampu mengenali dependensi yang panjang (misalxtternyata dependen terhadap x 1 ). RNN paling sederhana diilustrasikan pada Gambar. 13.9. Ide utamanya adalah terdapat _pointer_ ke dirinya sendiri. Gambar 13.9: Bentuk konseptual paling sederhana Recurrent Neural Network. Ilustrasi Gambar. 13.9 mungkin sedikit susah dipahami karena berbentuk sangat konseptual. Bentuk lebih matematis diilustrasikan pada Gam- (^5) Mohon bertanya pada ahli meteorologi untuk kebenaran contoh ini. Contoh ini semata-mata pengalaman pribadi penulis. (^6) Tidak merujuk hal yang sama dengan _dynamic programming_. 188 13 Arsitektur Neural Network bar. 13.10 [77]. Perhitungan _hidden state_ pada waktu ke-tbergantung pada _input_ pada waktu ke-t(xt) dan _hidden state_ pada waktu sebelumnya (ht− 1 ). ``` Gambar 13.10: Konsep Recurrent Neural Network. ``` Konsep ini sesuai dengan prinsip _recurrent_ yaitumengingat(memorisasi) kejadian sebelumnya. Kita dapat tulis kembali RNN sebagai persamaan 13.1. ``` ht=f(xt,ht− 1 ,b) (13.1) ``` dimanafadalah fungsi aktivasi (non-linear, dapat diturunkan). Demi menyederhanakan penjelasan, penulis tidak mengikutsertakan _bias_ (b) pada fungsifungsi berikutnya. Kami berharap pembaca selalu mengingat bahwa bias adalah parameter yang diikutsertakan pada fungsi _artificial neural network_. Fungsifdapat diganti dengan variasi _neural network_,^7 misal menggunakan _long short-term memory network_ (LSTM) [78]. Buku ini hanya akan menjelaskan konsep paling penting, silahkan eksplorasi sendiri variasi RNN. Secara konseptual, persamaan 13.1 memiliki analogi denganfull markov chain. Artinya, _hidden state_ pada saat ke-tbergantung pada semua _hidden_ _state_ dan _inputs_ ebelumnya. ``` ht=f(xt,ht− 1 ) =f(xt,f(xt− 1 ,ht− 2 )) =f(xt,f(xt− 1 ,f({x 1 ,···,xt− 2 },{h 1 ,···,ht− 3 }))) ``` #### (13.2) _Training_ pada _recurrent neural network_ dapat menggunakan metode _backpropagation_. Akan tetapi, metode tersebut kurang intuitif karena tidak mampu mengakomodasi _training_ yang bersifat sekuensial _time series_. Untuk itu, terdapat metode lain bernama _backpropagation through time_ [79]. (^7) https://en.wikipedia.org/wiki/Recurrent_ _neural_ _ _network_ ``` 13.2 Recurrent Neural Network 189 ``` Gambar 13.11: Konsep _feed forward_ pada Recurrent Neural Network (RNN). Karena RNN menerima _input_ berupa sekuens, kita memvisualisasikan proses feed fowarddengan _unfolding_ (atauunrolling) RNN pada keseluruhan sekuens _input_. Sebagai contoh kita diberikan sebuah sekuensxdengan panjangTsebagai _input_, dimanaxtmelambangkan input ke-i( _data point_ ), dapat berupa _vektor_, gambar, teks, atau apapun. Kita melakukan _feed forward_ data tersebut ke RNN, diilustrasikan pada Gambar. 13.11. Perlu diingat, RNN mengadopsi prinsip _parameter sharing_ (serupa dengan _weight sharing_ pada CNN) dimana neuron yang sama diulang-ulang saat process _feed forward_. Setelah selesai proses _feed forward_, kita memperbaharui parameter ( _synapse weights_ ) berdasarkan propagasi _error_ ( _backpropagation_ ). Pada _backpropagation_ biasa, kita perbaharui parameter sambil mempropagasi _error_ dari _hidden state_ ke _hidden state_ sebelumnya. Teknik melatih RNN adalah _backpropagation_ through timeyang melakukan _unfolding_ pada _neural network_. Kita meng _update_ parameter saat kita sudah mencapai _hidden state_ paling awal. Hal ini diilustrasikan pada Gambar. 13.12.^8 Gambar. 13.12 dapat disederhanakan menjadi bentuk lebih abstrak (konseptual) pada Gambar. 13.13. Kita mempropagasi _error_ dengan adanya efek darinext states of hidden _layer_. _Synapse weights_ diperbaharui secara _large update_. _Synapse weight_ tidak diperbaharui per _layer_. Hal ini untuk merepresentasikan _neural network_ yang mampu mengingat beberapa kejadian masa lampau dan keputusan saat ini dipengaruhi oleh keputusan pada masa lampau juga (ingatan). Untuk mengerti proses ini secara praktikal (dapat menuliskannya sebagai program), penulis sa _rank_ an pembaca untuk melihat materi tentangcomputation graph^9 dan disertasi PhD oleh Mikolov [47]. Walaupun secara konseptual RNN dapat mengingat seluruh kejadian sebelumnya, hal tersebut sulit untuk dilakukan secara praktikal untuk sekuens yang panjang. Hal ini lebih dikenal dengan _vanishing_ atau _exploding_ gradient problem[63, 80, 81]. Seperti yang sudah dijelaskan, ANN dan variasi arsitekturnya dilatih menggunakan teknik _stochastic gradient descent_ ( _gradient_ -based optimization). Artinya, kita mengandalkan propagasi _error_ berdasarkan tu- (^8) Prinsip ini mirip dengan _weight sharing_. (^9) https://www.coursera.org/learn/ _neural_ - _network_ s- _deep_ - _learning_ / lecture/4WdOY/computation-graph 190 13 Arsitektur Neural Network ``` Gambar 13.12: Konsep _backpropagation through time_ [47]. ``` Gambar 13.13: Konsep _backpropagation through time_ [1]. Persegi berwarna merah umumnya melambangkan _multi-layer perceptron_. runan. Untuk sekuens _input_ yang panjang, tidak jarang nilai _gradient_ menjadi sangat kecil dekat dengan 0 ( _vanishing_ ) atau sangat besar ( _exploding_ ). Ketika pada satu _hidden state_ tertentu, gradient pada saat itu mendekati 0, maka nilai tersebut yang dipropagasikan pada langkah berikutnya menjadi semakin kecil. Hal serupa terjadi untuk nilai gradient yang besar. Berdasarkan pemaparan ini, RNN adalah teknik untuk merubah suatu sekuens _input_, dimana xt merepresentasikan data ke-t(e.g., vektor, gambar, teks) menjadi sebuah _output_ vektory. Vektorydapat digunakan un- ``` 13.3 Part-of-speech Tagging Revisited 191 ``` tuk permasalahan lebih lanjut (buku ini memberikan contoh _sequence to sequence_ pada subbab 13.4). Bentuk konseptual ini dapat dituangkan pada persamaan 13.3. Biasanya, nilaiydilewatkan kembali ke sebuah _multi-layer perceptron_ (MLP) dan fungsi softmax untuk melakukan klasifikasi akhir (final _output_ ) dalam bentuk probabilitas, seperti pada persamaan 13.4. ``` y= RNN(x 1 ,···,xN) (13.3) ``` _final output_ = softmax(MLP(y)) (13.4) Perhatikan, arsitektur yang penulis deskripsikan pada subbab ini adalah arsitektur paling dasar. Untuk arsitektur _state-of-the-art_, kamu dapat membaca _paper_ yang berkaitan.
### 13.5 Arsitektur Lainnya Selain arsitektur yang sudah dipaparkan, masih banyak arsitektur lain baik bersifat generik (dapat digunakan untuk berbagai karakteristik data) maupun spesifik (cocok untuk data dengan karakteristik tertentu atau permasalahan tertentu) sebagai contoh, _Restricted Boltzman Machine_ ^18 danGenerative Adversarial Network(GAN).^19 Saat buku ini ditulis, GAN dan _adversarial training_ sedang populer.
### 13.4 Sequence to Sequence Pertama-tama, kami ingin mendeskripsikan kerangka _conditioned generation_. Pada kerangka ini, kita ingin memprediksi sebuah kelasyiberdasarkan kelas yang sudah di-hasilkan sebelumnya ( _history_ yaituy 1 ,···,yi− 1 ) dan sebuahconditioning contextc(berupa vektor). Arsitektur yang dibahas pada subbab ini adalah variasi RNN untuk permasalahansequence _generation_.^11 Diberikan sekuens _input_ x= (x 1 ,···,xT). Kita ingin mencari sekuens _output_ y= (y 1 ,···,yM). Pada subbab sebelumnya,xiberkorespondensi langsung denganyi, e.g.,yiadalah kelas kata (kategori) untukxi. Tetapi, pada permasalahan saat ini,xitidak langsung berkorespondensi denganyi. Setiapyidikondisikan olehseluruhsekuens _input_ x; i.e., _conditioning context_ dan _history_ {y 1 ,···,yi− 1 }. Panjang sekuens _output_ Mtidak mesti sama dengan panjang sekuens _input_ T. Permasalahan ini masuk ke dalam kerangka _conditioned generation_ dimana keseluruhan _input_ x dapat direpresentasikan menjadi sebuah vektorc( _coding_ ). Vektorcini menjadi variabel pengkondisi untuk menghasilkan _output_ y. Pasangan _input-output_ dapat melambangkan teks bahasa X–teks bahasa Y (translasi), teks-ringkasan, kalimat- _paraphrase_, dsb. Artinya ada sebuah _input_ dan kita ingin menghasilkan ( _generate/produce_ ) sebuah _output_ yang cocok untuk _input_ tersebut. Hal ini dapat dicapai dengan mo _model_ kan pasangan _input-output_ p(y|x). Umumnya, kita mengasumsikan ada kumpulan parameterθyang mengontrol _conditional probability_, sehingga kita transformasi _conditional probability_ menjadip(y|x,θ). _Conditional probability_ p(y|x,θ) dapat difaktorkan sebagai persamaan 13.10. Kami harap kamu mampu membedakan persamaan 13.10 dan persamaan 13.5 (dan 13.8) dengan jeli. Sedikit (^11) Umumnya untuk bidang pemrosesan bahasa alami. ``` 13.4 Sequence to Sequence 195 ``` perbedaan pada formula menyebabkan makna yang berbeda. Objektif _training_ adalah untuk meminimalkan _loss function_, sebagai contoh berbentuklog _likelihood_ function diberikan pada persamaan 13.11, dimanaDmelambangkan _training data_.^12 ``` p(y|x,θ) = ``` #### ∏M ``` t=1 ``` ``` p(yt|{y 1 ,...,yt− 1 },x,θ), (13.10) ``` ``` L(θ) =− ``` #### ∑ ``` {x,y}∈D ``` ``` logp(y|x,θ) (13.11) ``` Persamaan 13.10 dapat di _model_ kan dengan _encoder-decoder_ model yang terdiri dari dua buah RNN dimana satu RNN sebagai _encoder_, satu lagi sebagai _decoder_.Neural Network, pada kasus ini, bertindak sebagaicontrolling parameter θ. Ilustrasi encoder- _decoder_ dapat dilihat pada Gambar. 13.18. Gabungan RNN _encoder_ dan RNN _decoder_ ini disebut sebagai bentuksequence to sequence. Warna biru merepresentasikan _encoder_ dan warna merah merepresentasikan _decoder_. “<EOS>” adalah suatu simbol spesial (untuk praktikalitas) yang menandakan bahwa sekuens _input_ telah selesai dan saatnya berpindah ke _decoder_. Gambar 13.18: Konsep _encoder-decoder_ [81]. “<EOS>” adalah suatu simbol spesial ( _untuk praktikalitas_ ) yang menandakan bahwa sekuens _input_ telah selesai dan saatnya berpindah ke _decoder_. Sebuah _encoder_ merepresentasikan sekuens _input_ xmenjadi satu vektor c.^13 Kemudian, _decoder_ men- _decoder_ epresentasicuntuk menghasilkan ( _generate_ ) sebuah sekuens _output_ y. Perhatikan, arsitektur kali ini berbeda dengan arsitektur pada subbab 13.3. _Encoder-decoder_ ( _neural network_ ) bertindak sebagai kumpulan parameterθyang mengatur _conditional probability_. _Encoder-decoder_ juga dilatih menggunakan prinsip _gradient-based optimization_ untuk _tuning_ parameter yang mengkondisikan _conditional probability_ [81]. Dengan ini, persamaan 13.10 sudah didefinisikan sebagai _neural network_ sebagai persamaan 13.12. “enc” dan “dec” adalah fungsi _encoder_ dan _decoder_, yaitu sekumpulan transformasi non-linear. (^12) Ingat kembali materi _cross entropy_ ! (^13) Ingat kembali bab 12 untuk mengerti kenapa hal ini sangat diperlukan. 196 13 Arsitektur Neural Network ``` yt= dec({y 1 ,···,yt− 1 },enc(x),θ) (13.12) ``` Begitu model dilatih, _encoder-decoder_ akan mencari _output_ ˆyterbaik untuk suatu inputx, dillustrasikan pada persamaan 13.13. Masing-masing komponen _encoder-decoder_ dibahas pada subbab-subbab berikutnya. Untuk abstraksi yang baik, penulis akan menggunakan notasi aljabar linear. Kami harap pembaca sudah familiar dengan representasi _neural network_ menggunakan notasi aljabar linear seperti yang dibahas pada bab 11. ``` yˆ= arg max y ``` ``` p(y|x,θ) (13.13) ``` 13.4.1 Encoder Seperti yang sudah dijelaskan, _encoder_ mengubah sekuens _input x_ menjadi satu vektorc. Suatu data point pada sekuens _input_ xt(e.g., kata, gambar, suara, dsb) umumnya direpresentasikan sebagai _feature vector_ et. Dengan demikian, _encoder_ dapat direpresentasikan dengan persamaan 13.14, dimana fadalah fungsi aktivasi non-linear;UdanWadalah matriks bobot ( _weight_ matrices–merepresentasikan _synapse weights_ ). ``` ht=f(ht− 1 ,et) =f(ht− 1 U+etW) ``` #### (13.14) Representasi _input_ cdihitung dengan persamaan 13.15, yaitu sebagai _weighted sum_ dari _hidden states_ [57], dimanaqadalah fungsi aktivasi nonlinear. Secara lebih sederhana, kita boleh langsung menggunakanhTsebagai konteksc[81] karena kita mengasumsikanhTmengandung seluruh informasi yang ada di _input_. c=q({h 1 ,···,hT}) (13.15) Walaupun disebut sebagai representasi keseluruhan sekuens _input_, informasi awal pada _input_ yang panjang dapat hilang. Artinyacbisa saja memuat lebih banyak informasi _input_ ujung-ujung akhir. Salah satu st _rate_ gi yang dapat digunakan adalah dengan membalik ( _reversing_ ) sekuens _input_. Sebagai contoh, _input_ x= (x 1 ,···,xT) dibalik menjadi (xT,···,x 1 ) agar bagian awal (···,x 2 ,x 1 ) lebih dekat dengan _decoder_ [81]. Informasi yang berada dekat dengan _decoder_ cenderung lebih diingat. Kami ingin pembaca mengingat bahwa teknik ini pun tidaklah sempurna. 13.4.2 Decoder Seperti yang sudah dijelaskan sebelumnya, encoder memproduksi sebuah _vektor_ cyang merepresentasikan sekuens _input_. _Decoder_ menggunakan representasi ini untuk memproduksi ( _generate_ ) sebuah sekuens output y = ``` 13.4 Sequence to Sequence 197 ``` (y 1 ,···,yM), disebut sebagai proses _decoding_. Mirip dengan _encoder_, kita menggunakan RNN untuk menghasilkan _output_ seperti diilustrasikan pada persamaan 13.16, dimanafmerepresentasikan fungsi aktivasi non-linear;H, E, danCmerepresentasikan _weight matrices_. _Hidden state_ h′tmelambangkan distribusi probabilitas suatu objek (e.g., POS tag, kelas kata yangberasal dari suatu himpunan) untuk menjadi _output_ yt. Umumnya,ytadalah dalam bentuk _feature-vector_ e′t. ``` h′t=f(h′t− 1 ,e′t− 1 ,c) =f(h′t− 1 H+e′t− 1 E+cC) ``` #### (13.16) Dengan penjelasan ini, mungkin pembaca berpikir Gambar. 13.18 tidak lengkap. Kamu benar! Penulis sengaja memberikan gambar simplifikasi. Gambar lebih lengkap (dan lebih nyata) diilustrasikan pada Gambar. 13.19. ``` Gambar 13.19: Konsep _encoder-decoder_ (full). ``` Kotak berwarna ungu dan hijau dapat disebut sebagai _lookup matrix_ atau _lookup table_. Tugas mereka adalah mengubah _input_ xtmenjadi bentukfeature vector-nya (e.g., _word embedding_ ) dan mengubahe′tmenjadiyt(e.g., _word_ _embedding_ menjadi kata). Komponen “ _Beam Search_ ” dijelaskan pada subbab berikutnya. 13.4.3 Beam Search Kita ingin mencari sekuens _output_ yang memaksimalkan nilai probabilitas pada persamaan 13.13. Artinya, kita ingin mencari _output_ terbaik. Pada su- 198 13 Arsitektur Neural Network atu tahapan _decoding_, kita memiliki beberapa macam kandidat objek untuk dijadikan _output_. Kita ingin mencari sekuens objek sedemikian sehingga probabilitas akhir sekuens objek tersebut bernilai terbesar sebagai _output_. Hal ini dapat dilakukan dengan algoritma _Beam Search_.^14 ``` beamSearch(problemSet, ruleSet, memorySize) openMemory = new memory of size memorySize _node_ List = problemSet.listOfNodes _node_ = root or initial search node add node to OpenMemory; while( _node_ is not a goal node) delete node from openMemory; expand node and obtain its children, evaluate those children; if a child node is pruned according to a rule in ruleSet, delete it; place remaining, non-pruned children into openMemory; if memory is full and has no room for new nodes, remove the worst _node_, de _term_ ined by ruleSet, in openMemory; _node_ = the least costly node in openMemory; ``` ``` Gambar 13.20: _Beam Search_.^15 ``` Secara sederhana, algoritma _Beam Search_ mirip dengan algoritma Viterbi yang sudah dijelaskan pada bab 8, yaitu algoritma untuk mencari sekuens dengan probabilitas tertinggi. Perbedaannya terletak padaheuristic. Untuk menghemat memori komputer, algoritma _Beam Search_ melakukan ekspansi terbatas. Artinya mencari hanya beberapa (B) kandidat objek sebagai sekuens berikutnya, dimana beberapa kandidat objek tersebut memiliki probabilitas P(yt|yt− 1 ) terbesar.Bdisebut sebagaibeam- _width_. Algoritma _Beam Search_ bekerja dengan prinsip yang mirip denganbest-first search(best-Bsearch) yang sudah kamu pelajari di kuliah algoritma atau pengenalan kecerdasan buatan.^16 Pseudo-code _Beam Search_ diberikan pada Gambar. 13.20 (direct quotation). 13.4.4 Attention-based Mechanism Seperti yang sudah dijelaskan sebelumnya, model _encoder-decoder_ memiliki masalah saat diberikan sekuens yang panjang ( _vanishing_ atau _exploding_ gradient problem). Kinerja model dibandingkan dengan panjang _input_ kurang lebih dapat diilustrasikan pada Gambar. 13.21. Secara sederhana, kinerja _model_ menurun seiring sekuens input bertambah panjang. Selain itu, representasicyang dihasilkan _encoder_ harus memuat informasi keseluruhan _input_ walaupun sulit dilakukan. Ditambah lagi, _decoder_ menggunakan representasinyacsaja tanpa boleh melihat bagian-bagian khusus _inputs_ aat _decoding_. Hal ini tidak sesuai dengan cara kerja manusia, misalnya pada kasus (^14) https://en.wikipedia.org/wiki/Beam_search (^15) https://en.wikibooks.org/wiki/Artificial_Intelligence/Search/ Heuristic_search/Beam_search (^16) https://www.youtube.com/watch?v=j1H3jAAGlEA&t=2131s ``` 13.4 Sequence to Sequence 199 ``` translasi bahasa. Ketika mentranslasi bahasa, manusia melihat bolak-balik bagian mana yang sudah ditranslasi dan bagian mana yang sekarang (difokuskan) untuk ditranslasi. Artinya, manusia berfokus pada suatu bagian _input_ untuk menghasilkan suatu translasi. ``` Gambar 13.21: Permasalahan _input_ yang panjang. ``` Sudah dijelaskan sebelumnya bahwa representasi sekuens _input_ cadalah sebuah _weighted sum_.cyang sama digunakan sebagai _input_ bagi _decoder_ untuk menentukan semua _output_. Akan tetapi, untuk suatu tahapan _decoding_ (untuk _hidden state_ h′ttertentu), kita mungkin ingin model lebih berfokus pada bagian _input_ tertentu daripada _weighted sum_ yang sifatnya generik. Ide ini adalah hal yang mendasari _attention mechanism_ [57, 58]. Ide ini sangat berguna pada banyak aplikasi pemrosesan bahasa alami. _Attention mechanism_ dapat dikatakan sebagai suatu _soft alignment_ antara _input_ dan _output_. Mekanisme ini dapat membantu mengatasi permasalahan _input_ yang panjang, seperti diilustrasikan pada Gambar. 13.22. Dengan menggunakan _attention mechanism_, kita dapat mentransformasi persamaan 13.16 pada _decoder_ menjadi persamaan 13.17, dimanaktmerepresentasikan seberapa ( _how much_ ) _decoder_ harus memfokuskan diri ke _hidden_ _state_ tertentu pada _encoder_ untuk menghasilkan _output_ saat ke-t.ktdapat dihitung pada persamaan 13.18, dimanaTmerepresentasikan panjang _input_, hiadalah _hidden state_ pada _encoder_ pada saat ke-i,h′t− 1 adalah _hidden state_ pada _decoder_ saat ket−1. ``` h′t=f′(h′t− 1 ,e′t− 1 ,c,kt) (13.17) ``` 200 13 Arsitektur Neural Network ``` Gambar 13.22: Menggunakan vs tidak menggunakan _attention_. ``` ``` kt= ``` #### ∑T ``` i=1 ``` ``` αt,ihi ``` ``` αt,i= ``` ``` exp(hi·h′t− 1 ) ∑T z=1exp(hz·h ``` ``` ′ t− 1 ) ``` #### (13.18) Sejatinyaktadalah sebuah _weighted sum_. Berbeda dengancyang bernilai sama untuk setiap tahapan _decoding_, _weight_ atau bobot (αt,i) masingmasing _hidden state_ pada encoder berbeda-beda untuk tahapan _decoding_ yang berbeda. Perhatikan Gambar. 13.23 sebagai ilustrasi (lagi-lagi, bentuk _encoder-decoder_ yang disederhanakan). Terdapat suatu bagian grafik yang menunjukkan distribusi bobot pada bagian _input representation_ dan _attention_. Distribusi bobot pada _weighted sum_ cadalah pembobotan yang bersifat generik, yaitu berguna untuk keseluruhan (rata-rata) kasus. Masing-masing _attention_ (semacam _layers_ emu) memiliki distribusi bobot yang berbeda pada tiap tahapan _decoding_. Walaupun _attention mechanism_ sekalipun tidak sempurna, ide ini adalah salah satu penemuan yang sangat penting. Seperti yang dijelaskan pada bab 11 bahwa _neural network_ susah untuk dimengerti. _Attention mechanism_ adalah salah satu cara untuk mengerti _neural_ _network_. Contoh yang mungkin lebih mudah dipahami diberikan pada Gambar. 13.24 yang merupakan contoh kasus mesin translasi [57].Attention mechanismmampu mengetahui _soft alignment_, yaitu kata mana yang harus difokuskan saat melakukan translasi bahasa (bagian _input_ mana berbobot lebih tinggi). Dengan kata lain, _attention mechanism_ memberi interpretasi kata pada _output_ berkorespondensi dengan kata pada _input_ yang mana. Sebagai informasi, menemukan cara untuk memahami (interpretasi) ANN adalah salah satu tren riset masa kini [56]. ``` 13.4 Sequence to Sequence 201 ``` ``` 𝑥! ``` ``` ... ``` ``` 𝑥" ``` ``` _Input_ Representation 𝒄 ⨁ ``` ``` Attention ``` ``` ⨁ Attention ``` ``` ⨁ Attention ``` ``` ⨁ ``` ``` <EOS> ``` ``` 𝑦! ``` ``` 𝒄 ``` ``` 𝑦# ``` ``` ... ``` ``` 𝒄 ``` ``` 𝑦$%! 𝑦$ ``` ``` Gambar 13.23: _Encoder-decoder_ with attention. ``` Gambar 13.24: _Attention mechanism_ pada translasi bahasa [57]. Warna lebih gelap merepresentasikan bobot (fokus/ _attention_ ) lebih tinggi. Sebagai contoh, kata “menendang” berkorespondensi paling erat dengan kata “kicks”. 13.4.5 Variasi Arsitektur Sequence to Sequence Selain RNN, kita juga dapat menggunakan _bidirectional_ RNN (BiRNN) untuk mengikutsertakan pengaruh baik _hidden states_ ebelum (h 1 ,···,ht− 1 ) dan setelah (ht+1,···,hT) untuk menghitung _hidden states_ ekarang (ht) [85, 86, 87]. BiRNN menganggaphtsebagai gabungan ( _concatenation_ ) _forward_ hidden _state_ h→t dan _backward hidden state_ h←t , ditulis sebagaiht=h→t +h←t.^17 _Forward hidden state_ dihitung seperti RNN biasa yang sudah dijelaskan pada subbab _encoder_, yaituh→t =f(h→t− 1 ,et). _Backward hidden state_ dihitung dengan arah terbalikh←t =f(h←t+1,et). Ilustrasi _encoder-decoder_ yang menggunakan BiRNN dapat dilihat pada Gambar. 13.25. Selain variasi RNN menjadi BiRNN kita dapat menggunakan _stacked RNN_ seperti pada Gambar. 13.26 dimana _output_ pada RNN pertama bertindak sebagai _input_ pada RNN kedua. _Hidden states_ yang digunakan untuk menghasilkan representasi _encoding_ adalah RNN pada tumpukan paling atas. Kita (^17) Perhatikan! + disini dapat diartikan sebagai penjumlahan atau konkatenasi 202 13 Arsitektur Neural Network Gambar 13.25: _Encoder-decoder_ dengan Bidirectional Recurrent Neural Net- work. juga dapat menggunakan variasi _attention mechanism_ seperti _neural_ checklist _model_ [88] atau _graph-based attention_ [89]. Selain yang disebutkan, masih banyak variasi lain yang ada, silahkan eksplorasi lebih lanjut sendiri. ``` Gambar 13.26: _Encoder-decoder_ denganstackedRecurrent Neural Network. ``` 13.4.6 Rangkuman _Sequence to sequence_ adalah salah satu bentuk _conditioned generation_. Artinya, menggunakan RNN untuk menghasilkan ( _generate_ ) suatu sekuens _output_ yang dikondisikan oleh variabel tertentu. Diktat ini memberikan contoh bagaimana menghasilkan suatu sekuens _output_ berdasarkan sekuens _input_ ( _conditioned_ ``` 13.6 Architecture Ablation 203 ``` on a sequence of input). Selain _input_ berupa sekuens, konsep ini juga dapat diaplikasikan pada bentuk lainnya. Misalnya, menghasilkan _caption_ saat input yang diberikan adalah sebuah gambar [90]. Kita ubah _encoder_ menjadi sebuah CNN (ingat kembali subbab 13.1) dan _decoder_ berupa RNN [90]. Gabungan CNN-RNN tersebut dilatih bersama menggunakan metode _backpropagation_. Perhatikan, walaupun memiliki kemiripan dengan _hidden markov model_, _sequence to sequence_ bukanlah _generative model_. Pada _generative model_, kita ingin me _model_ kan _joint probability_ p(x,y) =p(y|x)p(x) (walaupun secara tidak langsung, misal menggunakan teori Bayes). _Sequence to sequence_ adalah _discriminative model_ walaupun _output_ -nya berupa sekuens, ia tidak me _model_ kanp(x), berbeda dengan _hidden markov model_. Kita ingin me _model_ kan _conditional probability_ p(y|x) secara langsung, seperti _classifier_ lainnya (e.g., _logistic regression_ ). Jadi yang di _model_ kan antara _generative_ dandiscriminative _model_ adalah dua hal yang berbeda. Pada subbab ini, penulis memberikan contoh _attention mechanism_ yang beroperasi antara _encoder_ dan _decoder_. Masih banyak variasi lainnya seperti _self-attention_, _multi-head attention_ dan _hierarchical-attention_ [91, 92]. Walaupun motivasi dan penggunaan variasi _attention mechanism_ berbeda-beda, konsep dasarnya sama yaitu mengekstrak (atau mengambil) informasi dari bagian _network_ lainnya.
### 13.1 Convolutional Neural Network Subbab ini akan memaparkanide utamadari _convolutional neural network_ (CNN) berdasarkan _paper_ asli dari LeCun dan Bengio [76] (saat buku ini ditulis sudah ada banyak variasi). CNN memiliki banyak istilah dari bidang pemrosesan gambar (karena dicetuskan dari bidang tersebut), tetapi demi 182 13 Arsitektur Neural Network mempermudah pemahaman intuisi CNN, diktat ini akan menggunakan istilah yang lebih umum juga. Sekarang, mari kita memasuki cerita CNN dari segi pemrosesan gambar. Objek bisa saja terlatak pada berbagai macam posisi seperti diilustrasikan oleh Gambar. 13.1. Selain tantangan variasi posisi objek, masih ada juga tantangan lain seperti rotasi objek dan perbedaan ukuran objek ( _scaling_ ). Kita ingin mengenali (memproses) objek pada gambar pada berbagai macam posisi yang mungkin ( _translation invariance_ ). Salah satu cara yang mungkin adalah dengan membuat suatu mesin pembelajaran (ANN) untuk regional tertentu seperti pada Gambar. 13.2 (warna biru) kemudian meng- _copy_ mesin pembelajaran untuk mampu mengenali objek pada regional-regional lainnya. Akan tetapi, kemungkinan besar ANN _copy_ memiliki konfigurasi parameter yang sama dengan ANN awal. Hal tersebut disebabkan objek memiliki informasi prediktif (predictive information– _feature vector_ ) yang sama yang berguna untuk menganalisisnya. Dengan kata lain, objek yang sama ( _smiley_ ) memiliki pola _feature vector_ yang mirip walaupun posisinya digeser-geser. ANN (MLP) bisa juga mempelajari prinsip _translation invariance_, tetapi memerlukan jauh lebih banyak parameter dibanding CNN (subbab berikutnya secara lebih matematis) yang memang didesain dengan prinsiptranslation in _variance_ (“ _built-in_ ”). ``` Gambar 13.1: Motivasi _convolutional neural network_. ``` 13.1.1 Convolution Seperti yang sudah dijelaskan, motivasi CNN adalah untuk mampu mengenali aspek yang informatif pada regional tertentu (lokal). Dibanding meng _copy_ mesin pembelajaran beberapa kali untuk mengenali objek pada banyak regional, ide lebih baik adalah untuk menggunakan _sliding window_. Setiap ``` 13.1 Convolutional Neural Network 183 ``` ``` Gambar 13.2: Motivasi _convolutional neural network_, solusi regional. ``` operasi pada _window_ ^1 bertujuan untuk mencari aspek lokal yang paling informatif. Ilustrasi diberikan oleh Gambar. 13.3. Warna biru merepresentasikan satu _window_, kemudian kotak ungu merepresentasikan aspek lokal paling informatif (disebut _filter_ ) yang dikenali oleh _window_. Dengan kata lain, kita mentransformasi suatu _window_ menjadi suatu nilai numerik ( _filter_ ). Kita juga dapat mentransformasi suatu _window_ (regional) menjadidnilai numerik (d _channels_, setiap elemen berkorespondensi pada suatu _filter_ ). _Window_ ini kemudian digeser-geser sebanyakTkali, sehingga akhirnya kita mendapatkan _vektor_ dengan panjangd×T. Keseluruhan operasi ini disebut sebagaicon- volution.^2 ``` Gambar 13.3:Sliding window. ``` Agar kamu lebih mudah memahami prinsip ini, kami berikan contoh dalam bentuk 1-D pada Gambar. 13.4. Warna biru merepresentasikan _feature vector_ (regional) untuk suatu _input_ (e.g., regional pada suatu gambar, kata pada kalimat, dsb). Pada contoh ini, setiap 2 _input_ ditransformasi menjadi vektor berdimensi 2 (2- _channels_ ); menghasilkan vektor berdimensi 4 (2 _window_ × 2). Pada contoh sebelumnya, kita menggunakan _window_ selebar 2, satu _window_ mencakup 2 data lokal; i.e., _window_ 1 = (x 1 ,x 2 ), _window_ 2 = (x 2 ,x 3 ), ... ; untuk suatu _input x_. Kita juga dapat mempergunakan _stride_ sebesars, (^1) Dikenal juga sebagai _receptive field_. (^2) Istilah _convolution_ yang diterangkan pada konteks _machine learning_ memiliki arti yang berbeda pada bidang _signal processing_. 184 13 Arsitektur Neural Network ``` Gambar 13.4:1D Convolution. ``` yaitu seberapa banyak data yang digeser untuk _window_ baru. Contoh yang diberikan memiliki _stride_ sebesar satu. Apabila kita memiliki _stride_ =2, maka kita menggeser sebanyak 2 data setiap langkah; i.e., _window_ 1 = (x 1 ,x 2 ), _window_ 2 = (x 3 ,x 4 ),···. Selain _sliding window_ dan _filter_, _convolutional layer_ juga mengadopsi prinsip _weight_ sharing. Artinya, _synapse weights_ untuk suatu filter adalah sama walau _filter_ tersebut dipergunakan untuk berbagai _window_. Sebagai ilustrasi, perhatikan Gambar. 13.5, warna yang sama pada _synapse weights_ menunjukkansynapse _weight_ s bersangkutan memiliki nilai ( _weight_ ) yang sama. Tidak hanya pada _filter_ hitam, hal serupa juga terjadi pada _filter_ berwarna oranye (i.e., _filter_ berwarnya oranye juga memenuhi prinsip _weight sharing_ ). Walaupun memiliki konfigurasi bobot _synapse weights_ yang sama, unit dapat menghasilkan _output_ yang berbeda untuk _input_ yang berbeda. Konsep _weight sharing_ ini sesuai dengan cerita sebelumnya bahwa konfigurasi parameter untuk mengenali karakteristik informatif untuk satu objek bernilai sama walau pada lokasi yang berbeda. Dengan _weight sharing_, parameter _neural_ _network_ juga menjadi lebih sedikit dibanding menggunakan _multilayer perceptron_ ( _feed-forward_ _neural network_ ). ``` Gambar 13.5: Konsep _weight sharing_. ``` 13.1.2 Pooling Pada tahap _convolution_, kita merubah setiap _k-sized window_ menjadi satu _vektor_ berdimensid(yang dapat disusun menjadi matriksD). Semua vektor yang dihasilkan pada tahap sebelumnya dikombinasikan ( _pooled_ ) menjadi ``` 13.1 Convolutional Neural Network 185 ``` satu vektorc. Ide utamanya adalah mengekstrak informasi paling informatif (semacam meringkas). Ada beberapa teknik _pooling_, diantaranya: _max pooling_, _average pooling_, dan _K-max pooling_ ;^3 diilustrasikan pada Gambar. 13.6.Max _pooling_ mencari nilai maksimum untuk setiap dimensi vektor. _Average pooling_ mencari nilai rata-rata tiap dimensi. _K-max pooling_ mencariKnilai terbesar untuk setiap dimensinya (kemudian hasilnya digabungkan). Gabungan operasi _convolution_ dan _pooling_ secara konseptual diilustrasikan pada Gambar. 13.7. ``` Gambar 13.6: Contoh _pooling_. ``` Setelah melewati berbagai operasi convolution dan _pooling_, kita akan memiliki satu vektor yang kemudian dilewatkan pada _multilayer perceptron_ ( _fully connected_ ) untuk melakukan sesuatu (tergantung permasalahan), misal klasifikasi gambar, klasifikasi sen _time_ n, dsb (Ilustrasi pada Gambar. 13.8). 13.1.3 Rangkuman Kemampuan utama _convolutional neural network_ (CNN) adalah arsitektur yang mampu mengenali informasi prediktif suatu objek (gambar, teks, potongan suara, dsb) walaupun objek tersebut dapat diposisikan dimana saja pada _input_. Kontribusi CNN adalah pada _convolution_ dan _pooling_ layer. _Convolution_ bekerja dengan prinsip _sliding window_ dan _weight sharing_ (mengurangi kompleksitas perhitungan). _Pooling layer_ berguna untuk merangkum informasi informatif yang dihasilkan oleh suatu _convolution_ (mengurangi dimensi). Pada ujung akhir CNN, kita lewatkan satu vektor hasil beberapa operasi _convolution_ dan _pooling_ padamulti _layer_ _perceptron_ ( _feed-forward_ neural _network_ ), dikenal juga sebagai _fully connected layer_, untuk melakukan suatu pekerjaan, e.g., klasifikasi. Perhatikan, pada umumnya CNN tidak berdiri (^3) Kami ingin pembaca mengeksplorasi sendiri _dynamic pooling_. 186 13 Arsitektur Neural Network ``` Gambar 13.7: _Convolution_ dan _pooling_. ``` ``` Gambar 13.8: _Convolution_ al Neural Network.^4 ``` sendiri, dalam artian CNN biasanya digunakan (dikombinasikan) pada arsitektur yang lebih besar.
### 12.2 Singular Value Decomposition Sebelum masuk ke _autoencoder_ secara matematis, penulis akan memberikan sedikit _overview_ tentang dekomposisi matriks. Seperti yang sudah dijelaskan pada bab-bab sebelumnya, dataset dimana setiap _input_ direpresentasikan oleh _feature vector_ dapat disusun menjadi matriksXberukuranN×F, dimanaN adalah banyaknya sampel^4 danFadalah dimensi fitur. Pada _machine learning_, dekomposisi atau reduksi dimensi sangat penting dilakukan terutama ketika dataset berupa _sparse matrix_. Dekomposisi berkaitan erat denganprincipal component analysis (PCA) yang sudah kamu pelajari. Teknik PCA (melalui _eigendecomposition_ ) mendekomposisi sebuah matriksXmenjadi tiga buah matriks, seperti diilustrasikan pada persamaan 12.1. MatriksAadalah kumpulan eigenvector danλadalah sebuah diagonal matriks yang berisi nilai eigenvalue, dimanaUberukuranN×N,VberukuranN×F, danWT berukuranF×F. X=AλA−^1 (12.1) PCA membutuhkan matriks yang kamu ingin dekomposisi berbentu simetris. Sedangkan, teknik _singular value decomposition_ (SVD) tidak. Dengan konsep yang mirip dengna PCA, matriksXdapat difaktorisasi menjadi tiga buah matriks menggunakan teknik SVD, dimana operasi ini berkaitan dengan mencari eigenvectors, diilustrasikan pada persamaan 12.2. ``` X=U V WT (12.2) ``` (^4) Banyaknya training data. 166 12 Auto _encoder_ Perlu diperhatikan, matriksVadalah sebuah diagonal matriks (elemennya adalah nilai _singular value_ dariX).Udisebut _left-singular vectors_ yang tersusun atas eigenvector dariXXT. Sementara,Wdisebutright-singular vectorsyang tersusun atas eigenvector dariXTX. Misalkan kita mempunyai sebuah matriks lainVˆberukuranK×K, yaitu modifikasi matriksVdengan mengganti sejumlah elemen diagonalnya menjadi 0 (analogi seperti menghapus beberapa baris dan kolom yang dianggap kurang penting). Sebagai contoh, perhatikan ilustrasi berikut! #### V= ####  ####  ####  ####  ``` α 1 0 0 0 0 0 α 2 0 0 0 0 0 α 3 0 0 0 0 0 α 40 ``` ####  ####  ####  ####  #### Vˆ= ####  ####  ``` α 1 0 0 0 α 2 0 0 0α 3 ``` ####  ####  Kita juga dapat me-nol-kan sejumlah baris dan kolom pada matriksUdan WmenjadiUˆ(N×K) danWˆT(K×F). Apabila kita mengalikan semuanya, kita akan mendapat matriksXˆyang merupakan _approximation_ untuk matriks asliX, seperti diilustrasikan pada persamaan 12.3. Xˆ=UˆVˆWˆT (12.3) Suatu baris dari matriksE=Uˆ Vˆ dianggap sebagai aproksimasi baris matriksXberdimensi tinggi [1]. Artinya, menghitung _dot-product_ Ei·Ej= Xˆi·Xˆj. Artinya, operasi pada matriksEkurang lebih melambangkan operasi pada matriks asli. Konsep ini menjadi fundamental _autoencoder_ yang akan dibahas pada subbab berikutnya. Operasi data pada level _coding_ dianggap merepresentasikan operasi pada bentuk aslinya. Matriks aproksimasi ini memanfaatkan sejumlahKarah paling berpengaruh pada data. Dengan analogi tersebut, sama seperti mentransformasi data ke bentuk lain dimana data hasil transformasi memiliki varians yang tinggi.
### 12.1 Representation Learning Pada bab model linear, kamu telah mempelajari ide untuk mentransformasi _data_ menjadi dimensi lebih tinggi agar data tersebut menjadi _linearly separable_. Pada bab ini, kamu mempelajari hal sebaliknya, yaitu mengurangi dimensi. _Curse of dimensionality_ dapat dipahami secara mendalam apabila kamu membaca buku [65]. Untuk melakukan klasifikasi maupun _clustering_, kita membutuhkan fitur. Fitur tersebut haruslah dapat membedakan satu _instance_ dan _instance_ lainnya. Seringkali, untuk membedakan _instance_ satu dan 164 12 Auto _encoder_ _instance_ lainnya, kita membutuhkan _feature vector_ yang berdimensi relatif “besar”. Karena dimensi _feature vector_ besar, kita butuh sumber daya komputasi yang besar juga (bab 9). Untuk itu, terdapat metode-metodefeature selection^1 untuk memilih fitur-fitur yang dianggap “representatif” dibanding fitur lainnya. Sayangnya, bila kita menggunakan metode-metodefeature selectionini, tidak jarang kita kelihangan informasi yang memuat karakteristik _data_. Dengan kata lain, ada karakteristik yang hilang saat menggunakan _feature selection_. Pertanyaan yang kita ingin jawab adalah apakah ada cara untuk merepresentasikan _data_ ke dalam bentuk yang membutuhkan memori lebih sedikit tanpa adanya kehilangan informasi? Kita dapat memanfaatkan prinsipprincipal component analysisyang sudah kamu pelajari pada bab 9 untuk mereduksi dimensi data (mengurangi dimensi _input_ ), pada saat yang bersamaan, menjaga karakteristik data. _Representation learning_ adalah metode untuk melakukankompresi _feature vector_ menggunakan _neural network_.^2 Proses melakukan kompresi disebut _encoding_, hasil _feature vector_ dalam bentuk terkompres disebut _coding_, proses mengembalikan hasil kompresi ke bentuk awal disebut _decoding_.^3 Neural networkyang mampu melakukan proses _encoding_ disebut _encoder_, sedangkan _decoder_ untuk proses _decoding_ [66, 67, 68, 69, 70]. ``` Gambar 12.1: Contoh auto _encoder_ sederhana. ``` Contoh _representation learning_ paling sederhana kemungkinan besar adalah _autoencoder_ yaitu _neural network_ yang dapat merepresentasikan data kemudian merekonstruksinya kembali. Ilustrasi _autoencoder_ dapat dilihat pada (^1) [http://scikit-learn.org/stable/modules/feature_selection.html](http://scikit-learn.org/stable/modules/feature_selection.html) (^2) Istilah _representation learning_ pada umumnya mengacu dengan teknik menggunakan _neural_ _network_. (^3) Bisa dianggap sebagai proses menginterpretasikan _coding_. ``` 12.2 Singular Value Decomposition 165 ``` Gambar 12.1. Karena tujuan _encoder_ untuk kompresi, bentuk terkompresi haruslah memiliki dimensi lebih kecil dari dimensi _input_. _Neural network_ mampu melakukan “kompresi” dengan baik karena ia mampu menemukan _hidden structure_ dari data. _Autoencoder_ dilatih untuk memilimalkan meminimalkan _loss_. Kamu mungkin berpikir bahwa idealnya, _output_ harus sama dengan _input_, yaitu _autoencoder_ dengan tingkat _loss_ 0%. Akan tetapi, kita sebenarnya tidak ingin _autoencoder_ memiliki performa 100% (subbab 12.4). Contoh klasik lainnya adalah _N-gram language modelling_, yaitu memprediksi kataytdiberikan suatu konteks ( _surrounding words_ ) misal kata sebelumnyayt− 1 (bigram), i.e.,P(yt|yt− 1 ) Apabila kita mempunyai _vocabulary_ sebesar 40,000 berarti suatu bigram model membutuhkan _memory_ sebesar 40, 0002 (kombinatorial). Apabila kita ingin memprediksi kata diberikan _history_ yang lebih panjang (misal dua kata sebelumnya– _trigram_ ) maka kita membutuhkan _memory_ sebesar 40, 0003. Artinya, _memory_ yang dibutuhkan berlipat secara eksponensial. Tetapi, terdapat st _rate_ gi menggunakan _neural_ _network_ dimana parameter yang dibutuhkan tidak berlipat secara eksponensial walau kita ingin me _model_ kan konteks yang lebih besar [71].
### 12.3 Ide Dasar Auto _encoder_ Seperti yang sudah dijelaskan _autoencoder_ adalah _neural network_ yang mampu merekonstruksi _input_. Ide dasar _autoencoder_ tidak jauh dari konsep dekomposisi/di _mention_ ality reductionmenggunakan _singular value decomposition_. Diberikan datasetX, kita ingin mensimulasikan pencarian matriksXˆ yang merupakan sebuah aproksimasi dari matriks asli. Arsitektur dasar _autoencoder_ diberikan pada Gambar 12.1. Kita memberi input matriksXpada _autoencoder_, kemudian ingin _autoencoder_ tersebut menghasilkan matriks yang sama. Dengan kata lain, _desired output_ sama dengan _input_. Apabila dihubungkan dengan pembahasan ANN pada bab sebelumnya, _error function_ untuk melatih _autoencoder_ diberikan pada persamaan 12.4, dimanayadalah output dari jaringan danZadalah dimensi _output_,Nadalah banyaknya sampel danxi adalah data ke-i( _feature vector_ ke-i). ``` 12.3 Ide Dasar Auto _encoder_ 167 ``` ``` E(θ) = ``` #### 1 #### N #### ∑Z ``` i=j ``` #### ( ``` xi[j]−yi[j] ``` #### ) 2 #### (12.4) Persamaan 12.4 dapat kita tulis kembali sebagai persamaan 12.5, dimanaf melambangkan fungsi aktivasi danθadalah ANN (kumpulan _weight_ matri- ces).^5 ``` E(θ) = ``` #### 1 #### N #### ∑Z ``` j=1 ``` #### ( ``` xi[j]−f(xi,θ)[j] ``` #### ) 2 #### (12.5) Seperti yang sudah dijelaskan sebelumnya, _desired output_ sama dengan _input_. Tetapi seperti yang kamu ketahui, mencapai _loss_ sebesar 0% adalah hal yang susah. Dengan demikian, kamu dapat memahami secara intuitif bahwa _autoencoder_ melakukan aproksimasi terhadap data asli, tetapi tidak sama persis. Apabila _loss_ sebesar 0%, ditakutkan bahwa _autoencoder_ semata-mata hanya melakukan translasi (penggesaran) data saja. Gambar 12.2 mengilustrasikan hubungan antara _autoencoder_ dan _singular value decomposition_.^6 Perhatikan, ada dua proses _encoding_ yaitu merepresentasikan data ke dimensi lebih rendah dan _decoding_ –rekonstruksi kembali. ``` _Input_ ( _feature vector_ ) ``` ``` _Output_ (reconstruction of feature vector) ``` ``` Coding ```
### 12.4 Resisting Perturbation Pada subbab sebelumnya, telah dijelaskan bahwa mencapai performa 100% (100% rekonstruksi) pada _autoencoder_ adalah hal yang tidak diinginkan. Hal ini disebabkan karena kita ingin menghindari _autoencoder_ semata-mata hanya mempelajari _trivial identity function_ [11], memiliki analogi denganone-toone mapping. Misalnya, suatu gambar kuda dipetakan ke _coding_ c, kemudian gambar kuda lainnya dipetakan ke _coding_ ˆc, danˆctidak mirip denganc, i.e., _cosine similarity_ -nya jauh. Artinya kita ingin _autoencoder_ merepresentasikan dua hal yang mirip ke dalam bentuk representasi _coding_ yang mirip juga! Walaupun kita ingin performa _autoencoder_ tidak mencapai 100%, tapi kita masih ingin performanya dekat dengan 100%. Tujuan utama _autoencoder_ adalah mengekstraksi informasi penting tentang _data_ yang ada (seperti _principal components_ ), bukan replikasi semata. Dengan alasan ini, _coding_ pada umumnya memiliki dimensi lebih rendah dibanding _input_. Kita sebut arsitektur ini sebagai _undercomplete autoencoder_. Apabila _coding_ memiliki dimensi lebih besar dari _input_, disebut sebagaiovercomplete _autoencoder_ –yang kemungkinan besar hanya mempelajaritrivial identity function[11]. Kita dapat menggunakan teknik regularisasi pada _autoencoder_ untuk memastikan tujuan kita tercapai, misal _sparse autoencoder_, _denoising autoencoder_ dan _penalizing derivaties_ [11]. Untuk mengilustrasikan permasalahan, buku ini membahas _denoising autoencoder_ (silahkan baca buku [11] untuk teknik regularisasi lainnya). Diberikan suatu _input_ x, kemudian kita lakukan _noise-injection_ terhadap _input_ tersebut, menghasilkan ̃x. Perhatikan Gambar 12.3, kita ingin _encoder_ memberikan bentuk _coding_ yang mirip bagixdan ̃x. Kita ingin memaksa _autoencoder_ untuk mempelajari sebuah fungsi yang tidak berubah terlalu jauh ketika _inputs_ edikit diubah. Hal ini disebut sebagai sifat _resistance to perturbation_. Performa _autoencoder_ yang bernilai 100% berbahaya karena _autoencoder_ tersebut belum tentu mampu mempelajari sifat data, melainkan mampu “mengingat” _training data_ saja ( _mapping table_ ). Objektifdenoising _autoencoder_ diberikan pada persamaan 12.9, yaitu kemampuan merekonstruksi kembali data tanpa _noise_. ``` E(θ) = ``` #### 1 #### N #### ∑Z ``` j=1 ``` #### ( ``` xi[j]−f( ̃xi,θ)[j] ``` #### ) 2 #### (12.9) 170 12 Auto _encoder_ ``` Gambar 12.3:Resisting Perturbation. ``` Gambar 12.4: _Autoencoder_ yang memiliki sifat _resistance to perturbation_, yaitu invarian terhadap sedikit perubahan. ``` Gambar 12.5:Mani _fold_ s. ``` Implikasi atau tujuan dari persamaan 12.9 diberikan pada Gambar 12.4 yang mengilustrasikan _invariant to slight changes_. Diberikan data dengan dis- (^8) https://jaan.io/what-is-variational- _autoencoder_ -vae-tutorial/ ``` 12.5 Representing Context: Word Embedding 171 ``` tribusi aslip _data_, dan data yang sudah terkena _noise_ ̃x, _autoencoder_ mampu mengembalikan ̃xke bentuk aslix. Sebagai ilustrasi yang lebih “global”, perhatikan Gambar 12.5 dimana suatu elips melambangkan _manifolds_, dimana _data_ yang mirip (e.g., kuda dengan berbagai macam pose) berada pada ruang yang cukup dekat satu sama lain. Kamu dapat memahamiresistance to perturbationmembuat _autoencoder_ membentuk semacam “ruang lokal” yang merepresentasikan suatu data dan variannya.
### CBOW Skip-gram Gambar 12.8: CBOW ( _Continous bag of words_ ) vs Skip-gram, rekonstruksi [49]. ``` Si Kucingduduk ...tiker ``` ``` Projection (Embedding) ``` ``` beralaskan ``` ``` Gambar 12.9: CBOW. ``` ``` 12.5 Representing Context: Word Embedding 177 ``` level abstrak, yaitu merepresentasikan kata dan konteksnya menjadi bentuk _vektor_. Apabila kamu tertarik untuk memahami detilnya secara matematis, kamu dapat membaca berbagai penelitian terkait.^14 Silahkan baca _paper_ oleh Mikolov [48, 49] untuk detil implementasi _word embedding_. 12.5.4 Distributed Sentence Representation Kita sudah dapat merepresentasikan kata menjadi vektor, selanjutnya kita ingin mengonversi unit lebih besar (kalimat) menjadi vektor. Salah satu cara paling mudah adalah menggunakan nilai rata-rata representasi _word embedding_ untuk semua kata yang ada pada kalimat tersebut ( _average_ of its individual _word embedding_ s). Cara ini sering digunakan pada bidang NLP dan cukup _powerful_, sebagai contoh pada _paper_ oleh Putra dan Tokunaga [75]. Pada NLP, sering kali kalimat diubah terlebih dahulu menjadi vektor sebelum dilewatkan pada algoritma _machine learning_, misalnya untuk analisis sen _time_ n (kalimat bersen _time_ n positif atau negatif). Vektor ini yang nantinya menjadifeature vectorbagi algoritma _machine learning_. Kamu sudah tahu bagaimana cara mengonversi kata menjadi vektor, untuk mengonversi kalimat menjadi vektor cara sederhananya adalah merataratakan nilai vektor kata-kata pada kalimat tersebut. Tetapi dengan cara sederhana ini, sifat sekuensial dan _compositional_ pada kalimat tidak terpenuhi. Sebagai contoh, kalimat “anjing menggigit Budi” dan “Budi menggigit anjing” akan direpresentasikan sebagai vektor yang sama karena terdiri dari kata-kata yang sama. Dengan demikian, representasi kalimat sederhana dengan merata-ratakan vektor kata-katanya juga tidaklah sensitif terhadap urutan.^15 Selain itu, rata-rata tidak sensitif terhadap _compositionality_. Misal frase “bukan sebuah pengalaman baik” tersusun atas frase “bukan” yang diikuti oleh “sebuah pengalaman baik”. Rata-rata tidak mengetahui bahwa “bukan” adalah sebuah _modifier_ untuk sebuah frase dibelakangnya. Sen _time_ n dapat berubah bergantung pada komposisi kata-katanya (contoh pada Gambar 12.10). Cara lainnya adalah meng- _encode_ kalimat sebagai _vektor_ menggunakan _recursive autoencoder_. _Recursive_ berarti suatu bagian adalah komposisi dari bagian lainnya. Penggunaan _recursive autoencoder_ sangat rasional berhubung _data_ memenuhi sifat _compositionality_ yang direpresentasikan dengan baik oleh topologi _recursive neural network_. Selain itu, urutan susunan kata-kata juga tidak hilang. Untuk melatih _recursive autoencoder_, _output_ dari suatu layer adalah rekonstruksi _input_, ilustrasi dapat dilihat pada Gambar 12.11. Pada setiap langkah _recursive_, _hidden layer/coding layer_ berusaha men- _decode_ atau merekonstruksi kembali vektor _input_. Lebih jauh, untuk sen _time_ n analisis pada kata, kita dapat menambahkan _output_ pada setiap _hidden layer_, yaitu sen _time_ n unit gabungan, seperti pada (^14) Beberapa orang berpendapat bahwa _evil is in the detail_. (^15) Karena ini _recurrent neural network_ bagus untuk _language modelling_. (^16) [http://nlp.stanford.edu:8080/sen _time_ nt/rntnDemo.html](http://nlp.stanford.edu:8080/sen _time_ nt/rntnDemo.html) 178 12 Auto _encoder_ ``` Gambar 12.10: Contoh analisis sen _time_ n (Stanford).^16 ``` ``` Gambar 12.11: Contoh recursive auto _encoder_. ``` Gambar 12.12. Selain menggunakan _recursive autoencoder_, kamu juga dapat menggunakan _recurrent autoencoder_. Kami silahkan pada pembaca untuk memahami _recurrent autoencoder_. Prinsipnya mirip dengan _recursive_ autoen- coder. Teknik yang disampaikan mampu mengonversi kalimat menjadi vektor, lalu bagaimana dengan paragraf, satu dokumen, atau satu frasa saja? Teknik umum untuk mengonversi teks menjadi vektor dapat dibaca pada [69] yang lebih dikenal dengan nama _paragraph vector_ atau _doc2vec_. ``` 12.6 Tips 179 ``` ``` Gambar 12.12: Contoh recursive auto _encoder_ dengan sen _time_ nt[67]. ```
### 12.6 Tips Bab ini menyampaikan penggunaan _neural network_ untuk melakukankompresi _data_ ( _representation learning_ ) dengan teknik _unsupervised learning_. Hal yang lebih penting untuk dipahami bahwa ilmu _machine learning_ tidak berdiri sendiri. Walaupun kamu menguasai teknik machine learning tetapi tidak mengerti domain dimana teknik tersebut diaplikasikan, kamu tidak akan bisa membuat _learning machine_ yang memuaskan. Contohnya, pemilihan fiturmachine _learning_ pada teks (NLP) berbeda dengan gambar ( _computer vision_ ). Mengerti _machine learning_ tidak semata-mata membuat kita bisa menyelesaikan semua macam permasalahan. Tanpa pengetahuan tentang domain aplikasi, kita bagaikan orang buta yang ingin menyetir sendiri!
### Soal Latihan 12.1. Penggunaan Auto _encoder_ untuk Arsitektur Kompleks (a) Pada bab ini, telah dijelaskan bahwa kita dapat menginisialisasi arsitektur _neural network_ yang kompleks menggunakan _autoencoder_. Jelaskan pada kasus apa kita dapat melakukan hal tersebut! (b) Jelaskan mengapa menginisiasi (sebagian) arsitektur kompleks menggunakan _autoencoder_ adalah sesuatu yang masuk akal! 12.2. LSI dan LDA ``` (a) Jelaskanlah Latent Semantic Indexing (LSI) dan Latent Dirichlet Allocation (LDA)! ``` 180 12 Auto _encoder_ (b) Apa persamaan dan perbedaan antara LSI, LDA, dan _autoencoder_ ? 12.3. Variational Auto _encoder_ Jelaskan apa itu _variational autoencoder_ ! Deskripsikan perbedaannya dengan _autoencoder_ yang sudah dijelaskan pada bab ini?
### 12.5 Representing Context: Word Embedding Subbab ini menceritakan salah satu aplikasi _autoencoder_. Pada domain NLP, kita ingin komputer mampu mengerti bahasa selayaknya manusia mengerti bahasa. Misalkan komputer mampu mengetahui bahwa “meja” dan “kursi” memiliki hubungan yang erat. Hubungan seperti ini tidak dapat terlihat berdasarkan teks tertulis, tetapi kita dapat menyusun kamus hubungan kata seperti WordNet.^9 WordNet memuat ontologi kata seperti hipernim, antonim, sinonim. Akan tetapi, hal seperti ini tentu sangat melelahkan, seumpama ada kata baru, kita harus memikirkan bagaimana hubungan kata tersebut terhadap seluruh kamus yang sudah dibuat. Pembuatan kamus ini memerlukan kemampuan para ahli linguistik. Oleh sebab itu, kita harus mencari cara lain untuk menemukan hubungan kata ini. Ide utama untuk menemukan hubungan antarkata adalah _statistical_ semantics hypothesisyang menyebutkan pola penggunaan kata dapat digunakan untuk menemukan arti kata [74]. Contoh sederhana, kata yang muncul pada “konteks” yang sama cenderung memiliki makna yang sama. Perhatikan “konteks” dalam artian NLP adalah kata-kata sekitar (surrounding _word_ s);^10 contohnya kalimat “ _budi menendang bola_ ”, “konteks” dari “bola” adalah “budi menendang”. Kata “cabai” dan “permen” pada kedua kalimat “budi suka cabai” dan “budi suka permen” memiliki kaitan makna, dalam artian keduanya muncul pada konteks yang sama. Sebagai manusia, kita tahu ada keterkaitan antara “cabai” dan “permen” karena keduanya bisa dimakan. Berdasarkan hipotesis tersebut, kita dapat mentransformasi kata menjadi sebuah bentuk matematis dimana kata direpresentasikan oleh pola penggunaannya [64]. Arti kata _embedding_ adalah transformasi kata (beserta konteksnya) menjadi bentuk matematis ( _vektor_ ), i.e., mirip/sama dengan _coding_. “Kedekatan hubungan makna” ( _semantic relationship_ ) antarkata kita harapkan dapat tercermin pada operasi vektor. Salah satu metode sederhana untuk merepresentasikan kata sebagai vektor adalahVector Space Model. Konsep _embedding_ dan _autoencoder_ sangatlah dekat, tapi kami ingin menakankan bahwa _embedding_ adalah bentuk representasi konteks. (^9) https:// _word_ net.princeton.edu/ (^10) Selain _surrounding words_, konteks dalam artian NLP dapat juga berupa kalimat, paragraph, atau dokumen. 172 12 Auto _encoder_ ``` Dokumen 1 Dokumen 2 Dokumen 3 Dokumen 4··· King 1 0 0 0 ··· Queen 0 1 0 1 ··· Prince 1 0 1 0 ··· Princess 0 1 0 1 ··· ··· ``` ``` Tabel 12.1: Contoh 1-of-V en _coding_. ``` _Semantic relationship_ dapat diartikan sebagai attributional atau _relational similarity_. _Attributional similarity_ berarti dua kata memiliki atribut/sifat yang sama, misalnya anjing dan serigala sama-sama berkaki empat, menggongong, serta mirip secara fisiologis. _Relational similarity_ berarti derajat korespondensi, misalnyaanjing:menggongongmemiliki hubungan yang erat dengankucing:mengeong. 12.5.1 Vector Space Model _Vector space model_ (VSM)^11 adalah bentuk _embedding_ yang relatif sudah cukup lama tapi masih digunakan sampai saat ini. Pada pe _model_ an ini, kita membuat sebuah matriks dimana baris melambangkan kata, kolom melambangkan dokumen. Metode VSM ini selain mampu menangkap hubungan antarkata juga mampu menangkap hubungan antardokumen ( _to some degree_ ). Asal muasalnya adalah _statistical semantics hypothesis_. Tiap sel pada matriks berisi nilai 1 atau 0. 1 apabilakataimuncul didokumenidan 0 apabila tidak. Model ini disebut _1-of-V/1-hot encoding_ dimanaV adalah ukuran kosa kata. Ilustrasi dapat dilihat pada Tabel 12.1. Akan tetapi, _1-of-V encoding_ tidak menyediakan banyak informasi untuk kita. Dibanding sangat ekstrim saat mengisi sel dengan nilai 1 atau 0 saja, kita dapat mengisi sel dengan frekuensi kemunculan kata pada dokumen, disebut _term frequency_ (TF). Apabila suatu kata muncul pada banyak dokumen, kata tersebut relatif tidak terlalu ”penting” karena muncul dalam berbagai konteks dan tidak mampu membedakan hubungan dokumen satu dan dokumen lainnya ( _inverse document frequency_ /IDF). Formula IDF diberikan pada persamaan 12.10. Tingkat kepentingan kata berbanding terbalik dengan jumlah dokumen dimana kata tersebut dimuat.Nadalah banyaknya dokumen,|dD;td|adalah banyaknya dokumen dimana katatmuncul. ``` IDF(t,D) = log ``` #### ( #### N ``` |dD;td| ``` #### ) #### (12.10) Dengan menggunakan perhitungan TF-IDF yaituTF×IDFuntuk mengisi sel pada matriks Tabel 12.1, kita memiliki lebih banyak informasi. TF-IDF (^11) Mohon bedakan dengan VSM ( _vector space model_ ) dan SVM ( _support vector_ machine) ``` 12.5 Representing Context: Word Embedding 173 ``` sampai sekarang menjadi _baseline_ pada _information retrieval_. Misalkan kita ingin menghitung kedekatan hubungan antar dua dokumen, kita hitung _cosine distance_ antara kedua dokumen tersebut ( _vektor_ suatu dokumen disusun oleh kolom pada matriks). Apabila kita ingin menghitung kedekatan hubungan antar dua kata, kita hitung _cosine distance_ antara kedua kata tersebut dimana vektor suatu kata merupakan baris pada matriks. Tetapi seperti intuisi yang mungkin kamu miliki, mengisi _entry_ dengan nilai TF-IDF pun akan menghasilkan _sparse matrix_. ``` _Statistical semantics hypothesis_ diturunkan lagi menjadi empat macam hipotesis [74]: 1. _Bag of words_ 2. _Distributional hypothesis_ 3. _Extended distributional hypothesis_ 4. _Latent relation hypothesis_ Silakan pembaca mencari sumber tersendiri untuk mengerti keempat hipotesis tersebut atau membaca _paper_ Turney dan Pantel [74]. ``` 12.5.2 Sequential, Time Series dan Compositionality Bahasa manusia memiliki dua macam karakteristik yaitu adalah data berbentuk _sequential_ _data_ dan memenuhi sifat _compositionality_. _Sequential data_ adalah sifat data dimana suatu kemunculan _data_ idipengaruhi oleh data sebelumnya ( _data_ i− 1 , _data_ i− 2 ,...). Perhatikan kedua kalimat berikut: 1. Budi melempar bola. 2. Budi melempar gedung bertingkat. Pada kedua kalimat tersebut, kalimat pertama lebih masuk akal karena bagaimana mungkin seseorang bisa melempar gedung bertingkat. Keputusan kita dalam memilih kata berikutnya dipengaruhi oleh kata-kata sebelumnya, dalam hal ini “Budi melempar” setelah itu yang lebih masuk akal adalah “bola”. Contoh lain adalah data yang memiliki sifat _time series_ yaitu gelombang laut, angin, dan cuaca. Kita ingin memprediksi data dengan rekaman masa lalu, tapi kita tidak mengetahui masa depan. Kita mampu memprediksi cuaca berdasarkan rekaman parameter cuaca pada hari-hari sebelumnya. Ada yang berpendapat beda _time series_ dan _sequential_ (sekuensial) adalah diketahuinya sekuens kedepan secara penuh atau tidak. Penulis tidak dapat menyebutkan _time series_ dan sekuensial sama atau beda, silahkan pembaca menginterpretasikan secara bijaksana. Data yang memenuhi sifat _compositionality_ berarti memiliki struktur hirarkis. Struktur hirarkis ini menggambarkan bagaimana unit-unit lebih kecil berinteraksi sebagai satu kesatuan. Artinya, interpretasi/pemaknaan unit yang lebih besar dipengaruhi oleh interpretasi/pemaknaan unit lebih kecil 174 12 Auto _encoder_ (subunit). Sebagai contoh, kalimat “saya tidak suka makan cabai hijau”. Unit ”cabai” dan ”hijau” membentuk suatu frasa ”cabai hijau”. Mereka tidak bisa dihilangkan sebagai satu kesatuan makna. Kemudian interaksi ini naik lagi menjadi kegiatan “makan cabai hijau” dengan keterangan “tidak suka”, bahwa ada seseorang yang “tidak suka makan cabai hijau” yaitu “saya”. Pemecahan kalimat menjadi struktur hirarkis berdasarkan _syntactical role_ disebutconstituent parsing, contoh lebih jelas pada Gambar 12.6.Nadalah _noun_,D adalah _determiner_,NPadalah _noun phrase_,VPadalah _verb phrase_, danS adalah _sentence_. Selain bahasa manusia, gambar juga memiliki struktur hirarkis. Sebagai contoh, gambar rumah tersusun atas tembok, atap, jendela, dan pintu. Tembok, pintu, dan jendela membentuk bagian bawah rumah; lalu digabung dengan atap sehingga membentuk satu kesatuan rumah. ``` Gambar 12.6: Contoh constituent tree.^12 ``` 12.5.3 Distributed Word Representation Seperti yang disebutkan pada bagian sebelumnya, kita ingin hubungan kata (yang di _infer_ ensi dari konteksnya) dapat direpresentasikan sebagai operasi _vektor_ seperti pada ilustrasi Gambar 12.7. Kata “raja” memiliki sifat-sifat yang dilambangkan oleh suatu vektor (misal 90% aspek loyalitas, 80% kebijaksanaan, 90% aspek kebangsaan, dst), begitu pula dengan kata “pria”, “wanita”, dan “ratu”. Jika sifat-sifat yang dimiliki “raja” dihilangkan bagian sifat-sifat “pria”-nya, kemudian ditambahkan sifat-sifat “wanita” maka idealnya operasi ini menghasilkan vektor yang dekat kaitannya dengan “ratu”. Dengan kata lain, raja yang tidak maskulin tetapi fenimin disebut ratu. Seperti yang disebutkan sebelumnya, ini adalah tujuan utama _embedding_ yaitu merepresentasikan “makna” kata sebagai vektor sehingga kita dapat memanipulasi banyak hal berdasarkan operasi vektor. Hal ini mirip (tetapi tidak sama) (^12) source: Pinterest ``` 12.5 Representing Context: Word Embedding 175 ``` dengan prinsip _singular value decomposition_ dan _autoencoder_ yang telah dijelaskan sebelumnya. ``` Gambar 12.7: Contoh operasi vektor kata. ``` Selain _vector space model_, apakah ada cara lain yang mampu merepresentasikan kata dengan lebih baik? Salah satu kekurangan VSM adalah tidak memadukan sifat sekuensial pada konstruksi vektornya. Cara lebih baik d _item_ ukan oleh [48, 49] dengan ekstensi pada [70]. Idenya adalah menggunakan teknik _representation learning_ dan prinsip _statistical semantics hypothesis_. Metode ini lebih dikenal dengan sebutan _word_ 2 vec. Tujuan _word_ 2 vec masih sama, yaitu merepresentasikan kata sebagai vektor, sehingga kita dapat melakukan operasi matematis terhadap kata. _Encoder_ -nya berbentukContinous bag of words(CBOW)atauSkip-gram. Pada CBOW, kita memprediksi kata diberikan suatu “konteks”. Pada arsitektur ”Skip-gram” kita memprediksi konteks, diberikan suatu kata. Ilustrasi dapat dilihat pada Gambar 12.8. Bagian _projection layer_ pada Gambar 12.8 adalah _coding_ layer. Kami akan memberikan contoh CBOW secara lebih detil. Kedua arsitektur ini dapat dilatih menggunakan _one-hot encoding_, i.e.,wimerepresentasikanone-hot _encoding_ untuk kata ke-i. Perhatikan Gambar 12.9. Diberikan sebuah konteks “si kucing duduk ... tiker”. Kita harus menebak apa kata pada “...” tersebut. Dengan menggunakan teknik _autoencoder_, _output layer_ adalah distribusi probabili _task_ atai pada konteks tersebut. Kata yang menjadi jawaban adalah kata dengan probabilitas terbesar, misalkan pada kasus ini adalah “beralaskan”. Dengan arsitektur ini, prinsip sekuensial atau _time series_ dan _statistical semantics hypothesis_ terpenuhi ( _to a certain extent_ ). Teknik ini adalah salah satu contoh penggunaan _neural_ _network_ untuk _unsupervised learning_. Kita tidak perlu mengkorespondensikan kata dan _output_ yang sesuai karena _input vektor_ didapat dari statistik penggunaan kata. Agar lebih tahu kegunaan vektor kata, kamu dapat mencoba kode dengan bahasa pemrograman Python 2.7 yang disediakan penulis.^13 Buku ini telah menjelaskan ide konseptual _word embedding_ pada (^13) https://github.com/wiragotama/GloVe_Playground 176 12 Auto _encoder_ ``` 𝑤!"# ``` ``` 𝑤!$% ``` ``` 𝑤!"% ``` ``` 𝑤!$# ``` ``` 𝑤! ``` ``` Weighted Sum ``` ``` INPUT OUTPUT ``` ``` 𝑤! ``` ``` 𝑤!"# ``` ``` 𝑤!$% ``` ``` 𝑤!"% ``` ``` 𝑤!$# ``` ``` Projection (Representation) ``` ``` INPUT OUTPUT ```
### 9.3 Feature Selection Pada pembelajaran mesin, pada umumnya kita menggunakan banyak (lebih dari satu) fitur. Artinya kita merepresentasikan setiap _record_ ( _instance_ ) atau _inputs_ ebagai suatu vektorx∈R^1 ×F; dimanaFmelambangkan dimensi vektor atau banyaknya fitur. Seringkali,F bernilai besar sehingga model yang kita miliki kompleks. Kita tentunya ingin mengurangi kompleksitas dengan (^1) Curse of Dimensionality ``` 9.3 Feature Selection 119 ``` alasan-alasan yang sudah disebutkan pada subbab 9.2. Alasan lainnya karena belum tentu semua fitur berguna. Cara termudah adalah dengan menghapus fitur yang memiliki nilai varians = 0. Sayang sekali, hal ini tidak selalu terjadi. Subbab ini membahas teknik-teknik yang dapat digunakan untuk menyederhanakan fitur (mengurangi dimensi input). 9.3.1 Subset Selection (Feature Ablation) Cara paling intuitif untuk mencari tahu kombinasi fitur terbaik adalah dengan mencoba seluruh kombinasi fitur. Misal kita mempunyai fitur sebanyakF, kita bisa pilih untuk menggunakan atau tidak menggunakan masing-masing fitur, menghasilkan kombinasi sebanyak 2F. Dari keseluruhan kombinasi tersebut, kita pilih suatu kombinasi fitur yang memerikan kinerja terbaik. Akan tetapi, metode _brute force_ ini terlalu memakan waktu. Kita dapat juga menggunakan teknik _greedy_ yaitu _forward selection_ dan _backward selection_.Forwarddan _backward selection_ sering juga disebut sebagai _feature ablation_. Pada _forward selection_, kita mulai dengan suatu model yang tidak menggunakan fitur apapun sama sekali, yaitu meng- _assign_ kelas yang paling sering muncul di dataset, pada _input_. Setelah itu, kita tambahkan satu per satu fitur pada setiap langkah. Langkah berikutnya, kita gunakan satu fitur. DiantaraF pilihan fitur, kita cari fitur yang memberi nilai terbaik. Kemudian, pada tahap berikutnya, kita kombinasikan fitur yang kita pilih pada langkah sebelumnya dengan fitur yang tersisa. Hal ini terus diulang sampai kita sudah menggunakan seluruh fitur pada model kita. Untuk mencari model terbaik, kita hanya perlu mencari kombinasi fitur yang memberikan nilai kinerja terbaik.Forward selectiondiilustrasikan pada Gambar 9.1. Dibanding _brute force_ yang bersifat eksponensial, _forward selection_ membentuk suatu deret aritmatika kombinasi fitur yang dicoba, yaituF+ (F−1) +···+ 1 =F(F+ 1)/2. Apabila kita memiliki fitur sebanyakF = 10, kombinasi _brute force_ menghasilkan 1, 024 kombinasi, sementara _forward selection_ hanya sebanyak 45. ``` Gambar 9.1: Ilustrasi _forward selection_ untuk tiga fitur. ``` _Backward selection_ adalah kebalikan dari _forward selection_. Apabila pada _forward selection_, kita menambahkan satu fitur tiap langkah, _backward_ selec- 120 9 Seleksi Fitur dan Metode Evaluasi tionmengurangi satu fitur pada tiap langkah. Ilustrasi diberikan pada Gambar 9.2. Seperti _forward selection_, _backward selection_ juga hanya mencoba sebanyakF(F+ 1)/2 kombinasi. Kita juga dapat menggabungkan _forward_ dan _backward selection_ menjadi metode _hybrid_, yaitu menambah satu fitur pada tiap langkah, serta memperbolehkan untuk menghilangkan fitur juga [20]. ``` Gambar 9.2: Ilustrasi _backward selection_ untuk tiga fitur. ``` 9.3.2 Shrinkage Ingat kembali materi bab 5 tentang _regularization_. Seperti yang sudah dijelaskan, kita ingin agar model kita sesederhana mungkin. Mengurangi dimensi fitur adalah cara mengurangi kompleksitas. Ingat kembali, dengan menggunakan suatu fungsi regularisasi, objektif pembelajaran adalah meminimalkan _loss_ dan kompleksitas, seperti pada persamaan 9.1. Kompleksitas model dapat dihitung menggunakanL 2 (Ridge, persamaan 9.2) atauL 1 (Lasso, persamaan 9.3) norm. Karena kita ingin meminimalkan norm, artinya kita juga membuat parameter model pembelajaran mesin bernilai dekat dengan nol. Pada metode Ridge, kita ingin meminimalkan fungsi eksponensial, sementara fungsi skalar pada Lasso. Artinya, Lasso lebih cenderung untuk menghasilkan suatu model yang bersifat _sparse_. Dengan kata lain, Lasso melakukansubset _feature selection_ seperti yang sudah dijelaskan pada subbab sebelumnya. Sementara itu, Ridge cenderung tidak meng-nol-kan parameter, melainkan hanyadekatdengan nol [20]. Kamu mungkin berpikir, kenapa kita tidak menggunakan Lasso saja, berhubung ia mengeleminasi fitur. Pada metode Ridge, semua fitur tetap digunakan walaupun nilainya diturunkan ( _shrink_ ) agar dekat dengan nol. Hal ini, walaupun tidak mengeleminasi fitur, dapat mengurangi variasi kinerja model.^2 (dijelaskan pada subbab 9.5) ``` wˆ= arg min w ``` ``` L(w) +λR(w) (9.1) ``` ``` R(w) =‖w‖^22 = ``` #### ∑ ``` i ``` ``` (wi)^2 (9.2) ``` (^2) baca buku [20] untuk pembuktiannya ``` 9.3 Feature Selection 121 ``` ``` R(w) =‖w‖= ``` #### ∑ ``` i ``` ``` |wi| (9.3) ``` Secara singkat, Ridge digunakan untuk menghasilkan model yang varian kinerjanya kecil. Sementara itu, Lasso digunakan untuk menghasilkan model yang mudah dimengerti ( _interpretability_ ) dengan mengeliminasi fitur. 9.3.3 Principal Components Analysis (Dimensionality Reduction) Teknik-teknik sebelumnya berfokus pada cara mengeleminasi fitur. Akan tetapi, penghapusan suatu fitur berpotensi pada model yang tidak mampu mengerti kompleksitas permasalahan. Dengan kata lain, _oversimplification_. Dibanding menghapus fitur, cara lain untuk mengurangi kompleksitas komputasi adalah mentransformasi data ke dalam dimensi lebih kecil. Untuk _input_ yang memilikiFfitur, kita kurangi dimensi _input_ menjadiM < F(dimensionality reduction). Apabila kita mampu mengurangi dimensi _input_, maka kita juga dapat mengurangi jumlah parameter pada model pembelajaran mesin, yang artinya mengurangi kompleksitas komputasi dan meningkatkaninter- pretability. Ide utama _dimensionality reduction_ adalah mentransformasi data dari suatu _space_ ke _space_ lainnya, dimana data direpresentasikan dengan dimensi lebih kecil. Dengan catatan, data dengan dimensi lebih kecil harus mampu merepresentasikan karakteristik data pada dimensi aslinya! Dengan demikian, satu fitur pada dimensi yang baru mungkin memuat informasi beberapa fitur pada dimensi aslinya. Walaupun model yang kita hasilkan lebih sederhana secara jumlah parameter, tetapi kita membutuhkan usaha ekstra untuk mengerti representasi fitur-fitur pada dimensi yang baru. Teknik yang digunakan untuk mengurangi dimensi adalahprincipal component analysis. Ide dasarnya adalah mencari bentuk data (pada dimensi lebih kecil) yang memiliki nilai varians tinggi untuk tiap fiturnya, karena varians yang tinggi berarti kemampuan fitur yang tinggi dalam melakukan diskriminasi (klasifikasi). Kita ingin mencari suatu arah ( _vektor_, matriks, tensor) dimana data kita memiliki varians tertinggi. Pada dimensi yang baru, kita berharap data kita tersebar menjadi beberapa kelompok yang mudah dibedakan ( _easily separable_ ). Arah ini dikenal sebagaieigenvector, dan nilai varians pada arah tersebut dikenal sebagaieigenvalue. Kami harap kamu ingat materi kuliah aljabar linear. Eigenvector yang memiliki nilai eigenvalue tertinggi disebut sebagai _principal components_, yaitu semacam bentuk _data_ yang ringkas. Selain mengurangi dimensi, teknik ini juga mengurangi (atau meniadakan) interaksi antar-fitur. Dengan demikian, kita dapat menggunakanadditive assumptionsaat melakukan pembelajaran (ingat kembali materi bab 5). Saat melakukan analisis ini, kita membuat suatu asumsi bahwa sejumlah _principal components_ cukup untuk merepresentasikan variasi yang ada pada _data_ [20]. Dengan kata lain, kita mengasumsikan arah (eigenvector) ketika 122 9 Seleksi Fitur dan Metode Evaluasi _data_ memiliki varians tertinggi, adalah arah yang berasosiasi dengan _output_. _Singular Value Decomposition_ adalah salah satu teknik untuk melakukanprincipal component analysis. Hal tersebut akan dibahas pada bab 12. Buku ini juga akan memberi contoh konkret _dimensionality reduction_ denganartificial _neural network_ pada bab 12.
### 9.6 Replicability, Overclaiming dan Domain Dependence Pada dunia pembelajaran mesin, _replicability_ adalah hal yang sangat penting. Artinya, eksperimen yang kamu lakukan dapat diulangi kembali oleh orang lain, serta mendapat kinerja yang kurang lebih sama. Untuk ini, biasanya _dataset_ dipublikasi pada domain publik agar dapat digunakan oleh banyak orang, atau mempublikasi kode program. Selain _replicability_, kamu juga harus memperhatikan _overclaiming_. Banyak orang yang menggunakan _toy dataset_ (berukuran sangat kecil) yang tidak merepresentasikan permasalahan aslinya. Akan tetapi, mereka mengklaim bahwa model mereka memiliki generalisasi yang baik. Kamu harus menginterpretasikan kinerja model secara bijaksana. Kinerja yang baik pada _toy dataset_ belum tentu berarti kinerja yang baik pada dunia nyata. Sebagai contoh, artikel yang dibahas pada _post_ ^4 ini adalah contoh _overclaiming_. Perlu kamu perhatikan juga, mendapatkan kinerja yang bagus pada suatu _dataset_ belum tentu berarti model yang sama dapat mencapai kinerja yang baik pada dataset lainnya. Misalnya, model yang dilatih untuk mengklasifikasikan kategori berita belum tentu dapat mengklasifikasikan laporan medis. Hal ini banyak terjadi pada _supervised learning_ [40]. Selain itu, kamu harus memperhatikan karakteristik _performance metric_ yang digunakan agar tidak salah menginterpretasikan kualitas model.
### 9.1 Feature Engineering Record ( _data_ ) pada pembelajaran mesin pada umumnya dikonversi menjadi suatu vektor ( _feature vector_ ) yang merepresentasikannya dalam bentuk matematis. Fitur-fitur biasanya tersusun atas atribut yang kita anggap memiliki pengaruh terhadap _output_. Sebagai contoh, tekanan darah diprediksi berdasarkan usia, jenis kelamin dan BMI. Seringkali, seseorang membutuhkan keahlian suatu bidang agar dapat memilih fitur yang tepat. Proses untuk mencari (atau me-list) kandidat fitur, disebut sebagai aktivitasfeature en- gineering. Seperti kata mutiara yang kami berikan pada awal bab ini, kunci pembelajaran mesin adalah representasi permasalahan. Fitur yang dipilih untuk merepresentasikan data adalah bagaimana cara kamu merepresentasikan masalah juga. Karena membutuhkan tingkat keahlian tertentu, proses memilih fitur tidaklah mudah. Bisa jadi (sering), orang memilih fitur yang tidak representatif! Dengan demikian, tidak heran apabila seseorang mempublikasikan makalah ilmiah atas kontribusinya menentukan fitur baru pada domain ter- tentu. 118 9 Seleksi Fitur dan Metode Evaluasi Konon tetapi, proses pemilihan fitur yang bersifat manual ini cukup bahaya karena rentan dengan _bias_, yaitu kemampuan seseorang pada domain tertentu. Alangkah baiknya, apabila kita dapat memilih fitur yang memang benar-benar diperlukan (murni) secara otomatis. Hal tersebut akan dibahas lebih lanjut pada materi _artificial neural network_. Hal ini salah satu alasan yang membuatnya populer.
### Soal Latihan 9.1. Seleksi Fitur Jelaskanlah algoritma seleksi fitur selain yang sudah dijelaskan pada bab ini! (Saran: baca _survey paper_ ) (^4) Pranala Post Yoav Goldberg ``` 9.6 Replicability, Overclaiming dan Domain Dependence 133 ``` 9.2. AIC dan BIC Jelaskan _Akaike Information Criterion_ (AIC) danBayesian Information Cri- terion(BIC)! 9.3. AUC Jelaskan _Area Under Curve_ (AUC)! 9.4. Dependency Parsing Salah satu permasalahan penting pada bidang pemrosesan bahasa alami adalah _dependency parsing_, dimana kita ingin memprediksi hubungan antar kata pada suatu kalimat. Permasalahan ini sangatlah baik untuk mengilustrasikan _model_ yang memprediksi _output_ berupa graph. Bacalah paper oleh Kipperwasser dan Goldberg [39] tentang cara mereka me _model_ kan persoalan tersebut dan jelaskan pada temanmu. Apakah evaluasi yang mereka lakukan sudah cukup? 9.5. Bootstrapping Jelaskan apa itu teknik _bootstrapping_ (evaluasi model)! Bagaimana perbedaanya _bootstrapping_ dancross _validation_ ? 9.6. Varians Jelaskan mengapa fitur yang baik memiliki varians yang tinggi, sementara kinerja model yang baik memiliki varians yang rendah!
### 9.5 Cross Validation Ingat kembali materi bab-bab sebelumnya bahwa pada umumnya kita membagi _dataset_ menjadi tiga kelompok: _training_, _validation/development_ dan 130 9 Seleksi Fitur dan Metode Evaluasi _testing_. Melatih dan mengukur kinerja model menggunakan training data adalah hal yang tidak bijaksana karena kita tidak dapat mengetahui kemampuan generalisasi model. Kita melatih model pembelajaran mesin menggunakan _training_ _data_ yang dievaluasi kinerjanya (saattraning) menggunakan _validation data_. Setelah itu, kita uji model kembali menggunakan _testing data_. Pada umumnya, ketiga kelompok tersebut memiliki data dengan karakteristik yang sama. Artinya, dataset disampel dari distribusi yang sama. Misal pada _training data_, ada pembagian 30:30:40 untuk data kelas pertama, kedua dan ketiga. Distribusi persebaran tersebut juga harus sama pada _validation_ dan _testing data_. Hal penting yang harus diperhatikan adalah tidak boleh ada data yang sama ( _overlap_ ) pada ketiga kelompok tersebut. Gambar 9.7: Model yang stabil (a) memberikan _decision boundary_ (garis hitam) yang serupa walaupun _inputs_ edikit diubah-ubah (variasi kinerja yang kecil, untuk set _input_ yang berbeda). Model yang kurang stabil (b) memberikandecision boundary yang berbeda untuk _input_ yang sedikit diubahubah (variasi kinerja yang besar, untuk set _input_ yang berbeda). Pada dunia nyata, kita belum tentu memiliki ketiga kelompok tersebut. Penyebabnya ada banyak, misal dataset yang kecil (hanya memiliki sedikit _records_ ) atau pengadaan _testing data_ mahal. Apabila kita tidak memiliki _testing_ _data_, _validation data_ dapat menjadi pengganti ( _proxy_ ). Akan tetapi, permasalahan _statistical bias_ dapat terjadi apabila kita hanya menguji model pada satu set data karena kita tidak mengetahui variasi kinerja _model_ [20]. Sebisanya, kita ingin mengevaluasi kinerja model pada beberapa _dataset_, dan mengevaluasi variasi kinerja model. Kegiatan semacam ini membuat kita mengetahui apakah suatu model cukup stabil^3 dan fleksi- (^3) https://en.wikipedia.org/wiki/Stability_( _learning_ _theory) ``` 9.5 Cross Validation 131 ``` bel. Stabil berarti kinerja model tidak begitu berubah, diberikan _input_ yang sedikit berubah (ilustrasi diberikan pada Gambar 9.7). Fleksibel berarti model yang mampu menangkap karakteristik data dengan baik. Misal kita menggunakan _model linear_ dengan persamaan polinomial orde-1, orde-2 dan orde-3. Saat kita menaikkan orde persamaan sampai dengan orde-3, kinerja model terus meningkat pada _validation_ data, walaupun kurang lebih sama pada _training data_. Lalu, kita mencoba menggunakan persamaan polinomial orde-4, dan kinerja model menurun pada _validation_ data. Artinya, persamaan polinomial orde-3 adalah yang paling optimal untuk me _model_ kan permasalahan yang kita miliki. Apabila kita tidak memiliki _validation_ data, kita tidak akan mengetahui hal ini. Stabil berkaitan dengan nilai varians, sedangkan fleksibel berkaitan dengan perubahan terhadap ukuran kinerja. Fleksibilitas dapat dianalisis dengan mem- _plot_ grafik kinerja model pada _training data_ dan _validation_ / _testing_ _data_ untuk mengetahui _underfitting_ dan _overfitting_ seperti yang sudah dijelaskan pada bab 5. ``` 1 2 3 ... N ``` ``` Fold 1 ``` ``` Fold 2 ``` ``` Fold 3 Fold 4 ``` ``` Fold 5 ``` ``` _Training_ data Validation data ``` Gambar 9.8: Ilustrasi 5- _fold-cross-validation_. Kotak berwarna merah melambangkan subset yang dipilih sebagai _validation data_. Kita dapat menganalisis stabilitas dengan menggunakan teknik cross _validation_ seperti yang sudah dijelaskan pada bab 3. Intinya adalah, kita membagi-bagi _dataset_ yang kita miliki menjadiKbagian. Kita latih model menggunakanK−1 bagian, kemudian menguji prediksi model pada satu bagian lainnya (sebagai _validation data_ ) yang mengaproksimasi kinerja pada _testing data_ (Ilustrasi pada Gambar 9.8). Perhatikan, walau disebut _validation_ _data_, group ini digunakan sebagai _testing data_ pada saat proses latihan. Perlu diperhatikan, distribusi tiap-tiap kelas pada subset data haruslah sama ( _stratified sampling_ ). Prosedur ini disebut sebagaiK- _fold-cross-validation_. Untuk K=N; N=jumlah data, disebut sebagai leave-one-out-cross- _validation_. Den- 132 9 Seleksi Fitur dan Metode Evaluasi gan teknik _cross validation_, kita memiliki sejumlahK model pembelajaran mesin danKbuah nilai kinerja. Kita dapat mengukur stabilitas model dengan menghitung varians kinerja dariK model. Nilai rata-rata kinerja yang diberikan adalah sebuah estimasi terhadap kinerja model pada _testing data_ (yang sesungguhnya tidak ada), diberikan pada persamaan 9.11. Kita ingin _model_ yang stabil, karena nilai varians yang kecil berarti eksperimen dapat diulangi, dan kita mendapatkan kinerja yang sama saat eksperimen diulang. Varians yang terlalu besar dapat berarti kita mendapatkan suatu nilai kinerja secara _random chance_ (untung-untungan belaka). ``` Performa = ``` #### 1 #### K #### ∑K ``` i=1 ``` ``` KinerjaModeli (9.11) ```
### 9.4 Evaluasi Kinerja Model Buku ini telah menjelaskan bahwa model pembelajaran mesin mengoptimisasi _utility function_ pada saat proses latihan ( _training_ ). Pada umumnya,utility _function_ berbentuk _cross entropy_ atau _error function_ untuk arsitekturlinear _model_ dan _neural network_. Untuk arsitektur lain, seperti _support vector_ machine, kita mencari _support vectors_ yang memberikan _margin_ (decision boundary) terbaik untuk memisahkan dua kelas. Model _decision tree_ dibangun berdasarkan _information gain_ tiap atribut data. Sementara, modelHidden Markov Modelmengoptimalkan _forward_ dan _backward probability_. Kegiatan evaluasi model tidak berhenti saat _training_ telah mencapai nilai _utility function_ yang optimal, tetapi kita juga mengevaluasi kinerja model pada _validation_ _data_ (baik mengukur _utility function_ dan _performance measure_ ). Terakhir, kita juga mengevaluasi prediksi model dengan mengukurperformance measurepada _test data_. Subbab ini akan menjabarkan beberapa contohperformance measureuntuk mengevaluasi hasil prediksi model pada kasus _supervised_ _learning_. ``` Kelas A Kelas B Kelas C Kelas D 0.2 0.6 0.1 0.1 ``` Tabel 9.1: Contoh _class-assignment probability_ pada _multi-class classification_. Ingat kembali persoalan _multi-class classification_. Tujuan suatu model pembelajaran mesin adalah mengoptimalkan class- _assignment_ probability, yaitu probabilitas masing-masing kelas untuk suatu ( _given_ ) _input_ (Tabel 9.1). Dengan meminimalkan _cross-entropy_ saat proses latihan, kita harap model bisa memberikan nilai probabilitas yang tinggi untuk kelas yang tepat, dan nilai yang rendah untuk kelas lainnya ( _high confidence_ ). Namun, urusan evaluasi _model_ tidak hanya sampai di titik ini saja. _Class-assignment probability_ berikutnya dikonversi menjadi keputusan final, yaitu memilihsatukelas mana yang tepat untuk _input_ yang diberikan. Dengan kata lain, kita harus mengevaluasi penerjemahan “raw” _class-assignment probability_ menjadi sebuah prediksi final. Pada kasus Tabel 9.1, _output_ atau prediksi final dari _model_ bersangkutan adalah “Kelas B”. ``` 9.4 Evaluasi Kinerja Model 123 ``` Sebagai contoh lain, _support vector classifier_ memberikan skor +1 atau −1 untuk _input_. Skor tersebut berkorespondensi dengan kelas A atau kelas B. _Output_ final model pun adalah kelas yang tepat untuk _input_ yang diberikan. Hal yang serupa terjadi pada _Naive Bayes_, _Linear Model_, _Decision Tree_ dan _supervised learning model_ lain yang dijelaskan pada buku ini ( _term_ asuk _neural_ _network_ ). Walaupun model- _model_ tersebut mengoptimasi _utility function_ atau dikonstruksi dengan cara yang berbeda, prediksi final _multi-class_ _classification_ adalah kelas yang sesuai untuk _input_. Subbab ini membahas cara mengevaluasi keputusan prediksi final model. 9.4.1 Akurasi Akurasi adalah _performance measure_ paling sederhana dan sering digunakan saat mengevaluasi kinerja model. Akurasi didefinisikan sebagai proporsi prediksi yang benar dibagi dengan banyaknya sampel. Diberikan _desired output_ (juga dikenal dengan “ _gold standard_ ”)ydan hasil prediksiˆy, kita menghitung proporsi banyaknya elemen yang sama antaraydanˆy. Secara matematis, akurasi diformulasikan pada persamaan 9.4, dimanaNmerepresentasikan banyaknya sampel. ``` Akurasi = ``` #### 1 #### N #### ∑N ``` i=1 ``` ``` verdicti ``` ``` verdicti= ``` #### { ``` 1 , yi= ˆyi 0 , yi 6 = ˆyi ``` #### (9.4) Sebagai contoh, suatu model pembelajaran mesin mengklasifikan gambar buah menjadi “ _apel_ ” dan “jeruk” ( _binary classification_ ). _Desired output_ dan prediksi model diberikan pada Tabel 9.2. Pada tabel ini, ada lima prediksi yang sama dengan _desired output_, yaitu pada sampel dengan ID=[1, 2 , 4 , 8 ,9]. Dengan demikian, akurasi model adalah 105 = 0.5. Perhitungan akurasi sama halnya untuk _multi-class classification_, tetapi menjadi semakin rumit untuk _multi-label classification_. Ingat, padamultilabel _classification_, suatu _input_ dapat diklasifikasikan menjadi beberapa kelas. _Multi-label classification_ dapat dievaluasi dengan dua cara. Pertama, mengevaluasi kinerja pada masing-masing kelas (seolah-olah kita memiliki beberapa _binary classifier_ ). Cara kedua adalah mengevaluasi prediksimultilabel secara sekaligus. Perbedaan kedua metode diilustrasikan pada Gambar 9.3. Saat mengevaluasi secara sekaligus, akurasi dapat dihitung sebagai proporsi banyaknya _exact-match_ dibagi banyaknya sampel. 9.4.2 F1 Score Metrik yang tidak kalah pentingnya adalah F1 score. F1 score untuk suatu kelas F1kdidefinisikan sebagai _harmonic mean_ (persamaan 9.5) antara pre- 124 9 Seleksi Fitur dan Metode Evaluasi ``` InstanceDesired Output Hasil Prediksi 1 Jeruk Jeruk 2 Jeruk Jeruk 3 Jeruk Apel 4 Apel Apel 5 Jeruk Apel 6 Apel Jeruk 7 Jeruk Apel 8 Apel Apel 9 Apel Apel 10 Jeruk Apel ``` ``` Tabel 9.2: Contoh hasil prediksi model. ``` ``` Instance Agama Politik Hiburan Berita- 1 1 1 0 Berita- 2 0 1 1 Berita- 3 1 0 1 ... ``` ``` Instance Agama Politik Hiburan Berita- 1 1 1 0 Berita- 2 0 1 1 Berita- 3 1 0 1 ... ``` ``` Original ``` ``` Instance Agama Politik Hiburan Berita- 1 1 1 1 Berita- 2 0 1 1 Berita- 3 0 0 1 ... ``` ``` Prediction ``` ``` Instance Agama Politik Hiburan 1 1 0 0 0 1 0 1 0 ... ``` ``` Exact match Partially correct Complete incorrect ``` ``` Evaluate binary _classification_ sepa _rate_ ly ``` ``` Evaluate multi-label _classification_ at once Original Prediction ``` ``` Gambar 9.3: Cara mengevaluasi _multi-label classifier_ (Gambar 5.8). ``` sisi (persamaan 9.6) dan recall (persamaan 9.7) kelas tersebut. Perhatikan, yk (persamaan 9.7) melambangkan desired output untuk kelask dan ˆyk (persamaan 9.6) adalah prediksi untuk kelask. Perhatikan, presisi dan recall berbeda dari sisi variabel pembagi. Presisi dibagi oleh banyaknya (‖...‖) prediksi pada kelask, sementara recall dibagi oleh banyaknya prediksiseharusnya(desired _output_ ) pada kelask. ``` F1k= 2 ``` ``` Presisik×Recallk Presisik+ Recallk ``` #### (9.5) ``` 9.4 Evaluasi Kinerja Model 125 ``` ``` Presisik= ``` ``` Jumlah prediksi benar pada kelask ‖ˆyk‖ ``` #### (9.6) ``` Recallk= ``` ``` Jumlah prediksi benar pada kelask ‖yk‖ ``` #### (9.7) Penjelasan sebelumnya cukup _high-level_, sekarang mari kita masuk ke ilustrasi nyata pada Tabel 9.2. Untuk memudahkan perhitungan, kita susunconfusion matrixprediksi terlebih dahulu, seperti diilustrasikan pada Tabel 9.3. _Confusion matrix_ amatlah berguna untuk analisis data, khususnya saat menghitung F1 score. ``` Prediksi _apel_ jeruk ‖yk‖ ``` ``` Gold _apel_ ^314 jeruk 4 2 6 ‖ˆyk‖ 7 3 ``` ``` Tabel 9.3: _Confusion matrix_ prediksi apel dan jeruk berdasarkan Tabel 9.2. ``` ``` Berikut adalah cara membaca _confusion matrix_ pada Tabel 9.3: ``` - Ada 3 sampel yang diprediksi sebagai “ _apel_ ” dengan benar. - Ada 1 sampel yang seharusnya diprediksi sebagai “ _apel_ ”, tetapi diprediksi sebagai “jeruk”. - Ada 4 sampel yang seharusnya diprediksi sebagai “jeruk”, tetapi diprediksi sebagai “ _apel_ ”. - Ada 2 sampel yang diprediksi sebagai “jeruk” dengan benar. Nilai‖ˆyk‖untukk=“ _apel_ ” adalah 7, sementara 3 untukk=“jeruk” (jumlah nilai pada tiap kolom). Nilai‖yk‖adalah 4 dan 6 untukk=“ _apel_ ” dan k=“jeruk” (jumlah nilai pada tiap baris). Nilai presisi, recall, dan F1 score untuk masing-masing kelas diberikan pada Tabel 9.4. ``` Kategori Presisi Recall F1 score Apel^37 =0. 43 34 =0. 75 200 ..^43 43+0×^0 ..^7575 =0. 55 Jeruk^23 =0. 67 26 =0. 33 200 ..^67 67+0×^0 ..^3333 =0.^44 ``` Tabel 9.4: Perhitungan nilai presisi, recall dan F1 score untuk masing-masing kelas untuk contoh Tabel 9.2. Untuk mendapatkan nilai F1 secara “umum”, kita merata-ratakan F1 _apel_ dan F1jeruk. Prosedur ini disebut _macro-averaging_, yaitu merata-ratakan 126 9 Seleksi Fitur dan Metode Evaluasi nilai F1 pada masing-masing kelas. Hasilnya disebut sebagai “macro- _average_ d F1” atau disingkat “F1-macro”. F1-macro untuk contoh pada Tabel 9.3 adalah 0.49. Terdapat dua variasi lain, yaitu _weighted-average_ (F1- _weight_ ed) dan _micro-average_ (F1-micro). Pada F1- _weight_ ed, kita memberikan bobot untuk masing-masing kelas, berdasarkan banyaknya instance yang seharusnya diklasifikasikan ke kelas tersebut, i.e., banyaknya _desired output_ untuk masing-masing kelas. F1- _weight_ ed untuk contoh Tabel 9.4 diberikan pada persamaan 9.8. Variasi ini berbeda dengan F1-macro yang menganggap bobot masing-masing kelas adalah sama. ``` F1- _weight_ ed = ``` #### 4 × 0 .55 + 6× 0. 44 #### 10 #### = 0. 48 (9.8) F1-macro dan F1- _weight_ ed memisahkan kinerja untuk masing-masing kelas. Variasi terakhir, F1-micro, melihat hasil prediksi secara keseluruhan tanpa pemisahan kinerja untuk masing-masing kelas. Sebagai contoh, nilai presisi dan recall secara keseluruhan diberikan pada persamaan 9.9 dan 9.10. Pada kasus ini, banyaknya prediksi sama dengan banyaknya prediksi seharusnya. Dengan demikian, nilai presisi = recall. F1-micro adalah nilai rata-rata presisi dan recall secara keseluruhan. Karenanya F1-micro = presisi = recall. Pada kasus _multi-class classification_, nilai F1-micro sama dengan akurasi. ``` Precision = ``` ``` Jumlah prediksi benar Banyaknya prediksi ``` #### = #### 5 #### 10 #### (9.9) ``` Recall = ``` ``` Jumlah prediksi benar Banyaknya prediksi seharusnya ``` #### = #### 5 #### 10 #### (9.10) Ringkasan variasi F1 score diberikan pada Tabel 9.5. F1-macro memiliki keunggulan dibanding akurasi (F1-micro) dan F1- _weight_ ed pada kasusim _balanced_ _dataset_. Sebagai contoh, kita memiliki sebuah dataset untuk permasalahan _binary_ _classification_ dimana 90% _input_ ditetapkan sebagai kelas A dan 10% sebagai kelas B. Apabila suatu model pembelajaran mesin memprediksi seluruh data ke kelas A, maka ia akan mendapatkan akurasi 90%. Pada kasus ini, sesungguhnya model pembelajaran mesin tidak mempelajari distribusi _data_ dengan benar. Dalam artian, kamu dapat “tertipu” karena nilai akurasi yang besar, padahal model tersebut sebenarnya tidak memiliki performa yang baik. F1- _weight_ ed juga akan memberikan nilai yang cukup baik pada kasus ini. Apabila kita mengukur kinerja menggunakan F1-macro, maka kinerja model akan terlihat jauh lebih kecil. Cerita ini juga berkaitan dengan _overclaiming_ (subbab 9.6). Akibat penggunaan atau interpretasi metrik yang kurang tepat, kita mengasumsikan model yang kita buat sudah memiliki kinerja yang cukup bagus. ``` 9.4 Evaluasi Kinerja Model 127 ``` ``` Metrik Deskripsi F1-macro Memisahkan kinerja untuk masing-masing kelas, kemudian merataratakan nilai kinerja. F1- _weight_ ed Memisahkan kinerja untuk masing-masing kelas, kemudian merataratakan nilai kinerja dimana setiap kelas memiliki bobot berdasarkan banyaknya _desired output_ untuk tiap kelas. F1-micro Melihat hasil prediksi secara keseluruhan tanpa pemisahan kinerja untuk masing-masing kelas. Nilai F1-micro sama dengan akurasi pada _multi-class classification_. ``` ``` Tabel 9.5: Penjelasan variasi F1 score. ``` 9.4.3 Evaluasi Output Berstruktur Kasus-kasus yang sudah diceritakan pada subbab ini adalah contoh kasus sederhana baik pada _binary_, _multi-class_ dan _multi-label classification_. Diberikan sebuah _input_ (e.g., teks, gambar, vektor, suara), kita ingin memprediksi satu atau beberapa kelas (dari beberapa opsi) yang sesuai untuk merepresentasikan _input_. Pada kasus yang disebutkan, hasil prediksi suatu _instance_ adalah independen dari hasil prediksi untuk _instance_ lainnya. Sekarang, mari kita melanjutkan cerita ke kasus yang lebih kompleks, yaitu _output_ berstuktur. Pada kasus ini, diberikan sebuah _input_, _output_ model adalah sebuah data terstruktur, e.g., sekuens kategori, graf, teks. Sekuens Kategori Pada _output_ dengan struktur berupa sekuens kategoriy, suatu elemenyi pada sekuens bisa saja bergantung pada elemen lainnya, misal pada elemen sebelumnya. Sebagai contoh, pada persoalan Part-of-Speech (POS) _tagging_ (yang sudah dijelaskan pada buku ini), diberikan _inputs_ ekuens katax, kita ingin memprediksi kelas katayyang bersesuaian (Gambar 9.4). Pada setiap iterasii, model memprediksi kelas katayiyang cocok bagi _input_ xi. Tujuan _model_ adalah memprediksi sekuensypaling optimal. Perhatikan, kelas kata pada posisii(yi) bisa jadi bergantung pada kelas kata di posisii−1 (yi− 1 ), seperti yang sudah diceritakan pada buku ini. Artinya, suatu elemen _output_ bergantung pada elemen _output_ lainnya. Walaupun demikian, kita dapat mengevaluasi tiap elemen _output_ secara independen. Misal, dengan menghitung akurasi apakah tiap kelas kata pada prediksi ˆyimemang sesuai dengan _desired output_ yi. Graf Evaluasi menjadi cukup kompleks apabila kita memprediksi _output_ dengan struktur lebih rumit, misalnya sebuah grafG∈(E,V); dimanaE adalah kumpulan _edge_ danV adalah kumpulan _vertex_. Hal ini cukup lumrah pada 128 9 Seleksi Fitur dan Metode Evaluasi ``` POS tag Noun Verb Noun Kata Budi Menendang Bola ``` ``` Gambar 9.4: Contoh POS _tagging_ (Gambar 8.4). ``` bidang pemrosesan bahasa alami, sebagai contoh pada permasalahanconstituent parsing, _dependency parsing_, dan _discourse parsing_ (silakan di eksplorasi lebih lanjut). Gambar 9.5 memberikan contoh _dependency parsing_. ``` Saya suka apel manis ``` ``` subjek objek pengubah ``` Gambar 9.5: Ilustrasi _dependency parsing_, dimana kita mencari hubungan antar-kata (direpresentasikan oleh _edge_ pada graf). Sebagai contoh, “saya” adalah subjek dari “suka”; “ _apel_ ” adalah objek dari “suka”; “manis” adalah kata pengubah “ _apel_ ”. Kita dapat mengevaluasi suatu prediksi struktur dengan cara memfaktorkan struktur tersebut menjadi unit lebih kecil, kemudian mengevaluasi performa _model_ pada satuan unit yang lebih kecil. Kinerja model pada satuan unit diagregat atau digabungkan menjadi satu skor untuk merepresentasikan keseluruhan performa dalam memprediksi suatu struktur [39]. Pemilihan unit atau teknik faktorisasi struktur bergantung pada domain permasalahan. Sebagai contoh, suatu model X yang mampu memprediksi _edges_ pada graph dengan cukup akurat ternyata tidak dapat memprediksi suatu jalan ( _path_ ) dari _node_ A ke B yang seharusnya ada pada _desired output_. Dengan demikian, kamu mungkin ingin memfaktorkan graf tersebut menjadi sekumpulan _paths_. Hal terpenting saat mengevaluasi structured output prediction adalah mengevaluasi berbagai aspek dan mempertimbangkan berbagai perspektif. Artinya, memfaktorkan struktur menjadi beberapa (≥1) macam unit, dari unit yang “kecil” (e.g., _edge_ ) sampai unit yang “besar” (e.g., _subtree_ pada struktur pohon; _path_ atau subgraph pada graf). Pemilihan unit pada proses faktorisasi bergantung pada domain permasalahan. Teks Evaluasi menjadi semakin kompleks apabila kita tidak dapat mendefinisikan metrik secara matematis. Misal pada _image captioning task_ : diberikan sebuah gambar dan suatu model harus menjelaskan apa isi gambar tersebut (ilustrasi pada Gambar 9.6). Dari sisi “bentuk” _output_, teks adalah sebuah sekuens kata. Akan tetapi, setiap kata memiliki maknanya tersendiri. Makna kata ``` 9.5 Cross Validation 129 ``` dapat berubah pada konteksnya, i.e., ketika beberapa kata membentuk sebuah klausa atau kalimat. Selain itu, teks memiliki struktur “implisit”. Sebagai contoh, kata-kata pada teks harus membentuk suatu kesatuan makna sebagai kalimat. Tiap kalimat juga harus sesuai dengan aturan tata bahasa. Hal ini membuat teks menjadi lebih rumit (dan unik) dibanding sekuens kategori. ``` Image ``` ``` Model "Seseorangsedangbermain tenis” ``` ``` Caption ``` ``` Gambar 9.6: Ilustrasi _image captioning task_. ``` Pada kasus _image captioning task_ seperti diatas, bagaimana cara kamu mengevaluasi apakah model mampu memberikan penjelasan yang merefleksikan situasi pada gambar? Sebagai contoh, apabila diberikan gambar “seseorang sedang bermain tenis”, dan model memprediksi “seseorang sedang bermain basket,” maka model memberikan penjelasan yang salah. Tetapi apabila kamu melihat dari sisi proporsi banyaknya kata yang sama, terdapat banyak kata pada _desired output_ yang beririsan dengan prediksi, yaitu “seseorang sedang bermain.” Hal serupa juga harus diperhatikan pada persoalan mesin translasi bahasa. Apakah konten translasi memang benar sama dengan konten aslinya? Bagaimana dengan gaya penulisan? Pada sistem peringkasan teks, apakah hasil ringkasan memang benar sesuai dengan teks aslinya, bukan menambah informasi atau mengada-ada? Cerita pada subbab 9.4 mengilustrasikan bahwa evaluasi model adalah perkara yang kompleks. Pemilihan metrik yang salah dapat mengakibatkan kamu menganggap bahwa model sudah “cukup” baik, padahal model tersebut memberikan banyak prediksi yang salah. Subbab ini juga sekilas menjelaskan bahwa bentuk _output_ pada _supervised learning_ bisa saja memiliki struktur yang rumit.
### 9.2 High Dimensional Data Pada kenyataan, fitur yang kita gunakan untuk membangun model pembelajaran mesin tidaklah sesederhana yang dicontohkan pada subbab sebelumnya. Seringkali, kita berhadapan dengan data yang memiliki sangat banyak fitur ( _high dimensional data_ ). Sebagai contoh, seorang marketing analyst mungkin saja ingin mengerti pola seseorang berbelanja pada _online shop_. Untuk mengerti pola tersebut, ia menganalisis seluruh kata kunci pencarian ( _search term_ ) _item_. Misalnya, seseorang yang ingin membeli meja makan juga mungkin akan membeli kursi (sebagai satu paket). Data pada analisis semacam ini berdimensi besar. Seberapa besar dimensi yang dapat disebut _high dimension_ adalah hal yang relatif. Sayangnya, data dengan dimensi yang sangat besar membawa beberapa masalah pada pembelajaran mesin. Pertama, model pembelajaran susah untuk memiliki kinerja yang optimal pada data berdimensi tinggi. Semakin banyak fitur yang dipakai, semakin kompleks suatu model pembelajaran mesin harus me _model_ kan permasalahan. Berhubung kita memiliki banyak fitur, _search space_ untuk mencari konfigurasi parameter optimal sangatlah luas. Hal ini dapat dianalogikan seperti mencari seseorang pada gedung berlantai satu vs. gedung berlantai 20. Kedua, hal ini menyebabkan mudah terjadi _overfitting_ karena ada sangat banyak konfigurasi fitur walaupun kita hanya memiliki _data_ yang terbatas.^1 Ketiga, data dengan dimensi yang besar susah untuk diproses secara komputasi ( _computationally expensive_ ), baik dari segi memori dan waktu. Karenanya hal ini, kita ingin agar fitur-fitur yang kita gunakan sesedikit mungkin. Dengan kata lain, kita ingin representasi permasalahan sesederhana mungkin dari sesi memori dan _computational processing_.
### 8.5 Algoritma Viterbi Pada subbab sebelumnya, telah didefinisikan permasalahan POS _tagging_ dan _Hidden Markov Model_ untuk menyelesaikan permasalahan tersebut. Pada bab ini, kamu akan mempelajari cara mencari sekuens _syntactical categories_ terbaik diberikan suatu observasi kalimat menggunakanalgoritma Viterbi. Hal ini disebut proses _decoding_ pada HMM. Algoritma Viterbi adalah salah satu algoritma _dynamic programming_ yang prinsip kerjanya mirip denganminimum edit distance.^6 Ide utama algoritma Viterbi adalah mengingat sekuens untuk setiap posisi tertentu (setiap iterasi, setiap panjang kalimat). Apabila kita telah sampai pada kata terakhir, kita lakukan _backtrace_ untuk mendapatkan sekuens terbaik. _function_ VITERBI( _observations_ of lenT, _state-graphs_ of lenS) ``` Initialization Step create a path of probability matrix viterbi[S,T] foreach statesfrom 1 toSdo viterbi[s,1]←a 0 ,s×bs(o 1 ) _backpointer_ [s,1]← 0 ``` ``` Ite _ratio_ n Step foreach time steptfrom 2 toTdo foreach statesfrom 1 toSdo viterbi[s,t]←arg maxj=1,Sviterbi[j,t−1]×as,j×bs(ot) _backpointer_ [s,t]←index ofjthat gave the max above ``` ``` Sequence Identification Step cT←ithat maximizes viterbi[i,T] fori=T− 1 to 1 do ci← _backpointer_ [ci+1,i+ 1] ``` ``` Gambar 8.8: Algoritma Viterbi [12, 38]. ``` Perhatikan Gambar 8.8 yang menunjukkan _pseudo-code_ untuk algoritma Viterbi. Variabelcberarti kelas kata,aadalah _transition probability_, danb adalah _lexical-generation probability_. Pertama-tama, algoritma tersebut membuat suatu matriks berukuranSxTdenganSadalah banyaknya _states_ (tidak (^6) https://en.wikipedia.org/wiki/Edit_distance 112 8 Hidden Markov Model _term_ asuk _start state_ ) danT( _time_ ) adalah panjang sekuens. Pada setiap iterasi, kita pindah ke observasi kata lainnya. Gambar 8.9 adalah ilustrasi algoritma Viterbi untuk kalimat _input_ ( _observed sequence_ ) “ _flies like a flower_ ” dengan _lexical generation probability_ pada Tabel 8.3 dan _transition probabilities_ pada Tabel 8.2 (bigram) [38]. Panah berwarna merah melambangkan _backpointer_ yaitu _state_ mana yang memberikan nilai tertinggi untuk ekspansi ke _state_ berikutnya. Setelah _iteration step_ selesai, kita lakukan _backtrace_ terhadap _state_ terakhir yang memiliki nilai probabilitas tertinggi dan mendapat hasil seperti pada Gambar 8.10. Dengan itu, kita mendapatkan sekuens “ _flies_ /N like/V a/ART flower/N”. Gambar 8.9: Ilustrasi algoritma Viterbi per iterasi. Panah berwarna merah melambangkan _backpointer_ – _state_ mana yang memberikan nilai tertinggi untuk ekspansi. ``` Gambar 8.10: Viterbi _backtrace_. ``` Apabila kamu hanya ingin mengetahui HMM tanpa variabel yang perlu dilatih/diestimasi, kamu dapat berhenti membaca sampai subbab ini. Apabila kamu ingin mengetahui bagaimana HMM dapat mengestimasi parameter, kamu dapat melanjutkan membaca subbab berikutnya. ``` 8.6 Proses Training Hidden Markov Model 113 ```
### Soal Latihan 8.1. Data Numerik Pada bab ini, diberikan contoh aplikasi Hidden Markov Model (HMM) untuk POS _tagging_, dimana data kata adalah data nominal. Berikan st _rate_ gi penggunaan HMM untuk data numerik! Misal, pada _automatic speech recognizer_. 8.2. Ekstensi Algoritma Viterbi Buatlah ekstensi algoritma Viterbi untuk asumsi trigram! 8.3. Maximum Entropy Markov Model (a) Jelaskan konsep _maximum entropy_ ! (b) Jelaskan _maximum entropy markov model_ ! 8.4. Gibbs Sampling (a) Jelaskan bagaimana Gibbs sampling digunakan pada HMM! (b) Jelaskan penggunaan variasi/ekstensi Gibbs sampling pada HMM! 8.5. Latent Dirichlet Allocation Salah satu materi yang berkaitan erat dengan HMM adalahLatent Dirichlet Allocation(LDA) yang merupakan anggota keluarga _graphical model_. Jelaskan apa itu LDA serta bagaimana cara kerja LDA!
### 8.1 Probabilistic Reasoning Pada logika matematika ( _first order logic_ ), ketika kita memiliki premis “bila hujan, maka ayu terpeleset.” Pada level _first order logic_, apabila “hujan” ter- (^1) Karena perlu dijelaskan juga cara transformasi sinyal suara menjadi data diskrit. ``` 102 8 Hidden Markov Model ``` ``` jadi, maka “terpeleset” juga pasti akan terjadi. Tetapi tidak sebaliknya, apabila kita “terpeleset”, belum tentu “hujan” juga terjadi. Padaprobabilistic _reasoning_ kita mengkuantifikasi kepastian atau ketidakpastian itu. Apabila “hujan” terjadi, berapa besar kemungkinan “terpeleset” juga terjadi (dan se- baliknya). Perhatikan Gambar 8.1! Gambar ini menerangkan hubungan pengkondisian _events_, disebut _Bayesian Network_. Panah dari “hujan” ke “terpeleset” merepresentasikan bahwa “hujan” adalah kondisi yang menyebabkan “terpeleset” terjadi ( _causality_ ). Pada kerangka _probabilistic reasoning_, kita berpikir “karena ada yang terpeleset, mungkin ada hujan dan kecelakaan juga terjadi.” Tetapi, apabila ada cerita lain bahwa jika ada seseorang yang “terpeleset” dan memang “hujan”; belum tentu “kecelakaan” terjadi. ``` ``` Gambar 8.1: Contoh _Bayesian Network_. ``` ``` Gambar 8.2: Tipe jaringan kausalitas. ``` ``` Berdasarkan hubungan/jaringan kausalitas antara _events_, ada beberapa kerangka berpikir yang dapat digunakan: _serial_, _diverging_, dan _converging_ [5]; diilustrasikan pada Gambar 8.2. Karakteristik dari masing-masing tipe kausalitas adalah sebagai berikut [5]: ``` (a) _Serial_. Bila kita mengetahuiAmaka kita bisa mengetahui sesuatu tentang BdanC. Tetapi apabila kita mengetahuiB, mengetahuiAtidak akan membantu inferensi kita terhadapC. MengetahuiCakan membuat kita mengetahui sesuatu tentangAketika kita tidak mengetahuiB. Artinya, hubungan antaraAdanCdi- _block_ ketikaBdiketahui. Dengan bahasa ``` 8.1 Probabilistic Reasoning 103 ``` lebih matematis,AdanC bersifatindependen kondisional(conditionally _independent_ ) ketikaBdiketahui. Perhatikan, disebut _kondisional_ karena independen jika kondisi (mengetahuiB) terpenuhi. (b) Diverging. Bila kita mengetahuiAmaka kita bisa mengetahui sesuatu tentangC, dan sebaliknya. Tetapi apabilaBdiketahui, maka hubungan antaraAdanCmenjadi terputus. Dengan bahasa lebih matematis,Adan Cindependen kondisional ketikaBdiketahui. (c) _Converging_. Tanpa mengetahuiB, kita tidak bisa mencari tahu hubungan antaraAdanC. Dengan bahasa lebih matematis,AdanCdependen _kondisional_ ketikaBdiketahui. Dua buah _events_ XdanYdisebut _d-separated_ apabila terdapat sebuah _intermediate variable_ Zdiantara mereka dan memenuhi kondisi: 1. Koneksi bersifat _serial_ atau _diverging_, danZdiketahui. 2. Koneksi bersifat _converging_ danZtidak diketahui. 3. Bila tidak memenuhi kondisi yang disebutkan, artinya dua buah variabel tersebut tidak _d-separated_, disebut sebagai _d-connected_. Konsep ini penting dipahami untuk mengerti ide dasar _markov assumption_ yang dibahas pada subbab berikutnya. ``` Gambar 8.3: Contoh inferensi. ``` ``` Perhatikan Gambar 8.3! Dengan konsep yang sudah dipahami, mari kita coba lakukan inferensi pada jaringan tersebut. _Joint distribution_ untuk seluruh _event_ diberikan pada persamaan 8.1. ``` #### P(A,B,C,D,E) =P(D|B)P(E|B)P(B|A,C)P(A)P(C) (8.1) ``` Sekarang, mari kita hanya lihat subgraf{A,B,E}dengan koneksi tipe _serial_. BilaAdiketahui, maka kita dapat melakukan inferensi terhadapC, seperti pada persamaan 8.2. ``` ``` P(E|A) =P(E|B)P(B|A)P(A) +P(E|¬B)P(¬B|A)P(A) (8.2) ``` 104 8 Hidden Markov Model Tetapi, apabilaAdan Bdiketahui, maka inferensi terhadapEdilakukan seperti pada persamaan 8.3. ``` P(E|B,A) =P(E|B)P(B) (8.3) ``` Operasi serupa dapat diaplikasikan pada koneksi tipe _converging_ dan _diverging_. Perhatikan subgraf{A,B,C}dengan tipe koneksi _converging_ pada Gambar 8.3. ApabilaBtidak diketahui, berartiAdanCterpisah (independen). ApabilaBdanAdiketahui, maka hubunganAdanCdapat dihitung sebagai persamaan 8.4. ``` P(C|B,A) =P(C|B)P(B|A)P(A) (8.4) ``` Untuk koneksi tipe _diverging_, silahkan coba bagaimana mencari proses inferensinya! (pekerjaan rumah).
### 8.6 Proses Training Hidden Markov Model _Hidden Markov Model_ (HMM) adalah salah satu varian _supervised learning_,^7 diberikan sekuens _input_ dan _output_ yang bersesuaian sebagai _training data_. Pada kasus POS _tagging_, yaitu _input_ -nya adalah sekuens kata dan _output_ -nya adalah sekuens kelas kata (masing-masing kata/ _token_ berkorespondensi dengan kelas kata). Saat melatih HMM, kita ingin mengestimasi parameterAdan byaitu _transition probabilities_ dan _emission probabilities_ /lexical- _generation_ probabilities(ingat kembali definisi HMM secara formal pada subbab 8.4). Kita melatih HMM dengan menggunakanAlgoritma Forward-Backward (Baum-Welch Algorithm). Cara paling sederhana untuk menghitung emission probabilities atau _transition probabilities_ adalah dengan menghitung kemunculan pada sampel ( _training data_ ). Sebagai contoh, _emission probability_ suatu kata untuk setiap kelas kata diberikan pada persamaan 8.14, dimanaN melambangkan banyaknya kemunculan katawiterlepas dari kelasnya. ``` P(wi|ci) = ``` ``` count(wi,ci) ∑N j=1count(wi,cj) ``` #### (8.14) Akan tetapi, perhitungan tersebut mengasumsikan _context-independent_, artinya tidak mempedulikan keseluruhan sekuens. Estimasi lebih baik adalah dengan menghitung seberapa mungkin suatu kategoricipada posisi tertentu (indeks kata/ _token_ pada kalimat) pada semua kemungkinan sekuens, diberikan inputw 1 ,w 2 ,...,wT. Kami ambil contoh, kata _flies_ sebagai _noun_ pada kalimat “ _The flies like flowers_ ”, dihitung sebagai penjumlahan seluruh sekuens yang berakhir dengan _flies_ sebagai _noun_. ProbabilitasP( _flies_ /N|The flies) = P( _flies_ /N&The flies) P(The flies). Agar lebih _precise_, secara formal, kita definisikan terlebih dahulu _forward_ probabilitysebagai 8.15, dimanaαi(t) adalah probabilitas untuk menghasilkan kataw 1 ,w 2 ,...,wtdenganwtdihasilkan ( _emitted_ ) olehci. ``` αi(t) =P(wt/ci|w 1 ,w 2 ,...,wt) (8.15) ``` _Pseudo-code_ perhitungan kemunculan kelascisebagai kategori pada posisi tertentu diberikan oleh Gambar 8.11, denganciadalah kelas kata ke-idanwi adalah kata ke-i,aadalah _transition probability_,badalah _emission probability_, danSmelambangkan banyaknya _states_. Sekarang, kita definisikan juga _backward probability_ βi(t), yaitu probabilitas untuk menghasilkan sekuenswt,...,wTdimulai dari _state_ wt/ci(ci menghasilkanwt). Hal ini serupa dengan _forward probability_, tetapi _backward_ probabilitydihitung dari posisi ke-tsampai ujung akhir (tkeT). Anda dapat melihat _pseudo-code_ pada Gambar 8.12, denganaadalah _transition probability_ danbadalah _emission probability_. (^7) Walaupun ia termasuk _generative model_.tetapi komponen utama yang di _model_ kan adalahp(y|x) 114 8 Hidden Markov Model Initialization Step fori= 1toSdo αi(t)←bi(o 1 )×a 0 ,i Comparing the Forward Probabilities fort= 2toTdo fori= 1toSdo αi(t)← ``` ∑S j=1(aji×αj(t−1))×bi(ot) ``` ``` Gambar 8.11: Algoritma _forward_ [38]. ``` Initialization Step fori= 1toSdo βi(T)←P(ci) # as _sign_ ed using a particular classci Comparing the Backward Probabilities fort=T− 1 totdo fori= 1toSdo βi(t)← ``` ∑S j=1(aji×βi(t+ 1))×bj(oj+1) ``` ``` Gambar 8.12: Algoritma _backward_ [38]. ``` Gabungan _forward_ dan _backward probability_ dapat digunakan untuk mengestimasiγj(t) yaitu probabilitas berada pada _state_ cjpada waktu ke-tdengan persamaan 8.16. ``` γj(t) = αi(t)×βi(t) ∑S j=1αj(t)×βj(t) ``` #### (8.16) Kita mengestimasi probabilitas keberadaan pada _state_ tertentu, berdasarkan pengaruh probabilitas keseluruhan sekuens. Dengan menggunakan _forward probability_ dan _backward probability_ sekaligus, kita definisikanξt(i,j) yaitu probabilitas berada di _state-i_ pada waktu ketdan _state_ -jpada waktu ke-(t+ 1) dengan persamaan 8.17. ``` ξt(i,j) = αi(t)×aij×bj(ot+1)×βj(t+ 1)) αS(T) ``` #### (8.17) Denganaijadalah _transition probability_ danbj(ot+1) adalah _emission probability_ (ingat kembali definisi formal HMM pada subbab 8.4). Pada setiap iterasi, kita ingin memperbaharui kembali parameter HMM yaituAdanb. Kita hitung kembali _transition probability_ (nilai yang lama di- _update_ ), diberikan oleh persamaan 8.18. ``` 8.6 Proses Training Hidden Markov Model 115 ``` ``` aij′= ``` #### ∑T− 1 ``` ∑ t=1 ξt(i,j) T− 1 t=1 ``` #### ∑S ``` j=1ξt(i,j) ``` #### (8.18) Kita juga menghitung kembali _emission probability_ (nilai yang lama di _update_ ), diberikan oleh persamaan 8.19. ``` bj(ok)′= ``` #### ∑T ``` t=1,ok=wkγj(t) ∑T t=1γj(t) ``` #### (8.19) #### ∑T ``` t=1,ok=wkberarti jumlah observasiwkpada waktut. ``` Initialize A and b Ite _rate_ until convergence E-step γj(t) =∑Sαi(t)×βi(t) j=1αj(t)×βj(t) ``` ξt(i,j) = αi(t)×aij×bj(ot+1)×βj(t+1)) αS(T) ``` ``` M-step _update_ aij′= ``` ``` ∑T− 1 ∑T− 1 t=1ξt(i,j) t=1 ``` ``` ∑S j=1ξt(i,j) ``` ``` _update_ bj(ok)′= ``` ``` ∑T t=1∑,ok=wkγj(t) Tt=1γj(t) ``` ``` Gambar 8.13: Algoritma _forward-backward_ (EM) [12]. ``` Keseluruhan proses ini adalah cara melatih HMM dengan menggunakan kerangka berpikir _Expectation Maximization_ : terdiri dariE-stepdanMstep[12]. Pada E-step, kita mengestimasi probabilitas berada di suatu _state_ cjmenggunakanγj(t) dan mengestimasi transisiξt(i,j) berdasarkan parameterAdanbyang sudah diberikan pada tahap iterasi _training_ ( _epoch_ ) sebelumnya. Pada M-step, kita menggunakanγdanξuntuk mengestimasi kembali parameterAdanb. Hal ini dijelaskan secara formal pada Gambar 8.13. Walaupun HMM menggunakan _independence assumption_, tetapi kita dapat mengikutsertakanpengaruh probabilitas keseluruhan sekuens untuk perhitungan probabilitas keberadaan kita pada suatu _state_ ipada saat ( _time_ t) tertentu. Metode ini dapat dianggap sebagai suatu cara optimalisasi menggunakan _smoothing_ ^8 terhadap nilai parameter (Adanb). Kita mencapai titik _local optimal_ apabila tidak ada perubahan parameter. (^8) https://en.wikipedia.org/wiki/Smoothing 116 8 Hidden Markov Model Kami ingin mengakui bahwa penjelasan pada subbab 8.6 mungkin kurang baik (kurang memuaskan). Kami harap kamu mencari referensi lain yang lebih baik untuk subbab ini.
### 8.2 Generative Model Pada _supervised learning_ kamu sudah mengetahui bahwa kita me _model_ kan p(y|x), me _model_ kan _target_ y(label) ketika diberikan _input_ x,^2 yaitu mencari tahu _decision boundary_ antara keputusan.xdanydapat berupa vektor, skalar, gambar, dan lain sebagainya. Sementara pada _unsupervised learning_, kita ingin mengaproksimasi distribusi asli dari sebuah _inputs_ ebagaip(x). Berbeda dengan keduanya, _generative model_ me _model_ kanp(x,y). Persamaan itu dapat difaktorkan sebagaip(x,y) =p(y|x)p(x). Pada umumnya, kita lebih tertarik dengan nilaiyyang menyebabkanp(x,y) bernilai maksimum, berhubungxakan selalu tetap–karenaxadalah _fixed input_,yterbaiklah yang ingin kita temukan. Berbeda dengan _supervised learning_, _generative_ _model_ dapat difaktorkan menjadip(y|x) danp(x). Karena berbentukjoint probability, _generative model_ me _model_ kan peluang kemunculan bersamaan. Kita ingin mengetahui seberapa mungkin suatu dataxdihasilkan, diberikan y. Artinya seberapa mungkin _input_ diobservasi untuk suatu _output_. Salah satu contoh _generative model_ adalah _Hidden Markov Model_ (HMM). HMM me _model_ kan observasi menggunakan proses _Markovian_ dengan _state_ yang tidak diketahui secara jelas ( _hidden_ ). Kamu akan mengerti kalimat sebelumnya setelah membaca penjelasan buku ini seluruhnya. Ide utama HMM adalah menyelesaikan persoalan _sequence tagging_. Diberi-kan _input x_ berupa sekuens (sekuens sinyal, sekuens kata, sekuens gambar, dsb). Kita ingin me _model_ kan sekuens _output_ terbaikyuntuk input tersebut.^3 Outputke-ibergantung pada _input_ dari awal sampai ke-idan _output_ dari awal sampai sebelumnyap(yi|y 1 ,...,yi− 1 ,x 1 ,...,xi). Berdasarkan pemaparan subbab 8.1, apabila suatu _event_ dikondisikan variabel lain dengan (^2) Parameterwdihilangkan untuk menyederhanakan penjelasan. (^3) xidanyidapat berupa vektor ``` 8.3 Part-of-speech Tagging 105 ``` tipe koneksi _serial_, maka kita dapat mengabaikan banyak variabel historis. Hal ini dituangkan dalam persamaan 8.5, ``` p(yi|y 1 ,...,yi− 1 ,x 1 ,...,xi) =p(yi|yi− 1 ,xi) (8.5) ``` Persamaan ini disebut _first-order markov assumption_, yaitu suatu _event_ yang seharusnya dikondisikan oleh suatu histori hanya bergantung pada _events_ ebelumnya. Terdapat pula _second_, _third_, dst _markov assumption_ yaitu bergantung pada dua, tiga, dst _events_ sebelumnya. Walaupun hanya berupa penyederhanaan, asumsi ini memberi kita banyak keuntungan dari sisi kom- putasi.
### 8.4 Hidden Markov Model Tagger Pada subbab sebelumnya, POS _tagging_ telah didefinisikan secara matematis. Kita sudah mengetahui permasalahan yang ingin kita selesaikan. Subbab ini adalah formalisasi _hidden markov model tagger_. Ingat kembali persamaan 8.12 untuk POS tagging.P(wi|ci) disebut _likelihood_ danP(ci|ci− 1 ) disebut _prior_, _multiplication of probabilities_ ( #### ∏ ) melambangkanmarkov chain. _Markov chain_ adalah kasus spesial _weighted automaton_ ^5 yang mana sekuens _input_ menentukan _states_ yang akan dilewati oleh automaton. Sederhananya, automaton mencapai _goal state_ setelah mengunjungi berbagai _states_. Total bobot _outgoing edges_ untuk masing-masing _state_ pada automaton haruslah bernilai satu apabila dijumlahkan. Kasus spesial yang dimaksud adalah _emission_ (dijelaskan kemudian). Sebagai contoh, perhatikan Tabel 8.2.ARTadalah _article_,Nadalah _noun_, V adalah _verb_ danP adalah _preposition_. Mereka adalah contoh kelas kata yang disederhanakan demi membuat contoh yang mudah. Tabel 8.2 yang merepresentasikan probabilitas transisi kelas kata, ketika dikonversi menjadi _weighted automaton_, akan menjadi Gambar 8.5. ``` NULL ``` ``` ART V ``` ``` N P ``` ``` START ``` ``` 0.71 ``` ``` 0.29 ``` ``` 1 ``` ``` 0.65 ``` ``` 0.43 0.35 ``` ``` 0.26 ``` ``` 0.44 0.13 ``` ``` 0.74 ``` ``` Gambar 8.5:Weighted automaton[38]. ``` (^5) Kami berasumsi kamu sudah mempelajari automata sebelum membaca buku ini. ``` 8.4 Hidden Markov Model Tagger 109 ``` ``` Bigram Estimate P(ART|null) 0.71 P(N|null) 0.29 P(N|ART) 1 P(V|N) 0.43 P(N|N) 0.13 P(P|N) 0.44 P(N|V) 0.35 P(ART|V) 0.65 P(ART|P) 0.74 P(N|P) 0.26 ``` ``` Tabel 8.2: Probabilitas bigram [38]. ``` Tabel 8.2 dan Gambar 8.5 telah merepresentasikan probabilitas _prior_, sekarang kita ingin model yang kita punya juga mencakuplexical emission probabilities, yaitu _likelihood_ pada persamaan 8.12. ``` P(the|ART) 0.54 P(a|ART) 0.360 P( _flies_ |N) 0.025 P(a|N) 0.001 P( _flies_ |V) 0.076 P(flower|N) 0.063 P(like|V) 0.1 P(flower|V) 0.05 P(like|P) 0.068 P(birds|N) 0.076 P(like|N) 0.012 ``` Tabel 8.3:Lexical emission probabilities[38]. Tabel ini hanya memuat informasi yang dibutuhkan untuk ilustrasi cerita (penyederhanaan). Seumpama kita mempunyai _lexical emission probabilities_ seperti pada Tabel 8.3. Setiap _state_ pada automaton, dapat menghasilkan/meng- _output_ kan suatu kata ( _word_ ) dengan probabilitas pada Tabel 8.3. Kita kembangkan lagi Gambar 8.5 dengan tambahan informasi _lexical emission probabilities_ menjadi Gambar 8.6. Automaton ini disebut _hidden markov model_ (HMM). Kata _hidden_ berarti, untuk setiap kata pada sekuens, kita tidak mengetahui kata tersebut dihasilkan oleh _state_ mana secara model (baru diketahui saat _running_ ). Misalkan, kata _flies_ dapat dihasilkan oleh _state_ N( _noun_ ) atauV ( _verb_ ) [38]. Diberikan kalimat “ _flies like a flower_ ”, untuk menghitung sekuens kelas kata untuk kalimat tersebut, kita menyelusuri automaton Gambar 8.6. Hasil penelusuran memberikan kita kombinasi sekuens yang mungkin seperti pada Gambar 8.7. Pekerjaan berikutnya adalah, dari seluruh kombinasi sekuens yang mungkin, yaitu #### ∏T ``` i=1P(wi|ci)P(ci|ci−^1 ). Bagaimana cara kita menen- ``` 110 8 Hidden Markov Model ``` NULL ``` ``` ART V ``` ``` N P ``` ``` START ``` ``` 0.71 ``` ``` 0.29 ``` ``` 1 ``` ``` 0.65 ``` ``` 0.43 0.35 ``` ``` 0.26 ``` ``` 0.44 0.13 ``` ``` 0.74 ``` ``` P(the|ART) = 0.54 P(a|ART) = 0.360 ``` ``` P( _flies_ |V) = 0.76 P(flower|V)= 0.05 P(like|V) = 0.1 ``` ``` P(P( _flies_ |Na|N) ) = 0.25= 0.001 P(like|P) = 0.068 P(flower|N)= 0.063 P(like|N) = 0.012 P(birds|N) = 0.076 ``` ``` Gambar 8.6: _Hidden Markov Model_. ``` ``` Gambar 8.7: Sekuens yang mungkin ( _brute force_ ). ``` tukan sekuens terbaik (paling optimal), yaitu sekuens dengan probabilitas tertinggi, diberikan pada subbab berikutnya. Secara formal, _hidden markov model tagger_ didefinisikan oleh beberapa komponen [12]: ``` 1.Q={q 1 ,q 2 ,...,qS}yaitu himpunan _states_ ;Smenunjukkan banyaknya _states_. 2.A=a 0 , 0 ,a 1 , 1 ,a 2 , 2 ,...,aS,Syaitu _transition probability_ matrixdari suatu _state_ imenuju _state_ j; dimana ``` #### ∑S ``` j=0ai,j= 1. Indeks 0 merepresentasikanstart _state_ ( _null state_ ).Smelambangkan banyaknya _states_. 3.o=o 1 ,o 2 ,...,oTyaitu sekuensobservasi(kata/ _input_ );Tadalah panjang _input_. 4.b=bi(ow) yaitu sekuens dari _observation likelihood_, atau disebut dengan _emission_ probabilities, merepresentasikan sebuah observasi kataow dihasilkan oleh suatu _state-i_. ``` ``` 8.5 Algoritma Viterbi 111 ``` ``` 5.q 0 ,qFyaitu kumpulan _states_ pesial yang terdiri dari _start state_ danfinal _state_ (s). ```
### 8.3 Part-of-speech Tagging Pada bidang pemrosesan bahasa alami ( _natural language processing_ ), peneliti tertarik untuk mengetahui kelas kata untuk masing-masing kata di tiap kalimat. Misalkan kamu diberikan sebuah kalimat “ _Budi menendang bola_ ”. Setelah proses POS _tagging_, kamu akan mendapat “Budi/Noun menendang/Verb bola/Noun” (Gambar 8.4). Hal ini sangat berguna pada bidang pemrosesan bahasa alami, misalkan untuk memilih _noun_ pada kalimat. Kelas kata disebut sebagai _syntactic categories_. Pada bahasa Inggris, kita mempunyai kelas kata yang dikenal dengan _Penn Treebank POS Tags_,^4 diberikan pada Tabel 8.1. ``` POS tag Noun Verb Noun Kata Budi Menendang Bola ``` ``` Gambar 8.4: Contoh POS _tagging_. ``` POS _tagging_ adalah salah satu bentuk pekerjaan _sequential classification_. Diberikan sebuah sekuens kata (membentuk satu kalimat), kita ingin menentukan kelas setiap kata/ _token_ pada kalimat tersebut. Kita ingin memilih sekuens kelas kata _syntactic categories_ yang paling cocok untuk katakata/ _tokens_ pada kalimat yang diberikan. Secara formal, diberikan sekuens kata-kataw 1 ,w 2 ,...,wT, kita ingin mencari sekuens kelas katac 1 ,c 2 ,...,cT sedemikian sehingga kita memaksimalkan nilai probabilitas 8.6 [12, 38]. ``` cˆ 1 ,cˆ 2 ,...,cˆT= arg max c 1 ,c 2 ,...,cT;ciC ``` ``` P(c 1 ,c 2 ,...,cN|w 1 ,w 2 ,...,wT) (8.6) ``` DimanaCadalah daftar kelas kata. Akan tetapi, menghitung persamaan 8.6 sangatlah sulit karena dibutuhkan data yang sangat banyak (kombinasi sekuens (^4) https://www.ling.upenn.edu/courses/Fall_ _2003/ling001/penn_ _treebank_ pos.html 106 8 Hidden Markov Model ``` No. Tag Description ``` 1. CC Coordinating conjunction 2. CD Cardinal number 3. DT De _term_ iner 4. EX Existential there 5. FW Foreign word 6. IN Preposition or subordinating conjunction 7. JJ Adjective 8. JJR Adjective, comparative 9. JJS Adjective, superlative 10. LS List item marker 11. MD Modal 12. NN Noun, singular or mass 13. NNS Noun plural 14. NNP Proper noun singular 15. NNPS Proper noun plural 16. PDT Pre _determiner_ 17. POS Possessive ending 18. PRP Personal pro _noun_ 19. PRP$ Possessive pro _noun_ 20. RB Ad _verb_ 21. RBR Ad _verb_, comparative 22. RBS Ad _verb_, superlative 23. RP P _article_ 24. SYM Symbol 25. TO to 26. UH Interjection 27. VB Verb base form 28. VBD Verb past tense 29. VBG Verb gerund or present participle 30. VBN Verb past participle 31. VBP Verb non-3rd person singular present 32. VBZ Verb 3rd person singular present 33. WDT Wh- _determiner_ 34. WP Wh-pro _noun_ 35. WP$ Possessive wh-pro _noun_ 36. WRB Wh-ad _verb_ ``` Tabel 8.1: Penn Treebank POS Tag. ``` kata sangat sulit untuk didaftar/sangat banyak). Teori Bayes digunakan untuk melakukan aproksimasi permasalahan ini. Ingat kembali teori Bayes seperti pada persamaan 8.7. ``` P(x|y) = P(y|x)P(x) P(y) ``` #### (8.7) ``` 8.3 Part-of-speech Tagging 107 ``` Dengan menggunakan teori Bayes, kita dapat mentransformasi persamaan 8.6 menjadi persamaan 8.8. cˆ 1 ,cˆ 2 ,...,cˆT= arg max c 1 ,c 2 ,...,cT;ciC ``` P(w 1 ,w 2 ,...,wT|c 1 ,c 2 ,...,cT)P(c 1 ,c 2 ,...,cT) P(w 1 ,w 2 ,...,wT) (8.8) ``` Untuk suatu sekuens input,P(w 1 ,w 2 ,...,wT) ( _language model_ ) akan selalu sama sehingga dapat diabaikan (karena operasi yang dilakukan adalah mengubah-ubah atau mencaric). Oleh karena itu, persamaan 8.8 dapat disederhanakan menjadi 8.9. ``` cˆ 1 ,cˆ 2 ,...,cˆT= arg max c 1 ,c 2 ,...,cT;ciC ``` ``` P(w 1 ,w 2 ,...,wT|c 1 ,c 2 ,...,cT)P(c 1 ,c 2 ,...,cT) ``` (8.9) Pada persamaan 8.9, kombinasi sekuens kelas kata jauh lebih sedikit dibanding kombinasi sekuens kata (karena kelas kata jumlahnya lebih terbatas). Ingat kembaliP(c 1 ,c 2 ,...,cT) disebut _prior_,P(w 1 ,w 2 ,...,wT|c 1 ,c 2 ,...,cT) disebut _likelihood_ (bab 2). Persamaan 8.9 masih dapat disederhanakan kembali menggunakanmarkov assumption, yaitu dengan membuat asumsi saling lepas pada sekuens (disebutindependence assumption). Terdapat dua asumsi, pertama, kategori suatu kata hanya bergantung pada dirinya sendiri tanpa memperhitungkan kelas kata disekitarnya, seperti pada persamaan 8.10. Asumsi kedua adalah suatu kemunculan kategori kata hanya bergantung pada kelas kata sebelumnya, seperti pada persamaan 8.11. ``` P(w 1 ,w 2 ,...,wT|c 1 ,c 2 ,...,cT) = ``` #### ∏T ``` i=1 ``` ``` P(wi|ci) (8.10) ``` ``` P(c 1 ,c 2 ,...,cT) = ``` #### ∏T ``` i=1 ``` ``` P(ci|ci− 1 ) (8.11) ``` Dengan demikian, persamaan 8.9 disederhanakan kembali menjadi persamaan 8.12 yang disebut _bigram assumption_ atau _first-order markov chain_, dimanaTmelambangkan panjangnya sekuens. ``` cˆ 1 ,cˆ 2 ,...,cˆT= arg max c 1 ,c 2 ,...,cT;ciC ``` #### ∏T ``` i=1 ``` ``` P(wi|ci)P(ci|ci− 1 ) (8.12) ``` Kita dapat membuat ekstensi persamaan 8.12 dengan _trigram assumption_, _quadgram_ assumption, dan seterusnya.P(ci|ci− 1 ,ci− 2 ) untuk _trigram_,P(ci|ci− 1 ,ci− 2 ,ci− 3 ) untuk _quadgram_. Walau menghitung probabilitas seluruh sekuens adalah hal yang susah, hal tersebut dapat di _model_ kan dengan 108 8 Hidden Markov Model lebih baik menggunakan _recurrent neural network_ (subbab 13.2). Anda dapat membaca subbab tersebut kemudian, ada baiknya kita mengerti pendekatan yang lebih sederhana terlebih dahulu. Sebagai contoh, untuk kalimat “ _budi menendang bola_ ”, peluang kalimat tersebut memiliki sekuens kelas kata “ _noun_, _verb_, _noun_ ” adalah ``` P( _noun_, _verb_, _noun_ ) =P(budi| _noun_ )P( _noun_ |null)P(menendang| _verb_ ) P( _verb_ | _noun_ )P(bola| _noun_ )P( _noun_ | _verb_ ) (8.13) ```
### 6.3 Isu pada ID3 Pada algoritma _decision tree_ secara umum, terdapat beberapa isu diantara lain [7, 36]: 1. Mudah overfitting 2. Masalah menangani atribut kontinu 3. _Information gain_ memiliki bias terhadap atribut yang memiliki banyak nilai ( _highly-branching attributes_ ) 4. Data dengan _missing value_. Beberapa sel pada tabel dataset tidak terisi. 5. Data dengan _unseen value_. Misal nilai atribut yang tidak pernah dilihat pada _training data_, muncul saat _testing_.
### 6.1 Inductive Learning Salah satu bentuk “kecerdasan” sederhana kemungkinan adalah dalam bentuk aturan ( _rule_ ) yang merepresentasikan pengetahuan. Misalkan, untuk menentukan apakah suatu pasien terserang penyakit tertentu, dokter mencari tahu gejala-gejala yang ada. Berdasarkan gejala-gejala yang ada, dokter memutuskan bahwa pasien memiliki suatu penyakit. Pada zaman dahulu, peneliti mentranskripsi aturan-aturan ( _if then_ ) eksplisit (berdasarkan pengetahuan ahli) untuk membuat agen cerdas ( _expert system_ ). Aturan sangat berguna, tetapi proses transkripsi pengetahuan sang ahli menjadi aturan formal (matematis) adalah hal yang sulit. Terlebih lagi, aturan-aturan yang sudah dibangun cenderung tidak dapat diubah dengan mudah. Pada era _big data_ seperti sekarang, kita dapat mengotomatisasi hal tersebut dengan membuat aturan-aturan secara otomatis berdasarkan contoh data yang ada ( _machine learning_ ). Pendekatan ini disebut _inductive learning_, yaitu mengembangkan aturan klasifikasi yang dapat menentukan kelas suatu _instance_ berdasarkan nilai atributnya ( _feature vector_ ). Cara paling sederhana diberikan pada subbab 3.3 yaitu mendaftarkan seluruh kemungkinan aturan yang ada, kemudian menghapus yang kurang cocok. Algoritma lebih baik adalah dengan membangun pohon keputusan ( _decision tree_ ). 84 6 Pohon Keputusan
### Soal Latihan 6.1. Isu Pada subbab 6.3, telah disebutkan isu-isu yang ada pada ID3, sebutkan dan jelaskan bagaimana cara menangani masing-masing isu tersebut! 6.2. Gain Ratio Selain _information gain_, kita dapat menggunakan cara lain untuk memilih atribut bernama _gain ratio_. Jelaskan perbedaan keduanya! Yang mana lebih baik? 6.3. C4.5 ID3 disempurnakan kembali oleh pembuat aslinya menjadi C4.5. Jelaskanlah perbedaan ID3 dan C4.5, beserta alasan st _rate_ gi penyempurnaan! 6.4. Pruning Jelaskan apa itu _pruning_ dan bagaimana cara melakukan _pruning_ untukdecision tree! 6.5. Association Rule Terdapat beberapa algoritma _association rule_ yang membentuk aturan-aturan seperti _decision tree_. (a) Jelaskanlah algoritma PRISM dan A _prior_ i! (b) Jelaskan perbedaan _association rule_ dan _inductive learning_ ! 6.6. Final Decision Tree Lanjutkanlah proses konstruksi ID3 untuk Tabel 6.1 hingga membentukdecision treeakhir seperti pada Gambar 6.1! 6.7. Variant Jelaskanlah _Random Forest_, _Bagging_ dan _Boosting_ pada _Decision Tree_ !
### 6.2 ID3 _Decision tree_ adalah varian dari _inductive learning_. ID3 adalah salah satu algoritma varian _decision tree_ [34]. _Decision tree_ dibangun berdasarkan asumsi bila atribut yang ada memberikan informasi yang cukup memadai maka kita mampu membangun _decision tree_ yang mampu mengklasifikasikan seluruh _instance_ di _training data_ [34]. Akan tetapi, kita tentunya ingin melakukan generalisasi, yaitu _decision tree_ yang juga mampu mengklasifikasikan objek dengan benar untuk _input_ yang tidak ada di _training data_ ( _unseen instances_ ). Oleh karena itu, kita harus mampu mencari hubungan antara kelas dan nilai atribut. ``` Gambar 6.1:Final decision tree ``` ``` id outlook temperature humidity windy play ( _class_ ) 1 sunny hot high false no 2 sunny hot high true no 3 overcast hot high false yes 4 rainy mild high false yes 5 rainy cool normal false yes 6 rainy cool normal true no 7 overcast cool normal true yes 8 sunny mild high false no 9 sunny cool normal false yes 10 rainy mild normal false yes 11 sunny mild normal true yes 12 overcast mild high true yes 13 overcast hot normal false yes 14 rainy mild high true no ``` ``` Tabel 6.1: Contoh dataset _play tennis_ (UCI machine learning repository). ``` ``` 6.2 ID3 85 ``` St _rate_ gi pembangunan ID3 adalah berdasarkan _top-down_ rekursif. Pertama, kita pilih atribut untuk _root_ pohon, lalu membuat cabang untuk setiap nilai atribut yang mungkin. Untuk masing-masing cabang, kita buat _subtree_. Kita hentikan proses ini ketika kita sudah mencapai _leaf_ (tidak bisa mencabang lebih jauh). _Leaf_ ditandai apabila seluruh _instance_ pada cabang tersebut memiliki kelas yang sama. Atribut yang sudah dipilih pada _ancestor_ tidak akan dicoba pada percabangan di cabang tertentu. Sebagai contoh, perhatikanlah Gambar 6.1 yang merupakan hasil ID3 untuk Tabel 6.1. Bentuk elips merepresentasikan nama atribut, sementara _edge_ (panah) merepresentasikan nilai atribut. Bentuk segi empat merepresentasikan klasifikasi kelas ( _leaf_ ). Pohon keputusan pada Gambar 6.1 dapat dikonversi menjadi kumpulan aturan klasifikasi berbentuk logika preposisi dengan menelusuri setiap cabang pada pohon tersebut, yaitu: - if _outlook=sunny_ and _humidity=high_ then _play=no_ - if _outlook=sunny_ and _humidity=normal_ then _play=yes_ - if _outlook=overcast_ then _play=yes_ - if _outlook=rainy_ and _windy=false_ then _play=yes_ - if _outlook=rainy_ and _windy=true_ then _play=no_ Karena _decision tree_ dapat interpretasikan sebagai logika preposisi, model ini tergolong _interpretable_. Artinya, manusia dapat mengerti proses yang terjadi pada model dengan mudah. Pada setiap langkah membangun ID3, kita menggunakaninformation gainuntuk memilih kandidat atribut terbaik. _Information gain_ mengukur kemampuan suatu atribut untuk memisahkan _training data_ berdasarkan kelas [7]. Sebelum masuk ke perumusan _information gain_, penulis akan mengingatkan _entropy_ terlebih dahulu. Entropy (derajat ketidakteraturan) adalah informasi yang dibutuhkan untuk memprediksi sebuah kejadian, diberikan distribusi probabilitas. Secara matematis, entropy didefinisikan pada persamaan 6.1 (xadalah kumpulan nilai probabilitas). ``` _entropy_ (x) =− ``` #### ∑N ``` i=1 ``` ``` xilogxi (6.1) ``` Kita juga definisikanInfo sebagai persamaan 6.2, dimana ci adalah banyaknya instance diklasifikasikan sebagai kelas ke-i (atau secara lebih umum, ke _node_ -i). 86 6 Pohon Keputusan ``` Info(c 1 ,c 2 ,...,cN) = entropy( ``` ``` c 1 ∑N j cj ``` #### , ``` c 2 ∑N j cj ``` #### ,..., ``` cN ∑N j cj ``` #### ) (6.2) _Information gain_ dihitung sebagai persamaan 6.3, dimanaciadalah jumlah _instance_ untuk kelas ke-i,vadalah nilai atribut,cvadalah banyaknya _instance_ ketika dicabangkan dengan nilai atributv,cvxadalah banyaknya _instance_ kelas saat percabangan. _Information gain_ dapat dimaknai sebagai pengurangan entropy karena melakukan percabangan. ``` IG(c 1 ,c 2 ,...,cN) = Info(c 1 ,c 2 ,...,cN)− ``` #### ∑ ``` vV ``` ``` cv ∑N i=1ci ``` ``` Info(c 1 v,c 2 v,...,cNv) ``` (6.3) Sebagai contoh, mari kita hitung _Information gain_ untuk atribut _outlook_ sebagai _root_. Dari keseluruhan data terdapat 9 _instance_ untuk _play=yes_ dan 5 instanceuntuk _play=no_. Kita hitung Info semesta sebagai (logbasis 2) ``` Info([9,5]) = entropy ``` #### ([ #### 9 #### 14 #### , #### 5 #### 14 #### ]) #### =− #### 9 #### 14 ``` log ``` #### ( #### 9 #### 14 #### ) #### − #### 5 #### 14 ``` log ``` #### ( #### 5 #### 14 #### ) #### = 0. 940 Kita hitung _entropy_ untuk masing-masing nilai atribut _outlook_ sebagai berikut: - outlook=sunny Ada dua _instance_ dengan _play=yes_ dan tiga _instance_ dengan _play=no_ saat _outlook=sunny_, dengan demikian kita hitung Info-nya. ``` Info([2,3]) = entropy ``` #### ( #### 2 #### 5 #### , #### 3 #### 5 #### ) #### =− #### 2 #### 5 ``` log ``` #### ( #### 2 #### 5 #### ) #### − #### 3 #### 5 ``` log ``` #### ( #### 3 #### 5 #### ) #### = 0. 971 - outlook=overcast Ada empat _instance_ dengan _play=yes_ dan tidak ada _instance_ dengan play=nosaat _outlook=overcast_, dengan demikian kita hitung Info-nya. ``` Info([4,0]) = entropy ``` #### ( #### 4 #### 4 #### , #### 0 #### 4 #### ) #### =− #### 4 #### 4 ``` log ``` #### ( #### 4 #### 4 #### ) #### − #### 0 #### 4 ``` log ``` #### ( #### 0 #### 4 #### ) #### = 0 ``` Perhatikan log 0 pada matematika adalah tidak terdefinisi, tapi kita anggap 0 log 0 sebagai 0 dalam komputasi. ``` ``` 6.2 ID3 87 ``` - outlook=rainy Ada tiga _instance_ dengan _play=yes_ dan dua _instance_ dengan _play=no_ saat _outlook=rainy_, dengan demikian kita hitung Info-nya. ``` Info([3,2]) = _entropy_ ``` #### ( #### 3 #### 5 #### , #### 2 #### 5 #### ) #### =− #### 3 #### 5 ``` log ``` #### ( #### 3 #### 5 #### ) #### − #### 2 #### 5 ``` log ``` #### ( #### 2 #### 5 #### ) #### = 0. 971 Kita hitung _information gain_ untuk atribut _outlook_ sebagai ``` IG( _outlook_ ) = Info ([9,5])− ( 5 14 ``` ``` ×Info ([3,2]) + ``` #### 4 #### 14 ``` ×Info([4,0]) + ``` #### 5 #### 14 ``` ×Info([3,2]) ``` #### ) #### = 0. 940 − #### ( #### 5 #### 14 #### × 0 .971 + #### 4 #### 14 #### ×0 + #### 5 #### 14 #### × 0. 971 #### ) #### = 0. 940 − 0. 693 #### = 0. 247 Dengan metode yang sama, kita hitung _information gain_ untuk atribut lain- nya. - IG(temperature) = 0. 029 - IG( _humidity_ ) = 0. 152 - IG(windy) = 0. 048 Dengan demikian, kita memilih atribut _outlook_ sebagai _root_. Kita lanjutkan lagi membuat _subtree_ setelah memilih atribut _outlook_ sebagai _root_. Kita hitung atribut yang tepat pada cabangoutook=sunny, seperti diilustrasikan pada Gambar 6.2. Pada _outlook=sunny_, terdapat dua _instance_ dengan kelas _play=yes_ dan tiga _instance_ dengan kelas _play=no_. Kita hitung _information gain_ saat melanjutkan cabang dengan atribut _humidity_. ``` IG( _humidity_ ) = Info([2,3])− ``` #### ( #### 3 #### 5 ``` ×Info([0,3]) + ``` #### 2 #### 5 ``` ×Info([2,0]) ``` #### ) #### = 0. 971 − 0 #### = 0. 971 Untuk setiap kedalaman, kita coba menggunakan atribut yang belum pernah dicoba pada level-level lebih atas, seperti yang sudah diilutrasikan. Proses ini dilanjutkan sampai kita tidak bisa atau tidak perlu mencabang lagi. 88 6 Pohon Keputusan ``` Gambar 6.2: Percabangan ```
### 6.4 Pembagian Ruang Konsep Ada hubungan antara algorithma _decision tree_ dan model linear. Pada model linear, kita semacam membagi-bagi ruang konsep (semesta data) menjadi ruang per kelas menggunakan garis pembatas linear. _Decision tree_ melakukan hal yang hampir sama, karena percabangan _decision tree_ dapat dianggap sebagai linear. Sebagai contoh perhatikan ilustrasi Gambar 6.3, dimana semesta adalah suatu ruang konsep. Tiap ruang merepresentasikan suatu cabang (dari _root_ sampai leaf) pada _decision tree_. Garis-garis yang membentuk ruangruang pemisah disebut sebagai _decision boundary_. ``` 6.4 Pembagian Ruang Konsep 89 ``` ``` Gambar 6.3: Ilustrasi pembagian ruang konsep ```
### Soal Latihan 10.1. Intra- _cluster_ Evaluation Buktikan kebenaran persamaan 10.7. 10.2. Entropy Bagaimana cara menghitung kualitas algoritma _clustering_, jika diberikan informasi label/ kelas setiap data menggunakan: (hint, baca [41]) (a) Entropy (b) Purity 10.3. Kompleksitas Hitunglah kompleksitas algoritma untuk: (a) K- _mean_ s (b) Agglomerative Clustering (c) Divisive Clustering 10.4. Kemiripan Data Sebutkanlah contoh perhitungan kemiripan untuk data _string_. Bagaimana adaptasi perhitungan tersebut pada formula-formula yang sudah diberikan pada algoritma K- _mean_ s dan agglomerative clustering. 10.5. Agglomerative vs Divisive Clustering Menurut kamu, mengapa pendekatan _bottom-up_ (agglomerative) lebih populer dibanding _top-down_ (divisive)? Apa perbedaan kedua pendekatan tersebut (keuntungan dan kerugian masing-masing)? 10.6. Agglomerative Link Jelaskan apa kelebihan dan kekurangan masing-masing metode perhitungan kemiripan cluster pada agglomerative clustering!
### 10.3 Evaluasi Diberikan sekumpulan dataD={d 1 ,d 2 ,···,dN}untuk suatu _cluster_. Saat tidak tersedianya informasi label/kelas untuk setiap data, kualitas hasil _clustering_ dapat dihitung dengan tiga kriteria yaitu: ``` 1. _Intra-cluster similarity_, yaitu menghitung rata-rata kedekatan antara suatu anggota dan anggota _cluster_ lainnya. ``` ``` I= ``` #### 1 #### N^2 #### ∑ ``` didj,i 6 =j ``` ``` cosSim(di,dj) (10.6) ``` ``` Perhitungan kedekatan antar tiap pasang anggota _clusters_ ama halnya dengan menghitung _norm_ dari centroid _cluster_ tersebut, ketika centroid dihitung menggunakan _mean_ (buktikan!). ``` ``` I= ``` #### 1 #### N^2 #### ∑ ``` didj,i 6 =j ``` ``` cosSim(di,dj) =‖c‖^2 (10.7) ``` ``` Perhitungan ini dapat di _norm_ alisasi sesuai dengan banyaknya anggota _cluster_ I′= ‖c‖^2 N ``` #### (10.8) ``` Semakin tinggi kemiripan anggota pada suatu _cluster_, semakin baik kualitas _cluster_ tersebut. ``` ``` 2. _Inter-cluster similarity_, yaitu menghitung bagaimana perbedaan antara suatu _cluster_ dan _cluster_ lainnya. Hal tersebut dihitung dengancosine similarity antara centroid suatu _cluster_ dan centroid dari seluruh _data_ [42], dimanackadalah centroid _cluster_ ke-k,cDadalah centroid ( _mean_ ) dari seluruh data,Nkadalah banyaknya anggota _cluster_ ke-k, dan Kadalah banyaknya _clusters_. Semakin kecil nilai _inter-cluster similarity_, maka semakin baik kualitas _clustering_. ``` #### E= #### ∑K ``` k=1 ``` ``` Nk ckcD ‖ck‖ ``` #### (10.9) ``` 3. _Hybrid_. Perhitungan intra- _cluster_ dan inter- _cluster_ mengoptimalkan satu hal sementara tidak memperdulikan hal lainnya. _Intra-cluster_ menghitung keeratan anggota _cluster_, sementara _Inter-cluster_ menghitung separasi antar _clusters_. Kita dapat menggabungkan keduanya sebagai _hybrid_ (gabungan), dihitung dengan: ``` #### H= #### ∑K ``` k=1I ′ k E ``` #### = #### ∑K ``` k=1 ``` ``` ‖ck‖^2 Nk ∑K k=1Nk ``` ``` ckcD ‖ck‖ ``` #### = #### ∑K ``` k=1 ``` ``` ‖ck‖ Nk^2 ckcD ``` #### (10.10) ``` Semakin besar nilai perhitungan _hybrid_, semakin bagus kualitas _clusters_. ``` 140 10 Clustering Apabila terdapat informasi label/ kelas untuk setiap data, kita juga dapat menghitung kualitas algoritma _clustering_ (perhatikan! tujuan pengukuran adalah kualitas algoritma) dengan _Entropy_ danPurity.
### 10.2 Hierarchical Clustering Hierarchical clusteringadalah teknik untuk membentuk pembagian bersarang (nested partition). Berbeda dengan K- _mean_ s yang hasil _clustering_ -nya berbentukflatatau rata, _hierarchical clustering_ memiliki satu _cluster_ paling atas yang mencakup konsep seluruh _cluster_ dibawahnya. Ada dua cara untuk membentuk _hierarchical_ _clustering_ [41]: ``` 1.Agglomerative. Dimulai dari beberapaflat clusters; pada setiap langkah iterasi, kita menggabungkan dua _clusters_ termirip. Artinya, kita harus mendefinisikan arti “kedekatan” dua _clusters_. ``` ``` 2.Divisive. Dimulai dari satu _cluster_ (seluruh data), kemudian kita memecah belah _cluster_. Artinya, kita harus mendefinisikan _cluster_ mana yang harus dipecah dan bagaimana cara memecahnya. ``` ``` Gambar 10.1: Ilustrasi _hierarchical clustering_. ``` (^1) https://en.wikipedia.org/wiki/Cosine_similarity 138 10 Clustering Sebagai contoh, algoritma _hierarchical clustering_ menghasilkan struktur hirarkis seperti pada gambar 10.1 yang disebutdendogram. Dendogram melambangkan taksonomi, sebagai contoh taksonomi dokumen berita _sport_, dipecah menjadi _baseball_ dan _soccer_. Sejauh ini, teknik _agglomerative clustering_ lebih populer, karena pendekatan ini bersifat _bottom-up_. Secara umum, pendekatan _bottom-up_ memang relatif lebih populer dibanding pendekatan _top-down_. Langkah-langkahagglomerative _clustering_ sebagai berikut: 1. Sediakan sebanyakK _cluster_. Kamu dapat menganggap satu _instance_ data sebagai satu _cluster_. 2. Gabung dua _clusters_ paling mirip. 3. Ulangi langkah ke-2 sampai hanya satu _cluster_ tersisa. Perhatikan, untuk menggabungkan dua _clusters_ termirip, kita membutuhkan definisi “mirip”. Definisi tersebut dikuantifikasi dengan formula matematis (seperti definisi kemiripan data pada subbab 10.1). Perhitungan kemiripan _clusters_ dapat dihitung dengan tiga metode [43] (untuk data numerik): ``` 1. _Single Link_. Nilai kemiripan dua _clusters_ UdanVdihitung berdasarkan nilai kemiripanmaksimumdiantara anggota kedua _clusters_ tersebut^2. ``` ``` SimsingleLink(U,V) = max ui∈U,vj∈V cosSim(ui,vj) (10.3) ``` ``` 2. _Complete Link_. Nilai kemiripan dua _clusters_ dihitung berdasarkan nilai kemiripanminimumdiantara anggota kedua _clusters_ tersebut. ``` ``` SimcompleteLink(U,V) = min ui∈U,vj∈V cosSim(ui,vj) (10.4) ``` ``` 3.UPGMA ( _Average Link_ ). Nilai kemiripan dua _clusters_ dihitung berdasarkan nilai kemiripanrata-ratadiantara anggota kedua _clusters_ tersebut. ``` ``` SimUPGMA(U,V) = ``` #### 1 #### |U||V| #### ∑ ``` ui∈U,vj∈V ``` ``` cosSim(ui,vj) = cUcV |U||V| ``` #### (10.5) ``` dimana|U|adalah banyaknya data pada _cluster_ UdancUadalah centroid untuk _cluster_ U. ``` (^2) Clusterdapat dianggap sebagai matriks karena merupakan kumpulanfeature vec- tor. ``` 10.3 Evaluasi 139 ```
### 10.1 K- _mean_ s, Pemilihan Centroid, Kemiripan Data Algoritma K- _mean_ s mengelompokkan data menjadi sebanyakK kelompok sesuai yang kita definisikan. Algoritma ini disebut juga sebagai _flat clustering_, artinya kelompok satu memiliki kedudukan sejajar dengan kelompok lainnya. Kita tinjau kembali tahapan-tahapan algoritma K- _mean_ s sebagai berikut: 1. Tentukan sebanyakKkelompok yang kita inginkan. 2. Inisiasi _centroid_ untuk setiap kelompok. Centroid ibarat seperti “ketua kelompok”, yang merepresentasikan kelompok. 3. Hitung kedekatan suatu data terhadap _centroid_, kemudian masukkan data tersebut ke kelompok yang _centroid_ -nya memiliki sifat terdekat dengan dirinya. 4. Pilih kembali centroid untuk masing-masing kelompok, yaitu dari anggota kelompok tersebut. 5. Ulangi langkah-langkah sebelumnya sampai tidak ada perubahan anggota untuk semua kelompok. Perhatikan, ada dua hal penting pada algoritma K- _mean_ s yaitu: (1) memilih centroid dan (2) Perhitungan kemiripan data. Pada bab 4, dijelaskan salah satu metode pemilihan centroid paling sederhana yaitu secara acak. Pada kenyataannya, inisiasi centroid untuk setiap kelompok/ _cluster_ dapat dilakukan secara acak; tetapi pada tahap berikutnya, secara umum centroid dipilih menggunakan nilai rata-rata/ _mean_. Dengan demikian, centroid bisa saja merupakan suatu vektor yang tidak ada _entry_ -nya di dataset. Diberikan sekumpulan dataD={d 1 ,d 2 ,···,dN}; maka centroidcuntuk _cluster_ itu dihitung dengan persamaan 10.1, ``` c= ``` #### 1 #### N #### ∑N ``` i=1 ``` #### ∑F ``` e=1 ``` ``` di[e] (10.1) ``` yaitu nilai rata-rata setiap elemen _feature vector_ untuk seluruh anggota _cluster_ tersebut, dimanaN adalah banyaknya anggota _cluster_,F adalah dimensi _vektor_,diadalah anggota ke-i dalam representasi _feature vector_ dandi[e] melambangkan elemen ke-epada vektordi. Dengan ini, centroid secara umum bisa jadi tidak merupakan elemen anggota _cluster_ ( _centroid_ bukan sebuah _instance_ data). Pada bab 4 dijelaskan salah satu metode perhitungan kemiripan data sederhana yaitu dengan menghitung banyaknya nilai atribut yang sama diantara dua _feature vector_. Selain metode tersebut, terdapat banyak perhitungan kemiripan data lainnya tergantung pada tipe, contohnya: ``` 1.Numerik. Euclidean Distance, Manhattan Distance, Cosine Distance, dsb. 2.Boolean. Jaccard Dissimilarity, Rogers Tanimoto Dissimilarity, dsb. 3.String. Levenshtein Distance, Hamming Distance, dsb. ``` ``` 10.2 Hierarchical Clustering 137 ``` Perhitungan yang paling populer digunakan adalah _cosine similarity_ ^1 (kebetulan pada kebanyakan kasus kita bekerja dengan data numerik), didefinisikan pada persamaan 10.2, yaitu _dot product_ antara dua vektor dibagi dengan perkalian _norm_ kedua vektor. ``` cosSim(di,dj) = di·dj ‖di‖‖dj‖ ``` #### (10.2) _Cluster_ s yang terbentuk, nantinya dapat digunakan sebagai pengelompokkan untuk label klasifikasi. Seumpama _cluster_ 1 dapat dianggap sebagai data untuk kelas ke-1, dst.
### 10.3 Evaluasi Diberikan sekumpulan dataD={d 1 ,d 2 ,···,dN}untuk suatu _cluster_. Saat tidak tersedianya informasi label/kelas untuk setiap data, kualitas hasil _clustering_ dapat dihitung dengan tiga kriteria yaitu: ``` 1. _Intra-cluster similarity_, yaitu menghitung rata-rata kedekatan antara suatu anggota dan anggota _cluster_ lainnya. ``` ``` I= ``` #### 1 #### N^2 #### ∑ ``` didj,i 6 =j ``` ``` cosSim(di,dj) (10.6) ``` ``` Perhitungan kedekatan antar tiap pasang anggota _clusters_ ama halnya dengan menghitung _norm_ dari centroid _cluster_ tersebut, ketika centroid dihitung menggunakan _mean_ (buktikan!). ``` ``` I= ``` #### 1 #### N^2 #### ∑ ``` didj,i 6 =j ``` ``` cosSim(di,dj) =‖c‖^2 (10.7) ``` ``` Perhitungan ini dapat di _norm_ alisasi sesuai dengan banyaknya anggota _cluster_ I′= ‖c‖^2 N ``` #### (10.8) ``` Semakin tinggi kemiripan anggota pada suatu _cluster_, semakin baik kualitas _cluster_ tersebut. ``` ``` 2. _Inter-cluster similarity_, yaitu menghitung bagaimana perbedaan antara suatu _cluster_ dan _cluster_ lainnya. Hal tersebut dihitung dengancosine similarity antara centroid suatu _cluster_ dan centroid dari seluruh _data_ [42], dimanackadalah centroid _cluster_ ke-k,cDadalah centroid ( _mean_ ) dari seluruh data,Nkadalah banyaknya anggota _cluster_ ke-k, dan Kadalah banyaknya _clusters_. Semakin kecil nilai _inter-cluster similarity_, maka semakin baik kualitas _clustering_. ``` #### E= #### ∑K ``` k=1 ``` ``` Nk ckcD ‖ck‖ ``` #### (10.9) ``` 3. _Hybrid_. Perhitungan intra- _cluster_ dan inter- _cluster_ mengoptimalkan satu hal sementara tidak memperdulikan hal lainnya. _Intra-cluster_ menghitung keeratan anggota _cluster_, sementara _Inter-cluster_ menghitung separasi antar _clusters_. Kita dapat menggabungkan keduanya sebagai _hybrid_ (gabungan), dihitung dengan: ``` #### H= #### ∑K ``` k=1I ′ k E ``` #### = #### ∑K ``` k=1 ``` ``` ‖ck‖^2 Nk ∑K k=1Nk ``` ``` ckcD ‖ck‖ ``` #### = #### ∑K ``` k=1 ``` ``` ‖ck‖ Nk^2 ckcD ``` #### (10.10) ``` Semakin besar nilai perhitungan _hybrid_, semakin bagus kualitas _clusters_. ``` 140 10 Clustering Apabila terdapat informasi label/ kelas untuk setiap data, kita juga dapat menghitung kualitas algoritma _clustering_ (perhatikan! tujuan pengukuran adalah kualitas algoritma) dengan _Entropy_ danPurity.
### 11.6 Binary Classification Salah satu st _rate_ gi untuk _binary classification_ adalah dengan menyediakan hanya satu _output unit_ di jaringan. Kelas pertama direpresentasikan dengan −1, kelas kedua direpresentasikan dengan nilai 1 (setelah diaktivasi). Hal ini dapat dicapai dengan fungsi non-linear seperti sign^8 atau tanh.^9 Apabila kita tertarik dengan probabilitas masuk ke dalam suatu kelas, kita dapat meng- (^7) Karena struktur lebih susah, setidaknya beranjak dari keputusan terlebih dahulu (^8) https://en.wikipedia.org/wiki/Sign_ _function_ (^9) https://en.wikipedia.org/wiki/Hyperbolic_ _function_ 154 11 Feed _forward_ Neural Network gunakan fungsi seperti sigmoid,^10 dimana _output_ pada masing-masing neuron berada pada _range_ nilai [0,1].