text
stringlengths
9
25.2k
### 11.3 Permasalahan XOR Sedikit sejarah, _perceptron_ sebenarnya cukup populer sekitar tahun 1950-1960. Entah karena suatu sebab, _perceptron_ menjadi tidak populer dan digantikan oleh model linear. Saat itu, belum ada algoritma yang bekerja dengan relatif bagus untuk melatih _perceptron_ yang digabungkan ( _multilayer perceptron_ ). Model linear mendapat popularitas hingga kira-kira sekitar tahun 1990’an atau awal 2000’an. Berkat penemuan _backpropagation_ sekitar awal 1980,^4 multi _layer_ _perceptron_ menjadi semakin populer. Perlu dicatat, komunitas riset bisa jadi seperti cerita ini. Suatu teknik yang baru belum tentu bisa segera diimplementasikan karena beberapa kendala (misal kendala kemampuan kom- putasi). Pada bab-bab sebelumnya, kamu telah mempelajari model linear dan _model_ probabilistik. Kita ulangi kembali contoh data yang bersifat nonlinearly separable, yaitu XOR yang operasinya didefinisikan sebagai: - XOR(0,0) = 0 - XOR(1,0) = 1 - XOR(0,1) = 1 - XOR(1,1) = 0 Ilustrasinya dapat dilihat pada Gambar 11.3. Jelas sekali, XOR ini adalah fungsi yang tidak dapat diselesaikan secara langsung oleh model linear. ``` Gambar 11.3: Permasalahan XOR. ``` Seperti yang diceritakan pada bab model linear, solusi permasalahan ini adalah dengan melakukan transformasi data menjadi _linearly-separable_, misalnya menggunakan fungsi non-linear pada persamaan 11.5 dimana (x,y) adalah absis dan ordinat. Hasil transformasi menggunakan fungsi ini dapat dilihat pada Gambar 11.4. Jelas sekali, data menjadi _linearly separable_. ``` φ(x,y) = (x×y,x+y) (11.5) ``` (^4) [http://people.idsia.ch/](http://people.idsia.ch/) ~juergen/who-invented- _backpropagation_.html 148 11 Feed _forward_ Neural Network Gambar 11.4: XOR ditransformasi. Segiempat berwarna hijau sebenarnya melambangkan dua _instance_ (yang setelah ditransformasi kebetulan berlokasi pada tempat yang sama). Sudah dijelaskan pada bab model linear, permasalahan dunia nyata tidak sesederhana ini (kebetulan ditransformasikan menjadi data dengan dimensi yang sama). Pada permasalahan praktis, kita harus mentransformasi data menjadi dimensi lebih tinggi (dari 2D menjadi 3D). Berbeda dengan ide utama _linear model_ / _kernel method_ tersebut,prinsip ANN adalah untuk melewatkan _data_ pada fungsi non-linear( _non-linearities_ ). Sekali lagi penulis ingin tekankan, ANN secara filosofis adalahtrainable non-linear mapping _function_ s. ANN mampu mentransformasi data ke _space_ /ruang konsep yang berbeda (bisa pada dimensi lebih tinggi atau lebih rendah), lalu mencarinonlinear _decision boundary_ dengan _non-linear functions_. Interaksi antar-fitur juga dapat di _model_ kan secara non-linear. Perlu dicatat, pe _model_ an non-linear inilah yang membuat ANN menjadi hebat. ANN mungkin secara luas didefinisikan mencakup _single perceptron_ tetapi secara praktis,ANN sebenarnya mengacu pada _multilayer perceptron_ dan arsitektur lebih kompleks(dijelaskan pada subbab berikutnya). Pada masa ini, (hampir) tidak ada lagi yang menggunakan _single perceptron_. Untuk bab-bab kedepan, ketika kami menyebut ANN maka yang diacu adalah _multilayer perceptron_ dan arsitektur lebih kompleks ( _single perceptron_ di- _exclude_ ). Hal ini disebabkan oleh _single perceptron_ tidak dapat mempelajari XOR _function_ secara independen tanpa _feature engineering_, sementara _multilayer perceptron_ bisa [53].
### 11.9 Deep Neural Network _Deep Neural Network_ (DNN) adalah _artificial neural network_ yang memiliki banyak _layer_. Pada umumnya, _deep neural network_ memiliki lebih dari 3 _layers_ ( _input layer_,N ≥ 2 hidden layers, _output layer_ ), dengan kata lain adalah MLP dengan lebih banyak _layer_. Karena ada relatif banyak layer, disebutlah _deep_. Proses pembelajaran pada DNN disebut sebagai _deep learning_ (tidak ada bedanya dengan proses latihan pada jaringan yang lebih dangkal, ini hanyalah istilah keren saja) [9]. Jaringan _neural network_ pada DNN disebut _deep neural network_.^11 Perhatikan Gambar 11.11 yang memiliki 4 _layers_. Cara menghitungfinal _output_ sama seperti MLP, diberikan pada persamaan 11.11 dimanaβ,γ,λ adalah _noise_ atau _bias_,σadalah fungsi aktivasi. ``` fi=σ ``` ####  ####  #### ∑H^2 ``` j=1 ``` ``` uj,iσ ``` #### (H 1 #### ∑ ``` k=1 ``` ``` vk,jσ ``` #### (M #### ∑ ``` m=1 ``` ``` xmwm,k+βk ``` #### ) ``` +γj ``` #### ) ``` +λi ``` ####  ####  (11.11) Cara melatih _deep neural network_, salah satunya dapat menggunakan _backpropagation_. Seperti pada bagian sebelumnya, kita hanya perlu menurunkan rumusnya saja.Penurunan diserahkan pada pembaca sebagai latihan. Hasil proses penurunan dapat dilihat pada Gambar 11.12. _Deep network_ terdiri dari banyak _layer_ dan _synapse weight_, karenanya estimasi parameter susah dilakukan. Arti filosofisnya adalah susah/lama untuk menentukan relasi antara _input_ dan _output_. Walaupun _deep learning_ sepertinya kompleks, tetapi entah kenapa dapat bekerja dengan baik untuk permasalahan praktis [9]. _Deep learning_ dapat menemukan relasi “tersembunyi” (^11) Terkadang disingkat menjadi _deep network_ saja. 156 11 Feed _forward_ Neural Network ``` Gambar 11.11: _Deep Neural Network_. ``` ``` Gambar 11.12: Proses latihan DNN menggunakan _backpropagation_. ``` ``` 11.9 Deep Neural Network 157 ``` antara _input_ dan _output_, yang tidak dapat diselesaikan menggunakanmulti _layer_ _perceptron_ (3 layers). Perhatikan, kamu harus ingat bahwa satu langkah _feedforward_ memiliki analogi dengan transformasi. Jadi, input ditransformasikan secara non-linear sampai akhirnya pada _output_, berbentuk distribusi _class-assignment_. Banyak orang percaya _deep neural network_ lebih baik dibanding _neural_ _network_ yang lebar tapi sedikit _layer_, karena terjadi lebih banyak transformasi. Maksud lebih banyak transformasi adalah kemampuan untuk merubah _input_ menjadi suatu representasi (tiap _hidden layer_ dapat dianggap sebagai salah satu bentuk representasi _input_ ) dengan langkah _hierarchical_. Seperti contoh permasalahan XOR, permasalahan _non-linearly separable_ pun dapat diselesaikan apabila kita dapat mentransformasi data (representasi data) ke dalam bentuk _linearly separable_ pada ruang yang berbeda. Keuntungan utama _deep learning_ adalah mampu merubah data dari _non-linearly separable_ menjadilinearly separablemelalui serangkaian transformasi ( _hidden layers_ ). Selain itu, _deep learning_ juga mampu mencari _decision boundary_ yang berbentuk non-linear, serta mengsimulasikan interaksi non-linear antar fitur. Karena memiliki banyak parameter, proses latihan ANN pada umumnya lambat. Ada beberapa st _rate_ gi untuk mempercepat pembelajaran menggunakan _deep learning_, misalnya: regularisasi, _successive learning_, dan penggunaan _autoencoder_ [9]. Sebagai contoh, arti _successive learning_ adalah jaringan yang dibangun secara bertahap. Misal kita latih ANN dengan 3 _layers_, kemudian kita lanjutkan 3 _layers_ tersebut menjadi 4 _layers_, lalu kita latih lagi menjadi 5 _layers_, dst. Hal ini sesuai dengan [60], yaitu mulai dari hal kecil. Ilustrasinya dapat dilihat pada Gambar 11.13. Menggunakan _deep learning_ harus hati-hati karena pembelajaran cenderung _divergen_ (artinya,minimum _squared error_ belum tentu semakin rendah seiring berjalannya waktu– _swing_ relatif sering). ``` Gambar 11.13: Contoh _successive learning_. ``` 158 11 Feed _forward_ Neural Network
### 11.2 Single Perceptron Bentuk terkecil (minimal) sebuah ANN adalah _single perceptron_ yang hanya terdiri dari sebuah neuron. Sebuah neuron diilustrasikan pada Gambar 11.2. (^1) Quora: why is Geoffrey Hinton suspicious of backpropagation and wants AI to start over ``` 11.2 Single Perceptron 145 ``` Secara matematis, terdapat _feature vector_ xyang menjadi _input_ bagi neuron tersebut. Ingat kembali, _feature vector_ merepresentasikan suatu _data point_, _event_ atau _instance_. Neuron akan memproses _input x_ melalui perhitungan jumlah perkalian antara nilai _input_ dan _synapse weight_, yang dilewatkan padafungsi non-linear[51, 52, 4]. Pada _training_, yang dioptimasi adalah nilai _synapse weight_ ( _learning parameter_ ). Selain itu, terdapat juga biasbsebagai kontrol tambahan (ingat materi _steepest gradient descent_ ). _Output_ dari neuron adalah hasil fungsi aktivasi dari perhitungan jumlah perkalian antara nilai _input_ dan _synapse weight_. Ada beberapa macam fungsi aktivasi, misal _step function_, _sign function_, _rectifier_ dan _sigmoid function_. Untuk selanjutnya, pada bab ini, fungsi aktivasi yang dimaksud adalah jenissigmoid _function_. Silahkan eksplorasi sendiri untuk fungsi aktivasi lainnya. Salah satu bentuk tipe _sigmoid function_ diberikan pada persamaan 11.1. Bila di- _plot_ menjadi grafik, fungsi ini memberikan bentuk seperti huruf “S”. ``` Gambar 11.2:Single Perceptron. ``` ``` σ(u) = ``` #### 1 ``` 1 +e−u ``` #### (11.1) Perhatikan kembali, Gambar 11.2 sesungguhnya adalah operasi aljabar linear. Single perceptron dapat dituliskan kembali sebagai 11.2. ``` o=f(x·w+b) (11.2) ``` dimanaoadalah _output_ danfadalah fungsinon-linear yang dapat diturunkan secara matematis( _differentiable non-linear function_ –selanjutnya disebut “fungsi non-linear” saja.). Bentuk ini tidak lain dan tidak bukan adalah persamaan model linear yang ditransformasi dengan fungsi non-linear. 146 11 Feed _forward_ Neural Network Secara filosofis, ANN bekerja mirip dengan model linear, yaitu mencaridecision boudary. Apabila beberapa model non-linear ini digabungkan, maka kemampuannya akan menjadi lebih hebat (subbab berikutnya). Yang menjadikan ANN “spesial” adalah penggunaan fungsi non-linear. Untuk melakukan pembelajaran _single perceptron_, _training_ dilakukan menggunakan _perceptron_ _training_ rule. Prosesnya sebagai berikut [4, 51, 52]: 1. Inisiasi nilai _synapse weights_, bisa _random_ ataupun dengan aturan ter- tentu. Untuk heuristik aturan inisiasi, ada baiknya membaca buku refer- ensi [1, 11]. 2. Lewatkan input pada neuron, kemudian kita akan mendapatkan nilaiout- put. Kegiatan ini disebut _feedforward_. 3. Nilai _output_ ( _actual output_ ) tersebut dibandingkan dengan _desired output_. 4. Apabila nilai _output_ sesuai dengan _desired output_, tidak perlu mengubah apa-apa. 5. Apabila nilai _output_ tidak sesuai dengan _desired output_, hitung nilai _error_ ( _loss_ ) kemudian lakukan perubahan terhadap _learning parameter_ (synapse weight). 6. Ulangi langkah-langkah ini sampai tidak ada perubahan nilai _error_, nilai errorkurang dari sama dengan suatu _threshold_ ( _bias_ anya mendekati 0), atau sudah mengulangi proses latihan sebanyakTkali ( _threshold_ ). Salah satu cara melatih _neural network_ adalah dengan mengoptimalkan _error function_, diberikan pada persamaan 11.3^2 (dapat diganti denganabsolute value). Perubahan nilai _synapse weight_ saat proses latihan (apabila E 6 = 0 diberikan pada persamaan 11.4, dimanaymelambangkan _desired output_,^3 o=f(x·w+b) melambangkan _actual output_ untukxsebagai input,η adalah _learning rate_. ``` E(w) = (y−o)^2 (11.3) ``` ∆wi=η(y−o)xi (11.4) Hasil akhir pembelajaran adalah konfigurasi _synapse weight_ yang mengoptimalkan nilai _error_. Saat klasifikasi, kita melewatkan _input_ baru pada jaringan yang telah dibangun, kemudian tinggal mengambil hasilnya. Pada contoh kali ini, seolah-olah _single perceptron_ hanya dapat digunakan untuk melakukan _binary classification_ (hanya ada dua kelas, nilai 0 dan 1). Untuk _multi-class_ _classification_, kita dapat menerapkan berbagai st _rate_ gi, misal _thresholding_, i.e., nilai _output_ 0 − 0 .2 mengacu pada kelas pertama, 0. 2 − 0. 4 untuk kelas kedua, dst. (^2) Pada umumnya, kita tidak menggunakan satu data, tetapi _batch_ -sized. (^3) Pada contoh ini, kebetulan banyaknya _output_ neuron hanyalah satu. ``` 11.3 Permasalahan XOR 147 ```
### 11.1 Definisi Artificial Neural Network Masih ingatkah Anda materi pada bab-bab sebelumnya? Machine learningsebenarnya meniru bagaimana proses manusia belajar. Pada bagian ini, peneliti ingin meniru proses belajar tersebut dengan mensimulasikan jaringan saraf biologis ( _neural network_ ) [44, 45, 46, 47]. Kami yakin banyak yang sudah tidak asing dengan istilah ini, berhubung _deep learning_ sedang populer dan banyak yang membicarakannya (dan digunakan sebagai trik pemasaran).Artificial _neural network_ adalah salah satu algoritma _supervised learning_ yang 144 11 Feed _forward_ Neural Network populer dan bisa juga digunakan untuk _semi-supervised_ atau _unsupervised_ _learning_ [45, 47, 48, 49, 50]. Walaupun tujuan awalnya adalah untuk mensimulasikan jaringan saraf biologis, jaringan tiruan ini sebenenarnya simulasi yang terlalu disederhanakan, artinya simulasi yang dilakukan tidak mampu menggambarkan kompleksitas jaringan biologis manusia (menurut penulis).^1 _Artificial Neural Network_ (selanjutnya disingkat ANN), menghasilkan _model_ yang sulit dibaca dan dimengerti oleh manusia karena memiliki banyak _layer_ (kecuali _single perceptron_ ) dan sifatnon-linear(merujuk pada fungsi aktivasi). Pada bidang riset ini, ANN disebut agnostik–kita percaya, tetapi sulit membuktikan kenapa konfigurasi parameter yang dihasilkan _training_ bisa benar. Konsep matematis ANN itu sendiri cukup _solid_, tetapi _interpretability_ model rendah menyebabkan kita tidak dapat menganalisa proses inferensi yang terjadi pada model ANN. Secara matematis, ANN ibarat sebuah graf. ANN memiliki neuron/ _node_ ( _vertex_ ), dan sinapsis ( _edge_ ). Topologi ANN akan dibahas lebih detil subbab berikutnya. Karena memiliki struktur seperti graf, operasi pada ANN mudah dijelaskan dalam notasi aljabar linear. Sebagai gambaran, ANN berbentuk seperti Gambar 11.1 ( _deep neural network_, salah satu varian arsitektur). _Depth_ (kedalaman) ANN mengacu pada banyaknya _layer_. Sementara _width_ (lebar) ANN mengacu pada banyaknya unit pada _layer_. ``` Gambar 11.1: _Deep Neural Network_. ```
### 11.11 Regularization and Dropout Seperti yang sudah dijelaskan pada model linear. Kita ingin model mengeneralisasi dengan baik (kinerja baik pada _training data_ dan _unseen examples_ ). Kita dapat menambahkan fungsi regularisasi untuk mengontrol kompleksitas ANN. Regularisasi pada ANN cukup _straightforward_ seperti regularisasi pada _model linear_ (subbab 5.9). Kami yakin pembaca bisa mengeksplorasi sendiri. Selain itu, agar ANN tidak “bergantung” pada satu atau beberapasynapse _weight_ ssaja, kita dapat menggunakan _dropout_. _Dropout_ berarti me-nol-kan 160 11 Feed _forward_ Neural Network nilai _synapse weights_ dengan nilai _rate_ tertentu. Misalkan kitanol-kan nilai 30% _synapse weights_ ( _dropout rate_ = 0.3) secara random. Hal ini dapat dicapai dengan teknik _masking_, yaitu mengalikan _synapse weights_ dengan suatu _mask_. Ingat kembali ANN secara umum, persamaan 11.13 dimanaWadalah _synapse weights_,xadalah _input_ (dalam pembahasan saat ini, dapat merepresentasikan _hidden_ _state_ pada suatu layer),badalah _bias_ danfadalah fungsi aktivasi (non-linear). Kita buat suatu _mask_ untuk _synapse weights_ seperti pada persamaan 11.14, dimanapadalah vektor danpi= [0,1] merepresentasikansynapse _weight_ diikutsertakan atau tidak.r% ( _dropout rate_ ) elemen _vektor_ pbernilai 0. Biasanyapdiambil dari _bernoulli distribution_ [1]. Kemudian, saat _feed forward_, kita ganti _synapse weights_ menggunakan _mask_ seperti pada persamaan 11.15. Saat menghitung _backpropagation_, turunan fungsi juga mengikutsertakan _mask_ ( _gradient_ di- _mask_ ). Kami sa _rank_ an untuk membaca _paper_ oleh Srivastava et al. [62] tentang _dropout_ pada ANN. Contoh implementasi _dropout_ dapat dilihat pada pranala berikut.^14 Teknik _regularization_ dan _dropout_ sudah menjadi metode yang cukup “standar” dan diaplikasikan pada berbagai macam arsitektur. ``` o=f(x·W+b) (11.13) ``` ``` W′=p·W (11.14) ``` ``` o=f(x·W′+b) (11.15) ```
### Soal Latihan 11.1. Turunan (a) Turunkanlah perubahan _noise/bias_ untuk _training_ pada MLP. (b) Turunkanlah proses _training deep neural network_ pada Gambar 11.12 termasuk perubahan _noise/bias_. 11.2. Neural Network Training (a) Sebutkan dan jelaskan cara lain untuk melatih _artificial neural network_ (selain _backpropagation_ ) (bila ada)! (b) Apa kelebihan dan kekurangan _backpropagation_ ? (c) Tuliskan persamaan MLP dengan menggunakan momentum! (kemudian berikan juga penurunan _backpropagation_ -nya) 11.3. Regularization Technique (a) Sebutkan dan jelaskan teknik _regularization_ untuk _neural network_ ! (dalam bentuk formula) (b) Mengapa kita perlu menggunakan teknik tersebut? 11.4. Softmax Function (a) Apa itu _softmax function_ ? (b) Bagaimana cara menggunakan _softmax function_ pada _neural network_ ? (c) Pada saat kapan kita menggunakan fungsi tersebut? (d) Apa kelebihan fungsi tersebut dibanding fungsi lainnya? 11.5. Transformasi atribut Secara alamiah _neural network_ membutuhkan data dengan atribut numerik untuk klasifikasi. Jelaskan konversi/st _rate_ gi penanganan atribut nominal pada _neural network_ !
### 11.13 Rangkuman Ada beberapa hal yang perlu kamu ingat, pertama-tama jaringan _neural network_ terdiri atas: ``` 1. _Input layer_ 2.Hidden layer(s) 3. _Output layer_ ``` Setiap _edge_ yang menghubungkan suatu _node_ dengan _node_ lainnya disebut _synapse weight_. Pada saat melatih _neural network_ kita mengestimasi nilai yang “bagus” untuk _synapse weights_. Kedua, hal tersulit saat menggunakan _neural network_ adalah menentukan topologi. Kamu bisa menggunakan berbagai macam variasi topologi _neural_ _network_ serta cara melatih untuk masing-masing topologi. Tetapi, suatu topologi tertentu lebih tepat untuk merepresentasikan permasalahan dibanding topologi lainnya. Menentukan tipe topologi yang tepat membutuhkan pen- galaman. Ketiga, proses _training_ untuk _neural network_ berlangsung lama. Secara umum, perubahan nilai _synapse weights_ mengikuti tahapan ( _stage_ ) berikut [9]: ``` 1. _Earlier state_. Pada tahap ini, struktur global (kasar) diestimasi. 2. _Medium state_. Pada tahap ini, _learning_ berubah dari tahapan global menjadi lokal (ingat _steepest gradient descent_ ). 3. _Last state_. Pada tahap ini, struktur detail sudah selesai diestimasi. Harapannya, _model_ menjadi konvergen. ``` _Neural network_ adalah salah satu _learning machine_ yang dapat menemukan _hidden structure_ atau pola data “implisit”. Secara umum, _learning machine_ 162 11 Feed _forward_ Neural Network tipe ini sering menjadi _overfitting/overtraining_, yaitu model memiliki kinerja sangat baik pada _training data_, tapi buruk pada _testing data_ / _unseen example_. Oleh sebab itu, menggunakan _neural network_ harus hati-hati. Keempat, _neural network_ dapat digunakan untuk _supervised_, _semi-supervised_, maupun _unsupervised learning_. Hal ini membuat _neural network_ cukup populer belakangan ini karena fleksibilitas ini. Contoh penggunaan _neural network_ untuk _unsupervised_ learning akan dibahas pada bab 12. Semakin canggih komputer, maka semakin cepat melakukan perhitungan, dan semakin cepat melatih _neural network_. Hal ini adalah kemewahan yang tidak bisa dirasakan 20-30 tahun lalu.
### 11.12 Vanishing and Exploding Gradients Pada beberapa kasus, nilai gradien (∆W- perubahan parameter) sangat kecil (mendekati nol - _vanishing_ ) atau sangat besar ( _explode_ ).Vanishing gradient problemumum terjadi untuk ANN yang sangat dalam ( _deep_ ), yaitu memiliki banyak _layer_. Hal ini juga terjadi pada arsitektur khusus, seperti _recurrent neural network_ saat diberikan input yang panjang [63]. Turunan suatu fungsi bernilai lebih kecil dari fungsi tersebut. Artinya nilai gradient pada _input layer_ bernilai lebih kecil dari _output layer_. Apabila kita memiliki banyak _layer_, nilai gradient saat _backpropagation_ mendekati nol ketika diturunkan kembali dalam banyak proses. Ilustrasi _vanishing gradient_ diberikan pada Gambar 11.14 (analogikan dengan _heat map_ ). Saat melakukan _backpropagation_, nilai gradien menjadi mendekati nol (warna semakin putih, delta nilai semakin menghilang). Penanganan permasalahan ini masih merupakan topik riset tersendiri. Sebagai contoh, pada arsitektur _recurrent neural network_, biasanya digunakan fungsi aktivasi _long short term memory_ (LSTM) ataugated _recurrent_ unit(GRU) untuk menangani _vanishing gradient problem_. Selain (^14) https://gist.github.com/yusugomori/cf7bce19b8e16d57488a ``` 11.13 Rangkuman 161 ``` nilai gradien, nilai _synapse weights_ juga bisa sangat kecil atau sangat besar. Hal ini juga tidak baik! ``` Gambar 11.14: Ilustrasi _vanishing gradient problem_. ```
### 11.10 Tips Pada contoh yang diberikan, _error_ atau _loss_ dihitung per tiap data point. Artinya begitu ada melewatkan suatu _input_, parameter langsung dioptimisasi sesuai dengan _loss_. Pada umumnya, hal ini tidak baik untuk dilakukan karena ANN menjadi tidak stabil. Metode yang lebih baik digunakan adalah teknik _minibatches_. Yaitu mengoptimisasi parameter untuk beberapa buah _inputs_. Jadi, update parameter dilakukan per _batch_. Perhitungan _error_ juga berubah, diberikan pada persamaan 11.12 dimanaBmelambangkan _batch_ size(banyaknya _instance_ per _batch_ ),yadalah _desired output_ danoadalah _actual output_. Perhitungan _error_ saat menggunakan _minibatches_ secara sederhana adalah rata-rata (bisa diganti dengan penjumlahan saja) individual _error_ untuk semua _instance_ yang ada pada _batch_ bersangkutan. Setelah menghitung _error_ per _batch_, barulah _backpropagation_ dilakukan. ``` E(mini _batch_ ) = ``` #### 1 #### B #### ∑B ``` i=1 ``` ``` ‖y−o‖^2 (11.12) ``` Data mana saja yang dimasukkan ke suatu _batch_ dalam dipilih secara acak. Seperti yang mungkin kamu sadari secara intuitif, urutan data yang disajikan saat _training_ mempengaruhi kinerja ANN. Pengacakan ini menjadi penting agar ANN mampu mengeneralisasi dengan baik. Kita dapat mengatur laju pembelajaran dengan menggunakan _learning rate_. Selain menggunakan _learning rate_, kita juga dapat menggunakan _momentum_ (subbab 5.6). Pada library/API _deep learning_, _learning rate_ pada umumnya berubahubah sesuai dengan waktu. Selain itu, tidak ada nilai khusus ( _rule-of-thumb_ ) untuk _learning rate_ terbaik. Pada umumnya, kita inisiasi _learning rate_ dengan nilai{ 0. 001 , 0. 01 , 0. 1 }[1]. Biasanya, kita menginisiasi proses latihan dengan nilai _learning rate_ cukup besar, kemudian mengecil seiring berjalannya waktu.^12 Kemudian, kita mencari konfigurasi parameter terbaik dengan metode _grid-search_,^13 yaitu dengan mencoba-coba parameter secara _exhaustive_ ( _brute-force_ ) kemudian memilih parameter yang memberikan kinerja ter- baik. ANN sensitif terhadap inisialisasi parameter, dengan demikian banyak metode inisialisasi parameter misalkan, nilai _synapse weights_ diambil dari distribusi binomial (silahkan eksplorasi lebih lanjut). Dengan hal ini, kinerja ANN dengan arsitektur yang sama dapat berbeda ketika dilatih ulang dari awal. Karena sensitif terhadap inisialisasi parameter, kamu bisa saja mendapatkan performa yang berbeda saat melatih suatu arsitektur ANN dengan _data_ yang sama (untuk permasalahan yang sama). Untuk menghindari _bias_ inisialisasi parameter, biasanya ANN dilatih beberapa kali (umumnya 5, 10, atau 20 kali). Kinerja ANN yang dilaporkan adalah nilai kinerja rata-rata (^12) Analogi: ngebut saat baru berangkat, kemudian memelan saat sudah dekat dengan tujuan agar tidak terlewat. (^13) https://en.wikipedia.org/wiki/Hyperparameter_optimization ``` 11.11 Regularization and Dropout 159 ``` dan varians ( _variance_ ). Hal ini untuk menghindari _overclaiming_. Pada konteks pembahasan saat ini, artinya seseorang bisa saja mendapatkan model dengan performa sangat baik, padahal performa arsitektur yang sama bisa saja berkurang saat dicoba oleh orang lain (isu _replicability_ ). Kamu mungkin sudah menyadari bahwa melatih ANN harus telaten, terutama dibanding model linear. Untuk model linear, ia akan memberikan konfigurasi parameter yang sama untuk _training data_ yang sama (kinerja pun sama). Tetapi, ANN dapat konfigurasi parameter yang berbeda untuk _training_ _data_ yang sama (kinerja pun berbeda). Pada model linear, kemungkinan besar variasi terjadi saat mengganti data. Pada ANN, variasi kinerja ada pada seluruh proses! Untuk membandingkan dua arsitektur ANN pada suatu _dataset_, kita dapat menggunakan _statistical hypothesis testing_ (arsitektur Xlebih baik dari arsitekturYsecara signifikan dengan nilaip < threshold). Penulis merekomendasikan untuk membaca [14, 15] perihal _hypothesis testing_. Apabila kamu pikir dengan seksama, ANN sebenarnya melakukan transformasi non-linear terhadap _input_ hingga menjadi _output_. Parameter diperbarahui agar transformasi non-linear _input_ bisa menjadi semirip mungkin dengan _output_ yang diharapkan. Dengan hal ini, istilah “ANN” memiliki asosiasi yang dekat dengan “transformasi non-linear”. Kami ingin kamu mengingat, ANN (apapun variasi arsitekturnya) adalahgabungan fungsi nonlinear, dengan demikian ia mampu mengaproksimasi fungsi non-linear (decision boundarydapat berupa fungsi non-linear). _Deep learning_ menjadi penting karena banyaknya transformasi (banyaknya _hidden layers_ ) lebih penting dibanding lebar jaringan. Seringkali (pada permasalahan praktis), kita membutuhkan banyak transformasi agar _input_ bisa menjadi _output_. Setiap transformasi ( _hidden layer_ ) merepresentasikan _input_ menjadi suatu representasi. Dengan kata lain, _hidden layers_ atu dan _hidden_ _layer_ lainnya mempelajari bentuk representasi atau karakteristik _input_ yang berbeda. _Curriculum learning_ juga adalah tips yang layak disebutkan ( _mention_ ) [61]. Penulis kurang mengerti detilnya, sehingga pembaca diharapkan membaca sendiri. Intinya adalah memutuskan apa yang harus ANN pelajari terlebih dahulu (mulai dari mempelajari hal mudah sebelum mempelajari hal yang susah).
### 11.4 Multi _layer_ Perceptron Kamu sudah belajar bagaimana proses _training_ untuk _single perceptron_. Selanjutnya kita akan mempelajari _multilayer perceptron_ (MLP) yang juga dikenal sebagai _feedforward neural network_. Kami tekankan sekali lagi,istilah “ANN” selanjutnya mengacu pada MLP dan arsitektur lebih kom- pleks. ``` 11.4 Multi _layer_ Perceptron 149 ``` Perhatikan ilustrasi pada Gambar 11.5, _multilayer perceptron_ secara literal memiliki beberapa _layers_. Pada buku ini, secara umum ada tiga _layers_ : _input_, _hidden_, dan _output layer_. _Input layer_ menerima _input_ (tanpa melakukan operasi apapun), kemudian nilai _input_ (tanpa dilewatkan ke fungsi aktivasi) diberikan ke _hidden units_ (persamaan 11.6). Pada _hidden units_, _input_ diproses dan dilakukan perhitungan hasil fungsi aktivasi untuk tiap-tiap neuron, lalu hasilnya diberikan ke _layer_ berikutnya (persamaan 11.7,σadalah fungsi aktivasi). _Output_ dari _input_ _layer_ akan diterima sebagai input bagi _hidden layer_. Begitupula seterusnya _hidden layer_ akan mengirimkan hasilnya untuk _output_ _layer_. Kegiatan ini dinamakan _feed forward_ [45, 4]. Hal serupa berlaku untukartificial _neural network_ dengan lebih dari tiga _layers_. Parameter neuron dapat dioptimisasi menggunakan metode _gradient-based optimization_ (dibahas pada subabb berikutnya, ingat kembali bab 5). Perlu diperhatikan, MLP adalah gabungan dari banyak fungsi non-linear. Seperti yang disampaikan pada subbab sebelumnya, gabungan banyak fungsi non-linear ini lebih hebat dibanding _single perceptron_. Seperti yang kamu lihat pada Gambar 11.5, masing-masing neuron terkoneksi dengan semua neuron pada _layer_ berikutnya. Konfigurasi ini disebut sebagai _fully connected_. MLP pada umumnya menggunakan konfigurasi _fully connected_. ``` Gambar 11.5: _Multilayer Perceptron_ 2. ``` 150 11 Feed _forward_ Neural Network ``` oj=σ ``` #### (K #### ∑ ``` k=1 ``` ``` xkwk,j+βj ``` #### ) #### (11.6) ``` vi=σ ``` ####  ####  #### ∑J ``` j=1 ``` ``` ojuj,i+γi ``` ####  ``` =σ ``` ####  ####  #### ∑J ``` j=1 ``` ``` σ ``` #### (K #### ∑ ``` k=1 ``` ``` xkwk,j+βj ``` #### ) ``` uj,i+γi ``` ####  ####  (11.7) Perhatikan persamaan 11.6 dan 11.7 untuk menghitung _output_ pada _layer_ yang berbeda.u,wadalah _learning parameters_.β,γmelambangkan _noise_ atau _bias_.Kadalah banyaknya _input units_ danJadalah banyaknya _hidden units_. Persamaan 11.7 dapat disederhanakan penulisannya sebagai persamaan 11.8. Persamaan 11.8 terlihat relatif lebih “elegan”, dimanaσmelambangkan fungsi aktivasi. Seperti yang disebutkan pada subbab sebelumnya, ANN dapat direpresentasikan dengan notasi aljabar linear. v=σ(oU+γ) =σ((σ(xW+β))U+γ) (11.8) Untuk melatih MLP, algoritma yang umumnya digunakan adalah _backpropagation_ [54]. Arti kata _backpropagation_ sulit untuk diterjemahkan ke dalam bahasa Indonesia. Kita memperbaharui parameter ( _synapse weights_ ) secara bertahap (dari _output_ ke _input layer_, karena itu disebut _backpropagation_ ) berdasarkan _error_ / _loss_ ( _output_ dibandingkan dengan _desired output_ ). Intinya adalah mengkoreksi _synapse weight_ dari _output layer_ ke _hidden_ _layer_, kemudian _error_ tersebut dipropagasi ke layer sebelum-sebelumnya. Artinya, perubahan _synapse weight_ pada suatu layer dipengaruhi oleh perubahansynapse _weight_ pada layer setelahnya.^5 Backpropagationtidak lain dan tidak bukan adalah metode _gradient-based optimization_ yang diterapkan pada ANN. Pertama-tama diberikan pasangan _input_ (x) dan _desired output_ (y) sebagai _training_ _data_. Untuk meminimalkan _loss_, algoritma _backpropagation_ menggunakan prinsip _gradient descent_ (ingat kembali materi bab model linear). Kamu akan memperlajari bagaimana cara menurunkan _backpropagation_ menggunakan teknik _gradient descent_, yaitu menghitung _loss_ ANN pada Gambar 11.5yang menggunakan fungsi aktivasi sigmoid. Untuk fungsi aktivasi lainnya, pembaca dapat mencoba menurunkan persamaan sendiri! Ingat kembali _chain rule_ pada perkuliahan diferensial ``` f(g(x))′=f′(g(x))g′(x). (11.9) ``` _Error_, untuk MLP diberikan oleh persamaan 11.10 (untuk satu data _point_ ), dimanaIadalah banyaknya _output unit_ danθadalah kumpulan _weight matrices_ (semua parameter pada MLP). Kami inggatkan kembali perhitungan _error_ bisa juga menggunakan nilai absolut.^6 (^5) Kata “setelah” mengacu _layer_ yang menuju _output layer_ “sebelum” mengacu _layer_ yang lebih dekat dengan _input layer_. (^6) Kami menggunakan tanda kurung agar lebih mudah dibaca penurunan rumusnya. ``` 11.5 Interpretability 151 ``` ``` E(θ) = ``` #### 1 #### 2 #### ∑I ``` i=1 ``` ``` (yi−vi)^2 (11.10) ``` Mari kita lakukan proses penurunan untuk melatih MLP. _Error_ / _loss_ diturunkan terhadap tiap _learning parameter_. Diferensialuj,idiberikan oleh turunan _sigmoid function_ ``` δE(θ) δuj,i = (yi−vi) ``` ``` δvi δuj,i = (yi−vi)vi(1−vi)oj Diferensialwk,jdiberikan oleh turunan _sigmoid function_ ``` ``` δE(θ) δwk,j ``` #### = #### ∑I ``` i=1 ``` ``` (yi−vi) ``` ``` δvi δwk,j ``` #### = #### ∑I ``` i=1 ``` ``` (yi−vi) ``` ``` δvi δoj ``` ``` δoj δwk,j ``` #### = #### ∑I ``` i=1 ``` ``` (yi−vi)(vi(1−vi)uj,i)(oj(1−oj)xk) ``` Perhatikan, diferensialwk,jmemiliki #### ∑ sementarauj,itidak ada. Hal ini disebabkan karenauj,ihanya berkorespondensi dengan satu _output_ neuron. Sementarawk,jberkorespondensi dengan banyak _output_ neuron. Dengan kata lain, nilaiwk,jmempengaruhi hasil operasi yang terjadi pada banyak _output_ neuron, sehingga banyak neuron mempropagasi _error_ kembali kewk,j. Ilustrasi diberikan pada Gambar 11.6. Metode penurunan serupa dapat juga digunakan untuk menentukan perubahanβdanγ. Jadi proses _backpropagation_ untuk kasus Gambar 11.5 dapat diberikan seperti pada Gambar 11.7 dimanaηadalah _learning rate_. Untukartificial _neural network_ denganlebih dari 3 _layers_, kita pun bisa menurunkan persamaannya. Secara umum, proses melatih ANN (apapun variasi arsitekturnya) mengikuti _framework perceptron training rule_ (subbab 11.2). Cerita pada buku ini menggunakan _error_ sebagai _utility function_ karena mudah diilustrasikan, serta contoh ini sering digunakan pada referensi lainnya. Pada permasalahan praktis, _cross entropy_ adalah _utility function_ yang sering digunakan untuk melatih ANN (untuk permasalahan klasifikasi).
### 11.8 Multi-label Classification Seperti halnya _multi-class classification_, kita dapat menggunakan sebanyak C neuron untuk merepresentasikanC kelas pada _multi-label classification_. Seperti yang sudah dijelaskan pada bab 5, perbedaan _multi-class_ danmultilabelterletak pada cara interpretasi _output_ dan evaluasi _output_. Pada umumnya, _layer_ terakhir diaktivasi dengan fungsi sigmoid, dimana tiap neuronni merepresentasikan probabilitas suatu dapat diklasifikasikan sebagai kelasci (^10) https://en.wikipedia.org/wiki/Sigmoid_ _function_ ``` 11.9 Deep Neural Network 155 ```
### 11.7 Multi- _class_ Classification _Multilayer perceptron_ dapat memiliki lebih dari satu _output unit_. Seumpama kita mempunyai empat kelas, dengan demikian kita dapat merepresentasikan keempat kelas tersebut sebagai empat _output units_. Kelas pertama direpresentasikan dengan unit pertama, kelas kedua dengan unit kedua, dst. Untuk Ckelas, kita dapat merepresentasikannya denganC output units. Kita dapat merepresentasikan data harus dimasukkan ke kelas mana menggunakan _sparse vector_, yaitu bernilai 0 atau 1. Elemen ke-ibernilai 1 apabila data masuk ke kelasci, sementara nilai elemen lainnya adalah 0 (ilustrasi pada Gambar 11.9). _Output_ ANN dilewatkan pada suatu fungsi softmax yang melambangkan probabilitas _class-assignment_ ; i.e., kita ingin _output_ agar semirip mungkin dengan _sparse vector_ ( _desired output_ ). Pada kasus ini, _output_ ANN adalah sebuah distribusi yang melambangkan _input_ di- _assign_ ke kelas tertentu. Ingat kembali materi bab 5, _cross entropy_ cocok digunakan sebagai _utility function_ ketika _output_ berbentuk distribusi. ``` 1 0 0 1 ``` ``` 0 0 0 0 0 0 0 0 ``` ``` 1 0 0 1 ``` ``` Label=𝑐! Label=𝑐" Label=𝑐# Label=𝑐$ ``` ``` 𝑐( 𝑐) 𝑐* 𝑐+ ``` Gambar 11.9: Ilustrasi representasi _desired output_ pada _multi-class classification_ menggunakan _sparse_ vector (sering disebut sebagai “one-hot vector” di komunitas ANN).
### 0 1 ### 0 1 ### 0 1
### 11.5 Interpretability _Interpretability_ ada dua macam yaitu model interpretability (i.e., apakah struktur model pembelajaran mesin dapat dipahami) dan _prediction interpretability_ (i.e., bagaimana memahami dan memverifikasi cara _input_ dipetakan 152 11 Feed _forward_ Neural Network ``` 𝛽! ``` ``` 𝒙𝟏 𝒙𝟐 𝒙𝑲 ``` ``` 𝛾" ``` ``` _Output_ = 𝑜𝑗 ``` ``` _Output_ = 𝑣𝑖 ``` ``` 𝑢!," ``` ``` 𝑤$,! ``` ``` _Output_ Units (I units) ``` ``` Hidden Units (J units) ``` ``` _Input_ Units (K units) ``` Gambar 11.6: Justifikasi penggunaan #### ∑ pada penurunan dari _hidden_ ke _input_ _layer_. ``` Gambar 11.7: Proses latihan MLP menggunakan _backpropagation_. ``` menjadi _output_ ) [55]. Contoh teknik pembelajaran mesin yang mudah diinterpretasikan baik secara struktur dan prediksinya adalah decision tree (bab 6). Struktur _decision tree_ berupa pohon keputusan mudah dimengerti oleh manusia dan prediksi (keputusan) dapat dilacak ( _trace_ ). Seperti yang sudah dijelaskan pada bagian pengantar, ANN (MLP) biasanya dianggap sebagai metode _black box_ atau susah untuk dinterpretasikan (terutama _model_ ``` 11.6 Binary Classification 153 ``` _interpretability_ -nya). Hal ini disebabkan oleh kedalaman ( _depth_ ) yaitu memiliki beberapa _layer_ dan _non-linearities_. Suatu unit pada _output layer_ dipengaruhi oleh kombinasi ( _arbitrary combination_ ) banyak parameter pada _layers_ sebelumnya yang dilewatkan pada fungsi non-linear. Sulit untuk mengetahui bagaimana pengaruh bobot suatu unit pada suatu _layer_ berpengaruh pada _output layer_, beserta bagaimana pengaruh kombinasi bobot. Intinya, fitur dan _output_ tidak memiliki korespondensi satu-satu. Berbeda dengan model linear, kita tahu parameter (dan bobotnya) untuk setiap _input_. Salah satu arah riset adalah mencari cara agar keputusan yang dihasilkan oleh ANN dapat dijelaskan [56],^7 salah satu contoh nyata adalah _attention mechanism_ [57, 58] (subbab 13.4.4) untuk _prediction interpretability_. Survey tentang _interpretability_ dapat dibaca pada _paper_ oleh Doshi-Velez dan Kim [59]. Cara paling umum untuk menjelaskan keputusan pada ANN adalah menggunakanheat map. Sederhananya, kita lewatkan suatu dataxpada ANN, kemudian kita lakukan _feed-forward_ sekali (misal dari _input_ ke _hidden layer_ dengan parameterW). Kemudian, kita visualisasikanx·W(ilustrasi pada Gambar 11.8). Dengan ini, kita kurang lebih dapat mengetahui bagian _input_ mana yang berpengaruh terhadap keputusan di _layer_ berikutnya. ``` BeritaA BeritaB BeritaC BeritaD Budi menendang bola ``` Gambar 11.8: Contoh _heat map_ pada persoalan klasifikasi teks. _Input_ berupa kata-kata yang dimuat pada suatu berita. Output adalah kategori berita untuk _input_. Warna lebih gelap menandakan bobot lebih tinggi. Sebagai contoh, kata “menendang” berkorespondensi paling erat dengan kelas berita B.
### 1 0 ### 1 0 ### 1 0
### 0 0
### 1 1 ``` Label=𝑐!,𝑐" Label=𝑐# Label=𝑐!,𝑐$ Label=𝑐#,𝑐",𝑐$ ``` ``` 𝑐) 𝑐* 𝑐+ 𝑐, ``` Gambar 11.10: Ilustrasi representasi _desired output_ pada _multi-label_ classifi- cation. atau tidak (Gambar 11.10). Pada umumnya, _binary cross entropy_ digunakan sebagai _loss_ ( _utility function_ ) pada _multi-label classification_, yaitu perhitungancross _entropy_ untuk tiap-tiap _output_ unit (bukan sekaligus semua _output_ _units_ eperti pada _multi-class classification_ ).
## Daftar Isi - Bagian I Pengetahuan Dasar - 1 Pengenalan - 1.1 Kecerdasan Buatan - 1.2 Intelligent Agent - 1.3 Konsep Belajar - 1.4 Statistical Learning Theory - 1.5 Training, Validation, Testing Set - 1.6 Supervised Learning - 1.7 Regresi - 1.8 Semi- _supervised_ Learning - 1.9 Un _supervised_ Learning - 1.10 Proses Belajar - 1.11 Tips - 1.12 Contoh Aplikasi - Soal Latihan - 2 Fondasi Matematis - 2.1 Probabilitas - 2.2 Probability Density Function - 2.3 Expectation dan Variance - 2.4 Bayesian Probability - 2.5 Gaussian Distribution - 2.6 Apakah Karakteristik Sampel Mencerminkan Populasi? - 2.7 Teori Keputusan - 2.8 Hypothesis Testing - 2.9 Teori Informasi - 2.10 Matriks - 2.11 Bacaan Lanjutan - Soal Latihan - 3 Data Analytics - 3.1 Pengenalan Data Analytics - 3.2 Nilai Atribut dan Transformasi - 3.3 Ruang Konsep - 3.4 Linear Separability DAFTAR ISI XI - 3.5 Seleksi Fitur - 3.6 Classification, Association, Clustering - 3.7 Mengukur Kinerja - 3.8 Evaluasi Model - 3.9 Kategori Jenis Algoritma - 3.10 Tahapan Analisis - Soal Latihan - Bagian II Algoritma Pembelajaran Mesin - 4 Algoritma Dasar - 4.1 Naive Bayes - 4.2 K- _mean_ s - 4.3 K-nearest-neighbor - Soal Latihan - 5 Model Linear - 5.1 Curve Fitting dan Error Function - 5.2 Binary Classification - 5.3 Log-linear Binary Classification - 5.4 Multi- _class_ Classification - 5.5 Multi-label Classification - 5.6 Pembelajaran sebagai Permasalahan Optimisasi - 5.7 Batasan Model Linear - 5.8 Overfitting dan Underfitting - 5.9 Regularization - 5.10 Transformasi Data - 5.11 Bacaan Lanjutan - Soal Latihan - 6 Pohon Keputusan - 6.1 Inductive Learning - 6.2 ID3 - 6.3 Isu pada ID3 - 6.4 Pembagian Ruang Konsep - Soal Latihan - 7 Support Vector Classifier - 7.1 Maximal Margin Classifier - 7.2 Support Vector Classifier - 7.3 Support Vector Machine - 7.4 Klasifikasi lebih dari dua kelas - 7.5 Tips - Soal Latihan XII DAFTAR ISI - 8 Hidden Markov Model - 8.1 Probabilistic Reasoning - 8.2 Generative Model - 8.3 Part-of-speech Tagging - 8.4 Hidden Markov Model Tagger - 8.5 Algoritma Viterbi - 8.6 Proses Training Hidden Markov Model - Soal Latihan - 9 Seleksi Fitur dan Metode Evaluasi - 9.1 Feature Engineering - 9.2 High Dimensional Data - 9.3 Feature Selection - 9.4 Evaluasi Kinerja Model - 9.5 Cross Validation - 9.6 Replicability, Overclaiming dan Domain Dependence - Soal Latihan - 10 Clustering - 10.1 K- _mean_ s, Pemilihan Centroid, Kemiripan Data - 10.2 Hierarchical Clustering - 10.3 Evaluasi - Soal Latihan - Bagian III Artificial Neural Network - 11 Feed _forward_ Neural Network - 11.1 Definisi Artificial Neural Network - 11.2 Single Perceptron - 11.3 Permasalahan XOR - 11.4 Multi _layer_ Perceptron - 11.5 Interpretability - 11.6 Binary Classification - 11.7 Multi- _class_ Classification - 11.8 Multi-label Classification - 11.9 Deep Neural Network - 11.10 Tips - 11.11 Regularization and Dropout - 11.12 Vanishing and Exploding Gradients - 11.13 Rangkuman - Soal Latihan - 12 Auto _encoder_ - 12.1 Representation Learning DAFTAR ISI XIII - 12.2 Singular Value Decomposition - 12.3 Ide Dasar Auto _encoder_ - 12.4 Resisting Perturbation - 12.5 Representing Context: Word Embedding - 12.6 Tips - Soal Latihan - 13 Arsitektur Neural Network - 13.1 Convolutional Neural Network - 13.2 Recurrent Neural Network - 13.3 Part-of-speech Tagging Revisited - 13.4 Sequence to Sequence - 13.5 Arsitektur Lainnya - 13.6 Architecture Ablation - 13.7 Transfer Learning - 13.8 Multi- _task_ Learning - Soal Latihan - Bagian IV Aplikasi dan Topik Tambahan - 14 Penerapan Pembelajaran Mesin - 14.1 Sistem Rekomendasi - 14.2 Peringkasan Dokumen - 14.3 Konklusi - 14.4 Saran Buku Lanjutan - Soal Latihan - Referensi
## 𝐄 𝐗# Gambar 12.2: Hubungan auto _encoder_ dan singular value decomposition (analogi). Perhatikan, _hidden layer_ / _coding_ dapat dianalogikan sebagaiE=Uˆ Vˆ. Dengan kata lain, kita dapat melakukan operasi _dot-product_ pada _coding_ untuk merepresentasikan _dot-product_ pada data asliX. Ini adalah ide utama (^5) Pada banyak literatur, kumpulan _weight matrices_ ANN sering dilambangkan den- ganθ (^6) Hanya sebuah analogi. 168 12 Auto _encoder_ _autoencoder_, yaitu meng-aproksimasi/meng _kompresi data_ asli menjadi bentuk lebih kecil _coding_. Kemudian, operasi pada bentuk _coding_ merepresentasikan operasi pada data sebenarnya. _Autoencoder_ terdiri dari _encoder_ (sebuah _neural network_ ) dan _decoder_ (sebuah _neural network_ ). _Encoder_ merubah _input_ ke dalam bentuk dimensi lebih kecil (dapat dianggap sebagai kompresi). _Decoder_ berusaha merekonstruksi _coding_ menjadi bentuk aslinya. Secara matematis, kita dapat menulis _autoencoder_ sebagai persamaan 12.6, dimana dec melambangkan _decoder_, enc melambangkan _encoder_ danx adalah _input_. _Encoder_ diberikan pada persamaan 12.7 yang berarti melewatkan _input_ pada suatu _layer_ di _neural network_ untuk menghasilkan representasixberdimensi rendah, disebut _coding_ c.Udanαmelambangkan _weight matrix_ dan _bias_. ``` f(d,θ) = dec(enc(x)) (12.6) ``` ``` c= enc(x) =g(x,U,α) (12.7) ``` Representasicini kemudian dilewatkan lagi pada suatu _layer_ untuk merekonstruksi kembali _input_, kita sebut sebagai _decoder_. _Decoder_ diberikan pada persamaan 12.8 dimanaWdanβmelambangkan _weight matrix_ dan _bias_. Baik pada fungsi _encoder_ dan _decoder_,σmelambangkan fungsi aktivasi. ``` f(d,θ) = dec(c) =h(c,W,β) (12.8) ``` Pada contoh sederhana ini, _encoder_ dan _decoder_ diilustrasikan sebagai sebuah _layer_. Kenyataannya, _encoder_ dan _decoder_ dapat diganti menggunakan sebuah _neural network_ dengan arsitektur kompleks. Sekarang kamu mungkin bertanya-tanya, bila auto _encoder_ melakukan hal serupa seperti _singular value decomposition_, untuk apa kita menggunakan _autoencoder_ ? (mengapa tidak menggunakan aljabar saja?) Berbeda dengan teknik SVD, teknik _autoencoder_ dapat juga mempelajari fitur nonlinear.^7 Pada penggunaan praktis, _autoencoder_ adalah _neural network_ yang cukup kompleks (memiliki banyak _hidden layer_ ). Dengan demikian, kita dapat ”mengetahui”berbagai macam representasiatau transformasi data. _Framework autoencoder_ yang disampaikan sebelumnya adalah framework dasar. Pada kenyataannya, masih banyak ide lainnya yang bekerja dengan prinsip yang sama untuk mencari _coding_ pada permasalahan khusus. _Output_ dari _neural network_ juga bisa tidak sama _input_ -nya, tetapi tergantung permasalahan (kami akan memberikan contoh persoalan _word embedding_ ). Selain itu, _autoencoder_ juga relatif fleksibel; dalam artian saat menambahkan data baru, kita hanya perlu memperbaharui parameter _autoencoder_ saja. Kami sa _rank_ an untuk membaca _paper_ [72, 73] perihal penjelasan lebih lengkap tentang perbedaan dan persamaan SVD dan _autoencoder_ secara lebih matematis. Secara sederhana, _representation learning_ adalah teknik untuk mengkompresi _input_ ke dalam dimensi lebih rendah tanpa (diharapkan) ada kehilangan (^7) Hal ini abstrak untuk dijelaskan karena membutuhkan pengalaman. ``` 12.4 Resisting Perturbation 169 ``` informasi. Operasi vektor (dan lainnya) pada level _coding_ merepresentasikan operasi pada bentuk aslinya. Untuk pembahasan _autoencoder_ secara lebih matematis, kamu dapat membaca pranala ini.^8 Setelah _autoencoder_ dilatih, pada umumnya _encoder_ dapat digunakan untuk hal lainnya juga, e.g., klasifikasi kelas gambar.
## 𝐔#𝐕# 𝐔#𝐕#𝐖#𝑻
## 1 Pengenalan ``` “People worry that computers will get too smart and take over the world, but the real problem is that they’re too stupid and they’ve al _ready_ taken over the world.” Pedro Domingos ``` Penulis yakin istilah _machine learning_ atau _deep learning_ sudah tidak asing di telinga pembaca. _Machine learning_ dan _deep learning_ adalah salah satu materi kuliah pada jurusan Teknik Informatika atau Ilmu Komputer. Selain mengenal kedua istilah tersebut dari perkuliahan, pembaca mungkin mengenal istilah tersebut karena digunakan untuk pemasaran (marketing). Sebagai permulaan, _machine learning_ dan _deep learning_ bukanlah kedua hal yang berbeda.^1 Perlu diingat, _deep learning_ adalah bagian dari _machine learning_. _Machine learning_ sudah diaplikasikan pada banyak hal, baik untuk klasifikasi gambar, mobil tanpa pengemudi, klasifikasi berita, dsb. Bab ini menjelaskan konsep paling dasar dan utama _machine learning_.
### 1.4 Statistical Learning Theory Pada masa sekarang ini data bertebaran sangat banyak dimana-mana. Pemrosesan _data_ secara manual tentu adalah hal yang kurang bijaksana. Beberapa pemrosesan data yang dilakukan seperti kategorisasi (kategorisasi teks berita), peringkasan dokumen, ekstraksi informasi (mencari subjek, objek, dan relasi diatara keduanya pada teks), rekomendasi produk berdasarkan (^6) KBBI Web, diakses pada 10 Oktober 2016 ``` 1.4 Statistical Learning Theory 9 ``` catatan transaksi, dll [7]. Tujuan _machine learning_ minimal ada dua:memprediksi masa depan( _unobserved event_ ); dan/ataumemperoleh ilmu pengetahuan( _knowledge discovery/discovering unknown structure_ ). Kedua hal ini berkaitan sangat erat. Sebagai contoh, manusia tahu bahwa cara menggunakan pensil dan pulpen sama, walaupun saat kita belum pernah menggunakan pulpen (penulis berasumsi kamu belajar menulis menggunakan pensil). Memprediksi masa depan berarti kita tahu bahwa pulpen adalah alat tulis. _Knowledge discovery_ berarti kita tahu bahwa cara menggunakan pulpen dan pensil itu sama, walaupun belum pernah menggunakan pulpen sebelumnya.^7 Untuk mencapai tujuan tersebut, kita menggunakan data (sampel), kemudian membuat model untuk menggeneralisasi “aturan” atau “pola” data sehingga kita dapat menggunakannya untuk mendapatkan informasi/membuat keputusan [8, 9]. _Statistical learning theory_ (yang diaplikasikan padamachine _learning_ ) adalah teknik untuk memprediksi masa depan dan/atau menyimpulkan/mendapatkan pengetahuan dari datasecara rasional dan nonpara _norm_ al. Hal ini sesuai dengan konsep _intelligent agent_, yaitu bertingkah berdasarkan lingkungan. Dalam hal ini, yang bertindak sebagai lingkungan adalah data. _Performance measure_ -nya adalah seberapa akurat prediksi agen tersebut atau seberapa mirip “pola” data yang d _item_ ukan terhadap data asli. Disebut _statistical_ karena basis pembelajarannya memanfaatkan banyak teori statistik untuk melakukan inferensi (misal memprediksi _unobserved event_ ).^8 ``` Gambar 1.3: Ilustrasi makanan pesta 1. ``` Perhatikan Gambar 1.3 (permasalahan yang disederhanakan). Misalkan kamu diundang ke suatu pesta. Pada pesta tersebut ada 3 jenis kue yang disajikan. Kamu ingin mengetahui berapa rasio kue yang disajikan dibandingkan masing-masing jenisnya (seluruh populasi). Tetapi, karena susah untuk menganalisis seluruh data atau keseluruhan data tidak tersedia, kamu mengam- (^7) Baca _zero-shot learning_ (^8) Selain itu, _machine learning_ juga banyak memanfaatkan teori aljabar linier. 10 1 Pengenalan ``` Gambar 1.4: Ilustrasi makanan pesta 2. ``` bil beberapa sampel. Dari sampel tersebut, kamu mendapati bahwa ada 4 buah kue segi empat, 3 buah kue hati dan 2 buah kue segitiga. Lalu kamu menyimpulkan ( _model_ ) bahwa perbandingan kuenya adalah 4:3:2 (segiempat:hati:segitiga). Perbandingan tersebut hampir menyerupai kenyataan seluruh kue yaitu 4:2.67:2. Cerita ini adalah kondisi ideal. Perhatikan Gambar 1.4, temanmu Haryanto datang juga ke pesta yang sama dan ingin melakukan hal yang sama (rasio kue). Kemudian ia mengambil beberapa sampel kue. Dari sampel tersebut ia mendapati bahwa ada 3 buah segiempat, 3 buah hati dan 2 buah segitiga, sehingga perbandingannya adalah 3:3:2. Tentunya hal ini sangat melenceng dari populasi. Dari dua sampel yang berbeda, kita menyimpulkan, meng _infer_ ensi ( _infer_ ) atau mengeneralisasi dengan berbeda. Kesimpulan yang kita buat berdasarkan sampel tersebut, kita anggap merefleksikan populasi, kemudian kita menganggap populasi memiliki aturan/pola seperti kesimpulan yang telah kita ciptakan [10]. Baik pada statistika maupun _statistical machine learning_, pemilihan sampel (selanjutnya disebut _training data_ ) adalah hal yang sangat penting. Apabila _training data_ tidak mampu merepresentasikan populasi, maka _model_ yang dihasilkan pembelajaran ( _training_ ) tidak bagus. Untuk itu, biasanya terdapat juga _validation data_ dan _test data_. Mesin dilatih menggunakan _training_ _data_, kemudian diuji kinerjanya menggunakan _validation data_ ^9 dan _test data_. Seiring dengan membaca buku ini, konsep _training data_, _validation_ _data_, dan _test data_ akan menjadi lebih jelas. Cara mengevaluasi apakah sampel ( _data_ ) yang kita miliki cukup “bagus” untuk merepresentasikan populasi sangat bergantung pada domain dan aplikasi. Seperti halnya contoh sederhana ini, persoalan _machine learning_ sesungguhnya menyerupai persoalan _statistical inference_ [10]. Kita berusaha mencari tahu populasi dengan cara menyelidiki fitur ( _features_ atau sifat-sifat) yang dimiliki sampel. Kemudian, meng _infer_ ensi aksi yang harus dilakukan (^9) Pada umumnya bertindak sebagai _stopping criterion_ saat proses _training_. ``` 1.5 Training, Validation, Testing Set 11 ``` terhadap _unobserved data_ berdasarkan kecocokan fitur-fitur _unobserved data_ dengan model/aturan yang sudah ada. Dari sisi metode pembelajaran, algoritma _machine learning_ dapat dikategorikan sebagai: _supervised learning_ (subbab 1.6), _semi-supervised learning_ (subbab 1.8), _unsupervised learning_ (subbab 1.9), dan _reinforcement learning_. Masing-masing metode akan dibahas pada subbab berikutnya (kecuali _reinforcement learning_, karena diluar cakupan buku ini).
### 1.12 Contoh Aplikasi Sebenarnya, aplikasi pemanfaatan _machine learning_ sudah terasa dalam kehidupan sehari-hari. Contoh mudahnya adalah produk-produk Google, misalnya google translate ( _machine translation_, handwritten recognition, speech recognition, Alpha Go). Berikut adalah beberapa artikel menarik: ``` 1.techcrunch google AI beats go world champion 2.http://www-formal.stanford.edu/jmc/whatisai/ _node_ 3.html 3.https://www.google.com/selfdrivingcar/ 4.http://www.osnews.com/story/26838/Palm_I_m_ _ready_ _to_ _wallow_ _now/ page2/ ```
### 1.5 Training, Validation, Testing Set Terdapat dua istilah penting dalam pembangunan model _machine learning_ yaitu: _training_ dan _testing_. _Training_ adalah proses konstruksi model dan _testing_ adalah proses menguji kinerja model pembelajaran. _Dataset_ adalah kumpulan data (sampel dalam statistik). Sampel ini adalah data yang kita gunakan untuk membuat model maupun mengevaluasi model _machine learning_. Umumnya, _dataset_ dibagi menjadi tiga jenis yang tidak beririsan (suatu sampel pada himpunan tertentu tidak muncul pada himpunan lainnya): ``` 1. _Training set_ adalah himpunan data yang digunakan untuk melatih atau membangun model. Pada buku ini, istilah _training data_ (set)mengacu pada _training set_. 2. _Development set_ atau _validation set_ adalah himpunan data yang digunakan untuk mengoptimisasi saat melatih model. Model dilatih menggunakan _training_ setdan pada umumnya kinerjasaat latihandiuji dengan _validation_ set. Hal ini berguna untuk generalisasi (agar model mampu mengenali pola secara generik). Pada buku ini, istilah _development_ dan _validation data_ (set)mengacu pada hal yang sama. 3. _Testing set_ adalah himpunan data yang digunakan untuk menguji model setelahproses latihan selesai. Pada buku ini, istilah _testing data_ (set) atau _test set_ mengacu pada _testing set_. Perlu kami tekankan, _testing set_ adalah _unseen data_. Artinya, model dan manusia tidak boleh melihat sampel ini saat proses latihan. Banyak orang yang tergoda untuk melihat _testing_ setsaat proses latihan walaupun itu adalah tingkah laku yang buruk karena menyebabkan _bias_. ``` Suatu sampel pada himpunan data kita sebut sebagai _data point_ atau _instance_ yang merepresentasikan suatu kejadian statistik ( _event_ ). Perlu diingat, _training_, _validation_, dan _testing data_ secara ideal diambil ( _sampled_ ) dari distribusi yang sama dan memiliki karakteristik yang sama ( _independent_ ly and identically distributed). Distribusi pada masing-masing dataset ini juga sebaiknya seimbang ( _balanced_ ) dan memuat seluruh kasus. Misal, sebuah _dataset_ _binary classification_ sebaiknya memuat 50% kasus positif dan 50% kasus negatif. 12 1 Pengenalan Pada umumnya, rasio pembagian _dataset_ ( _training_ : _validation_ : _testing_ ) adalah (80% : 10% : 10%) atau (90% : 5% : 5%). _Validation set_ pada umumnya bisa tidak digunakan apabila _dataset_ berukuran kecil (hanya dibagi menjadi _training_ dan _testing_ setsaja). Dalam kasus ini, pembagian _dataset_ menjadi _training_ dan _testing_ set pada umumnya memiliki rasio (90% : 10%), (80% : 20%), (70% : 30%), atau (50% : 50%). Pada kasus ini, kinerja saat _training_ diuji menggunakan _training set_ (dikenal sebagai _closed testing_ ). Saat tidak menggunakan _validation set_ (hanya ada _training_ dan _testing_ set), kita juga memiliki opsi untuk mengevaluasi model dengan metodeKcross- _validation_.^10 Artinya, kita membagi _training data(set)_ setatau keseluruhan _dataset_ ) menjadiKbagian. Kita menggunakanK−1 bagian untuk _training_, kemudian menguji kinerja model saat latihan ( _validation_ ) menggunakan satu bagian. Hal ini diulangi sebanyakKkali dimana sebuah bagian data digunakan sebagai _testing set_ sebanyak sekali (bergilir). Mungkin sekarang kamu merasa pusing karena membaca banyak istilah. Jangan khawatir! Kamu akan lebih meresapi arti istilah-istilah tersebut seiring membaca buku ini.
### 1.11 Tips Jujur, pengarang sendiri belum menguasai bidang ini secara penuh, tetapi berdasarkan pengalaman pribadi (+membaca) dan beberapa rekan; ada beberapa materi wajib yang harus dipahami untuk mengerti bidangmachine _learning_. Sederhananya, kamu harus menguasai banyak teori matematika dan probabilitas agar dapat mengerti _machine learning_ sampai tulang dan jeroannya. Kami tidak menyebutkan bahwa mengerti _machine learning_ secara intuitif (atau belajar dengan pendekatan deskriptif) itu buruk, tetapi untuk mengerti sampai dalam memang perlu mengerti matematika (menurut pengalaman kami). Disa _rank_ an untuk belajar materi berikut: 1. Matematika Diskrit dan Teori Bilangan ``` 1.12 Contoh Aplikasi 19 ``` 2. Aljabar Linier dan Geometri ( _vektor_, matriks, skalar, dekomposisi, trans- formasi, tensor, dsb) 3. Kalkulus (diferensial dan integral) 4. Teori Optimasi (Lag _range_ multiplier, Convex Iptimization, Gradient De- scent, Integer Linear Problem,dsb) 5. Probabilitas dan Statistika (probabilitas, _probability densities_,hypothesis testing, _inter-rater agreement_, Bayesian, _sampling_ ) 6. Teori Fuzzy Mungkin kamu sudah tahu, tetapi penulis ingin mengingatkan ada dua buku yang sangat terkenal (“kitab”) sebagai materi belalajar _machine learning_ dan _deep_ _learning_ : 1. Patten Recognition and Machine Learning, oleh Christopher M. Bishop [8] 2. Deep Learning, oleh Ian Goodfellow, Yoshua Bengio, dan Aaron Courville [11] Apabila pembaca memiliki kesempatan, penulis sangat menya _rank_ an membaca kedua buku tersebut.
### Soal Latihan 1.1. Aplikasi (a) Carilah contoh-contoh penerapan _machine learning_ pada kehidupan seharihari selain yang telah disebutkan! (b) Mengapa mereka menggunakan teknik _machine learning_ untuk menyelesaikan permasalahan tersebut? (c) Apakah tidak ada opsi teknik lainnya? Jelaskan bila ada! (d) Apa kelebihan dan kekurangan teknik _machine learning_ daripada teknik lainnya (yang kamu jelaskan pada soal (c))? 20 1 Pengenalan 1.2. Kecerdasan Jelaskan tahapan perkembangan kecerdasan manusia berdasarkan kategori usia! Dari hal ini, kamu akan mengerti kenapa beberapa peneliti membuat agen cerdas berdasarkan kategori usia tertentu.
### 1.9 Un _supervised_ Learning ``` Gambar 1.10: Ilustrasi _clustering_ ``` Jika pada _supervised learning_ ada guru yang mengajar, maka pada _unsupervised_ _learning_ tidak ada guru yang mengajar. Contoh permasalahan un _supervised_ _learning_ adalah _clustering_. Mengingat contoh kue sebelumnya, kita ingin mengelompokkan kue-kue yang sama, diilustrasikan oleh Gambar 1.10. Yang kamu lakukan adalah membuat kelompok-kelompok berdasarkan karakteristik kue, misal kelompok kue biru, kelompok kue kuning, atau kelompok kue merah. Teknik-teknik mengelompokkan ini akan dibahas pada babbab berikutnya. Contoh algoritma _unsupervised learning_ sederhana adalah _K-means_ (bab 4). Perhatikan Gambar 1.11 dan Gambar 1.12! Berbeda dengan supervised _learning_ yang memiliki _desired output_, pada _unsupervised learning_ tidak ada _desired output_ (jelas, tidak ada gurunya, tidak ada yang memberi contoh). ``` 1.9 Un _supervised_ Learning 17 ``` ``` Gambar 1.11: _Unsupervised learning_ framework ``` ``` Gambar 1.12:Generalization error of un _supervised learning_ ``` Kita ingin mencari tahu distribusi asli dataq(x), berdasarkan beberapa sampel _data_. _Learning_ dilakukan dengan mengoptimalkanp(x|w) yang mengoptimasi parameterw. Perbedaan antara estimasi dan fungsi asli disebut sebagai _generalization loss_ (atau _loss_ saja – dijelaskan pada bab 5). Kunci pemahaman _unsupervised learning_ adalah mengingat persamaan 1.3, yaitu ada _input_ dan parameter. p(x|w) (1.3) Perlu kami tekankan, _unsupervised learning_ 6 = _clustering_ ! _Clustering_ adalah salah satu bentuk _unsupervised learning_ ; yaitu salah satu hasil inferensi persamaan 1.3. _Unsupervised learning_ adalah mencari sifat-sifat ( _properties_ ) _data_. Kita ingin aproksimasip(x|w) semirip mungkin denganq(x), dimana q(x) adalah distribusi data yang asli. Dataset di-sampel dari distribusiq(x), kemudian kita ingin mencari tahuq(x) tersebut. 18 1 Pengenalan
### 1.3 Konsep Belajar Bayangkan kamu berada di suatu negara asing! Kamu tidak tahu norma yang ada di negara tersebut. Apa yang kamu lakukan agar bisa menjadi orang “ _norm_ al” di negara tersebut? Tentunya kamu harusbelajar! Kamu mengamati bagaimana orang bertingkah laku di negara tersebut dan perlahan-lahan mengerti norma yang berlaku. Belajar adalah usaha memperoleh kepandaian atau ilmu; berlatih; berubah tingkah laku atau tanggapan yang disebabkan oleh pengalaman.^6 Pembelajaran adalah proses, cara, perbuatan atau menjadikan orang atau makhluk hidup belajar. Akan tetapi, pada _machine learning_, yang menjadi siswa bukanlah makhluk hidup, tapi mesin. Definsi sebelumnya mungkin sedikit “abstrak”, kita harus mengkonversi definisi tersebut sebagai definsi operasional (bentuk komputasi). Secara operasional, belajar adalah perubahan tingkah laku berdasarkan pengalaman ( _event_ / _data_ ) untuk menjadi lebih baik. Pada konteks _machine learning_, belajar adalah menyesuaikan konfigurasi parameter (tingkah laku) terhadaputility _function_ sesuai dengan data (lingkungan).
### 1.7 Regresi Pada persoalan regresi, kita ingin memprediksi _output_ berupa bilangan kontinu. Misalnya pada regresi suatu fungsi polinomial, kita ingin mencari tahu fungsif(x) diberikan data{(x 1 ,y 1 ),···,(xN,yN)}. Setelah itu, kita gunakan fungsi aproksimasi untuk mencari tahu nilaiyN+1dari data baruxN+1. Perbedaan regresi dan klasifikasi adalah pada tipe _output_. Untuk regresi, tipe _output_ adalah nilai kontinu; sementara tipe _output_ pada persoalan klasifikasi adalah suatu objek pada himpunan (i.e., memilih opsi pada himpunan jawaban). Tetapi, kita dapat mengkonversi fungsi regresi menjadi fungsi klasifikasi (dijelaskan pada bab 5). 16 1 Pengenalan
### 1.10 Proses Belajar Seperti yang sudah dijelaskan pada subbab sebelumnya, pada supervised maupun _unsupervised learning_, kita ingin mengestimasi sesuatu dengan teknik _machine learning_. Kinerja model pembelajaran berubah-ubah sesuai dengan parameterw(parameter pembelajaran). Kinerja model diukur oleh fungsi tujuan ( _utility function_ –saat latihan, _performance measure_ –saat melakukan prediksi), yaitu mengoptimalkan nilai fungsi tertentu; misalnya meminimalkan nilai _error_ (dijelaskan kemudian). Secara intuitif, _learning machine_ mirip seperti saat manusia belajar. Kita awalnya membuat banyak kesalahan, tetapi kita mengetahui atau diberi tahu mana yang benar. Untuk itu kita menyesuaikan diri secara perlahan agar menjadi benar (iteratif). Inilah yang juga dilakukan _learning machine_, yaitu mengubah-ubah parameterwuntuk mengoptimalkan suatu fungsi tujuan. Akan tetapi, _machine learning_ membutuhkan sangat banyak data. Sementara, manusia dapat belajar dengan contoh yang sedikit. Perhatikan, dengan adanya parameterw, kamu mungkin akan menganggap bahwa teknik _machine learning_ adalah fungsi-parametrik. Sebenarnya, ada juga algoritma _machine learning_ non-parametrik, tetapi algoritham parametrik yang lebih sering digunakan di masa buku ini ditulis. Secara bahasa lebih matematis, kami beri contoh _supervised learning_. Kita mempunyai distribusi klasifikasi asliq(y|x). Dari distribusi tersebut, kita diberikan beberapa sampel pasangan _input-output_ {z 1 ,z 2 ,z 3 ,...,zn};zi = (xi,yi). Kita membuat modelp(y |x,w). Awalnya diberi (x 1 ,y 1 ), model mengestimasi fungsi asli dengan mengoptimalkan parameterwsesuai dengan _data_ yang ada. Seiring berjalannya waktu, ia diberikan data observasi lainnya, sehingga _learning machine_ menyesuaikan dirinya (konvergen) terhadap observasi yang baru (x 2 ,y 2 ),(x 3 ,y 3 ),.... Semakin lama, kita jadi makin percaya bahwa model semakin optimal (mampu memprediksi fungsi aslinya). Apabila kita diberikan lebih banyak data data sampai sejumlah tak hingga, aproksimasi kita akan semakin mirip dengan distribusi aslinya.
### 1.6 Supervised Learning Jika diterjemahkan secara literal, _supervised learning_ adalah pembelajaran terarah/terawasi. Artinya, pada pembelajaran ini, ada guru yang mengajar (mengarahkan) dan siswa yang diajar. Kita disini berperan sebagai guru, kemudian mesin berperan sebagai siswa. Perhatikan Gambar 1.5 sebagai ilustrasi! Pada Gambar 1.5, seorang guru menuliskan angka di papan “8, 6, 2” sebagai contoh untuk siswanya, kemudian gurunya memberikan cara membaca yang benar untuk masing-masing angka. Contoh angka melambangkan _input_, kemudian cara membaca melambangkan _desired output_ (sering disebut “ _gold standard_ ”). Pasangan _input_ – _desired output_ ini disebut sebagai _instance_ (untuk kasus _supervised learning_ ). Pembelajaran metode ini disebut _supervised_ karena ada yang memberikan contoh jawaban ( _desired output_ ). Perhatikan Gambar 1.6 dan Gambar 1.7,xadalah kejadian ( _event_ – _random_ variable), untuk event tertentu dapat dinotasikan sebagai{x 1 ,x 2 ,x 3 ,···, xN}.xdapat berupa vektor, teks, gambar, dan lain sebagainya (perhatikan konteks pembahasan buku). Demi pembahasan yang cukup generik, pada bab ini kita membicarakanxyang merepresentasikan _event_, _data point_, atau _input_. Seorang guru sudah mempunyai jawaban yang benar untuk masing-masing contoh dengan suatu fungsi distribusi probabilitas kondisional (conditional _probability density function_ )q(y |x) baca: _function_ q for y _given_ x, melambangkan hasil yang benar/diharapkan untuk suatu event. Siswa (mesin) mempelajari tiap pasang pasangan _input-desired output_ ( _training_ _data_ )dengan mengoptimalkan _conditional probability density function_ p(y| x,w), dimanayadalah target ( _output_ ),xadalah input dan vektorwadalah (^10) https://www.openml.org/a/estimation-procedures/1 ``` 1.6 Supervised Learning 13 ``` ``` Gambar 1.5:Supervised learning. ``` _learning parameters_. Proses belajar, yaitu mengoptimalkanwdisebut sebagai _training_. Semakin kamu membaca buku ini, konsep ini akan menjadi semakin jelas. Proses _training_ bertujuan untuk mengaproksimasiq(y |x) melaluip(y|x,w). Proses pembelajaran bertujuan untuk mengubah-ubahw sedemikian sehinggap(y|,x,w) mirip denganq(y|x). ``` Gambar 1.6:Supervised learning-mathematical explanation. ``` Perhatikan Gambar 1.8! model memiliki panah ke _training data_ dantest _data_, artinya model hasil _training_ sangat bergantung pada _data_ dan guru. Model yang dihasilkan _training_ (hasil pembelajaran kemampuan siswa) untuk _data_ yang sama bisa berbeda untuk guru yang berbeda.^11 Tujuan _supervised learning_, secara umum untuk melakukan klasifikasi ( _classification_ ). Misalkan mengklasifikasikan gambar buah (apa nama buah pada gambar), diilsutrasikan pada Gambar 1.9. Apabila hanya ada dua kategori, disebut _binary classification_. Sedangkan bila terdapat lebih dari dua kategori, disebut _multi-class classification_. Contoh _multi-class_ classifica- (^11) Penulis rasa hal ini sangat intuitif berhubung hal serupa terjadi pada manusia. 14 1 Pengenalan ``` 8, 6, 2 ... ``` 𝑥 (^1) ,𝑥 (^2) ,𝑥 (^3) ,... 𝑥𝑛 𝑥 1 ,𝑥 2 ,𝑥 3 ,... ,𝑥𝑛 𝑦 1 ,𝑦 2 ,𝑦 3 ,... ,𝑦𝑛 𝑞(𝑥) 𝑞(𝑦|𝑥) 𝑥 𝑦 𝑞𝑥𝑞𝑦𝑥 =𝑞(𝑥,𝑦) p(𝑦|𝑥,𝒘) _ _Input_ Desired output_ Gambar 1.7:Supervised learning-mathematical explanation2. Gambar 1.8:Supervised learning framework. tionadalah mengklasifikasikan gambar buah ke dalam himpunan kelas: _apel_, _mangga_ atau _sirsak_. Ada tipe klasifikasi lain disebut _multi-label classification_ yaitu ketika kita ingin mengklasifikasikan suatu sampel ke dalam suatu himpunan kelas. Perhatikan! Perbedaan _multi-class_ dan _multi-label classification_ agak _tricky_. Pada _multi-class classification_, suatu sampel hanya bisa berkorespondensi dengan satu kelas. Sedangkan pada _multi-label classification_, satu sampel dapat berkorespondensi dengan lebih dari satu kelas. Misalnya, suatu berita dapat masuk ke kategori _agama_ dan _politik_ pada waktu bersamaan. Artinya, label pada _multi-class classification_ bersifat _mutually exclusive_, sedangkan label tidak bersifat _mutually exclusive_ pada _multi-label classification_.^12 Perhatikan Gambar 1.1 sebagai ilustrasi, dimana setiap baris merepresentasikan kelas yang berkorespondensi dengan setiap _input_, nilai “1” melambangkan TRUE dan nilai “0” melambangkan FALSE. _Multi-label classification_ dapat didekomposisi menjadi beberapa _Binary classification_, yaitu mengklasifikasikan apakah _input_ dapat ditetapkan ke suatu kelas atau tidak (dijelaskan lebih lanjut pada bab-bab berikutnya). Pemahaman _supervised learning_ adalah mengingat persamaan 1.1. Ada tiga hal penting pada _supervised learning_ yaitu _input_, _desired output_, dan (^12) https://scikit-learn.org/stable/modules/multi _class_.html ``` 1.7 Regresi 15 ``` ``` Gambar 1.9: Ilustrasi _binary classification_. ``` ``` InstanceApel Mangga Sirsak Gambar-1 1 0 0 Gambar-2 0 1 0 Gambar-3 0 0 1 ``` ``` (a) Multi- _class_ classification. ``` ``` InstanceApel Mangga Sirsak Gambar-1 1 1 0 Gambar-2 0 1 1 Gambar-3 1 0 1 ``` ``` (b) Multi-label classification. ``` Tabel 1.1: Ilustrasi _multi-label_ dan _multi-class classification_. Nilai “1” melambangkan TRUE dan “0” melambangkan FALSE ( _class assignment._. _learning parameters_. Perlu ditekankan _learning parameters_ berjumlah lebih dari satu, dan sering direpresentasikan dengan vektor ( _bold_ ) atau matriks. Berdasarkan model yang dibuat, kita dapat melakukan klasifikasi (misal simbol yang ditulis di papan adalah angka berapa). Secara konseptual, klasifikasi didefinisikan sebagai persamaan 1.2 yaitu memilih label (kelas/kategoriy) paling optimal dari sekumpulan labelC, diberikan ( _given_ ) suatu sampel ( _instance_ ) _data_ tertentu. ``` p(y|x,w) (1.1) ``` ``` yˆi= arg max yi∈C ``` ``` p(yi|xi,w) (1.2) ```
### 1.1 Kecerdasan Buatan Pada bagian pembukaan (kata pengantar) telah dijelaskan bahwa kami menganggap kamu sudah memiliki pengetahuan dasar tentangartificial intelligence ( _kecerdasan buatan_ ), kami akan memberikan sedikit ikhtisar apa hubungan kecerdasan buatan dan _machine learning_. Saat pertama kali kamu mendengar istilah “ _kecerdasan buatan_ ”, mungkin kamu akan terpikir robot yang memiliki raga fisik. Tetapi, kecerdasan buatan tidak hanya terbatas pada sesuatu yang memiliki raga fisik. Raga fisik berguna untuk interaksi (^1) Walau istilah _deep learning_ belakangan ini lebih populer. 4 1 Pengenalan yang ramah bagi manusia. Tidak mesti memiliki raga fisik, kecerdasan buatan sesungguhnya adalah program^2 yang memiliki bentuk matematis (instruksi); kita sebut sebagaiagen. Berbeda dengan program biasa yang menghasilkan aksi berdasarkan instruksi, tujuan kecerdasan buatan adalah menciptakan program yang mampu mem-program ( _output_ program adalah sebuah program). Secara teori, program adalahautomaton^3 yang menjalankan suatu instruksi. Sama halnya dengan program pada umumnya, agen kecerdasan buatan juga menjalankan suatu instruksi. Yang menjadikanya beda dengan program _bias_ a adalahkemampuan untuk belajar.^4 “Belajar” yang dimaksud tidaklah sama dengan proses manusia belajar. Mesin mampu belajar apabila ia mampu meng- _update_ parameter (dijelaskan lebih detil kemudian), dimana parameter tersebut kurang-lebih merepresentasikan “pengetahuan” mesin. Pada bidang keilmuan kecerdasan buatan, kita ingin menciptakan agen yang mampu melakukan pekerjaan yang membutuhkan kecerdasan manusia. Perhatikan, disini disebut kecerdasan manusia; hewan pun cerdas, tapi kecerdasan manusia dan hewan berbeda; yang kita ingin aproksimasi adalah kecerdasan manusia. Akan tetapi, kecerdasan manusia susah didefinisikan karena memiliki banyak aspek misalnya nalar (logika), kemampuan berbahasa, seni, dsb. Karena kecerdasan manusia memiliki banyak dimensi, kita dapat mencoba menyelesaikan masalah pada sub bidang lebih kecil–spesifik domain (divide and conquer). Sampai saat ini pun, peneliti belum juga mengetahui secara pasti apa yang membuat manusia cerdas, apa itu sesungguhnya cerdas, dan bagaimana manusia dapat menjadi cerdas. Dengan demikian, keilmuan _kecerdasan buatan_ adalah interdisiplin, memuat: psikologis, linguistik, ilmu komputer, biologi, dsb. Bila kamu bertanya apakah program de _term_ inistik dapat disebut _kecerdasan buatan_, jawabannya “iya”, _to some extent_ (sampai pada level tertentu) karena memenuhi dimensi _acting rationally_ (dijelaskan pada subbab 1.2). Permasalahan utama bidang kecerdasan buatan terdiri dari (dari klasik sampai lebih modern),^5 yaitu: ``` 1. _Planning_. Diberikan _start state_ dan _goal state_, agen harus merencanakan sekuens aksi untuk merubah _start state_ menjadi _goal state_. Contoh permasalahan _planning_ adalah merencanakan rute perjalanan dari kota A ke kota B. Bisa jadi, saat merencanakan sekuens aksi, ada kendala ( _constraints_ ) yang harus dioptimisasi. ``` ``` 2. _Representasi pengetahuan_, yaitu merepresentasikan pengetahuan dalam bentuk formal. Dengan representasi formal tersebut, kita dapat melakukan _infer_ ensi dengan operasi logika berbentuk simbolik, misal logika preposisi, ``` (^2) Secara sederhana, program adalah kumpulan atau sekuens instruksi. (^3) Kami sa _rank_ an untuk membaca buku [2] untuk materi automata. (^4) Perlu diperhatikan, definisi ini adalah pandangan modern. (^5) Silahkan merujuk Association for the Advancement of Artificial Intelligence (AAAI). ``` 1.1 Kecerdasan Buatan 5 ``` ``` logika orde pertama ( _first-order logic_ ), teori Fuzzy, _abductive reasoning_, ontologi, maupun jaringan semantik ( _semantic web_ ) [3]. ``` ``` 3. _Machine learning_, yaitu teknik untuk melakukan inferensi terhadap _data_ dengan pendekatan matematis. Inti _machine learning_ adalah untuk membuat model (matematis) yang merefleksikan pola-pola data (seiring kamu membaca buku ini, kamu akan lebih mengerti). Ini adalah bahasan utama buku ini. Pada abad ke-21 ini, _machine learning_ banyak memanfaatkan statistika dan aljabar linier. ``` ``` 4. _Multi-agent system_, yaitu sistem yang memiliki banyak agen berinteraksi satu sama lain untuk menyelesaikan permasalahan. Agen satu mengerjakan suatu hal tertentu, kemudian bekerja bersama untuk menyelesaikan masalah yang lebih besar (tidak dapat diselesaikan sendiri). ``` 5. Dan lain sebagainya, silahkan mengacu pada topik konferensiAssociation for the Advancement of Artificial Intelligence(AAAI). Perhatikan, sub keilmuan representasi pengetahuan dan _machine learning_ sama-sama melakukan inferensi, tetapi pada representasi yang berbeda. Inferensi pada bidang keilmuan representasi pengetahuan mencakup tentang bagaimana cara (langkah dan proses) mendapatkan sebuah keputusan, diberikan premis. Sebagai contoh,aadalah anakb, dancadalah anakb, maka apakah hubunganadanc? Jawab:cadalah cucua. Pada _machine learning_, _infer_ ensi yang dimaksud lebih menitikberatkan ranah hubungan variabel. Misalnya,apakah penjualan akan meningkat apabila kita meningkatkan biaya marketing. Bila kamu ingat dengan mata pelajaran matematika SMA (logika preposisi), kamu sadar bahwa membuat sistem cerdas menggunakan representasi pengetahuan simbolik itu susah. Kita harus mendefinisikan _term_, aturan logika, dsb. Belum lagi kita harus mendefinisikan aturan-aturan secara manual. Disamping itu, pengetahuan manusia sangatlah kompleks, dan translasi pengetahuan menjadi aturan-aturan formal tidaklah mudah. Representasi pengetahuan secara tradisional dianggap relatif kurang _scalable_. Artinya, kita tidak dapat merubah basis pengetahuan dengan mudah (meng- _update_ “parameter”). Sementara itu, _machine learning_ berada pada daerah representasi _data_ /ilmu/pengetahuan dalam bentuk matematis karena keilmuanmachine _learning_ diturunkan dari matematika dan statistika. Teknik _machine learning_ juga menjadi semakin populer akibat kemampuan komputasi yang terus meningkat. Pada masa sekarang, kita dianugrahi dengan data yang banyak (bahkan tidak terbatas), teknik _machine learning_ menjadi intuitif untuk melakukan _infer_ ensi pada data yang besar. Hal ini yang menyebabkan _machine learning_ menjadi populer karena konstruksi model inferensi dapat dilakukan secara otomatis. _Machine learning_ ibarat sebuah “alat”, sama seperti rumus matematika. Bagaimana cara menggunakannya tergantung pada domain per- 6 1 Pengenalan masalahan. Dengan demikian, kamu harus paham betul bahwa memahami teknik-teknik _machine learning_ saja tidak cukup. Kamu juga harus mengetahui domain aplikasi yang bersesuaian karena pemanfaatan teknik-teknik _machine learning_ dapat berbeda pada domain yang berbeda. Sedikit cerita, sub keilmuan _data science_ mempelajari banyak domain, misalnya data pada domain sosial, ekonomi, bahasa, maupun visual. Seiring kamu membaca buku ini, kami harap kamu semakin mengerti hal ini.
### 1.2 Intelligent Agent Agen cerdas memiliki empat kategori berdasarkan kombinasi dimensi cara _infer_ ensi ( _reasoning_ ) dan tipe kelakuan ( _behaviour_ ) [4, 5]. Kategori agen dapat dilihat pada Gambar 1.1 dengan penjelasan sebagai berikut: ``` Gambar 1.1: Dimensi kecerdasan. ``` ``` 1. _Acting Humanly_. Pada dimensi ini, agen mampu bertingkah dan berinteraksi layaknya seperti manusia. Contoh terkenal untuk hal ini adalah _turing test_. Tujuan dari _turing test_ adalah untuk mengevaluasi apakah suatu sistem mampu “menipu” manusia. Disediakan seorang juri, kemudian juri berinteraksi dengan sesuatu di balik layar. Sesuatu di balik layar ini bisa jadi manusia atau program. Program dianggap mampu bertingkah (berinteraksi) seperti layaknya manusia apabila juri tidak dapat membedakan ia sedang berkomunikasi dengan manusia atau program. ``` ``` 2. _Acting Rationally_. Pada dimensi ini, agen mampu bertingkah dengan optimal. Tindakan optimal belum tentu menyerupai tindakan manusia, karena tindakan manusia belum tentu optimal. Misalnya, agen yang mampu memiliki rute terpendek dari suatu kotaAke kotaBuntuk mengoptimalkan penggunaan sumber daya. Sebagai manusia, bisa saja kita mencari jalan sesuka hati. ``` ``` 1.2 Intelligent Agent 7 ``` ``` 3. _Thinking Humanly_. Pada dimensi ini, agen mampu berpikir seperti manusia dalam segi kognitif (e.g. mampu mengerti apa itu kesedihan atau kesenangan). Dapat dibilang, meniru bagaima proses berpikir di otak terjadi (pe _model_ an otak). ``` ``` 4. _Thinking Rationally_. Pada dimensi ini, agen mampu berpikir secara rasional. Sederhananya sesuai dengan konsep logika matematika.Thinking Humanlylebih cenderung pada pe _model_ an kognitif secara umum, sementara dimensi _thinking rationally_ cenderung pada pe _model_ an proses berpikir dengan prinsip optimisasi (apa yang harus dilakukan agar hasil optimal). ``` Perlu dicatat, “ _acting_ ” berarti agen mampu melakukan aksi. Sementara “ _thinking_ ” adalah pe _model_ an proses. Untuk mewujudkan interaksi manusiakomputer seperti manusia-manusia, tentunya kita ingin _intelligent agent_ bisa mewujudkan dimensi _acting humanly_ dan _thinking humanly_. Sayangnya, manusia tidak konsisten [6]. Sampai saat ini, konsep kecerdasan buatan adalah meniru manusia; apabila manusia tidak konsisten, peneliti susah untuk me _model_ kan cara berpikir atau tingkah laku manusia. Berhubung agen dilatih menggunakan contoh-contoh data buatan manusia, ketidak-konsistensi-an agen semata-mata mencerminkan ketidak-konsistensi-an pembuat data. Dengan hal itu, saat ini kita paling mungkin menciptakan agen yang mempunyai dimensi _acting rationally_. ``` Gambar 1.2:Agentvs _environment_ [7]. ``` Perhatikan Gambar 1.2! Agen mengumpulkan informasi dari lingkungannya, kemudian memberikan respon berupa aksi. Lingkungan ( _environment_ ) yang dimaksud bisa jadi macam-macam, misal: rumah, papan catur, agen lain, dsb. Kita ingin agen melakukan aksi yang benar. Tentu saja kita perlu mendefinisikan secara detail, teliti, tepat ( _precise_ ), apa arti “aksi yang benar.” Dengan demikian, lebih baik apabila kita mengukur kinerja agen, menggunakan ukuran kinerja yang objektif (disebut _performance measure_ ). Misal- 8 1 Pengenalan nya untuk robot pembersih rumah, _performance measure_ -nya adalah seberapa persen debu yang dapat ia bersihkan. _Performance measure_ adalah ukuran bagaimana model pembelajaran mesin dievaluasi secara eksternal. Di sisi internal, _model_ harus mengoptimalkan suatu fungsi utiiltas ( _utility function_ ), yaitu fungsi apa yang harus dimaksimalkan atau diminimalkan oleh agen tersebut khususnya pada tahap latihan ( _training_ ). Misalnya, robot pembersih rumah memiliki _utility function_ untuk mengukur kotoran di tempat terbatas tempat ia berada atau rute paling efisien untuk membersihkan rumah. Setiap tindakan yang dilakukan agen rasional harus mengoptimalkan baik nilaiutility _function_ (internal) dan _performance measure_ (eksternal). Pada buku ini, istilahperformance measuredan _utility function_ merujuk pada hal yang berbeda. Tetapi, pada beberapa kasus, _utility function_ dan _performance measure_ dapat diukur dengan fungsi yang sama. Mungkin kamu merasa penjelasan ini agak abstrak pada saat ini. Tetapi, kamu akan semakin mengerti perbedaan keduanya setelah membaca buku ini.
### 1.8 Semi- _supervised_ Learning _Semi-supervised learning_ mirip dengan _supervised learning_, bedanya pada proses pelabelan data. Pada _supervised learning_, ada “guru” yang harus membuat “kunci jawaban” _input-output_. Sedangkan pada _semi-supervised learning_ tidak ada “kunci jawaban” eksplisit yang harus dibuat guru. Kunci jawaban ini dapat diperoleh secara otomatis (misal dari hasil _clustering_ ). Pada kategori pembelajaran ini, umumnya kita hanya memiliki sedikit data. Kita kemudian menciptakan data tambahan baik menggunakan _supervised_ ataupun _unsupervised learning_, kemudian membuat model belajar dari data tambahan tersebut.
### Untuk Tuhan, Bangsa, dan Almamater
### 2.10 Matriks Subbab ini adalah pengingat untuk operasi perjumlahan, pengurangan, perkalian, dan transpose matriks karena banyak digunakan di buku ini. Diberikan dua buah matriksUdanV.UdanVdapat dijumlahkan jika dan hanya jika dimensi kedua matriks itu sama. Perjumlahan matriks dinotasikan dengan (^3) kamu dapat mencoba library entropy di scipy (python) untuk mendapat gambaran lebih detil https://docs.scipy.org/doc/scipy/reference/ _generate_ d/scipy .stats. _entropy_.html (^4) https://towards _data_ science.com/ _entropy_ - _cross-entropy_ -and-kl_divergen_ ce-explained-b09cdae917a 36 2 Fondasi Matematis U+V=C. MatriksCmemiliki dimensi yang sama denganUdanV. Nilai elemen baris ke-idan kolom ke-j(Ci,j) dihitung sebagai penjumlahan nilai elemen matriksUdanVpada baris dan kolom yang bersesuaian, seperti diilustrasikan pada persamaan 2.18. Pengurangan dua buah matriks dilakukan serupa. Ci,j=Ui,j+Vi,j (2.18) Dua buah matriksUdanVdapat dikalikan jikaUmemiliki kolom sebanyak baris padaV. Misalkan matriksUberdimensiN×MdanVberdimensiM×O, maka kedua matriks tersebut dapat dikalikan dan menghasilkan matriksCdengan dimensiN×O(dimensi barisUdan kolomV), dimana tiap elemen pada matriksCdihitung dengan persamaan 2.19 (operasi antara _vektor_ baris dan vektor kolom). ``` Cx,y= ``` #### ∑M ``` i=1 ``` ``` Ux,i+Vi,y (2.19) ``` Selain perkalian antar dua buah matriks, sebuah matriks juga dapat dikalikan dengan skalar, dinotasikan denganaU. Hasil perkalian adalah sebuah matriks dengan dimensi yang sama denganU, dimana tiap elemen dikalikan dengan nilai skalar. (aU)i,j=a×Ui,j (2.20) Suatu matriksUberdimensiN×Mapabila di transpose menghasilkan matriksUTberdimensiM×N, dimana elemen ke-i,jpada matriksUTadalah elemen ke-j,ipada matriksU, seperti diilustraiskan pada persamaan 2.19. ``` UTi,j=Uj,i (2.21) ``` Ada satu istilah lagi yang perlu kamu ketahui yaitutensor. Tensor adalah generalisasi untuk vektor (1 dimensi) dan matriks (2 dimensi) yang memilikiN dimensi. Tensor sering digunakan untuk notasi pada _artificial neural network_. Tetapi demi kemudahan pengertian, penulis menggunakan notasi matriks.
### 2.7 Teori Keputusan Diberikan himpunan pasangan data _input-output_ (xi,yi);x = input,y = _output_ / _target_ ; walaupun tidak pasti, kita ingin mengestimasi hubungan antara _input_ dan _output_. Untuk itu kita melakukan estimasip(y|x,w), dimana wadalah _learning parameters_. Pada bab pertama, kamu telah mempelajari bahwa kita mampu melakukan hal ini dengan teknik _machine learning_. Lebih jauh lagi, kita juga harus mampu untuk membuat keputusan berbasiskan perkiraan nilaiy, aspek ini disebut _decision theory_ [8]. Dalam _machine learning_ kita dapat membangun model dengan tujuan untuk meminimalkan _error_ (secara umum meminimalkan _loss_ ); konsep meminimalkan _error_ dijelaskan pada materi model linear (bab 5). Ibaratnya untuk sebuah robot, kita ingin robot tersebut tidak melakukan tindakan yang salah. Tetapi, kadang kala meminimalkan _error_ belum tentu membuat model menjadi lebih baik. Kami ilustrasikan menggunakan contoh dari Bishop [8]. ``` 2.7 Teori Keputusan 31 ``` Misalkan kita diminta untuk membuat model klasifikasi kanker. Kita dapat mengklasifikasikan pasien menjadi dua kelas{kanker, _norm_ al}. Apabila kita ingin meminimalkan _error_ saja maka kita ingin mengklasifikasikan secara tepat orang yang kanker dianggap memiliki kanker dan yang tidak dianggap sebagai tidak. Akan tetapi, terdapat _tradeoff_ yang berbeda saat salah klasifikasi. Apabila kita mengklasifikasikan orang yang normal sebagai kanker, konsekuensi yang mungkin adalah membuat pasien menjadi stres atau perlu melakukan pemeriksaan ulang. Tetapi bayangkan, apabila kita mengklasifikasikan orang kanker sebagai normal, konsekuensinya adalah penanganan medis yang salah. Kedua kasus ini memiliki beban yang berbeda. Secara sederhana, kesalahan klasifikasi bisa memiliki bobot berbeda untuk tiap kelasnya. Untuk penyederhanaan pembahasan, pada buku ini, kita anggap kesalahan klasifikasi memiliki bobot yang sama. Fungsi tujuan pembelajaran (secara umum untuk merepresentasikan _error_ atau _loss_ ) dituangkan dalam _utility function_. Sekali lagi kami tekankan, tujuan _machine learning_ adalah memaksimalkan kinerja. Kinerja diukur berdasarkan _utility function_. _Loss_ adalah ukuran seberapa dekat atau berbeda model yang dihasilkan dengan konsep asli, sementara _error_ adalah salah satu fungsi untuk mengukur _loss_. Untuk mengukur nilai _loss_ ; dapat diekspresikan dengan _loss function_. Secara umum, ada dua macam _loss_, yaitu _generalization loss/error_ dan _training loss/error_. _Generalization loss/error_ adalah ukuran sejauh mana algoritma mampumemprediksi _unobserved data_ dengan tepat, karena kita hanya membangun model dengan data yang terbatas, tentunya bisa saja terdapat ketidakcocokan dengan data yang asli. Sedangkan _training loss/error_ seperti namanya, ukuran _loss_ saat _training_. Misalkanq(x) adalah distribusi _data_ asli. Menggunakan sampel data dengan distribusip(x), _generalization_ _loss_ dan _training loss_ dapat dihitung dengan persamaan 2.13. Fungsi ini disebut sebagai _cross entropy loss_. Perhatikan, masih banyak fungsi lain yang bisa digunakan untuk mengukur _loss_. #### H=− #### ∑N ``` i=1 ``` ``` q(x)log (p(x)) (2.13) ``` Tentunya sekarang kamu bertanya-tanya. Kita tidak mengetahui bagaimana q(x) aslinya, bagaimana cara menghitung _generalization loss_ ? Nah, untuk itulah ada teknik-teknik pendekatan distribusi populasiq(x), misalnyamaximum _likelihood_ method, maximum posterior methoddanBayesian method(silahkan dieksplorasi). Ekspektasi terhadap biasanyaq(x) diaproksimasi dengan menggunakan data sampel yang kita miliki. Bentuk persamaan 2.13 memiliki kaitan dengan _confidence_. Konsep ini akan dijelaskan lebih detil pada bab 5. Secara lebih filosofis, berkaitan dengan meminimalkan _loss_ ; tugasmachine _learning_ adalah untuk menemukan struktur tersembunyi (discovering hidden structure). Hal ini sangat erat kaitannya dengan _knowledge discovery_ dan _data_ 32 2 Fondasi Matematis mining. Bila kamu membuka forum di internet, kebanyakan akan membahas perihal _learning machine_ yang memaksimalkan akurasi (meminimalkan _error_ ). Selain harus memaksimalkan akurasi (meminimalkan salah _assignment_ ), kita juga harus mampu membuat model yang cukup generik. Artinya tidak hanya memiliki kinerja tinggi pada _training data_, tapi juga mampu memiliki kinerja yang baik untuk _unseen data_. Hal ini dapat tercapai apabila model yang dihasilkan melakukan inferensi yang mirip dengan inferensi sebenarnya (konsep asli). Kami tekankan kembali, meminimalkan _loss_ adalah hal yang lebih penting, dimana meminimalkan _error_ dapat digunakan sebagai sebuah _proxy_ untuk mengestimasi _loss_ (pada banyak kasus).
### 2.8 Hypothesis Testing Diberikan dua model pembelajaran mesin dengan kinerjaAdanB. Kita ingin memutuskan model pembelajaran mesin mana yang “lebih baik”. Perhatikan, kualitas model tidak hanya tergantung pada satu metrik (misal akurasi), tetapi kita juga mempertimbangkan kompleksitas model ( _running time_ ) dan sebagainya. Hal ini membuat keputusan model mana yang “lebih baik” menjadi cukup kompleks. Demi penyederhanaan pembahasan, anggap kita hanya melihat dari sisi performa yang diukur menggunakan skor tertentu. Banyak makalah penelitian pembelajaran mesin yang hanya melihat nilai kinerja secara mentah. Artinya, apabila kinerjaA > Bmaka modelAmemiliki “lebih baik” dari modelB. Hal ini terkadang tidak sesuai dengan prinsip statistik, dimana suatu model bisa saja mendapatkan kinerjaAsecara kebetulan. Konsep _Statistical hypothesis testing_ menjadi penting untuk menarik konklusi apakah memang benarA > Bsecara tidak kebetulan. Konsep ini menjadi semakin penting saat menggunakanartificial neural _network_ (ANN). Parameter model ANN pada umumnya diinisiasi secara _random_. Artinya, apabila kita melatih arsitektur yang sama sebanyak dua kali, kita belum tentu mendapatkan model dengan kinerja sama persis. Reimers dan Gurevych [13] menjelaskan betapa pentingnya melatih model ANN berkali-kali. Kita hanya dapat menyimpulkan dengan benar model mana yang “lebih baik” hanya setelah melakukan _statistical hypothesis testing_. Ada banyak cara untuk melakukan _hypothesis testing_, dan tes yang digunakan berbeda tergantung metrik _performance measure_. Buku ini tidak akan membahas dengan detil, dan kami merekomendasikan untuk membaca paper oleh Dror et al. [14, 15]. Kami harap pembaca dapat menangkap bahwa memutuskan apakah suatu modelAlebih baik dariBtidak cukup hanya dengan melihat ukuran kinerja secara numerik, tetapi hal ini harus dibuktikan menggunakan _statistical hypothesis testing_. ``` 2.9 Teori Informasi 33 ```
### Soal Latihan 2.1. KL- _divergen_ ce Cari tahu lebih lanjut apa itu Kullback-Leibler (KL) Divergence. Apa hubungan KL- _divergen_ ce dengan _utility function_ ? Pada kasus apa saja kita dapat menggunakan KL- _divergen_ ce sebagai _utility function_ ? 2.2. Utility Function Selain _utility function_ yang telah disebutkan, sebutkan dan jelaskanutility _function_ lainnya! 2.3. Gaussian Mixture Model (a) Sebutkan algoritma-algoritma _machine learning_ yang ( _in a sense_ ) dapat mengaproksimasi _Gaussian Mixture Model_ ! (b) Apa yang begitu spesial pada GMM sehingga algoritmamachine learing mencoba mengaproksimasi GMM?
### 2.5 Gaussian Distribution Distribusi adalah fenomena acak atau deskripsi matematis suatu _random variable_. Distribusi paling terkenal (mungkin juga terpenting) adalah _bell curve_ atau distribusi normal. Distribusi normal adalah bentuk khusus dariGaussian distribution. Ada beberapa macam distribusi yang akan dibahas pada bab ini, yaitu: _Univariate Gaussian_, _Multivariate Gaussian_, danGaussian Mixture Model. Pertama kita bahas _Univariate Gaussian_ terlebih dahulu. Disebut _univariate_ karena distribusinya bergantung padasatu _input_ variabel, misalkanx. Distribusi univariate Gaussian dikarakteristikkan oleh variabelx, _mean_ (μ) dan _variance_ (σ^2 ) diberikan pada persamaan 2.10.μdanσ^2 adalah rata-rata dan _variance_ untuk kumpulan data. Karena nilaiμdanσ^2 bergantung padax, maka kita dapat menganggap bahwa _univariate gaussian_ bergantung pada satu _random variable_ saja yaitux. ``` N(x|μ,σ^2 ) = ``` #### 1 #### √ ``` 2 πσ^2 ``` ``` e ``` ``` ( −(x 2 −σμ 2 )^2 ``` ``` ) (2.10) ``` Perhatikan Gambar 2.3,xadalah absis dan nilaiNuntukxtertentu (persamaan 2.10) adalah ordinat pada kurva ini. Bentuk distribusi berubah-ubah sesuai dengan nilai rata-rata ( _mean_ ), serta _variance_. Semakin besar _variance_ nya, maka kurva distribusi semakin lebar (seperti yang dijelaskan sebelumnya). Untuk menggeser-geser kurva ke kiri maupun ke kanan, dapat dilakukan dengan menggeser nilai _mean_. Untuk mencari nilai pada suatu interval tertentu, cukup mengintegralkan fungsi pada interval tersebut. Nilai integral fungsi dari−∞, hingga∞adalah satu. _Multivariate Gaussian_ adalah distribusi gaussian yang bergantung pada lebih dari satu _random variable_. Sedangkan _Gaussian Mixture Model_ (GMM) adalah gabungan dari satu atau lebih distribusi Gaussian. Masing-masing distribusi Gaussian memiliki bobot yang berbeda di GMM. Konon katanya, (^1) source:wikimedia.org by Inductiveload 28 2 Fondasi Matematis ``` Gambar 2.3: Univariate Gaussian.^1 ``` GMM dapat me _model_ kan fungsi apapun [12]. Ilustrasinya diberikan pada Gambar 2.4 yang tersusun dari 3 buah _Univariate gaussian_. Distribusi populasi berwarna merah, sedangkan GMM berwarna biru. ``` Gambar 2.4: Gaussian Mixture Model.^2 ```
### 2.4 Bayesian Probability Pada subbab sebelumnya, kita menghitung probabilitas dengan frekuensi kejadian yang dapat diulang. Pada pandangan Bayesian, kita ingin menguantifikasi ketidakpastian untuk kejadian yang mungkin sulit untuk diulang. Misalkan kita ingin tahu, seberapa peluang Mars dapat dihuni. Ini adalah sesuatu yang tidak dapat dihitung dengan frekuensi, maupun sebuah kejadian yang dapat diulangi (pergi ke mars, lihat berapa orang yang hidup). Akan tetapi, tentunya kita memiliki sebuah asumsi awal ( _prior_ ). Dengan sebuah alat canggih baru, kita dapat mengumpulkan data baru tentang Mars. Dengan data tersebut, kita mengoreksi pendapat kita tentang Mars ( _posterior_ ). Hal ini menyebabkan perubahan dalam pengambilan keputusan. Pada keadaan ini, kita ingin mampu menguantifikasi ekspresi ketidakpastian; dan membuat revisi tentang ketidakpastian menggunakan bukti baru [8]. Dalam Bayesian, nilai probabilitas digunakan untuk merepresentasikan derajat kepercayaan/ketidakpastian. ``` P(x|y) = P(y|x)P(x) P(y) ``` #### (2.8) P(x) disebut _prior_, yaitu pengetahuan/asumsi awal kita. Setelah kita mengobservasi fakta baruy(dapat berupa sekumpulan data atau satu _data_ _point_ / _event_ ), kita mengubah asumsi kita.P(y|x) disebut _likelihood function_.Likelihood _function_ mendeskripsikan peluang data, untuk asumsi/ pengetahuan tentang x yang berubah-ubah (xsebagai parameter yang dapat diatur). Dengan _likelihood function_ tersebut, kita mengoreksi pendapat akhir kita yang dapat digunakan untuk mengambil keputusan ( _posterior_ ). Secara umum probabilitas Bayesian mengubah _prior_ menjadi _posterior_ akibat adanya kepercayaan baru ( _likelihood_ ). ``` _posterior_ ∝ _likelihood_ × _prior_ (2.9) ``` Teori ini hebat karena kita dapat mentransformasiP(x|y) dimanaxdependen terhadapymenjadi bentukP(y|x) yang manaydependen terhadapx. Transformasi ini sangat berguna pada berbagai macam persoalan. Pada umumnya, untuk mengestimasi _likelihood_, digunakanmaximum likelihood estimator; yang berarti mengatur nilaixuntuk memaksimalkan nilai P(y|x). Dalam literatur _machine learning_, banyak menggunakannegative log of likelihood function[8]. Ingat kembali nilai probabilitas 0≤P≤1. Kadangkala, nilai dibelakang koma (0.xxxx) sangatlah panjang, sehingga dapat terjadiunderflowpada komputer. Kita menggunakan nilai logaritma probabilitas untuk menghindariunderflow. Nilai probabilitas 0≤P≤1 membuat nilai logaritmanya sebagaian besar negatif, secara monotonik bertambah, maka memaksimalkan nilai _likelihood_ ekuivalen dengan meminimalkan negatif logaritma probabilitas. ``` 2.5 Gaussian Distribution 27 ``` Perhatikan kembali persamaan 2.8, secara intuitif, _posterior_ dipengaruhi _prior_, artinya bergantung pada sampel yang kita punya, karena _prior_ didapatkan atau diestimasi berdasarkan sampel. Hal ini berlaku padamachine _learning_, kualitas model yang dihasilkan bergantung pada kualitas training _data_. Pada umumnya, kita tidak mengetahui seluruh informasi tentang situasi tertentu dan tidak mengetahui seluruh informasi probabilitas. Sebagai contoh, probabilitasP(x|y) dapat dihitung dengan PP(x,y(x)). Tetapi, kita tidak tahu seberapa banyak kejadian (x,y) pada saat bersamaan. Oleh sebab itu, kita bisa menggunakan teori bayes untuk menghitung probabilitas dengan informasi lain yang kita tahu.
### 2.11 Bacaan Lanjutan Untuk lebih mengerti, silahkan membaca buku _statistical mechanis_ oleh Hitoshi Nishimori [17], buku probabilitas dan statistika oleh Walpole et al. [18] atau Brian Caffo [10], buku aljabar linear oleh Gilbert Strang [19] dan buku _statistical learning theory_ oleh James et al. [20]. ``` 2.11 Bacaan Lanjutan 37 ```
### 2.2 Probability Density Function _Probability density function_ dikenal juga dengan istilah distribusi, yaitu tentang persebaran nilai. Sebagai contoh, penulis menceritakan pelajaran di sekolah. Terdapat ujian mata pelajaran di kelas yang beranggotakan 10 siswa, diberikan pada Tabel 2.1. Terdapat 3 orang anak mendapatkan nilai 50, 2 orang anak mendapatkan nilai 75 dan 80, 1 orang anak mendapatkan nilai 24 2 Fondasi Matematis ``` id nilai 1 50 2 75 3 80 4 100 5 50 6 50 7 75 8 80 9 40 10 10 ``` ``` Tabel 2.1: Contoh daftar nilai siswa. ``` 100, 1 orang anak mendapat nilai 40, serta 1 orang anak mendapatkan nilai 10. ``` Histogram of data ``` ``` Nilai ``` ``` Probabilitas ``` ``` 20 40 60 80 100 ``` ``` 0.0 ``` ``` 0.1 ``` ``` 0.2 ``` ``` 0.3 ``` ``` 0.4 ``` ``` Gambar 2.2: Persebaran probabilitas nilai siswa Tabel 2.1. ``` Guru ingin mengetahui persebaran (distribusi) nilai ujian untuk menentukan batas kelas nilai menggunakan _quantile_. Grafik persebaran nilai mengkuantifikasi seberapa mungkin suatu siswa mendapat nilai tertentu, dapat dilihat pada Gambar 2.2. Grafik ini disebut sebagai distribusi. Fungsi yang menghasilkan distribusi tersebut disebut _probability density function_. Apabila kita ``` 2.3 Expectation dan Variance 25 ``` menjumlahkan probabilitas (probabilitas siswa mendapat nilai 0–100) nilainya adalah 1. Ini adalah contoh untuk data diskrit, tetapi sering kali kita berurusan dengan data kontinu. Untuk mengetahui nilai probabilitas dari himpunan _event_ /kejadian, kita dapat mengintegralkan kurva distribusi kejadian pada interval tertentu. Ciri _probability density function_, nilai dibawah kurva pada interval−∞sampai∞adalah 1, i.e.,p(x)≥0; #### ∫∞ ``` −∞p(x)dx= 1. ```
### 2.1 Probabilitas Di dunia ini, ada banyak hal yang tidak pasti (uncertain). Ssungguhnya,machine _learning_ berurusan dengan ketidakpastian ( _uncertainty_ ). Dengan begitu,machine _learning_ memiliki kaitan yang sangat erat dengan statistika. Probabilitas menyediakan _framework_ untuk kuantifikasi dan manipulasi ketidakpastian [8]. Mari kita lihat contoh sederhana. Terdapat dua buah kotak 22 2 Fondasi Matematis berwarna merah dan berwarna biru. Pada kotak merah terdapat 3 _apel_ dan 1 jeruk. Pada kotak biru, terdapat 2 _apel_ dan 4jeruk, kita ingin mengambil buah dari salah satu kotak tersebut. Ilustrasi persoalan dapat dilihat pada Gambar 2.1. Dalam hal ini, kotak adalah _random variable_. _Random variable_ k(melambangkan kotak) dapat bernilaimerahataubiru. Begitu pula dengan buah, dilambangkan dengan variabelb, dapat bernilai _apel_ ataujeruk. ``` Gambar 2.1: Kotak apel dan jeruk. ``` Saat kita mengambil buah dari kotak biru, peluang untuk memilih _apel_ bernilai^26 , sedangkan peluang untuk memilihjerukbernilai^46 ; kita tulis probabilitas ini sebagaiP(b= _apel_ ) =^26 ; danP(b=jeruk) =^46. Artinya, jika kita mengambil buah dari kotak biru, mungkin kita mendapatkan jeruk. Dengan mengkuantifikasi ketidakpastian, kita bisa mengatur ekspektasi. Nilai suatu probabilitas harus lebih besar sama dengan nol sampai kurang dari atau sama dengan satu (0≤P ≤1). Nilai nol berarti suatu kejadian tidak mungkin muncul, sementara nilai satu berarti suatu kejadian pasti terjadi. Lalu sekarang ada pertanyaan baru; pada suatu percobaan, berapakah probabilitas mengambil sebuah _apel_ dari kotak biruatausebuahjerukdari kotak merah. Hal ini dituliskan sebagaiP((k=biru,b= _apel_ )atau(k= merah,b=jeruk)). Nilai probabilitas tersebut dapat dihitung dengan ``` P((k=biru,b= _apel_ )∨(k=merah,b=jeruk)) =P(k=biru,b= _apel_ ) +P(k=merah,b=jeruk) ``` #### (2.1) - P(k=biru,b= _apel_ ) disebut _joint probability_, yaitu probabilitas kejadian yang dipengaruhi oleh beberapa variabel (kondisi untuk kedua variabel terpenuhi). - P(k=biru,b= _apel_ ) +P(k=merah,b=jeruk) disebutaturan tam- bah. Penting untuk diingat bahwa hasil operasi apapun terhadap probabilitas (baik tambah, kurang, kali, atau bagi) haruslah lebih besar sama dengan nol sampai kurang dari atau sama dengan satu (0≤P≤1). ``` 2.2 Probability Density Function 23 ``` Misalkan terdapat percobaan lain, kali ini kamu mengambil 1 buah. Kamu ingin mengetahui berapakah probabilitas untuk mengambil buah _apel_ kotak mana saja. Hal ini dihitung dengan persamaan 2.2. ``` P(b= _apel_ ) = ``` #### ∑I ``` i=1 ``` ``` P(k=ki,b= _apel_ ) (2.2) ``` Aturan tambah seperti ini disebut _marginal probability_ karena hasilnya didapat dengan menjumlahkan probabilitas seluruh kemungkinan nilai pada variabel tertentu (buah) dengan mengontrol variabel lainnya (kotak). Kemudian, kamu ingin melakukan percobaan lain. Kali ini kamu mengambil 2 buah sekaligus dari kedua kotak. Kamu ingin mengetahui berapakah probabilitas mengambil buah _apel_ yang berasal dari kotak birudanbuah jerukyang berasal dari kotak merah. Dalam kasus ini, kejadiannya adalah saling bebas ( _independent_ ), artinya mengambil buah dari kotak biru tidak akan mempengaruhi hasil pengambilan dari kotak merah (dan sebaliknya). Apabila kedua _random variable_ xdanybersifat _independent_ (tidak bergantung satu sama lain), makaP(x=X,y=Y) =P(X)×P(Y). Permasalahan mengambil buah dapat dihitung dengan persamaan 2.3. ``` P((k=biru,b= _apel_ )∧(k=merah,b=jeruk)) =P(k=biru,b= _apel_ )×P(k=merah,b=jeruk) ``` #### (2.3) Aturan ini disebutaturan kali. Untuk _joint probability_, secara umum dapat ditulis sebagaiP(x,y), yaitu peluangxdanymuncul bersamaan. Apabila kedua variabelxdanytidak saling bebas, maka keduanya disebut _dependent_. Artinyaxdanysaling mempengaruhi. Apabila suatu variabelxdikondisikan ( _conditioned_ ) oleh variabel lain (misaly). Maka probabilitasxadalah _conditional probability function_, ditulisP(x|y). Artinya probabilitasxyang dikondisikan olehy.P(x|y) dapat dihitung dengan persamaan 2.4, yaitu peluang kejadianxdanymuncul bersamaan dibagi dengan peluang kejadiany. Apabilaxternyata tidak dikondisikan oleh variabely, makaP(x|y) =P(x). ``` P(x|y) = P(x,y) P(y) ``` #### (2.4)
### 2.3 Expectation dan Variance Salah satu operasi paling penting dalam probabilitas adalah menemukan nilai rata-rata ( _average_ ) sebuah fungsi [8]. Hal ini disebut menghitung ekspektasi ( _expectation_ ). Untuk sebuah fungsif(x) dengan distribusi probabilitas _random_ variableadalahp(x), nilai expectation diberikan pada persamaan 2.5. ``` E(f) = ``` #### {∑ ``` ∫ xp(x)f(x); diskrit p(x)f(x)dx; kontinu ``` #### (2.5) Dalam kasus nyata, misalkan diberikanNbuah sampel, _random variable_ xdan fungsif(x), dimana sampel tersebut diambil dengan distribusi tertentu yang kita tidak ketahui, maka fungsi untuk menghitung nilai _expectation_ menjadi persamaan 2.6, dimanaximerepresentasikan data ke-i( _point_ ). ``` E(f)' ``` #### 1 #### N #### ∑N ``` i=1 ``` ``` f(xi) (2.6) ``` Perhatikan, persamaan ini sama dengan persamaan untuk menghitung rata-rata ( _mean_ atauμ) seperti yang sudah kamu pelajari di SMA. Untuk mengetahui seberapa variasi nilaif(x) di sekitar nilai rata-ratanya, kita menghitungnya mengunakan _variance_, disimbolkan denganvar(f) atauσ^2 (persamaan 2.7). ``` σ^2 =var(f) =E ``` #### ( ``` (f(x)−E(f))^2 ``` #### ) #### (2.7) Bila nilai _variance_ tinggi, secara umum banyak variabel yang nilainya jauh dari nilai rata-rata. Interpretasi secara “geometris” mata, berarti distribusinya semakin “lebar” seperti pada Gambar 2.3. Untuk fungsi dengan lebih dari satu _random variable_, kita menghitung _covariance_. _Covariance_ adalah _variance_ untuk kombinasi variabel. Akar dari _variance_, yaitu #### √ σ^2 =σdisebut _standard deviation_ (sering disingkat “SD”). SD melambangkan seberapa jauh jarak dari masing-masing _data point_ xidengan rata-rataμ. SD cukup penting karena merupakan ukuran “persebaran” ( _spread out_ ) data. 26 2 Fondasi Matematis
### 2.6 Apakah Karakteristik Sampel Mencerminkan Populasi? Sekarang bayangkan kita diberikanM buah data (diskrit) hasil observasi. Diasumsikan observasi dihasilkan oleh distribusi univariate GaussianNdengan rata-rataμdan _variance_ σ^2. Ilustrasi diberikan pada Gambar 2.5. Setiap _data_ diambil secara independen dari distribusi yang sama, disebut _independent_ and identically distributed(iid). Kita tahu bahwa data yang in- (^2) [http://dirichletprocess.weebly.com/ _clustering_.html](http://dirichletprocess.weebly.com/ _clustering_.html) ``` 2.6 Apakah Karakteristik Sampel Mencerminkan Populasi? 29 ``` ``` − 2 − 1 0 1 2 ``` ``` 0.05 ``` ``` 0.10 ``` ``` 0.15 ``` ``` 0.20 ``` ``` 0.25 ``` ``` 0.30 ``` ``` 0.35 ``` ``` 0.40 ``` ``` x ``` ``` N ``` ``` 𝑥! ``` Gambar 2.5: Contoh _sampling_ dari distribusi normal. Titik berwarna merah melambangkan sampel ( _instance_ ). dependen, apabila dihitung probabilitasnya maka tersusun atas probabilitas masing-masing data, seperti pada persamaan 2.11. ``` p(x|μ,σ^2 ) = ``` #### ∏M ``` i=1 ``` ``` N(xi|μ,σ^2 ) (2.11) ``` Kita ingin mencari tahu bagaimana distribusi yang sebenarnya. Untuk itu, kita harus mencari nilaiμdanσ^2 padap(x|μ,σ^2 ). Kita dapat menggunakan teknik _maximum likelihood estimation_, untuk mengestimasi parameter yang memberikan distribusi (silahkan dieksplorasi lebih lanjut). Secara empiris, ternyata _mean_ dari sampel dan _variance_ dari sampel (diberikan sampel denganMyang cukup banyak) cukup baik untuk mengestimasi _mean_ dan _variance_ dari distribusi sebenarnya (persamaan 2.12). ``` μ≈μsample= ``` #### 1 #### M #### ∑M ``` i=1 ``` ``` xi; σ^2 ≈σ^2 sample= ``` #### 1 #### M #### ∑M ``` i=1 ``` ``` (xi−μsample)^2 (2.12) ``` Pada statistik, apabila kita mengetahui (atau mengasumsikan) bahwa suatu kumpulan sampel diambil dari suatu distribusiq, maka kita bisa mengestimasi distribusiqmenggunakan sampel yang ada sebagaip. Apabila sampel yang diberikan berjumlah sangat banyak (M→ ∞), makapakan semakin mirip denganq(konvergen). Kami menya _rank_ an pembaca untuk menonton kuliah _statistical inference_ oleh Professor Brian Caffo, dimana konsep mengestimasi _mean_ dan _variance_ populasi diestimasi menggunakan _mean_ dan _variance_ sampel dijelaskan dengan sangat baik (dengan banyak ilustrasi). 30 2 Fondasi Matematis Hal ini memiliki interpretasi (secara kasar) yang cukup penting padamachine _learning_. Masih ingat materi bab 1? Pada _machine learning_, kita juga mengestimasi sesuatu yang kita tidak ketahui (populasi) dengan sampel data yang kita miliki. Kita anggap populasi memiliki karakteristik yang sama dengan sampel data. Semakin banyak sampel data yang kita miliki, maka semakin bagus estimasi kita terhadap populasi (jumlah dataset menjadi sangat pent- ing). Dengan bahasa lebih manusiawi, misal kamu diminta untuk membuat _model_ klasifikasi berita otomatis untuk outlet berita tertentu. Populasi data yang ada yaitu: (1) berita yang sudah di- _publish_ selama ini dan (2) berita di masa akan datang. Sampel yang kita punya adalah (1), yaitu berita masa lalu. Kita asumsikan bahwa sampel ini dapat mencerminkan karakteristik berita yang akan datang. Sehingga, model yang dilatih dengan data (1) dapat digunakan untuk memproses data (2). Walau demikian, asumsi bahwa sampel berita yang dimiliki memiliki karakteristik yang sama dengan berita yang akan muncul di masa akan datang belum tentu tepat di dunia nyata. Sebagai contoh, kata _data science_ belum digunakan pada tahun 1990an. Kosa kata selalu berkembang sesuai jaman. Bagaimana jika editor outlet berita bersangkutan mengundurkan diri dan diganti dengan editor lainnya? Gaya penulisan bisa saja berubah. Artinya, karaketeristik data sampel yang kita miliki hanya dapat mencerminkan data masa depan apabila banyak kondisi tetap sama, i.e., (1) dan (2) diambil dari distribusi yang sama. Sedangkan pada kenyataan, (1) dan (2) bisa jadi diambil dari distribusi yang berbeda. Pada kasus ini, model pembelajaran mesin yang dihasilkan menjadi _obsolete_, dan kita harus membuat model yang baru. Melatih atau membuat model baru menjadi peling untuk merefleksikan perubahan pada dunia.
### 2.9 Teori Informasi Kami tidak akan membahas bagian ini terlalu detail, jika kamu membaca buku, topik ini sendiri bisa mencapai satu buku [16]. Mudah-mudahan bab ini dapat memberikan gambaran (serius, ini sekedar gambaran!).Information Theory/Teori Informasi menjawab dua pertanyaan fundamental, pertama: bagaimana cara kompresi data terbaik (jawab: _entropy_ ); kedua: apakah cara transmisi komunikasi terbaik (jawab: channel capacity) [16]. Dalam _statistical_ _learning_ theory, fokus utama adalah menjawab pertanyaan pertama, yaitu bagaimana melakukan kompresi informasi. Contoh aplikasi _entropy_ adalah _decision tree learning_. Pada _machine learning_, kita ingin fitur pembelajaran yang digunakan mampu melambangkan _information source properties_. Artinya, kita ingin memilih fitur yang memuat informasi terbanyak (relatif terhadapinformation source). Karena hal tersebut, mengerti entropy menjadi penting. Ada sebuah st _rate_ gi pemilihan fitur ( _feature selection_ ) dengan membangun _decision tree_. Awalnya kita bentuk _training data_ dengan semua kemungkinan fitur, kemudian mengambil beberapa fitur yang dekat dengan _root_. Hal tersebut dimaksudkan untuk mencari fitur yang memuat banyak informasi. Kemudian, fitur tersebut dapat dicoba pada algoritma learning lainnya. Detil akan dijelaskan pada bab 6. 2.9.1 Entropy Diberikan sebuah random variabelx, kita ingin mengetahui seberapa banyak informasi yang kita dapatkan ketika kita mengobservasi sebuah nilai spesifik xi. Kuantitas informasi yang kita dapatkan bisa dipandang sebagai “degree of surprise” [8]. Misalkan kita mengetahui seorang temanAsering makan es krim. Suatu ketika kita diberitahu bahwa dia sedang makan es krim, tentu kita tidak heran lagi karena hal tersebut sudah lumrah. Tetapi, apabila kita diberitahu bahwa temanAtidak memakan es krim yang diberikan teman B(padahal kita tahu dia suka), maka akan ada efek “kaget”. Kasus kedua memuat lebih banyak informasi karena suatu kejadian yang seharusnya tidak mungkin, terjadi. Hal ini dikuantifikasi dengan persamaanShannon En- tropy2.14. ``` S(x) =− ``` #### ∑N ``` i=1 ``` ``` p(xi)log(p(xi)) (2.14) ``` Mari kita ambil contoh dari Bishop [8]. Misalkan sebuah _random variable_ xmemiliki 8 kemungkinan kejadian yang kemungkinannya sama (yaitu^18 ). _Entropy_ untuk kasus ini adalah (log dalam basis 2) diberikan oleh #### S=− 8 #### 1 #### 8 ``` log( ``` #### 1 #### 8 #### ) = 3 (2.15) 34 2 Fondasi Matematis Sekarang mari kita ambil contoh dari [16]. Misalkan sebuah _random variable_ xmemiliki 8 kemungkinan kejadian{a,b,c,d,...,h}dengan peluang 1 2 , ``` 1 4 , ``` ``` 1 8 , ``` ``` 1 16 , ``` ``` 1 64 , ``` ``` 1 64 , ``` ``` 1 64 , ``` 1 64 Maka _entropy_ -nya adalah 2. Dari contoh ini, kita tahu bahwa distribusi yang _uniform_ memiliki _entropy_ yang lebih besar dibanding distribusi yang tidak _uniform_. Banyaknya informasi sebanding denganturunnyanilai _entropy_. Seperti yang telah diceritakan sebelumnya, _event_ yang memiliki “efek kaget” memiliki banyak informasi. Dari sisi _information transmission_, dapat diinterpretasikan kita dapat mengirimkan data sebuah distribusi dengan jumlah bit lebih sedikit untuk distribusi yang uniform. Distribusi yang memberikan nilai _entropy_ maksimal adalah distribusi Gaussian [8]. Nilai _entropy_ bertambah seiring _variance_ distribusi bertambah. Dari sisi fisika, kamu dapat mempelajari _entropy_ pada _statistical mechanics_ ( _microstate_, _macrostate_ ). Perhatikan, _entropy_ (persamaan 2.14) dan _cross entropy_ (persamaan 2.13) memiliki persamaan agak berbeda (adanya distribusi asliq). Tetapi interpretasi kedua formula adalah sama. Distribusi yang memiliki nilai cukup uniform memiliki nilai _entropy_ / _cross entropy_ yang tinggi, sementara memiliki nilai rendah untuk distribusi yang condong ke nilai tertentu ( _skewed_ ). 2.9.2 Relative Entropy dan Mutual Information Kami harap kamu masih ingat materi bab 1, karena materi bagian ini juga menyinggung kembali materi tersebut. Misalkan kita mempunyai data dengan _probability density function_ q(x). Sebuah _learning machine_ mengaproksimasi _data_ tersebut dengan _probability density function_ p(x). Ingat! _Machine learning_ adalah pendekatan ( _approximation_ ). Ketika kita melakukan aproksimasi, seringkali aproksimasi yang dilakukan tidaklah tepat seperti pada Gambar 2.6. Tentunya kita ingin tahu seberapa bagus aproksimasi kita, untuk mengukurnya terdapat sebuah perhitungan yang bernamaKullback-Leibler Divergence(KL- _divergen_ ce). Secara konseptual, dirumuskan sebagai persamaan 2.16. Perlu diperhatikanKL(q||p) 6 =KL(p||q) (kecualip=q). ``` KL(q||p) =− ``` #### ∫ ``` q(x)log ``` #### ( ``` q(x) p(x) ``` #### ) ``` dx (2.16) ``` Persamaan 2.16 dapat diminimalkan jika dan hanya jikaq(x) =p(x). Kita dapat menganggap KL- _divergen_ ce sebagai ukuran seberapa jauh aproksimasi dan distribusi populasi. Akan tetapi, kita tidak mengetahuiq(x). Karena itu, kita harus mengaproksimasi KL- _divergen_ ce. Misalkan kita diberikan _training_ _data_ x={x 1 ,x 2 ,...xn}yang kita asumsikan diambil ( _drawn_ ) dari suatu distribusiq(x). Lalu kita membuat _learning machine_ p(x|w). Ekspektasi terhadapq(x) dapat diaproksimasi dengan menggunakan data sampel ini, dituangkan menjadi persamaan 2.17 [8]. ``` KL(q||p)≈ ``` #### 1 #### N #### ∑N ``` i=1 ``` ``` (−log(p(xi|w)) + log(q(xi))) (2.17) ``` ``` 2.10 Matriks 35 ``` ``` Gambar 2.6: Information source vs learning machine. ``` KL- _divergen_ ce disebut juga sebagai _relative entropy_.^3 Dari sisi pemrosesan informasi, KL- _divergen_ ce dapat diinterpretasikan sebagai berapa informasi tambahan rata-rata untuk mengirimkan data distribusi dengan menggunakan fungsi aproksimasi dibanding menggunakan distribusi sebenarnya, seberapa pengurangan ketidakyakinan terhadap _posterior_ seiring diberikannya _data_ observasi yang baru. Dengan kata lain,seiring diberikan observasi yang baru, kita semakin yakin terhadap nilai posterior(semakin banyak jumlah sampel yang kita miliki maka model lebih dapat dipercaya). KL-Divergence = Cross Entropy - Entropy (buktikan!).^4
### Soal Latihan 14.1. Cold Start Problem (a) Jelaskan apa itu _cold start problem_ pada sistem rekomendasi, serta bagaimana cara menangani permasalahan tersebut! (b) Pada teknik sistem rekomendasi manakah ( _content-based filtering_ atau _collaborative filtering_ ) _cold start problem_ mungkin muncul? Mengapa? 14.2. Eksplorasi Sistem Rekomendasi Bangunlah suatu sistem rekomendasi dengan teknik _collaborative filtering_ pada dataset MovieLens dengan memanfaatkan libraryrecommenderlab^5! 14.3. Peringkasan Dokumen (a) Presentasikanlah di kelasmu, _paper_ sistem peringkasan dokumen otomatis oleh Kupiec et al. (1995) [116]!^6 yang menggunakan _pipelined approach_ ! (b) Presentasikanlah di kelasmu, _paper_ sistem peringkasan dokumen otomatis oleh Cheng and Lapata [121]!^7 yang menggunakan _single-view approach_ ! (c) Jelaskan perbedaan, kelebihan, dan kelemahan pendekatan-pendekatan sistem peringkasan dokumen! (^5) https://cran.r-project.org/web/packages/recommenderlab/index.html (^6) https://dl.acm.org/citation.cfm?id=215333 (^7) [http://www.aclweb.org/anthology/P16-1046](http://www.aclweb.org/anthology/P16-1046)
### 14.4 Saran Buku Lanjutan Penulis ingin memberikan beberapa rekomendasi bacaan pembelajaran mesin selanjutnya (teoritis). Buku-buku berikut (diurutkan secara subjektif berdasarkan kualitas konten dan kemudahan dimengerti): 1. _Deep Learning_ oleh Ian Goodfellow et al. [11]. Banyak yang mengganggap buku ini sebagai “kitab” _deep learning_ modern. Buku ini juga mencakup materi matematika dasar (e.g., aljabar linier) yang dibutuhkan untuk mengerti _deep learning_. 2. _Neural Network Methods in Natural Language Processing_ oleh Goldberg [1]. Buku ini ditujukan sebagai bahan transisi bagi peneliti bidang pemrosesan bahasa alami untuk menggunakan metode _neural network_. Apabila kamu tidak tertarik dengan pemrosesan bahasa alami, kamu bisa membaca bab 1-5 pada buku ini sebagai pengenalan _neural network_. 3. _Pattern Recognition and Machine Learning_ oleh Bishop [8]. Menurut penulis, banyak yang tahu buku ini karena dianggap sebagai “kitab”. Penjelasan buku ini sangat matematis dan relatif berat untuk dimengerti. Tetapi, kamu dapat menjadi _master_ apabila memahami seluruh materi pada buku ini. Algoritma _machine learning_ yang disajikan juga relatif lebih “klasik” dibanding rekomendasi pertama. 4. _Machine Learning_ oleh Tom Mitchel [4]. Buku ini memuat materimachine _learning_ yang cukup “klasik”. Buku ini cocok sebagai materi pengenalan, tapi relatif kurang dalam. Sedikit tambahan pesan sponsor karena penulis berlatar belakang dari bidang pemrosesan bahasa alami, penulis menya _rank_ an membaca buku-buku (teoritis) berikut sebagai dasar pengetahuan pemrosesan bahasa alami (diurutkan dari konten paling dasar): ``` 1. _Foundations of Statistical Natural Language Processing_ oleh Christopher D. Mannning dan Hinrich Schutze [64]. Buku ini dapat dideskripsikan dengan satu kata,TOP. Buku ini memuat materi pemrosesan bahasa alami dengan sudut pandang matematis, dapat dianggap sebagai _framework_ berpikir yang modern. 2. _Speech and Language Processing_ oleh Daniel Jurafsky dan James H. Martin [12]. Buku ini jauh lebih tebal dari buku pertama dan memuat materi yang lebih luas. Penulis merekomendasikan buku ini untuk mengetahui permasalahan-permasalahan pemrosesan bahasa alami. 3. _An introduction to Information Retrieval_ oleh Manning et al. [65]. Walaupun berjududul _information retrieval_, penulis pertama kali mengenal konsep _embedding_ dari buku ini. Buku ini ditulis dengan apik. 4. _Neural Network Methods in Natural Language Processing_ oleh Goldberg [1]. Apabila kamu telah membaca buku-buku yang disebutkan sebelumnya, kamu dapat membaca buku ini untuk transisi ke metode _neural_ _network_. ``` ``` 14.4 Saran Buku Lanjutan 225 ``` Pada saat menulis buku ini, penulis berharap bisa menulis pada level diantara buku Tom Mitchel [4] dan Bishop [8] yaitu cukup matematis, lumayan mudah dipahami, dan lumayan dalam. Mudah-mudahan pembaca merasa tujuan ini tercapai dan menikmati membaca buku ini. Sebagai kalimat penutup, terimakasih sudah membaca sampai tahap ini.
### 14.2 Peringkasan Dokumen Meringkas dokumen berarti mengerti keseluruhan isi teks/dokumen, kemudian mampu menyampaikan kembalisebanyak/seakurat mungkinmaksud dokumen asli, ke dalam bentuk yang lebih singkat [105, 106, 57]. Suatu ringkasan harus lebih pendek dibanding dokumen asli. Dengan demikian, sulit untuk dikatakan bahwa suatu ringkasan dapat memuat keseluruhan isi dokumen. Karena itu, ringkasan hanya memuatsebanyak/seakurat mungkin maksud dokumen asli, diberikan _constraint_ jumlah kata maksimum pada ringkasan. Ada beberapa jenis peringkasan dokumen dilihat dari berbagai sudut pandang, misal: 1. Banyaknya dokumen yang diringkas, meringkas satu dokumen (single- document summarization) [107] atau banyak dokumen (multi-document summarization) [108] menjadi satu ringkasan. 2. Indikatif atau Informatif. Indikatif berarti menyediakan _pointer_ ke bagian dokumen (misal membuat daftar isi). Informatif berarti meyampaikan se- banyak/seakurat mungkin maksud dokumen asli ke dalam bentuk lebih singkat. Pada masa sekarang, hampir seluruh riset peringkasan dokumen mengacu untuk menyediakan ringkasan yang informatif. 3. Domain. Hasil ringkasan bergantung pada domain dokumen, misalkan berita atau novel. Pada domain berita, hal yang penting untuk dimuat 220 14 Penerapan Pembelajaran Mesin ``` dalam ringkasan adalah 5W1H (what, who, when, whom, where, how) [109], sementara pada novel mungkin kita ingin tahu kejadian-kejadian yang ada (beserta urutannya). ``` 4. Generik, _query-based_, atau _tailored_. Generik berarti menghasilkan ringkasan untuk umum, dalam artian tidak ada _target user_ secara spesifik, e.g.,re- viewbuku [105]. _Query-based_ artinya menghasilkan ringkasan dokumen berdasarkan _query_ yang diberikan _user_, i.e., ringkasan adalah informasi spesifik yang dibutuhkan oleh _user_ [110]. _Tailored_ berarti menyajikan informasi dengan tipe spesifik. Misalkan pada berita terdapat informasi 5W1H, kita hanya ingin mencari tahu informasihow. 5. Ekstraktif [111] atau abstraktif [57]. Ekstraktif berarti ringkasan hanya memuat unit informasi yang ada di dokumen asli. Analoginya seperti memilih potongan dari dokumen asli sebagai ringkasan ( _copy_ ). Abstraktif berarti ringkasan dapat memuat unit informasi yang mungkin tidak ada di dokumen asli. Analoginya seperti mengerti dokumen kemudian menulis ulang (parafrase). Hal terpenting untuk diingat adalah peringkasan dokumen (apa yang diringkas, ringkasan harus memuat apa, dsb) sangat bergantung padatujuan ringkasan(siapa pembaca ringkasan, untuk apa ringkasan dihasilkan). Diktat ini akan membahas _framework_ (kerangka kerja/berpikir) peringkasan dokumen dan bagaimana _machine learning_ membantu peringkasan dokumen. Secara umum, ada beberapa tahap pada proses peringkasan dokumen secara otomatis, terlepas dari tipe peringkasan dokumen yang dijabarkan [105, 112, 113, 106, 114, 109, 108, 107, 57, 115]: 1.Representation– Melakukan pemisahan dan representasi unit informasi; pada umumnya adalah kalimat, kata, atau frase. Dalam artian, kita menganggap dokumen tersusun atas sekuens kalimat, kata, atau frase. Kita potong-potong unit informasi pada dokumen lalu, unit informasi dapat direpresentasikan sebagai vektor untuk tiap unitnya [116]. Kita pun dapat menggali hubungan antara unit informasi (misal direpresentasikan sebagai graf) untuk kemudian mencari unit mana yang sentral [109, 117]. 2.Filtering– Menyaring informasi. Unit manakah yang penting/tidak penting. Unit mana yang dibutuhkan/tidak dibutuhkan. Unit mana yang relevan/tidak relevan. Unit mana yang representatif/tidak representatif. Teknik menyaring informasi sangat bergantung pada representasi unit pada tahap sebelumnya (e.g., vektor atau graf). Secara singkat, tahap ini memilih unit informasi berdasarkan tujuan. Model pembelajaran mesin _bias_ anya paling sering digunakan pada tahap ini. 3.Gene _ratio_ n – Menghasilkan ( _generate_ ) ringkasan. Bagian ini membutuhkan pengetahuan mengenai bidang pemrosesan bahasa alami (natural language processing) (NLP). Pada diktat ini, tidak akan dibahas. Teknik _machine learning_ dapat berperan penting pada keseluruhan tahapan diatas, khususnya tahap kedua ( _filtering_ ). Kami akan memberikan studi ``` 14.2 Peringkasan Dokumen 221 ``` kasus pada subbab 14.2.1 agar lebih jelas. Sistem peringkasan dokumen yang membagi-bagi proses menjadi tahapan-tahapan tersebut disebut _pipelined approach_. Artinya kita melakukan proses diatas sebagai tahap-tahap berbeda (independen satu sama lain). Selain _pipelined approach_, kita juga dapat memandang peringkasan dokumen dengan _single-view approach_ (subbab 14.2.2), artinya keseluruhan proses tersebut terjadi bersamaan. 14.2.1 Pipelined Approach Subbab ini akan memuat cerita singkat tentang peringkasan _paper_ [112, 115]. Berdasarkan teori _argumentative zoning_ [112], _paper_ terdiri dari zona-zona dengan tujuan komunikatif yang berbeda. Dengan bahasa yang lebih mudah, tiap kalimat (unit informasi) pada _paper_ memiliki tujuan komunikasi yang berbeda. Misalnya ada kalimat yang menyatakan tujuan penelitian, latar belakang penelitian, atau hasil penelitian. Tujuan komunikasi kalimat disebut _rhetorical categories_ [118]. Ringkasan, dalam bentuk abstrak atau judul _paper_ memiliki pola [119, 115]. Dalam artian, suatu ringkasan bisa jadi hanya memuat informasi denganrhetorical categoriestertentu ( _tailored summary_ ). _Machine learning_ dapat digunakan untuk mengklasifikasikan kalimat (unit informasi) ke kelas masing-masing [118, 115]. Pertama-tama setiap kalimat direpresentasikan menjadi _feature vector_ (ingat kembali materi bab 3 dan bab 4). Sebagai contoh, _paper_ [115] merepresentasikan kalimat pada _paper_ sebagai _feature vector_ berdasarkan fitur-fitur sebagai berikut: 1. Posisi. Lokasi kalimat dibagi dengan panjang teks (numerik). 2. Kata kunci ( _lexicon_ ). Apakah kalimat memuat kata kunci yang eksklusif untuk _rhetorical category_ tertentu ( _binary_ – ya atau tidak). 3. Bobot kalimat, i.e., seberapa “penting” kalimat tersebut. Hal ini dapat dihitung menggunakan TF-IDF (ingat bab 12) kata pada kalimat (nu- merik). 4. Kategori sebelumnya. _Rhetorical category_ kalimat sebelumnya (nominal). Setelah diubah menjadi _feature vector_, teknik _machine learning_ digunakan untuk mengklasifikasikan kalimat menjadi kelas _rhetorical categories_ yang sesuai. Dengan demikian, kita dapat menyaring kalimat berdasarkan tipe informasi mana yang kita inginkan, berdasarkan tujuan peringkasan. Selanjutnya, teknik NLP digunakan untuk memproses informasi yang disaring untuk menghasilkan ringkasan. Materi tersebut diluar bahasan diktat ini. 14.2.2 Single-view Approach Pada _pipelined approach_, setiap tahapan peringkasan dokumen ( _representation_, _filtering_, dan _generation_ ) dianggap sebagai tahap yang independen satu sama lain. Permasalahannya adalah kesalahan pada suatu tahap akan mempengaruhi tahap berikutnya. Opsi lain adalah dengan melakukan keseluruhan 222 14 Penerapan Pembelajaran Mesin proses sebagai satu tahapan yang utuh ( _end-to-end_ ). Metode ini memiliki kaitan yang erat dengan teknik _machine translation_, yang pada masa sekarang populer didekati dengan teknik _deep learning_ ( _sequence to sequence_ encoder– _decoder_ ) [57, 81, 80, 89, 120, 121]. Dokumen tersusun atas sejumlahTsekuens unit informasi (e.g., kata, frase)u=u 1 ,u 2 ,...,uT. Sebuah ringkasan adalah M buah sekuens unit informasir =r 1 ,r 2 ,...,rM dimana M < T. Tujuan peringkasan adalah untuk mencarirterbaik, sedemikian sehingga dapat memenuhi persamaan 14.1. ``` arg max r ``` ``` p(r|u) (14.1) ``` Pada umumnya, terdapat suatu variabel tambahanθyang mengendalikan ( _govern_ ) probabilitas tersebut. Sehingga secara lebih tepat, persamaan 14.1 diubah menjadi persamaan 14.2. ``` arg max r ``` ``` p(r|u,θ) (14.2) ``` Perhatikan, persamaan 14.2 adalah bentuk yang dapat di _model_ kan menggunakansequence to sequence encoder– _decoder_. Selain peringkasan dokumen, banyak permasalahan pada bidang _natural language processing_ memiliki bentuk yang “mirip”, seperti: _part-of-speech tagging_ [122], _named entity recognition_ [123], mesin translasi [81] dan rekonstruksi paragraf [124].
### 14.3 Konklusi Teknik _machine learning_ sangatlah berguna untuk berbagai macam permasalahan. Tetapi perlu dipahami bahwa teknik yang ada belum mampu me _model_ kan proses berpikir manusia dengan benar. Proses berpikir manusia sangatlah kompleks, dan model yang ada sekarang ini adalah bentuk simplifikasi. Sebagai contoh, seorang bayi sekali melihat kucing mungkin akan mengetahui kucing lainnya walaupun tidak memiliki rupa yang sama persis. Sementara itu, model _machine learning_ harus diberikan banyak sampel. Manusia memiliki otak yang luar biasa hebat karena mampu belajar dengan sedikit contoh. Persoalan-persoalan yang diberikan pada buku ini secara umum mencakup _supervised_ dan _unsupervised learning_ saja. Terdapat satu pe _model_ an masalah penting lainnya yaitu _reinforcement learning_ dimana kita ingin memaksimalkan hasil untuk sekuens aksi (sekuens keputusan). Setiap keputusan dapat diberikan bobot yang berbeda. Kemudian, agen memaksimalkan nilai untuk sekuens keputusan ( _cummulative reward_ ).^2 Pada _supervised learning_, kita hanya perlu membuat satu keputusan saja (menggolongkan data ke kelas mana). Pada konferensi-konferensi, para _master_ banyak menyebutkan (^2) https://en.wikipedia.org/wiki/Reinforcement_ _learning_ ``` 14.3 Konklusi 223 ``` masa depan _machine learning_ berada pada _unsupervised_ ataureinforcement _learning_. Aplikasi mutakhir yang ada sekarang ini didominasi oleh _supervised_ _learning_. Pada kenyataannya, sebagian besar (hampir semua) data yang ada di dunia ini tidak berlabel. Karena itu, representasi data secara _unsupervised_ menjadi topik riset hangat ( _representation learning_ ). Buku ini telah menjelaskan berbagai macam teknik, tetapi perlu diketahui bahwa materi yang diberikan adalah simplifikasi agar mampu dipahami secara intuitif. Selain itu, buku ini di desain sebagai materi pengantar saja. Untuk memahami teknik _machine learning_ secara lebih jauh dan sempurna, penulis menya _rank_ an untuk membaca buku referensi [8, 11]. Materi yang disajikan pada buku ini adalah persoalan-persoalanmachine _learning_ dari sudut pandang optimisasi. Yaitu mencari himpunan ( _set of_ ) parameter agar model pembelajaran yang dibangun mampu memberi keputusan yang optimal. Kami menya _rank_ an pembaca untuk mencari referensi lebih jauh tentang _machine learning_ dari sudut pandang eksplorasi, yaitu mencariconcept _space_ dimana model dapat bekerja dengan “baik”. Sebagai contoh, kita memiliki sebuah mesin (fisik) dengan berbagai macam konfigurasi (parameter). Apabila kita menjalankan mesin dengan konfigurasi parameter tertentu, mesin akan rusak. Tugas kita adalah mencari _parameters space_ dimana mesin dapat berjalan dengan optimal dan tidak rusak. Sedangkan, pada persoalan optimisasi, kita mencari satu konfigurasi terbaik. _Machine learning_ adalah bidang yang sangat luas (lebih luas dari apa yang diceritakan pada buku ini) dan berkembang pesat. Penulis menya _rank_ an pembaca untuk membaca makalah dari konferensi^3 top-tieruntuk mengetahui perkembangan terkini. Sebagai contoh (diurutkan berdasarkan abjad):^4 - AAAI. AAAI Conference on Artificial Intelligence - ACL. Annual Meeting of Association for Computational Linguistics - CVPR. IEEE Conference on Computer Vision and Pattern Recognition - EMNLP. Empirical Methods in Natural Language Processing - ICCV. IEEE International Conference on Computer Vision - ICLR. International Conference on Learning Representation - ICML. International Conference on Machine Learning - IJCAI. International Conference on Artificial Intelligence - INTERSPEECH. Conference of the International Speech Association - NeurIPS (dahulu disebut NIPS). Neural Information Processing System - SIGIR. ACM Special Interest Group in Information Retrieval - SIGKDD. ACM Special Interest Group in Knowl _edge_ Discovery and Data Mining (^3) Kamu lebih mudah mengetahui informasi terkini dari konferensi dibanding jurnal karena proses _peer-review_ yang lebih cepat. Pada bidang keilmuan ilmu komputer/teknik informatika, konferensi internasional lebih penting dibanding jurnal. (^4) Konferensi penting untuk bidang pemrosesan bahasa alami terdaftar padahttps: //aclanthology.coli.uni-saarland.de/ 224 14 Penerapan Pembelajaran Mesin
### 14.1 Sistem Rekomendasi Bagian sistem rekomendasi ditulis olehCandy Olivia Mawalim(Japan Advanced Institute of Science and Technology). Penulis ingin berterima kasih atas sumbangsih yang diberikan. Salah satu penerapan pembelajaran mesin adalah sistem rekomendasi. Sistem rekomendasi dimotivasi oleh keinginan pemilik usaha untuk meningkatkan penjualan dengan cara mengerti pola pembelian pengguna. Aplikasi yang memanfaatkan sistem rekomendasi dapat kita temukan dalam kehidupan seharihari, misalnya Youtube yang memberikan rekomendasi video berdasarkan riwayat video yang telah kita lihat sebelumnya dan Amazon yang merekomendasikan produknya dengan cara menawarkan produk yang sering dibeli pengguna lain yang memiliki karakteristik yang “mirip” dengan kita. Ada dua komponen penting pada sistem rekomendasi yaitu: pengguna dan _item_. Pengguna adalah sang pengguna sistem, sementara _item_ dapat berupa video, buku, dan lain sebagainya (produk/layanan yang ditawarkan sistem). Secara umum, terdapat dua teknik untuk membangun sistem rekomendasi yaitu: (1) _content-based filtering_ dan (2) _collaborative filtering_. Teknik pertama berfokus pada karakteristik pengguna secara spesifik. Teknik kedua berfokus pada selera terhadap suatu _item_. Dalam sistem rekomendasi, teknik _machine learning_ dapat digunakan untuk memprediksi _item_ yang mungkin disukai pengguna. Dua subbab berikutnya memuat aplikasi teknikmachine _learning_ untuk kedua teknik sistem rekomendasi(14.1.1 dan 14.1.2). Setelah proses _filtering_ (memprediksi _item_ yang mungkin disukai pengguna), biasanya ada tahapan _post-processing_. Misalnya menampilkan _item_ yang bersesuaian dengan usia pengguna. Contoh lain adalah _post-processing_ untuk memberikan rekomendasi yang cukup beranekaragam [100]. 14.1.1 Content-based Filtering Teknik membangun sistem rekomendasi berdasarkan _content-based filtering_ memanfaatkan informasi mengenai profil seorang pengguna beserta uraian _item_ yang sangat menarik bagi pengguna tersebut [101]. Profil pengguna diartikan sebagai karakteristik (atribut dan _behavior_ ) yang dimiliki pengguna. Atribut pengguna misalnya _gender_, kewarganegaraan, umur, dan lain-lain. Informasi mengenai _behavior_ mencakup karakteristik _item_ yang seorang pengguna sukai. Misalkan _item_ adalah film, karakteristik film dapat ditentukan dari aktor yang terlibat dalam film, pembuat film, tahun pembuatan film, dan _genre_ dari film (misalnya _action_, _horror_, _comedy_ ). Dengan ka _rate_ ristik ini, kita dapat menentukan kemiripan antar-film. Kedua informasi ini dapat direpresentasikan sebagai vektor (ekuivalen denganfeature vector) agar mudah untuk dilakukan operasi aritmatika, dikenal dengan istilah _user embedding_ dan _item embedding_. Cara melakukan _embedding_ untuk profil pengguna dan uraian item mirip dengan cara _word embedding_ yang telah dijelaskan pada subbab 12.5.3, _one-hot encoding_. ``` 14.1 Sistem Rekomendasi 217 ``` Rekomendasi _item_ yang diberikan pada pengguna adalah _item_ yang paling mungkin disukai pengguna berdasarkan karakteristiknya. Agar mendapat gambaran lebih jelas, penulis mengajak pembaca untuk mengikuti tutorial pembuatan sistem rekomendasi film sangat sederhana menggunakan dataset MovieLens^1 berukuran kecil (100K). Dataset ini memuat berbagai informasi sebagai berikut: 1. Informasi _rating_ pengguna untuk masing-masing film. 2. Informasi film, misalkan berupa _genre_ dan tanggal _release_. 3. Demografik pengguna, misal usia, _gender_, pekerjaan, dan lain lain. Untuk menyederhanakan tutorial, kami hanya akan menjelaskan contoh penggunaan _genre_ film untuk membuat sistem rekomendasi. Pertama-tama, kita bangun representasi _item embedding_, yaitu _genre_ untuk masing-masing film (Tabel 14.1). Setiap baris pada tabel tersebut merepresentasikan _item embedding_ untuk suatu film. Perhatikan! Setiap sel pada tabel diisi nilai “1” apabila film memiliki _genre_ yang tertera pada kolom bersesuaian, “0” apabila tidak. ``` MovieId Adventure Animation Children Comedy 6 1 1 1 1 22 1 0 1 0 50 0 0 0 1 ``` ``` Tabel 14.1: Representasi _item embedding_ untuk film berdasarkan _genre_. ``` Kedua, kita bangun representasi _user embedding_, yaitu apakah pengguna menyukai suatu film atau tidak ( _binary_ ). Suka atau tidaknya pengguna terhadap suatu film dapat dilihat berdasarkan _rating_ yang ia berikan. Sebagai contoh sederhana, kita anggap apabila pengguna menyukai suatu film apabila memberi nilai _rating_ lebih dari atau sama dengan 4. Sebagai contoh, perhatikan Tabel 14.2. Apabila user menyukai suatu film, nilai “1” diisi pada kolom “Like or Not”, dan “0” apabila sebaliknya. ``` UserId MovieId Like or Not 1 6 0 1 22 0 1 50 1 ``` Tabel 14.2: Representasi _user embedding_ berdasarkan _rating_ yang diberikan pengguna. (^1) https://grouplens.org/ _dataset_ s/movielens/ 218 14 Penerapan Pembelajaran Mesin Berdasarkan _item embedding_ dan _user embedding_ yang kita punya, kita ganti kolom MovieId pada Tabel 14.2 menggunakan baris pada _item embedding_. Sekarang, kita memiliki dataset _behavior_ pengguna dengan UserId=1 (Tabel 14.3). Perhatikan! Tabel tersebut seperti dataset _machine learning_ yang sudah kamu pelajari pada bab-bab sebelumnya. Diberikan _feature vector_ dan kelas (Like or Not) yang berkorespondensi. Menggunakan data seperti ``` MovieId Adventure Animation Children Comedy Like or Not 6 1 1 1 1 0 22 1 0 1 0 0 50 0 0 0 1 1 ``` ``` Tabel 14.3: Dataset _behavior_ pengguna dengan UserId=1. ``` pada Tabel 14.3 yang dirata-ratakan, kita dapat menggunakan teknikmachine _learning_ untuk memprediksi apakah suatu pengguna akan menyukai film tertentu, berdasarkan _genre_ yang dimuat oleh film tersebut. Sederhananya, bisa menggunakan K-nearest-neighbordengan menghitung _cosine similarity_ antara _item_ _embedding_ dan _user embedding_. Teknik _content-based filtering_ memiliki keunggulan dimana kita tidak memerlukan banyak informasi tentang pengguna lain. Kita hanya memerlukan informasi uraian _item_ dan informasi karakteristik suatu pengguna. Hal ini mengakibatkan rekomendasi yang diberikan sangat bergantung pada kepribadian pengguna. Apabila pengguna tidak konsisten, sistem rekomendasi juga bingung. 14.1.2 Collaborative Filtering Teknik ini diperkenalkan oleh Paul Resnick dan Hal Varian pada 1997 [102]. Prinsip _collaborative filtering_ adalah asumsi bahwa selera penggunaan terhadap suatu _item_ cenderung sama dari waktu ke waktu [103]. Pada contoh kasus sederhana untuk sistem rekomendasi film, teknik ini memanfaatkan informasi _rating_ dari banyak pengguna. Kita dapat merepresentasikan tingkah laku ( _behaviour_ ) semua pengguna menggunakan matriks utilitas dimana baris merepresentasikan profil pengguna dan kolom merepresentasikan _item_. Sebagai contoh, perhatikanlah Tabel 14.4. Ada dua metode varian _collaborative filtering_ yaitu: (1)neighborhood-based _collaborative filtering_ ( _memory-based method_ ) dan (2) _model_ -based collaborative _filtering_. Metode _neighborhood-based collaborative filtering_ bekerja dengan fakta bahwa pengguna yang “mirip” memiliki pola yang “mirip” dalam memberikan _rating_ untuk _item_ [104] (pada Tabel 14.4, pengguna yang mirip memiliki baris yang mirip). Selain itu, _item_ yang memiliki kemiripan, akan memiliki pola _rating_ yang mirip (pada Tabel 14.4, _item_ yang mirip memiliki ``` 14.2 Peringkasan Dokumen 219 ``` ``` _item_ 1 item 2 ... itemN _user_ 1 2 3 ... 4 _user_ 2 5 3 ... 1 ``` ``` _user_ 3 4 1 ... 2 ``` ``` Tabel 14.4: Matriks utilitas. ``` kolom yang mirip). Dengan itu, kita dapat menggunakan perhitungan kemiripan _vektor_ untuk menghitung pengguna mana yang mirip dengan suatu penggunap. Saat memberikan rekomendasi film bagi penggunap, kita tunjukkan film-film yang pernah ditonton pengguna yang mirip dengannya, atau kita tunjukkan film-film yang mirip dengan film-film yang pernah ditonton oleh penggunap. Untuk _model-based collaborative filtering_, prediksi dibangun dengan menggunakan teknik _machine learning_ [104]. Untuk suatu sistem dengan data yang _sparse_, matriks utilitas seperti Tabel 14.4 tidaklah efisien secara memori. Kita dapat memanfaatkan teknik-tenik sepertimatrix factorization/principal component analysisdan _autoencoder_ untuk mengurangi ukuran matriks. Silakan membaca lebih lanjut materi-materi tersebut (ingat kembali materi bab 12).
# Table of Contents - [Pengenalan Konsep](<./Pengenalan-Konsep.md>) - [Pembelajaran Mesin dan Deep](<./Pembelajaran-Mesin-dan-Deep.md>) - [Learning](<./Learning.md>) - [Edisi1.4 ( 17 Agustus2020)](<./Learning/Edisi1.4--17-Agustus2020.md>) - [Jan Wira Gotama Putra](<./Learning/Jan-Wira-Gotama-Putra.md>) - [Untuk Tuhan, Bangsa, dan Almamater](<./Learning/Jan-Wira-Gotama-Putra/Untuk-Tuhan-Bangsa-dan-Almamater.md>) - [Kata Pengantar](<./Learning/Kata-Pengantar.md>) - [Daftar Isi](<./Learning/Daftar-Isi.md>) - [Bagian I Pengetahuan Dasar](<./Learning/Bagian-I-Pengetahuan-Dasar.md>) - [1 Pengenalan](<./Learning/1-Pengenalan.md>) - [1.1 Kecerdasan Buatan](<./Learning/1-Pengenalan/1.1-Kecerdasan-Buatan.md>) - [1.2 Intelligent Agent](<./Learning/1-Pengenalan/1.2-Intelligent-Agent.md>) - [1.3 Konsep Belajar](<./Learning/1-Pengenalan/1.3-Konsep-Belajar.md>) - [1.4 Statistical Learning Theory](<./Learning/1-Pengenalan/1.4-Statistical-Learning-Theory.md>) - [1.5 Training, Validation, Testing Set](<./Learning/1-Pengenalan/1.5-Training-Validation-Testing-Set.md>) - [1.6 Supervised Learning](<./Learning/1-Pengenalan/1.6-Supervised-Learning.md>) - [1.7 Regresi](<./Learning/1-Pengenalan/1.7-Regresi.md>) - [1.8 Semi- _supervised_ Learning](<./Learning/1-Pengenalan/1.8-Semi--_supervised_-Learning.md>) - [1.9 Un _supervised_ Learning](<./Learning/1-Pengenalan/1.9-Un-_supervised_-Learning.md>) - [1.10 Proses Belajar](<./Learning/1-Pengenalan/1.10-Proses-Belajar.md>) - [1.11 Tips](<./Learning/1-Pengenalan/1.11-Tips.md>) - [1.12 Contoh Aplikasi](<./Learning/1-Pengenalan/1.12-Contoh-Aplikasi.md>) - [Soal Latihan](<./Learning/1-Pengenalan/Soal-Latihan.md>) - [2 Fondasi Matematis](<./Learning/2-Fondasi-Matematis.md>) - [2.1 Probabilitas](<./Learning/2-Fondasi-Matematis/2.1-Probabilitas.md>) - [2.2 Probability Density Function](<./Learning/2-Fondasi-Matematis/2.2-Probability-Density-Function.md>) - [2.3 Expectation dan Variance](<./Learning/2-Fondasi-Matematis/2.3-Expectation-dan-Variance.md>) - [2.4 Bayesian Probability](<./Learning/2-Fondasi-Matematis/2.4-Bayesian-Probability.md>) - [2.5 Gaussian Distribution](<./Learning/2-Fondasi-Matematis/2.5-Gaussian-Distribution.md>) - [2.6 Apakah Karakteristik Sampel Mencerminkan Populasi?](<./Learning/2-Fondasi-Matematis/2.6-Apakah-Karakteristik-Sampel-Mencerminkan-Populasi.md>) - [2.7 Teori Keputusan](<./Learning/2-Fondasi-Matematis/2.7-Teori-Keputusan.md>) - [2.8 Hypothesis Testing](<./Learning/2-Fondasi-Matematis/2.8-Hypothesis-Testing.md>) - [2.9 Teori Informasi](<./Learning/2-Fondasi-Matematis/2.9-Teori-Informasi.md>) - [2.10 Matriks](<./Learning/2-Fondasi-Matematis/2.10-Matriks.md>) - [2.11 Bacaan Lanjutan](<./Learning/2-Fondasi-Matematis/2.11-Bacaan-Lanjutan.md>) - [Soal Latihan](<./Learning/2-Fondasi-Matematis/Soal-Latihan.md>) - [3 Data Analytics](<./Learning/3-Data-Analytics.md>) - [3.1 Pengenalan Data Analytics](<./Learning/3-Data-Analytics/3.1-Pengenalan-Data-Analytics.md>) - [3.2 Nilai Atribut dan Transformasi](<./Learning/3-Data-Analytics/3.2-Nilai-Atribut-dan-Transformasi.md>) - [3.3 Ruang Konsep](<./Learning/3-Data-Analytics/3.3-Ruang-Konsep.md>) - [3.4 Linear Separability](<./Learning/3-Data-Analytics/3.4-Linear-Separability.md>) - [3.5 Seleksi Fitur](<./Learning/3-Data-Analytics/3.5-Seleksi-Fitur.md>) - [3.6 Classification, Association, Clustering](<./Learning/3-Data-Analytics/3.6-Classification-Association-Clustering.md>) - [3.7 Mengukur Kinerja](<./Learning/3-Data-Analytics/3.7-Mengukur-Kinerja.md>) - [3.8 Evaluasi Model](<./Learning/3-Data-Analytics/3.8-Evaluasi-Model.md>) - [3.9 Kategori Jenis Algoritma](<./Learning/3-Data-Analytics/3.9-Kategori-Jenis-Algoritma.md>) - [3.10 Tahapan Analisis](<./Learning/3-Data-Analytics/3.10-Tahapan-Analisis.md>) - [Soal Latihan](<./Learning/3-Data-Analytics/Soal-Latihan.md>) - [Bagian II Algoritma Pembelajaran Mesin](<./Learning/Bagian-II-Algoritma-Pembelajaran-Mesin.md>) - [4 Algoritma Dasar](<./Learning/4-Algoritma-Dasar.md>) - [4.1 Naive Bayes](<./Learning/4-Algoritma-Dasar/4.1-Naive-Bayes.md>) - [4.2 K- _mean_ s](<./Learning/4-Algoritma-Dasar/4.2-K--_mean_-s.md>) - [4.3 K-nearest-neighbor](<./Learning/4-Algoritma-Dasar/4.3-K-nearest-neighbor.md>) - [Soal Latihan](<./Learning/4-Algoritma-Dasar/Soal-Latihan.md>) - [5 Model Linear](<./Learning/5-Model-Linear.md>) - [5.1 Curve Fitting dan Error Function](<./Learning/5-Model-Linear/5.1-Curve-Fitting-dan-Error-Function.md>) - [5.2 Binary Classification](<./Learning/5-Model-Linear/5.2-Binary-Classification.md>) - [5.3 Log-linear Binary Classification](<./Learning/5-Model-Linear/5.3-Log-linear-Binary-Classification.md>) - [5.4 Multi- _class_ Classification](<./Learning/5-Model-Linear/5.4-Multi--_class_-Classification.md>) - [5.5 Multi-label Classification](<./Learning/5-Model-Linear/5.5-Multi-label-Classification.md>) - [5.6 Pembelajaran sebagai Permasalahan Optimisasi](<./Learning/5-Model-Linear/5.6-Pembelajaran-sebagai-Permasalahan-Optimisasi.md>) - [5.7 Batasan Model Linear](<./Learning/5-Model-Linear/5.7-Batasan-Model-Linear.md>) - [5.8 Overfitting dan Underfitting](<./Learning/5-Model-Linear/5.8-Overfitting-dan-Underfitting.md>) - [5.9 Regularization](<./Learning/5-Model-Linear/5.9-Regularization.md>) - [5.10 Transformasi Data](<./Learning/5-Model-Linear/5.10-Transformasi-Data.md>) - [5.11 Bacaan Lanjutan](<./Learning/5-Model-Linear/5.11-Bacaan-Lanjutan.md>) - [Soal Latihan](<./Learning/5-Model-Linear/Soal-Latihan.md>) - [6 Pohon Keputusan](<./Learning/6-Pohon-Keputusan.md>) - [6.1 Inductive Learning](<./Learning/6-Pohon-Keputusan/6.1-Inductive-Learning.md>) - [6.2 ID3](<./Learning/6-Pohon-Keputusan/6.2-ID3.md>) - [6.3 Isu pada ID3](<./Learning/6-Pohon-Keputusan/6.3-Isu-pada-ID3.md>) - [6.4 Pembagian Ruang Konsep](<./Learning/6-Pohon-Keputusan/6.4-Pembagian-Ruang-Konsep.md>) - [Soal Latihan](<./Learning/6-Pohon-Keputusan/Soal-Latihan.md>) - [7 Support Vector Classifier](<./Learning/7-Support-Vector-Classifier.md>) - [7.1 Maximal Margin Classifier](<./Learning/7-Support-Vector-Classifier/7.1-Maximal-Margin-Classifier.md>) - [7.2 Support Vector Classifier](<./Learning/7-Support-Vector-Classifier/7.2-Support-Vector-Classifier.md>) - [7.3 Support Vector Machine](<./Learning/7-Support-Vector-Classifier/7.3-Support-Vector-Machine.md>) - [7.4 Klasifikasi lebih dari dua kelas](<./Learning/7-Support-Vector-Classifier/7.4-Klasifikasi-lebih-dari-dua-kelas.md>) - [7.5 Tips](<./Learning/7-Support-Vector-Classifier/7.5-Tips.md>) - [Soal Latihan](<./Learning/7-Support-Vector-Classifier/Soal-Latihan.md>) - [8 Hidden Markov Model](<./Learning/8-Hidden-Markov-Model.md>) - [8.1 Probabilistic Reasoning](<./Learning/8-Hidden-Markov-Model/8.1-Probabilistic-Reasoning.md>) - [8.2 Generative Model](<./Learning/8-Hidden-Markov-Model/8.2-Generative-Model.md>) - [8.3 Part-of-speech Tagging](<./Learning/8-Hidden-Markov-Model/8.3-Part-of-speech-Tagging.md>) - [8.4 Hidden Markov Model Tagger](<./Learning/8-Hidden-Markov-Model/8.4-Hidden-Markov-Model-Tagger.md>) - [8.5 Algoritma Viterbi](<./Learning/8-Hidden-Markov-Model/8.5-Algoritma-Viterbi.md>) - [8.6 Proses Training Hidden Markov Model](<./Learning/8-Hidden-Markov-Model/8.6-Proses-Training-Hidden-Markov-Model.md>) - [Soal Latihan](<./Learning/8-Hidden-Markov-Model/Soal-Latihan.md>) - [9 Seleksi Fitur dan Metode Evaluasi](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi.md>) - [9.1 Feature Engineering](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/9.1-Feature-Engineering.md>) - [9.2 High Dimensional Data](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/9.2-High-Dimensional-Data.md>) - [9.3 Feature Selection](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/9.3-Feature-Selection.md>) - [9.4 Evaluasi Kinerja Model](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/9.4-Evaluasi-Kinerja-Model.md>) - [9.5 Cross Validation](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/9.5-Cross-Validation.md>) - [9.6 Replicability, Overclaiming dan Domain Dependence](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/9.6-Replicability-Overclaiming-dan-Domain-Dependence.md>) - [Soal Latihan](<./Learning/9-Seleksi-Fitur-dan-Metode-Evaluasi/Soal-Latihan.md>) - [10 Clustering](<./Learning/10-Clustering.md>) - [10.1 K- _mean_ s, Pemilihan Centroid, Kemiripan Data](<./Learning/10-Clustering/10.1-K--_mean_-s-Pemilihan-Centroid-Kemiripan-Data.md>) - [10.2 Hierarchical Clustering](<./Learning/10-Clustering/10.2-Hierarchical-Clustering.md>) - [10.3 Evaluasi](<./Learning/10-Clustering/10.3-Evaluasi.md>) - [Soal Latihan](<./Learning/10-Clustering/Soal-Latihan.md>) - [Bagian III Artificial Neural Network](<./Learning/Bagian-III-Artificial-Neural-Network.md>) - [11 Feed _forward_ Neural Network](<./Learning/11-Feed-_forward_-Neural-Network.md>) - [11.1 Definisi Artificial Neural Network](<./Learning/11-Feed-_forward_-Neural-Network/11.1-Definisi-Artificial-Neural-Network.md>) - [11.2 Single Perceptron](<./Learning/11-Feed-_forward_-Neural-Network/11.2-Single-Perceptron.md>) - [11.3 Permasalahan XOR](<./Learning/11-Feed-_forward_-Neural-Network/11.3-Permasalahan-XOR.md>) - [11.4 Multi _layer_ Perceptron](<./Learning/11-Feed-_forward_-Neural-Network/11.4-Multi-_layer_-Perceptron.md>) - [11.5 Interpretability](<./Learning/11-Feed-_forward_-Neural-Network/11.5-Interpretability.md>) - [11.6 Binary Classification](<./Learning/11-Feed-_forward_-Neural-Network/11.6-Binary-Classification.md>) - [11.7 Multi- _class_ Classification](<./Learning/11-Feed-_forward_-Neural-Network/11.7-Multi--_class_-Classification.md>) - [11.8 Multi-label Classification](<./Learning/11-Feed-_forward_-Neural-Network/11.8-Multi-label-Classification.md>) - [1 0](<./Learning/11-Feed-_forward_-Neural-Network/1-0.md>) - [0 1](<./Learning/11-Feed-_forward_-Neural-Network/0-1.md>) - [0 0](<./Learning/11-Feed-_forward_-Neural-Network/0-0.md>) - [1 1](<./Learning/11-Feed-_forward_-Neural-Network/1-1.md>) - [11.9 Deep Neural Network](<./Learning/11-Feed-_forward_-Neural-Network/11.9-Deep-Neural-Network.md>) - [11.10 Tips](<./Learning/11-Feed-_forward_-Neural-Network/11.10-Tips.md>) - [11.11 Regularization and Dropout](<./Learning/11-Feed-_forward_-Neural-Network/11.11-Regularization-and-Dropout.md>) - [11.12 Vanishing and Exploding Gradients](<./Learning/11-Feed-_forward_-Neural-Network/11.12-Vanishing-and-Exploding-Gradients.md>) - [11.13 Rangkuman](<./Learning/11-Feed-_forward_-Neural-Network/11.13-Rangkuman.md>) - [Soal Latihan](<./Learning/11-Feed-_forward_-Neural-Network/Soal-Latihan.md>) - [12 Auto _encoder_](<./Learning/12-Auto-_encoder_.md>) - [12.1 Representation Learning](<./Learning/12-Auto-_encoder_/12.1-Representation-Learning.md>) - [12.2 Singular Value Decomposition](<./Learning/12-Auto-_encoder_/12.2-Singular-Value-Decomposition.md>) - [12.3 Ide Dasar Auto _encoder_](<./Learning/12-Auto-_encoder_/12.3-Ide-Dasar-Auto-_encoder_.md>) - [𝐗 Encoder Decoder](<./Learning/𝐗-Encoder-Decoder.md>) - [𝐔#𝐕# 𝐔#𝐕#𝐖#𝑻](<./Learning/𝐔𝐕-𝐔𝐕𝐖𝑻.md>) - [𝐄 𝐗](<./Learning/𝐄-𝐗.md>) - [12.4 Resisting Perturbation](<./Learning/𝐄-𝐗/12.4-Resisting-Perturbation.md>) - [12.5 Representing Context: Word Embedding](<./Learning/𝐄-𝐗/12.5-Representing-Context-Word-Embedding.md>) - [CBOW Skip-gram](<./Learning/𝐄-𝐗/CBOW-Skip-gram.md>) - [12.6 Tips](<./Learning/𝐄-𝐗/12.6-Tips.md>) - [Soal Latihan](<./Learning/𝐄-𝐗/Soal-Latihan.md>) - [13 Arsitektur Neural Network](<./Learning/13-Arsitektur-Neural-Network.md>) - [13.1 Convolutional Neural Network](<./Learning/13-Arsitektur-Neural-Network/13.1-Convolutional-Neural-Network.md>) - [13.2 Recurrent Neural Network](<./Learning/13-Arsitektur-Neural-Network/13.2-Recurrent-Neural-Network.md>) - [13.3 Part-of-speech Tagging Revisited](<./Learning/13-Arsitektur-Neural-Network/13.3-Part-of-speech-Tagging-Revisited.md>) - [13.4 Sequence to Sequence](<./Learning/13-Arsitektur-Neural-Network/13.4-Sequence-to-Sequence.md>) - [13.5 Arsitektur Lainnya](<./Learning/13-Arsitektur-Neural-Network/13.5-Arsitektur-Lainnya.md>) - [13.6 Architecture Ablation](<./Learning/13-Arsitektur-Neural-Network/13.6-Architecture-Ablation.md>) - [13.7 Transfer Learning](<./Learning/13-Arsitektur-Neural-Network/13.7-Transfer-Learning.md>) - [13.8 Multi- _task_ Learning](<./Learning/13-Arsitektur-Neural-Network/13.8-Multi--_task_-Learning.md>) - [Soal Latihan](<./Learning/13-Arsitektur-Neural-Network/Soal-Latihan.md>) - [Bagian IV Aplikasi dan Topik Tambahan](<./Learning/Bagian-IV-Aplikasi-dan-Topik-Tambahan.md>) - [14 Penerapan Pembelajaran Mesin](<./Learning/14-Penerapan-Pembelajaran-Mesin.md>) - [14.1 Sistem Rekomendasi](<./Learning/14-Penerapan-Pembelajaran-Mesin/14.1-Sistem-Rekomendasi.md>) - [14.2 Peringkasan Dokumen](<./Learning/14-Penerapan-Pembelajaran-Mesin/14.2-Peringkasan-Dokumen.md>) - [14.3 Konklusi](<./Learning/14-Penerapan-Pembelajaran-Mesin/14.3-Konklusi.md>) - [14.4 Saran Buku Lanjutan](<./Learning/14-Penerapan-Pembelajaran-Mesin/14.4-Saran-Buku-Lanjutan.md>) - [Soal Latihan](<./Learning/14-Penerapan-Pembelajaran-Mesin/Soal-Latihan.md>) - [Referensi](<./Learning/Referensi.md>) - [Biografi Penulis](<./Learning/Biografi-Penulis.md>)
# Pengenalan Konsep
# Pembelajaran Mesin dan Deep
# Learning