remove the first few lines
Browse files- intro-to-ml.jsonl +0 -6
intro-to-ml.jsonl
CHANGED
@@ -1,9 +1,3 @@
|
|
1 |
-
{"text": "# Pengenalan Konsep\n\n"}
|
2 |
-
{"text": "# Learning\n\n"}
|
3 |
-
{"text": "# Pembelajaran Mesin dan Deep\n\n"}
|
4 |
-
{"text": "## 𝐔#𝐕# 𝐔#𝐕#𝐖#𝑻\n\n"}
|
5 |
-
{"text": "## Jan Wira Gotama Putra\n\n\n\n"}
|
6 |
-
{"text": "## Daftar Isi\n\n\n\n\n- Bagian I Pengetahuan Dasar\n- 1 Pengenalan\n - 1.1 Kecerdasan Buatan\n - 1.2 Intelligent Agent\n - 1.3 Konsep Belajar\n - 1.4 Statistical Learning Theory\n - 1.5 Training, Validation, Testing Set\n - 1.6 Supervised Learning\n - 1.7 Regresi\n - 1.8 Semi- _supervised_ Learning\n - 1.9 Un _supervised_ Learning\n - 1.10 Proses Belajar\n - 1.11 Tips\n - 1.12 Contoh Aplikasi\n - Soal Latihan\n- 2 Fondasi Matematis\n - 2.1 Probabilitas\n - 2.2 Probability Density Function\n - 2.3 Expectation dan Variance\n - 2.4 Bayesian Probability\n - 2.5 Gaussian Distribution\n - 2.6 Apakah Karakteristik Sampel Mencerminkan Populasi?\n - 2.7 Teori Keputusan\n - 2.8 Hypothesis Testing\n - 2.9 Teori Informasi\n - 2.10 Matriks\n - 2.11 Bacaan Lanjutan\n - Soal Latihan\n- 3 Data Analytics\n - 3.1 Pengenalan Data Analytics\n - 3.2 Nilai Atribut dan Transformasi\n - 3.3 Ruang Konsep\n - 3.4 Linear Separability DAFTAR ISI XI\n - 3.5 Seleksi Fitur\n - 3.6 Classification, Association, Clustering\n - 3.7 Mengukur Kinerja\n - 3.8 Evaluasi Model\n - 3.9 Kategori Jenis Algoritma\n - 3.10 Tahapan Analisis\n - Soal Latihan\n- Bagian II Algoritma Pembelajaran Mesin\n- 4 Algoritma Dasar\n - 4.1 Naive Bayes\n - 4.2 K- _mean_ s\n - 4.3 K-nearest-neighbor\n - Soal Latihan\n- 5 Model Linear\n - 5.1 Curve Fitting dan Error Function\n - 5.2 Binary Classification\n - 5.3 Log-linear Binary Classification\n - 5.4 Multi- _class_ Classification\n - 5.5 Multi-label Classification\n - 5.6 Pembelajaran sebagai Permasalahan Optimisasi\n - 5.7 Batasan Model Linear\n - 5.8 Overfitting dan Underfitting\n - 5.9 Regularization\n - 5.10 Transformasi Data\n - 5.11 Bacaan Lanjutan\n - Soal Latihan\n- 6 Pohon Keputusan\n - 6.1 Inductive Learning\n - 6.2 ID3\n - 6.3 Isu pada ID3\n - 6.4 Pembagian Ruang Konsep\n - Soal Latihan\n- 7 Support Vector Classifier\n - 7.1 Maximal Margin Classifier\n - 7.2 Support Vector Classifier\n - 7.3 Support Vector Machine\n - 7.4 Klasifikasi lebih dari dua kelas\n - 7.5 Tips\n - Soal Latihan XII DAFTAR ISI\n- 8 Hidden Markov Model\n - 8.1 Probabilistic Reasoning\n - 8.2 Generative Model\n - 8.3 Part-of-speech Tagging\n - 8.4 Hidden Markov Model Tagger\n - 8.5 Algoritma Viterbi\n - 8.6 Proses Training Hidden Markov Model\n - Soal Latihan\n- 9 Seleksi Fitur dan Metode Evaluasi\n - 9.1 Feature Engineering\n - 9.2 High Dimensional Data\n - 9.3 Feature Selection\n - 9.4 Evaluasi Kinerja Model\n - 9.5 Cross Validation\n - 9.6 Replicability, Overclaiming dan Domain Dependence\n - Soal Latihan\n- 10 Clustering\n - 10.1 K- _mean_ s, Pemilihan Centroid, Kemiripan Data\n - 10.2 Hierarchical Clustering\n - 10.3 Evaluasi\n - Soal Latihan\n- Bagian III Artificial Neural Network\n- 11 Feed _forward_ Neural Network\n - 11.1 Definisi Artificial Neural Network\n - 11.2 Single Perceptron\n - 11.3 Permasalahan XOR\n - 11.4 Multi _layer_ Perceptron\n - 11.5 Interpretability\n - 11.6 Binary Classification\n - 11.7 Multi- _class_ Classification\n - 11.8 Multi-label Classification\n - 11.9 Deep Neural Network\n - 11.10 Tips\n - 11.11 Regularization and Dropout\n - 11.12 Vanishing and Exploding Gradients\n - 11.13 Rangkuman\n - Soal Latihan\n- 12 Auto _encoder_\n - 12.1 Representation Learning DAFTAR ISI XIII\n - 12.2 Singular Value Decomposition\n - 12.3 Ide Dasar Auto _encoder_\n - 12.4 Resisting Perturbation\n - 12.5 Representing Context: Word Embedding\n - 12.6 Tips\n - Soal Latihan\n- 13 Arsitektur Neural Network\n - 13.1 Convolutional Neural Network\n - 13.2 Recurrent Neural Network\n - 13.3 Part-of-speech Tagging Revisited\n - 13.4 Sequence to Sequence\n - 13.5 Arsitektur Lainnya\n - 13.6 Architecture Ablation\n - 13.7 Transfer Learning\n - 13.8 Multi- _task_ Learning\n - Soal Latihan\n- Bagian IV Aplikasi dan Topik Tambahan\n- 14 Penerapan Pembelajaran Mesin\n - 14.1 Sistem Rekomendasi\n - 14.2 Peringkasan Dokumen\n - 14.3 Konklusi\n - 14.4 Saran Buku Lanjutan\n - Soal Latihan\n- Referensi\n\n\n\n"}
|
7 |
{"text": "## 12 Auto _encoder_\n\n```\n“The goal is to turn data into\ninformation, and information\ninto insight.”\n```\n```\nCarly Fiorina\n```\nBab ini memuat materi yang relatif sulit (karena agakhigh level). Bab\nini memuat materi _autoencoder_ serta penerapannya pada pemrosesan bahasa\nalami ( _natural language processing_ –NLP). Berhubung aplikasi yang diceritakan\nadalah aplikasi pada NLP, kami akan memberi sedikit materi (background\n_knowledge_ ) agar bisa mendapat gambaran tentang persoalan pada\ndomain tersebut. Bagi yang tertarik belajar NLP, kami sa _rank_ an untuk membaca\nbuku [64]. Teknik yang dibahas pada bab ini adalah _representation_\n_learning_ untuk melakukan pengurangan dimensi pada _feature vector_ (dimensionality\nreduction), teknik ini biasanya digolongkan sebagai _unsupervised_\n_learning_. Artinya, _representation learning_ adalah mengubah suatu representasi\nmenjadi bentuk representasi lain yang ekuvalen, tetapi berdimensi lebih\nrendah; sedemikian sehingga informasi yang terdapat pada representasi asli\ntidak hilang/terjaga. Ide dasar teknik ini bermula dari dekomposisi matriks\npada aljabar linear.\n\n"}
|
8 |
{"text": "## 11 Feed _forward_ Neural Network\n\n```\n“If you want to make\ninformation stick, it’s best to\nlearn it, go away from it for a\nwhile, come back to it later,\nleave it behind again, and once\nagain return to it–to engage with\nit deeply across time. Our\nmemories naturally degrade, but\neach time you return to a\n_memory_, you reactivate its neural\n_network_ and help to lock it in.”\nJoshua Foer\n```\nPenulis cukup yakin pembaca sudah menanti-nanti bagian ini. Bagian\nketiga membahas algoritma _machine learning_ yang sedang populer belakangan\nini, yaitu _artificial neural network_. Buku ini lebih berfokus pada penggunaan\nartifical neural networkuntuk _supervised learning_. Pembahasan dimulai dari\nhal-hal sederhana ( _single perceptron_, _multilayer perceptron_ ) sampai yang lebih\nkompleks. Sebelum membaca bab ini, ada baiknya kamu mengulang membaca\nbab 5 karena memberikan fondasi matematis untuk mengerti bab ini.\n\n"}
|
9 |
{"text": "## 10 Clustering\n\n```\n“Most of us cluster somewhere in\nthe middle of most statistical\ndistributions. But there are lots\nof bell curves, and pretty much\neveryone is on a tail of at least\none of them. We may collect\nst _range_ memorabillia or read\nesoteric books, hold unsual\nreligious beliefs or wear\nodd-sized shoes, suffer rare\ndiseases or enjoy obscure\nmoveis.”\nVirginia Postrel\n```\nPada bab 4, kamu sudah mempelajari salah satu teknik _clustering_ yang\ncukup umum yaitu K- _mean_ s. Bab ini akan mengupas _clustering_ secara lebih\ndalam. Kami sa _rank_ an kamu untuk membaca paper [41], walaupun relatif\nlama, tetapi paper tersebut memberikan penjelasan yang mudah dimengerti\ntentang _clustering_. Selain itu, kamu juga dapat membaca _paper_ oleh Saad et\nal. [42].\n_Clustering_ adalah pengelompokkan data dengan sifat yang mirip. Data\nuntuk _clustering_ tidak memiliki label (kelas). Secara umum, algoritma _clustering_ dapat\ndikategorikan menjadi dua macam berdasarkan hasil yang dinginkan\n[43]: (1) _partitional_, yaitu menentukan partisi sebanyakKdan (2) _hierarchical_,\nyaitu mengelompokan data berdasarkan struktur taksonomi. Contoh algoritma _partitional_ adalah _K-means_ pada\nsubbab 10.1, sementara contoh\nalgoritma _hierarchical_ adalah _agglomerative clustering_ pada subbab 10.2.\n\n\n136 10 Clustering\n\n"}
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
{"text": "## 12 Auto _encoder_\n\n```\n“The goal is to turn data into\ninformation, and information\ninto insight.”\n```\n```\nCarly Fiorina\n```\nBab ini memuat materi yang relatif sulit (karena agakhigh level). Bab\nini memuat materi _autoencoder_ serta penerapannya pada pemrosesan bahasa\nalami ( _natural language processing_ –NLP). Berhubung aplikasi yang diceritakan\nadalah aplikasi pada NLP, kami akan memberi sedikit materi (background\n_knowledge_ ) agar bisa mendapat gambaran tentang persoalan pada\ndomain tersebut. Bagi yang tertarik belajar NLP, kami sa _rank_ an untuk membaca\nbuku [64]. Teknik yang dibahas pada bab ini adalah _representation_\n_learning_ untuk melakukan pengurangan dimensi pada _feature vector_ (dimensionality\nreduction), teknik ini biasanya digolongkan sebagai _unsupervised_\n_learning_. Artinya, _representation learning_ adalah mengubah suatu representasi\nmenjadi bentuk representasi lain yang ekuvalen, tetapi berdimensi lebih\nrendah; sedemikian sehingga informasi yang terdapat pada representasi asli\ntidak hilang/terjaga. Ide dasar teknik ini bermula dari dekomposisi matriks\npada aljabar linear.\n\n"}
|
2 |
{"text": "## 11 Feed _forward_ Neural Network\n\n```\n“If you want to make\ninformation stick, it’s best to\nlearn it, go away from it for a\nwhile, come back to it later,\nleave it behind again, and once\nagain return to it–to engage with\nit deeply across time. Our\nmemories naturally degrade, but\neach time you return to a\n_memory_, you reactivate its neural\n_network_ and help to lock it in.”\nJoshua Foer\n```\nPenulis cukup yakin pembaca sudah menanti-nanti bagian ini. Bagian\nketiga membahas algoritma _machine learning_ yang sedang populer belakangan\nini, yaitu _artificial neural network_. Buku ini lebih berfokus pada penggunaan\nartifical neural networkuntuk _supervised learning_. Pembahasan dimulai dari\nhal-hal sederhana ( _single perceptron_, _multilayer perceptron_ ) sampai yang lebih\nkompleks. Sebelum membaca bab ini, ada baiknya kamu mengulang membaca\nbab 5 karena memberikan fondasi matematis untuk mengerti bab ini.\n\n"}
|
3 |
{"text": "## 10 Clustering\n\n```\n“Most of us cluster somewhere in\nthe middle of most statistical\ndistributions. But there are lots\nof bell curves, and pretty much\neveryone is on a tail of at least\none of them. We may collect\nst _range_ memorabillia or read\nesoteric books, hold unsual\nreligious beliefs or wear\nodd-sized shoes, suffer rare\ndiseases or enjoy obscure\nmoveis.”\nVirginia Postrel\n```\nPada bab 4, kamu sudah mempelajari salah satu teknik _clustering_ yang\ncukup umum yaitu K- _mean_ s. Bab ini akan mengupas _clustering_ secara lebih\ndalam. Kami sa _rank_ an kamu untuk membaca paper [41], walaupun relatif\nlama, tetapi paper tersebut memberikan penjelasan yang mudah dimengerti\ntentang _clustering_. Selain itu, kamu juga dapat membaca _paper_ oleh Saad et\nal. [42].\n_Clustering_ adalah pengelompokkan data dengan sifat yang mirip. Data\nuntuk _clustering_ tidak memiliki label (kelas). Secara umum, algoritma _clustering_ dapat\ndikategorikan menjadi dua macam berdasarkan hasil yang dinginkan\n[43]: (1) _partitional_, yaitu menentukan partisi sebanyakKdan (2) _hierarchical_,\nyaitu mengelompokan data berdasarkan struktur taksonomi. Contoh algoritma _partitional_ adalah _K-means_ pada\nsubbab 10.1, sementara contoh\nalgoritma _hierarchical_ adalah _agglomerative clustering_ pada subbab 10.2.\n\n\n136 10 Clustering\n\n"}
|