Algoritma Machine Learning
1. Naïve Bayes
Naive Bayes adalah algoritma supervised learning yang sangat sederhana. Idenya mirip dengan probabilitas bayesian.
Untuk mendapatkan nilai naive bayes pertama kita hitung likelihood suatu future vektor diklasifikasikan kedalam kelas tertentu berdasarkan bagaimana probabilitas korespodensi fitur-fiturnya terhadap kelas tersebut. Kemudian kita normalisasi likelihood semua kelas untuk mendapatkan probabilitas class-assignment. Akhirnya kita pilih kelas dengan probabilitas tertinggi.
Likelihood
Class-assignment
Probabilitas tertinggi
Tabel dataset play tenis
Tabel Frekuensi setiap atribut
Tabel Probabilitas setiap setiap nilai atribut
2. K-means
Pada supervised learning kita mengetahui kelas data untuk setiap feature vec- tor, sedangkan untuk unsupervised learning kita tidak tahu. Tujuan unsuper- vised learning salah satunya adalah melakukan clustering.
Yaitu mengelom- pokkan data-data dengan karakter mirip. Untuk melakukan pembelajaran menggunakan K-means, kita harus mengikuti langkah-langkah sebagai berikut:
1. Tentukan jumlah kelompok yang kita inginkan.
2. Inisiasi centroid untuk setiap kelompok (pada bab ini, secara acak). Cen- troid adalah data yang merepresentasikan suatu kelompok (ibaratnya ke- tua kelompok).
3. Hitung kedekatan suatu data terhadap centroid, kemudian masukkan data tersebut ke kelompok yang centroid-nya memiliki sifat terdekat dengan dirinya.
4. Pilih kembali centroid untuk masing-masing kelompok, yaitu dari anggota kelompok tersebut (semacam memilih ketua yang baru).
5. Ulangi langkah-langkah sebelumnya sampai tidak ada perubahan anggota untuk semua kelompok.
id |
rich |
intelligent |
good looking |
1 |
yes |
yes |
yes |
2 |
yes |
no |
no |
3 |
yes |
yes |
no |
4 |
no |
no |
no |
5 |
no |
yes |
no |
6 |
no |
no |
yes |
Perhatikan Tabel, kita akan mengelompokkan data pada tabel terse- but menjadi dua clusters (dua kelompok) yaitu k1, k2 menggunakan algoritma
|
|
|||
id |
perbedaan dengan
centroid1 |
perbedaan dengan
centroid2 |
assignment |
|
2 |
2 |
2 |
k1 |
|
3 |
1 |
3 |
k1 |
|
4 |
3 |
1 |
k2 |
|
5 |
2 |
2 |
k1 |
|
id |
perbedaan dengan
centroid1 |
perbedaan dengan
centroid2 |
assignment |
1 |
2 |
3 |
k1 |
3 |
1 |
3 |
k1 |
5 |
3 |
1 |
k2 |
6 |
2 |
2 |
k1 |
3. K-nearest-neighbor
Ide K-nearest-neighbor (KNN) adalah mengelompokan data ke kelompok yang memiliki sifat termirip dengannya.Hal ini sangat mirip dengan K-means. Bila K-means digunakan untuk clustering, KNN digunakan untuk klasifikasi.
Table Data lama
Data baru:
K=3 ( Rich = no, Intelligent = yes, Good looking = yes)
Table perbedaan data baru vs data lama
K-means. Pertama-tama kita inisiasi centroid secara acak, id1 untuk k1 dan id6 untuk k2. Kita hitung kedekatan data lainnya terhadap centroid. Untuk mempermudah contoh, kita hitung perbedaan data satu dan lainnya den- gan menghitung perbedaan nilai atribut (nilai atributnya sama atau tidak).
Tidak ada komentar:
Posting Komentar