Setelah pengguna menentukan jumlah ronde, setiap iterasi AdaBoost yang berurutan mendefinisikan ulang bobot untuk setiap pelajar terbaik. Ini menjadikan Adaboost cara yang sangat elegan untuk menyetel pengklasifikasi secara otomatis. Adaboost fleksibel, serbaguna, dan elegan karena dapat menggabungkan sebagian besar algoritma pembelajaran dan dapat mengambil berbagai macam data.
8. Algoritma kNN
kNN adalah algoritma lazy learning yang digunakan sebagai algoritma klasifikasi. Pembelajar yang malas tidak akan berbuat banyak selama proses pelatihan kecuali untuk menyimpan data pelatihan.Â
Pelajar malas mulai mengklasifikasikan hanya ketika data baru yang tidak berlabel diberikan sebagai input. C4.5, SVN dan Adaboost, di sisi lain, adalah pelajar yang bersemangat yang mulai membangun model klasifikasi selama pelatihan itu sendiri. Karena kNN diberikan dataset pelatihan berlabel, itu diperlakukan sebagai algoritma pembelajaran terawasi.
Algoritma kNN tidak mengembangkan model klasifikasi apapun. Ini melakukan dua langkah berikut ketika beberapa data yang tidak berlabel dimasukkan.
- Ini mencari k titik data berlabel yang paling dekat dengan yang dianalisis (yaitu k tetangga terdekat).
- Dengan bantuan kelas tetangga, kNN menentukan kelas apa yang harus ditetapkan ke titik data yang dianalisis.
Metode ini membutuhkan pengawasan dan belajar dari kumpulan data berlabel. Saat Anda mengerjakan proyek mini CSE, Anda akan menemukan algoritme kNN yang mudah diterapkan. Ini dapat memperoleh hasil yang relatif tepat.
9. Algoritma Naive Bayes
Naive Bayes bukanlah algoritma tunggal meskipun dapat dilihat bekerja secara efisien sebagai algoritma tunggal. Naive Bayes adalah sekelompok algoritma klasifikasi yang disatukan. Asumsi yang digunakan oleh keluarga algoritma adalah bahwa setiap fitur dari data yang diklasifikasikan independen dari semua fitur lain yang diberikan di dalam kelas.Â
Naive Bayes dilengkapi dengan dataset pelatihan berlabel untuk membangun tabel. Jadi diperlakukan sebagai algoritma pembelajaran yang diawasi.
Ini menggunakan asumsi bahwa setiap parameter data dalam kumpulan yang diklasifikasikan adalah independen. Ini mengukur probabilitas bahwa titik data adalah Kelas A jika mendukung fitur 1 dan 2. Ini disebut algoritma 'Naif' karena tidak ada kumpulan data dengan semua fitur independen. Pada dasarnya, itu hanyalah asumsi yang dipertimbangkan untuk perbandingan.
Algoritma ini digunakan dalam banyak topik proyek mini untuk CSE tahun ke-3 karena menentukan probabilitas fitur berdasarkan kelas.