SUPERVISED LEARNING : CARA KERJA DECISION TREE

Hai ini blog ku nikmatilah karyaku
udah ada regresi linier sederhana, udah ada juga naive baiyes, saatnya berkenalan dengan anggota berikutnya dari Supervised Learning yaitu Decision Tree

ALGORITMA DECISION TREE


Konsep dari decision tree adalah mengubah data menjadi aturan-aturan keputusan. Manfaat utama dari penggunaan decision tree adalah kemampuannya untuk mem-break down proses pengambilan keputusan yang kompleks menjadi lebih simple, sehingga pengambil keputusan akan lebih menginterpretasikan solusi dari permasalahan.
decision tree adalah

A. Pengertian Decision Tree

     Decision tree adalah diagram yang bisa membantumu memilih salah satu dari beberapa pilihan tindakan. Umumnya, decision tree dimulai dengan satu node atau simpul. Kemudian, node tersebut bercabang untuk menyatakan pilihan-pilihan yang ada. Selanjutnya, setiap cabang tersebut akan memiliki cabang-cabang baru. Oleh karenanya, metode ini disebut ‘tree’ karena bentuknya menyerupai pohon yang memiliki banyak cabang. ketika menyusun berbagai pilihan dan menyelidiki kemungkinan hasil dari pilihan tersebutt,  bisa melihat kemungkinan risiko dan kelebihan atas setiap pilihan yang ada.

Menurut Venngage, ada tiga elemen dalam satu decision tree, yaitu:

    • root node (akar): tujuan akhir atau keputusan besar yang ingin diambil
    • branches (ranting): berbagai pilihan tindakan
    • leaf node (daun): kemungkinan hasil atas setiap tindakan

Biasanya, ada dua jenis leaf node, yakni yang berbentuk persegi dan lingkaran. Lead node persegi menyatakan keputusan yang diambil. Sementara itu, leaf node lingkaran menyatakan hasil yang tidak pasti.

    Decision tree adalah metode yang biasa dilakukan untuk mengambil keputusan-keputusan informal atau sederhana. Namun, menurut Lucidchart, tidak sedikit pula yang menggunakannya untuk memprediksi hasil secara sistematis. Salah satu contohnya adalah dalam analisis data.

    Nama lain dari decision tree adalah CART (Classification and Regression Tree). Dimana metode ini merupakan gabungan dari dua jenis pohon, yaitu classification tree dan juga regression tree. Jika variabel dependen yang dimiliki bertipe kategorik maka CART menghasilkan pohon klasifikasi (classification trees). Sedangkan jika variabel dependen yang dimiliki bertipe kontinu atau numerik maka CART menghasilkan pohon regresi (regression trees).

Contoh pohon klasifikasi :

Contoh pohon Regresi :

    Decision tree ini bisa terjadi overlap, terutama ketika kelas dan kriteria yang digunakan sangat banyak tentu saja dapat meningkatkan waktu pengambilan keputusan sesuai dengan jumlah memori yang dibutuhkan. Dalam hal akumulasi, decision tree juga seringkali mengalami kendala eror terutama dalam jumlah besar. Selain itu, terdapat pula kesulitan dalam mendesain decision tree yang optimal. Apalagi mengingat kualitas keputusan yang didapatkan dari metode decision tree sangat tergantung pada bagaimana pohon tersebut didesain. Maka dibutuhkan Random Forest untuk mengatasi overlap di atas

B. Kelebihan dan Kekurangan Decision Tree

1. Kelebihan

    • mudah dimengerti dan dianalisis
    • bisa dibuat secara numerik atau kategorik
    • hanya memerlukan sedikit pemrosesan data di awal pembuatan
    • mudah untuk dibuat kesimpulan

2. Kekurangan

      • overfitting
      • rentan terhadap kesalahan dalam masalah klasifikasi karena ada banyak pilihan
      • penghitungan bisa menjadi sangat kompleks, terutama jika banyak nilai tidak pasti

  • C. Cara Membuat Decision Tree

1. Tulis keputusan yang ingin kamu ambil

    Bagian awal dari decision tree adalah keputusan yang ingin kamu ambil. Gambar kotak kecil untuk mewakili hal tersebut di bagian paling atas atau kiri kertasmu.  Kemudian, buat garis dari kotak tersebut untuk setiap pilihan solusi. Tulis solusi-solusi tersebut pada garis yang telah kamu buat. Pastikan setiap garis memiliki jarak yang cukup jauh. Jadi, kamu masih mempunyai ruang untuk memperluas pilihan-pilihan berikutnya.

2. Pertimbangkan hasil setiap baris

    Setelah membuat beberapa garis, pertimbangkan hasilnya. Apabila keputusannya masih tidak pasti, buatlah lingkaran kecil di ujung garis. Sementara itu, jika kamu perlu membuat keputusan lain, gambar persegi di ujung garis. Adapun jika kamu telah menyelesaikan solusi di akhir garis tersebut, biarkan ujung garis kosong.

3. Lanjutkan proses yang sama

    Setelah membuat perpanjangan keputusan dari setiap garis, ulangi proses yang sama. Buatlah garis baru di samping persegi atau lingkaran yang baru saja kamu buat. Kemudian, tuliskan solusinya di atas garis tersebut. Ulangi proses yang sama hingga kamu menyelesaikan solusi di setiap garis.

4. Tetapkan nilai untuk setiap kemungkinan hasil

    Jika semua garis telah menemukan solusi, berarti kamu tinggal menetapkan nilai untuk setiap hasilnya. Nilai yang dimaksud bisa berupa nilai abstrak maupun angka tertentu. Terakhir, tambahkan segitiga untuk menandakan titik akhir. Dengan decision tree yang telah selesai, kini kamu bisa menganalisis setiap risiko dan kemungkinan solusi yang ada.

 

Sumber: 
  • https://glints.com/id/lowongan/decision-tree-adalah/#.YXFPfhpBzIU
  • https://socs.binus.ac.id/2020/05/26/konsep-decision-tree-random-forest/ 
  • Materi Pertemuan 7 Machine learning Institut Teknologi PLN

Komentar

Postingan populer dari blog ini

Lirik dan Terjemahan Lagu Mai Nakahara - Anemone (Ending Anime Kamichama Karin)

Mengenal Apa itu Machine Learning ? beserta Pengertian dan Cara Kerjanya.

Terjamah lirik Gift Of A Friend - Demi Lovato