Terdapat beberapa jenis NN, yang dibedakan berdasarkan type, algoritma, learning methode maupun activation function, yang digunakan (Asro : 2010).
Type NN, yaitu yang berkaitan dengan koneksi antar neuron.
1. feedforward
Feedforward type merupakan type NN dimana neuron pada suatu layer hanya bisa berkoneksi dengan neuron yang berada pada layer yang berbeda. (Asro : 2010)
Yang termasuk dalam struktur feedforward (eliyani : 2005) :
- Single-layer perceptron
- Multilayer perceptron
- Radial-basis function networks
- Higher-order networks
- Polynomial learning networks
2. Feedback
Sedangkan feedback type merupakan type NN dimana neuron pada suatu layer bisa berkoneksi dengan neuron pada layer lainnya dan juga dengan neuron pada layer yang sama. (Asro : 2010)
Yang termasuk dalam stuktur recurrent (feedback) (eliyani : 2005) :
- Competitive networks
- Self-organizing maps
- Hopfield networks
- Adaptive-resonanse theory models
Algoritma, yaitu algoritma matematis yang digunakan NN untuk melakukan proses belajar.
- Backpropagation, merupakan suatu algoritma belajar (learning algorithm) yang digunakan oleh NN pada metode supervised. Salah satu bentuknya adalah delta learning rule. (Asro : 2010).
- Delta learning rule, merupakan algoritma belajar (learning algorithm) yang digunakan oleh NN pada metode supervised, dimana perubahan weight diperoleh dari hasil perkalian antara input, error dan learning rate. (Asro : 2010).
- Forwardpropagation, merupakan algoritma dimana output neuron hanya dipropagasi pada satu arah dari input ke output. (Asro : 2010).
- Hebb learning rule, merupakan algoritma yang digunakan dengan supervised learning, khususnya pada perceptron, dimana perubahan weight diperoleh dari perkalian input, output dan learning rate. (Asro : 2010).
- Simulated annealing, merupakan tipe khusus dari learning algorithm, khususnya untuk NN tipe feedback. (Asro : 2010)
Metoda (learning methode)
- Supervised learning, dimana ada target outputnya, sehingga error dihitung dari output hasil perhitungan dikurangi dengan target output. (Asro : 2010)
- Unsupervised learning, merupakan metode khusus dimana tidak ada target outputnya, contohnya adalah pada selforganizing neural nets seperti Kohonen Feature Map. (Asro : 2010)
Fungsi aktivasi (activation function), merupakan fungsi matematis yang digunakan untuk mendapatkan output neuron dari nilai inputnya. Disebut aktivasi karena output akan bernilai jika melampaui nilai threshold-nya. (Asro : 2010)
- hard limiter
- signum activation
- sigmoid activation.
Beikut adalah beberapa jenis NN yang biasa digunakan.
(1) Perceptron.
Pertama kali diperkenalkan oleh F. Rosenblatt pada tahun 1958. Umumnya hanya digunakan untuk operasi logic sederhana seperti AND atau OR, tidak untuk operasi logic yang agak kompleks seperti XOR. (Asro : 2010)
Type : feedforward.
Neuron layer : 1 input layer, 1 output layer.
Activation function : hard limiter.
Learning methode : supervised.
Learning algorithm : hebb learning rule.
Penggunaan: simple logical operations, pattern classification.
Jaringan lapis tunggal perseptron (single layer perceptron) terdiri dari beberapa unit pemroses (neuron) seperti pada gambar diatas, yang terhubung dan mempunyai beberapa masukan serta beberapa keluaran. Single Perceptron sering disebut juga dengan Perceptron. Perceptron menghitung jumlah nilai perkalian penimbang dan masukan dari parameter permasalahn yang kemudian dibandingkan dengan nilai treshold. Bila nilai keluaran lebih besar dari treshold maka keluarannya adalah satu, sebaliknya adalah nol.
Dimana xi adalah sinyal masukan dan wji adalah penimbangnya. Bila I>T maka keluaran O = 1 sebaliknya O = 0 dimana T adalah treshold.
(2) Multi-layer-perception.
Diperkenalkan oleh M. Minsky dan S. Papert pada tahun 1969, merupakan pengembangan dari Perceptron dan mempunyai satu atau lebih hidden layers yang terletak antara input dan output layers. Multi-layer-perceptron dapat digunakan untuk operasi logik termasuk yang kompleks seperti XOR. (Asro : 2010)
Type : feedforward.
Neuron layers : 1 input layer, 1 atau lebih hidden layers dan 1 output layer.
Activation function : hard limiter/sigmoid.
Learning methode : supervised.
Learning algorithm : delta learning rule atau backpropagation (paling banyak digunakan).
Penggunaan : complex logical operations, patten classification.
(3) Backpropagation Net.
Diperkenalkan oleh G.E. Hinton, E. Rumelhart dan R.J. Williams pada tahun 1986, merupakan tipe yang paling baik (powerfull). (Asro : 2010)
Type : feedforward.
Neuron layers : 1 input layer, 1 atau lebih hidden layers dan 1 output layer.
Activation function : sigmoid.
Learning methode : supervised.
Learning algorithm : backpropagation.
Penggunaannya : complex logical operations, patten classification, speech analysis.
Algoritma backpropagasi termasuk metode yang di desain untuk operasi pada jaringan feed foward multi lapis. Metode ini telah banyak digunakan secara luas, diantaranya diterapkan di bidang finansial, pengenalan pola tulisan tangan, pengenalan pola suara sistem kendali, pengolah citra medika, dan masih banyak lagi.
Secara garis besar cara kerja metode ini adlah jika jaringan diberikan pola masukan maka pola tersebut menuju ke unit-unit pada lapisan tersembunyi untuk diteruskan ke unit-unit lapisan keluaran. Kemudian unit-unit lapisan keluaran memberikan tanggapan yang disebut keluaran jaringan. Jika keluaran jaringan tidak sama dengan keluaran yang diharapkan, maka keluaran akan menyebar mundur pada lapisan tersembunyi lalu ke unit pada lapisan masukan. Sehingga metode ini disebut backpropagation.
(4) Hopfield Net.
Diperkenalkan oleh ahli fisika J.J. Hopfield tahun 1982 dan menjadi tipe NN yang disebut “thermodynamical models”. Terdiri dari sekumpulan neurons, tidak ada perbedaan antara input dan output neurons. (Asro : 2010)
Type : feedback.
Neuron layers : 1 matrix.
Activation function : signum/hard limiter.
Learning method : unsupervised.
Learning algorithm : delta learning rule/simulated annealing (paling banyak digunakan).
Penggunaannya : patten association, optimization problems.
Metode dapat dinyatakan sebagai sebuah memori asosiatip (associative memory). JST Hopfield merupakan salah satu metode optimasi untuk pencarian nilai minimum dari kombinasi fungsi obyektif.
(5) Kohonen Feature Map.
Diperkenalkan oleh Teuvo Kohonen (University of Helsinki) tahun 1982. (Asro : 2010)
Type : Feedforward/Feedback.
Neuron layers : 1 input layer, 1 map layer.
Activation function : sigmoid.
Learning methode : unsupervised.
Learning algorithm : selforganization.
Penggunaanya : patten association, optimization problems, simulation.
Metode ini merupakan proses unsupervised learning yang mempelajari distribusi himpunan pola-pola tanpa informasi kelas. Ide dasar teknik ini dipahami dari bagaimana proses otak manusia menyimpan gambar/pola yang telah dikenalinya melalui mata, kemudian mampu mengungkapkan kembali gambar/pola tersebut. Oleh karena itu, aplikasi model ini banyak digunakan pada pengenalan obyek/citra visual (visual image).
Referansi :
Eliyani.2005."Pengantar JAringan Syaraf Tiruan". http://www.stmikpontianak.ac.id/admin/upload/jaringan_syaraf_tiruan.pdf
0 comments:
Posting Komentar