bab iv fungsi aktivasi
DESCRIPTION
TUGASTRANSCRIPT
BAB IV
FUNGSI AKTIVASI
Tujuan
1. Agar pembaca mengetahui tentang fungsi aktivasi.
2. Agar pembaca memahami dan mengerti aplikasi fungsi aktivasi.
4.1 Pendahuluan
Pada setiap layer pada jaringan syaraf tiruan terdapat fungsi aktivasi. Fungsi
aktivasi biasanya dipakai untuk menentukan keluaran suatu neuron. Fungsi
aktivasi adalah fungsi umum yang akan digunakan untuk membawa input menuju
output yang diinginkan. Fungsi aktivasi merupakan fungsi yang menggambarkan
hubungan antara tingkat aktivasi internal (summation function) yang mungkin
berbentuk linier atau nonlinier.
Pengguaan fungsi aktivasi dapat dilihat pada contoh berikut ini :
Gambar 4.1 Contoh pengolahan data pada neuron
n11
n12
W122
W123
W131
W132
W133
a31
a22
W321
W311
a21n2
1
n22
W232
n13
a13
W231
W222
a12
W221
W121
W112
P2
P3
b1
2
b2
2
Input Layer pertama Layer kedua
W113
Layer ketiga
b3
1
a11W1
11P1
b11
W211
W212
b21
b1
3
Nilai masing – masing neuron dapat dicari dengan cara sebagai berikut :
nnn =
Nilai output pada layer pertama, layer kedua, dan layer ketiga tergantung pada
fungsi aktivasi yang digunakan.
Untuk nilai masing-masing input (p) dan bobot (W) adalah serbagai berikut :
p1 = 6
p2 = 9
p3 = 3
W111 = 0,2
W112 = 0,4
W113 = -0,2
W121 = 0,2
W122 = -0,4
W123 = 0,7
W131 = -0,2
W132 = 0,2
W133 = -0,8
W211 = 0,2
W212 = -0,4
W221 = 0,4
W222 = -0,1
W231 = 0,5
W232 = -0,8
W311 = 0,3
W321 = -0,1
b11 = 0,5
b12 = 0,2
b13 = 0,3
b21 = 0,6
b22 = 0,3
b31 = 0,6
Untuk perhitungan nilai neuron layer pertama :
n11 =
= [(0,2*6)+(0,2*9)+(-0,2*3)] + 0,5
= 2,4 + 0,5
= 2,9
n12 =
= [(0,4*6)+(-0,4*9)+(0,2*3)] + 0,2
= -0,6 + 0,2
= -0,4
n13 =
= [(-0,2*6)+(0,7*9)+(-0,8*3)] + 0,3
= 2,7 + 0,5
= 3,2
Berikut merupakan beberapa fungsi aktivasi yang digunakan pada ANN,
yaitu :
4.2 Hard Limit (Fungsi Undak Biner atau Step)
Sebuah fungsi step atau hard limit adalah fungsi seperti yang digunakan
oleh Perceptron asli. Output adalah nilai tertentu, a = 1, jika jumlah input (n≥0)
dan a = 0 jika jumlah input (n<0). Biasanya fungsi ini mempunyai dua jenis
output saja yaitu 0 dan 1. Di bawah ini merupakan gambar dari Transfer Function
Hard Limit adalah :
Gambar (a) Gambar (b)
Gambar 4.2 Gambar (a) Hard Limit Transfer Function; Gambar (b) Hard Limit
dengan Bias
Fungsi aktivasi Hard Limit dapat disimbulkan sebagai berikut :
Algoritma dari Hard Limit adalah sebagai berikut :
jika n ≥ 0 maka a = 1
jika n < 0 maka a = 0
Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1
3 bila
menggunakan fungsi aktivasi hard limit menjadi :
a11 = F(2,9) = 1, karena 2,9 ≥ 0
a12 = F(-0,4) = 0, karena -0,4 < 0
a13 = F(3,2) = 1, karena 3,2 ≥ 0
Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi
input pada layer kedua. Berikut merupakan perhitungannya :
n21 =
= [(0,2*1)+(0,4*0)+(0,5*1)] + 0,6
= 0,7 + 0,6
= 1,3
n22 =
= [(-0,4*1)+(-0,1*0)+(-0,8*1)] + 0,3
= -1,2 + 0,3
= -0,9
Dari hasil diatas nilai output a21 dan a2
2 bila menggunakan fungsi aktivasi hard
limit menjadi :
a21 = F(1,3) = 1, karena 1,3 ≥ 0
a22 = F(-0,9) = 0, karena -0,9 < 0
Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input
pada layer ketiga. Berikut merupakan perhitungannya :
n21 =
= [(0,3*1)+(-0,1*0)] + 0,6
= 0,3 + 0,6
= 0,9
Dari hasil diatas nilai output akhir (a31) adalah :
a21 = F(0,9) = 1, karena 0,9 ≥ 0
4.3 Symmetric Hard Limit (Fungsi Bipolar)
Fungsi Symmetric Hard Limit sebenarnya tidak jauh berbeda dengan fungsi
transfer Hard Limit hanya saja output yang dihasilkan berbeda. Fungsi transfer
Symmatric Hard Limit digunakan untuk membawa input ke output yang terbatas.
Biasanya fungsi ini mempunyai dua jenis output saja yaitu -1 dan 1. Di bawah ini
merupakan gambar dari Transfer Function Symmetric Hard Limit adalah :
a = hardlims(W*p+b)
Gambar (a) Gambar (b)
Gambar 4.4 Gambar (a) Symmetric Hard Limit Transfer Function; Gambar (b)
Symmetric Hard Limit dengan Bias
Fungsi aktivasi Symmetric Hard Limit dapat disimbulkan sebagai berikut :
Algoritma dari Transfer Function Symmetric Hard Limit adalah :
jika n ≥ 0 maka a = +1
jika n < 0 maka a = -1
Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1
3 bila
menggunakan fungsi aktivasi symmetric hard limit menjadi :
a11 = F(2,9) = 1, karena 2,9 ≥ 0
a12 = F(-0,4) = -1, karena -0,4 < 0
a13 = F(3,2) = 1, karena 3,2 ≥ 0
-b/Wp
Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi
input pada layer kedua. Berikut merupakan perhitungannya :
n21 =
= [(0,2*1)+(0,4*-1)+(0,5*1)] + 0,6
= 0,3 + 0,6
= 0,9
n22 =
= [(-0,4*1)+(-0,1*-1)+(-0,8*1)] + 0,3
= -1,1 + 0,3
= -0,8
Dari hasil diatas nilai output a21 dan a2
2 bila menggunakan fungsi aktivasi
symmetric hard limit menjadi :
a21 = F(0,9) = 1, karena 0,9 ≥ 0
a22 = F(-0,8) = -1, karena -0,8 < 0
Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input
pada layer ketiga. Berikut merupakan perhitungannya :
n21 =
= [(0,3*1)+(-0,1*-1)] + 0,6
= 0,4 + 0,6
= 1
Dari hasil diatas nilai output akhir (a31) adalah :
a21 = F(1) = 1, karena 1 ≥ 0
4.4 Linier (Fungsi Identitas)
Fungsi linier akan membawa input ke output yang sebanding antara input
dan outputnya. Fungsi ini digambarkan sebagai berikut :
Gambar (a) Gambar (b)
Gambar 4.6 Gambar (a) Linier Transfer Function; Gambar (b) Linier Transfer
Function dengan Bias
Fungsi aktivasi linier dapat disimbulkan sebagai berikut :
Algoritma dari fungsi ini adalah:
a = n
Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1
3 bila
menggunakan fungsi aktivasi linier menjadi :
a11 = F(2,9) = 2,9, karena input sama dengan output
a12 = F(-0,4) = -0,4, karena input sama dengan output
a13 = F(3,2) = 3,2, karena input sama dengan output
Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi
input pada layer kedua. Berikut merupakan perhitungannya :
n21 =
= [(0,2*2,9)+(0,4*(-0,4))+(0,5*3,2)] + 0,6
= 2,02 + 0,6
= 2,62
n22 =
= [(-0,4*2,9)+(-0,1*(-0,4))+(-0,8*3,2)] + 0,3
= -3,68 + 0,3
= -3,65
Dari hasil diatas nilai output a21 dan a2
2 bila menggunakan fungsi aktivasi linier
menjadi :
a21 = F(2,62) = 2,62, karena input sama dengan output
a22 = F(-3,65) = -3,65, karena input sama dengan output
Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input
pada layer ketiga. Berikut merupakan perhitungannya :
n21 =
= [(0,3*2,62)+(-0,1*-3,65)] + 0,6
= 1,413 + 0,6
= 2,013
Dari hasil diatas nilai output akhir (a31) adalah :
a21 = F(2,013) = 2,013, karena input sama dengan output
4.5 Fungsi Saturating Linier
Fungsi ini akan memiliki nilai 0 jika memperoleh input - ½ dan akan
bernilai 1 jika memperoleh input lebih dari ½. Sedangkan jika nilai input terletak
antara – ½ dan ½ maka outputnya akan bernilai sama dengan nilai inputnya
ditambah ½. Fungsi Saturating Linier digambarkan seperti gambar berikut :
a = satlin (n) a = satlin (W*p+b)
Gambar (a) Gambar (b)
Gambar 4.8 Gambar (a) Saturating Linier Transfer Function; Gambar (b)
Saturating Linier dengan bias
Fungsi aktivasi Saturating Linier dapat disimbulkan sebagai berikut :
Algoritma dari fungsi ini adalah :
Jika n < 0; maka a = 0
Jika 0 ≤ n ≤ 1; maka a = n
Jika n > 1; maka a = 1
Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1
3 bila
menggunakan fungsi aktivasi saturating linier menjadi :
a11 = F(2,9) = 1, karena 2,9 > 1
a12 = F(-0,4) = 0, karena -0,4 < 0
a13 = F(3,2) = 1, karena 3,2 > 1
Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi
input pada layer kedua. Berikut merupakan perhitungannya :
n21 =
= [(0,2*1)+(0,4*(0))+(0,5*1)] + 0,6
= 0,7 + 0,6
= 1,3
n22 =
= [(-0,4*1)+(-0,1*(0))+(-0,8*1)] + 0,3
= -1,2 + 0,3
= -0,9
Dari hasil diatas nilai output a21 dan a2
2 bila menggunakan fungsi aktivasi
saturating linier menjadi :
a21 = F(1,3) = 1, karena 1,3 > 1
a22 = F(-0,9) = 0, karena -0,9 < 0
Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input
pada layer ketiga. Berikut merupakan perhitungannya :
n21 =
= [(0,3*1)+(-0,1*0)] + 0,6
= 0,3 + 0,6
= 0,9
Dari hasil diatas nilai output akhir (a31) adalah :
a21 = F(0,9) = 0,9, karena 0 < 0,9 < 1
4.6 Fungsi Symmetric Saturating Linier
Fungsi Symmetric Saturating Linier akan bernilai -1 bila inputnya kurang
dari -1 dan akan bernilai 1 bila inputnya lebih dari 1. Sedangkan jika inputnya
terletak diantara -1 dan 1, maka outputnya akan bernilai sama dengan nilai
inputnya. Fungsi Symmetric Saturating Linier dapat digambarkan sebagai berikut:
a = satlins (n) a = satlins (W*p+b)
Gambar (a) Gambar (b)
Gambar 4.10 Gambar (a) Fungsi Aktivasi Symmetric Saturating Linier;
Gambar (b) Symmetric Saturating Linier dengan bias
Fungsi aktivasi Symmetric Saturating Linier dapat disimbulkan sebagai berikut :
Algoritma dari fungsi ini adalah :
Jika n < -1; maka a = -1
Jika -1 ≤ n ≤ 1; maka a = n
Jika n > 1; maka a = 1
Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1
3 bila
menggunakan fungsi aktivasi symmetric saturating linier menjadi :
a11 = F(2,9) = 1, karena 2,9 > 1
a12 = F(-0,4) = -0,4, karena -1 < -0,4 < 1
a13 = F(3,2) = 1, karena 3,2 > 1
Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi
input pada layer kedua. Berikut merupakan perhitungannya :
n21 =
= [(0,2*1)+(0,4*(-0,4))+(0,5*1)] + 0,6
= 0,54 + 0,6
= 1,14
n22 =
= [(-0,4*1)+(-0,1*(-0,4))+(-0,8*1)] + 0,3
= -1,16 + 0,3
= -0,86
Dari hasil diatas nilai output a21 dan a2
2 bila menggunakan fungsi aktivasi
symmetric saturating linier menjadi :
a21 = F(1,14) = 1, karena 1,14 > 1
a22 = F(-0,86) = -0,86, karena -1 < -0,86 < 1
Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input
pada layer ketiga. Berikut merupakan perhitungannya :
n21 =
= [(0,3*1)+(-0,1*(-0.86))] + 0,6
= 0,386 + 0,6
= 0,986
Dari hasil diatas nilai output akhir (a31) adalah :
a21 = F(0,986) = 0,986, karena 0 < 0,986 < 1
4.7 Fungsi Log-Sigmoid
Log-Sigmoid adalah fungsi transfer yang membawa input ke output
dengan penghitungan log-sigmoid. Nilai outputnya antara 0 hingga 1.
Function Log Sigmoid dapat digambarkan sebagai berikut :
Gambar (a) Gambar (b)
Gambar 4.12 Gambar (a) Fungsi Log-Sigmoid; Gambar (b) Fungsi Log-
Sigmoid dengan Bias
Fungsi aktivasi Log Sigmoid dapat disimbulkan sebagai berikut :
Algoritma dari fungsi ini adalah:
Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1
3 bila
menggunakan fungsi aktivasi log sigmoid menjadi :
a11 = F(2,9) = 0,94
a12 = F(-0,4) = 0,4
a13 = F(3,2) = 0,96
Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi
input pada layer kedua. Berikut merupakan perhitungannya :
n21 =
= [(0,2*0,94)+(0,4*(0,4))+(0,5*0,96)] + 0,6
= 0,828 + 0,6
= 1,428
n22 =
= [(-0,4*0,94)+(-0,1*(0,4))+(-0,8*0,96)] + 0,3
= -1,184 + 0,3
= -0,884
Dari hasil diatas nilai output a21 dan a2
2 bila menggunakan fungsi aktivasi log
sigmoid menjadi :
a21 = F(1,428) = 0,8
a22 = F(-0,884) = 0,29
Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input
pada layer ketiga. Berikut merupakan perhitungannya :
n21 =
= [(0,3*0,8)+(-0,1*(0,29))] + 0,6
= 0,211 + 0,6
= 0,811
Dari hasil diatas nilai output akhir (a31) adalah :
a21 = F(0,986) = 0,986
4.8 Fungsi Tangent Sigmoid
Tangent sigmoid adalah fungsi sigmoid tangent yang digunakan sebagai
fungsi aktivasi Fungsi ini akan membawa nilai input pada output dengan
menggunakan rumus hyperbolic tangent sigmoid. Nilai maksimal output dari
fungsi ini adalah 1 dan minimal -1. Function tangent Sigmoid dapat digambarkan
sebagai berikut :
a = tangsig (W*p+b)
Gambar (a) Gambar (b)
Gambar 4.14 Gambar (a) fungsi Aktivasi Tangent Sigmoid; Gambar (b)
Tangent Sigmoid dengan Bias
Fungsi aktivasi Tangent Sigmoid dapat disimbulkan sebagai berikut :
Algoritma dari fungsi ini adalah:
Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1
3 bila
menggunakan fungsi aktivasi Tangent Sigmoid menjadi :
a11 = F(2,9) = 0,9939
a12 = F(-0,4) = -0,37
a13 = F(3,2) = 0,9966
p-b/W
Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi
input pada layer kedua. Berikut merupakan perhitungannya :
n21 =
= [(0,2*0,9939)+(0,4*(-0,37))+(0,5*0,9966)] + 0,6
= 0,54 + 0,6
= 1,14908
n22 =
= [(-0,4*0,9939)+(-0,1*(-0, 0,37))+(-0,8*0,9966)] + 0,3
= -1,16 + 0,3
= -0,85784
Dari hasil diatas nilai output a21 dan a2
2 bila menggunakan fungsi aktivasi Tangent
Sigmoid menjadi :
a21 = F(1,14908) = 0,817
a22 = F(-0, 85784) = -0,695
Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input
pada layer ketiga. Berikut merupakan perhitungannya :
n21 =
= [(0,3*0,817)+(-0,1*(-0. 695))] + 0,6
= 0,386 + 0,6
= 0,9146
Dari hasil diatas nilai output akhir (a31) adalah :
a21 = F(0,9146) = 0,7233
4.9 Fungsi Positive Linier
Fungsi positive linier akan membawa output sama dengan 0 saat nilai input
yang telah terbobot (n) dan telah ditambah bias lebih kecil dari 0. Dan akan
membawa output (a) sama dengan nilai input yang terbobot (n) saat nilai input
yang terbobot lebih besar atau sama dengan 0.
a = poslin (n) a = poslin (W*p+b)
Gambar (a) Gambar (b)
Gambar 4.16 Gambar (a) Fungsi Positive Linier; Gambar (b) Positive
Linier dengan bias
Fungsi aktivasi positive linier dapat disimbulkan sebagai berikut :
Algoritma Fungsi positive linier :
a = 0, jika n < 0
a = n , jika 0 ≤ n
Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1
3 bila
menggunakan fungsi aktivasi Positive Linier menjadi :
a11 = F(2,9) = 2,9, karena 2,9 ≥ 0
a12 = F(-0,4) = 0, karena -0,4 < 0
a13 = F(3,2) = 3,2, karena 3,2 ≥ 0
Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi
input pada layer kedua. Berikut merupakan perhitungannya :
n21 =
= [(0,2*2,9)+(0,4*(0))+(0,5*3,2)] + 0,6
= 2,18 + 0,6
= 2,78
n22 =
= [(-0,4*2,9)+(-0,1*(0))+(-0,8*3,2)] + 0,3
= -3,72 + 0,3
= -3,42
Dari hasil diatas nilai output a21 dan a2
2 bila menggunakan fungsi aktivasi Positive
Linier menjadi :
a21 = F(2,78) = 2,78, karena 1,14 ≥ 0
a22 = F(-3,42) = -3,42, karena 3,42< 0
Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input
pada layer ketiga. Berikut merupakan perhitungannya :
n21 =
= [(0,3*2,78)+(-0,1*(0))] + 0,6
= 0,834 + 0,6
= 1,434
Dari hasil diatas nilai output akhir (a31) adalah :
a21 = F(1,434) = 1,434, karena 1,434 ≥ 0
Contoh Fungsi Aktivasi
Pengguaan fungsi aktivasi dapat dilihat pada contoh berikut ini :
Untuk nilai masing-masing input (p) dan bobot (W) adalah serbagai berikut :
p1 = 2
p2 = 4
p3 = 7
W111 = 0,1
W112 = 0,3
W113 = -0,5
W121 = 0,5
n11
n12
W122
W123
W131
W132
W133
a31
a22
W321
W311
a21n2
1
n22
W232
n13
a13
W231
W222
a12
W221
W121
W112
P2
P3
b1
2
b2
2
W113
b3
1
a11W1
11P1
b11
W211
W212
b21
W122 = -0,2
W123 = 0,6
W131 = -0,1
W132 = 0,8
W133 = -0,4
W211 = 0,4
W212 = -0,2
W221 = 0,5
W222 = -0,3
W231 = 0,1
W232 = -0,1
W311 = 0,7
W321 = 0,3
b11 = 0,2
b12 = 0,2
b13 = 0,1
b21 = 0,4
b22 = 0,3
b31 = 0,5
Untuk perhitungan nilai neuron layer pertama :
n11 =
= [(0,1*2)+(0,5*4)+(-0,1*7)] + 0,2
= 1,5 + 0,2
= 1,7
n12 =
= [(0,3*2)+(-0,2*4)+(0,8*7)] + 0,2
= 5,4 + 0,2
= 5,6
n13 =
= [(-0,5*2)+(0,6*4)+(-0,4*7)] + 0,1
= -1,4 + 0,1
= -1,3
Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1
3 bila
menggunakan fungsi aktivasi hard limit menjadi :
a11 = F(1,7) = 1, karena 1,7 ≥ 0
a12 = F(5,6) = 1, karena 5,6 ≥ 0
a13 = F(-1,3) = 0, karena -1,3 < 0
Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi
input pada layer kedua. Berikut merupakan perhitungannya :
n21 =
= [(0,4*1)+(0,5*1)+(0,1*0)] + 0,4
= 0,9 + 0,4
= 1,3
n22 =
= [(-0,2*1)+(-0,3*1)+(-0,1*0)] + 0,3
= -0,5 + 0,3
= -0,2
Dari hasil perhitungan diatas nilai output a21 sampai a2
2 bila menggunakan fungsi
aktivasi symmetric hard limit menjadi :
a21 = F(1,3) = 1, karena 1,7 ≥ 0
a22 = F(-0,2) = -1, karena -0,2 < 0
Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input
pada layer ketiga. Berikut merupakan perhitungannya :
n31 =
= [(0,7*1)+(0,3*-1)] + 0,5
= 0,4 + 0,5
= 0,9
Dari hasil perhitungan diatas nilai output a31 bila menggunakan fungsi aktivasi
symmetric saturating linier menjadi :
a31 = F(0,9) = 0,9, karena -1 < 0,9 < 1
Soal
1. Apa saja nilai output dari fungsi transfer Hard Limit?
2. Apa rumus dari perhitungan neuron?
3. Gambarkan lambang dari fungsi Tangent Sigmoid !
4. Berapa jumlah layer pada contoh di atas?
5. Hitunglah nilai keluaran(output) dari gambar di bawah!
Diketahui :
p1 = 2
p2 = 5
W111 = 0,1
W112 = 0,2
W121 = 0,2
W122 = -0,1
W211 = 0,2
W212 = -0,3
W221 = 0,4
W222 = -0,2
W311 = 0,2
n11
n12W1
22
a21n2
1
a12
W221
W121
W112
P2
b1
2
a11W1
11P1
b11
W211
b21
W321 = 0,3
b11 = 0,2
b12 = 0,1
b21 =0,5
DAFTAR PUSTAKA
[1]. Demuth, Howard. 2000. Neural Network Toolbox.
[2]. Fausett, Laurene. Fundamentals of Neural Networks.
[3]. Hagan, Martin T. DKK. 1996. Neural Network Design. USA : PWS
Publishing Company.
[4]. Smagt, Patrick van der. 1996. An Introduction Neural Networks. The
University of Amsterdam.
[5]. Tan, Clarence N W. An Artificial Neural Networks Primer with Financial
Applications Examples in Financial Distress Predictions and Foreign
Exchange Hybrid Trading System. Australia : School of Information
Technology.
[6]. Hagan, Martin T. DKK. AN INTRODUCTION TO THE USEOF
NEURAL NETWORKS IN CONTROL SYSTEMS.
DAFTAR PUSTAKA dari Internet
[7]. http://en.wikibooks.org/wiki/Artificial_Neural_Networks/
Activation_Functions