bab iv fungsi aktivasi

33
BAB IV FUNGSI AKTIVASI Tujuan 1. Agar pembaca mengetahui tentang fungsi aktivasi. 2. Agar pembaca memahami dan mengerti aplikasi fungsi aktivasi. 4.1 Pendahuluan Pada setiap layer pada jaringan syaraf tiruan terdapat fungsi aktivasi. Fungsi aktivasi biasanya dipakai untuk menentukan keluaran suatu neuron. Fungsi aktivasi adalah fungsi umum yang akan digunakan untuk membawa input menuju output yang diinginkan. Fungsi aktivasi merupakan fungsi yang menggambarkan hubungan antara tingkat aktivasi internal (summation function) yang mungkin berbentuk linier atau nonlinier. Pengguaan fungsi aktivasi dapat dilihat pada contoh berikut ini : n 1 1 n 1 2 W 1 22 a 3 1 W 3 11 a 2 1 n 2 1 W 2 22 a 1 2 W 2 21 W 1 21 W 1 12 P 2 W 1 13 a 1 W 1 11 P 1 b 1 1 W 2 11 W 2 12 b 2 1

Upload: daniel-kristama

Post on 03-Dec-2015

45 views

Category:

Documents


1 download

DESCRIPTION

TUGAS

TRANSCRIPT

Page 1: BAB IV Fungsi Aktivasi

BAB IV

FUNGSI AKTIVASI

Tujuan

1. Agar pembaca mengetahui tentang fungsi aktivasi.

2. Agar pembaca memahami dan mengerti aplikasi fungsi aktivasi.

4.1 Pendahuluan

Pada setiap layer pada jaringan syaraf tiruan terdapat fungsi aktivasi. Fungsi

aktivasi biasanya dipakai untuk menentukan keluaran suatu neuron. Fungsi

aktivasi adalah fungsi umum yang akan digunakan untuk membawa input menuju

output yang diinginkan. Fungsi aktivasi merupakan fungsi yang menggambarkan

hubungan antara tingkat aktivasi internal (summation function) yang mungkin

berbentuk linier atau nonlinier.

Pengguaan fungsi aktivasi dapat dilihat pada contoh berikut ini :

Gambar 4.1 Contoh pengolahan data pada neuron

n11

n12

W122

W123

W131

W132

W133

a31

a22

W321

W311

a21n2

1

n22

W232

n13

a13

W231

W222

a12

W221

W121

W112

P2

P3

b1

2

b2

2

Input Layer pertama Layer kedua

W113

Layer ketiga

b3

1

a11W1

11P1

b11

W211

W212

b21

b1

3

Page 2: BAB IV Fungsi Aktivasi

Nilai masing – masing neuron dapat dicari dengan cara sebagai berikut :

nnn =

Nilai output pada layer pertama, layer kedua, dan layer ketiga tergantung pada

fungsi aktivasi yang digunakan.

Untuk nilai masing-masing input (p) dan bobot (W) adalah serbagai berikut :

p1 = 6

p2 = 9

p3 = 3

W111 = 0,2

W112 = 0,4

W113 = -0,2

W121 = 0,2

W122 = -0,4

W123 = 0,7

W131 = -0,2

W132 = 0,2

W133 = -0,8

W211 = 0,2

W212 = -0,4

W221 = 0,4

W222 = -0,1

W231 = 0,5

W232 = -0,8

W311 = 0,3

W321 = -0,1

Page 3: BAB IV Fungsi Aktivasi

b11 = 0,5

b12 = 0,2

b13 = 0,3

b21 = 0,6

b22 = 0,3

b31 = 0,6

Untuk perhitungan nilai neuron layer pertama :

n11 =

= [(0,2*6)+(0,2*9)+(-0,2*3)] + 0,5

= 2,4 + 0,5

= 2,9

n12 =

= [(0,4*6)+(-0,4*9)+(0,2*3)] + 0,2

= -0,6 + 0,2

= -0,4

n13 =

= [(-0,2*6)+(0,7*9)+(-0,8*3)] + 0,3

= 2,7 + 0,5

= 3,2

Berikut merupakan beberapa fungsi aktivasi yang digunakan pada ANN,

yaitu :

Page 4: BAB IV Fungsi Aktivasi

4.2 Hard Limit (Fungsi Undak Biner atau Step)

Sebuah fungsi step atau hard limit adalah fungsi seperti yang digunakan

oleh Perceptron asli. Output adalah nilai tertentu, a = 1, jika jumlah input (n≥0)

dan a = 0 jika jumlah input (n<0). Biasanya fungsi ini mempunyai dua jenis

output saja yaitu 0 dan 1. Di bawah ini merupakan gambar dari Transfer Function

Hard Limit adalah :

Gambar (a) Gambar (b)  

Gambar 4.2 Gambar (a) Hard Limit Transfer Function; Gambar (b) Hard Limit

dengan Bias

Fungsi aktivasi Hard Limit dapat disimbulkan sebagai berikut :

Algoritma dari Hard Limit adalah sebagai berikut :

jika n ≥ 0 maka a = 1

jika n < 0 maka a = 0

Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1

3 bila

menggunakan fungsi aktivasi hard limit menjadi :

a11 = F(2,9) = 1, karena 2,9 ≥ 0

a12 = F(-0,4) = 0, karena -0,4 < 0

a13 = F(3,2) = 1, karena 3,2 ≥ 0

Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi

input pada layer kedua. Berikut merupakan perhitungannya :

Page 5: BAB IV Fungsi Aktivasi

n21 =

= [(0,2*1)+(0,4*0)+(0,5*1)] + 0,6

= 0,7 + 0,6

= 1,3

n22 =

= [(-0,4*1)+(-0,1*0)+(-0,8*1)] + 0,3

= -1,2 + 0,3

= -0,9

Dari hasil diatas nilai output a21 dan a2

2 bila menggunakan fungsi aktivasi hard

limit menjadi :

a21 = F(1,3) = 1, karena 1,3 ≥ 0

a22 = F(-0,9) = 0, karena -0,9 < 0

Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input

pada layer ketiga. Berikut merupakan perhitungannya :

n21 =

= [(0,3*1)+(-0,1*0)] + 0,6

= 0,3 + 0,6

= 0,9

Dari hasil diatas nilai output akhir (a31) adalah :

a21 = F(0,9) = 1, karena 0,9 ≥ 0

4.3 Symmetric Hard Limit (Fungsi Bipolar)

Page 6: BAB IV Fungsi Aktivasi

Fungsi Symmetric Hard Limit sebenarnya tidak jauh berbeda dengan fungsi

transfer Hard Limit hanya saja output yang dihasilkan berbeda. Fungsi transfer

Symmatric Hard Limit digunakan untuk membawa input ke output yang terbatas.

Biasanya fungsi ini mempunyai dua jenis output saja yaitu -1 dan 1. Di bawah ini

merupakan gambar dari Transfer Function Symmetric Hard Limit adalah :

  a = hardlims(W*p+b)

Gambar (a) Gambar (b)

Gambar 4.4 Gambar (a) Symmetric Hard Limit Transfer Function; Gambar (b)

Symmetric Hard Limit dengan Bias

Fungsi aktivasi Symmetric Hard Limit dapat disimbulkan sebagai berikut :

Algoritma dari Transfer Function Symmetric Hard Limit adalah :

jika n ≥ 0 maka a = +1

jika n < 0 maka a = -1

Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1

3 bila

menggunakan fungsi aktivasi symmetric hard limit menjadi :

a11 = F(2,9) = 1, karena 2,9 ≥ 0

a12 = F(-0,4) = -1, karena -0,4 < 0

a13 = F(3,2) = 1, karena 3,2 ≥ 0

-b/Wp

Page 7: BAB IV Fungsi Aktivasi

Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi

input pada layer kedua. Berikut merupakan perhitungannya :

n21 =

= [(0,2*1)+(0,4*-1)+(0,5*1)] + 0,6

= 0,3 + 0,6

= 0,9

n22 =

= [(-0,4*1)+(-0,1*-1)+(-0,8*1)] + 0,3

= -1,1 + 0,3

= -0,8

Dari hasil diatas nilai output a21 dan a2

2 bila menggunakan fungsi aktivasi

symmetric hard limit menjadi :

a21 = F(0,9) = 1, karena 0,9 ≥ 0

a22 = F(-0,8) = -1, karena -0,8 < 0

Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input

pada layer ketiga. Berikut merupakan perhitungannya :

n21 =

= [(0,3*1)+(-0,1*-1)] + 0,6

= 0,4 + 0,6

= 1

Dari hasil diatas nilai output akhir (a31) adalah :

a21 = F(1) = 1, karena 1 ≥ 0

Page 8: BAB IV Fungsi Aktivasi

4.4 Linier (Fungsi Identitas)

Fungsi linier akan membawa input ke output yang sebanding antara input

dan outputnya. Fungsi ini digambarkan sebagai berikut :

Gambar (a) Gambar (b)  

Gambar 4.6 Gambar (a) Linier Transfer Function; Gambar (b) Linier Transfer

Function dengan Bias

Fungsi aktivasi linier dapat disimbulkan sebagai berikut :

Algoritma dari fungsi ini adalah:

a = n

Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1

3 bila

menggunakan fungsi aktivasi linier menjadi :

a11 = F(2,9) = 2,9, karena input sama dengan output

a12 = F(-0,4) = -0,4, karena input sama dengan output

a13 = F(3,2) = 3,2, karena input sama dengan output

Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi

input pada layer kedua. Berikut merupakan perhitungannya :

n21 =

= [(0,2*2,9)+(0,4*(-0,4))+(0,5*3,2)] + 0,6

= 2,02 + 0,6

= 2,62

Page 9: BAB IV Fungsi Aktivasi

n22 =

= [(-0,4*2,9)+(-0,1*(-0,4))+(-0,8*3,2)] + 0,3

= -3,68 + 0,3

= -3,65

Dari hasil diatas nilai output a21 dan a2

2 bila menggunakan fungsi aktivasi linier

menjadi :

a21 = F(2,62) = 2,62, karena input sama dengan output

a22 = F(-3,65) = -3,65, karena input sama dengan output

Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input

pada layer ketiga. Berikut merupakan perhitungannya :

n21 =

= [(0,3*2,62)+(-0,1*-3,65)] + 0,6

= 1,413 + 0,6

= 2,013

Dari hasil diatas nilai output akhir (a31) adalah :

a21 = F(2,013) = 2,013, karena input sama dengan output

4.5 Fungsi Saturating Linier

Fungsi ini akan memiliki nilai 0 jika memperoleh input - ½ dan akan

bernilai 1 jika memperoleh input lebih dari ½. Sedangkan jika nilai input terletak

antara – ½ dan ½ maka outputnya akan bernilai sama dengan nilai inputnya

ditambah ½. Fungsi Saturating Linier digambarkan seperti gambar berikut :

Page 10: BAB IV Fungsi Aktivasi

a = satlin (n) a = satlin (W*p+b)

Gambar (a) Gambar (b)

Gambar 4.8 Gambar (a) Saturating Linier Transfer Function; Gambar (b)

Saturating Linier dengan bias

Fungsi aktivasi Saturating Linier dapat disimbulkan sebagai berikut :

Algoritma dari fungsi ini adalah :

Jika n < 0; maka a = 0

Jika 0 ≤ n ≤ 1; maka a = n

Jika n > 1; maka a = 1

Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1

3 bila

menggunakan fungsi aktivasi saturating linier menjadi :

a11 = F(2,9) = 1, karena 2,9 > 1

a12 = F(-0,4) = 0, karena -0,4 < 0

a13 = F(3,2) = 1, karena 3,2 > 1

Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi

input pada layer kedua. Berikut merupakan perhitungannya :

Page 11: BAB IV Fungsi Aktivasi

n21 =

= [(0,2*1)+(0,4*(0))+(0,5*1)] + 0,6

= 0,7 + 0,6

= 1,3

n22 =

= [(-0,4*1)+(-0,1*(0))+(-0,8*1)] + 0,3

= -1,2 + 0,3

= -0,9

Dari hasil diatas nilai output a21 dan a2

2 bila menggunakan fungsi aktivasi

saturating linier menjadi :

a21 = F(1,3) = 1, karena 1,3 > 1

a22 = F(-0,9) = 0, karena -0,9 < 0

Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input

pada layer ketiga. Berikut merupakan perhitungannya :

n21 =

= [(0,3*1)+(-0,1*0)] + 0,6

= 0,3 + 0,6

= 0,9

Dari hasil diatas nilai output akhir (a31) adalah :

a21 = F(0,9) = 0,9, karena 0 < 0,9 < 1

4.6 Fungsi Symmetric Saturating Linier

Page 12: BAB IV Fungsi Aktivasi

Fungsi Symmetric Saturating Linier akan bernilai -1 bila inputnya kurang

dari -1 dan akan bernilai 1 bila inputnya lebih dari 1. Sedangkan jika inputnya

terletak diantara -1 dan 1, maka outputnya akan bernilai sama dengan nilai

inputnya. Fungsi Symmetric Saturating Linier dapat digambarkan sebagai berikut:

a = satlins (n) a = satlins (W*p+b)

Gambar (a) Gambar (b)

Gambar 4.10 Gambar (a) Fungsi Aktivasi Symmetric Saturating Linier;

Gambar (b) Symmetric Saturating Linier dengan bias

Fungsi aktivasi Symmetric Saturating Linier dapat disimbulkan sebagai berikut :

Algoritma dari fungsi ini adalah :

Jika n < -1; maka a = -1

Jika -1 ≤ n ≤ 1; maka a = n

Jika n > 1; maka a = 1

Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1

3 bila

menggunakan fungsi aktivasi symmetric saturating linier menjadi :

a11 = F(2,9) = 1, karena 2,9 > 1

a12 = F(-0,4) = -0,4, karena -1 < -0,4 < 1

a13 = F(3,2) = 1, karena 3,2 > 1

Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi

input pada layer kedua. Berikut merupakan perhitungannya :

Page 13: BAB IV Fungsi Aktivasi

n21 =

= [(0,2*1)+(0,4*(-0,4))+(0,5*1)] + 0,6

= 0,54 + 0,6

= 1,14

n22 =

= [(-0,4*1)+(-0,1*(-0,4))+(-0,8*1)] + 0,3

= -1,16 + 0,3

= -0,86

Dari hasil diatas nilai output a21 dan a2

2 bila menggunakan fungsi aktivasi

symmetric saturating linier menjadi :

a21 = F(1,14) = 1, karena 1,14 > 1

a22 = F(-0,86) = -0,86, karena -1 < -0,86 < 1

Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input

pada layer ketiga. Berikut merupakan perhitungannya :

n21 =

= [(0,3*1)+(-0,1*(-0.86))] + 0,6

= 0,386 + 0,6

= 0,986

Dari hasil diatas nilai output akhir (a31) adalah :

a21 = F(0,986) = 0,986, karena 0 < 0,986 < 1

Page 14: BAB IV Fungsi Aktivasi

4.7 Fungsi Log-Sigmoid

Log-Sigmoid adalah fungsi transfer yang membawa input ke output

dengan penghitungan log-sigmoid. Nilai outputnya antara 0 hingga 1.

Function Log Sigmoid dapat digambarkan sebagai berikut :

Gambar (a) Gambar (b)  

Gambar 4.12 Gambar (a) Fungsi Log-Sigmoid; Gambar (b) Fungsi Log-

Sigmoid dengan Bias

Fungsi aktivasi Log Sigmoid dapat disimbulkan sebagai berikut :

Algoritma dari fungsi ini adalah:

Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1

3 bila

menggunakan fungsi aktivasi log sigmoid menjadi :

a11 = F(2,9) = 0,94

a12 = F(-0,4) = 0,4

a13 = F(3,2) = 0,96

Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi

input pada layer kedua. Berikut merupakan perhitungannya :

Page 15: BAB IV Fungsi Aktivasi

n21 =

= [(0,2*0,94)+(0,4*(0,4))+(0,5*0,96)] + 0,6

= 0,828 + 0,6

= 1,428

n22 =

= [(-0,4*0,94)+(-0,1*(0,4))+(-0,8*0,96)] + 0,3

= -1,184 + 0,3

= -0,884

Dari hasil diatas nilai output a21 dan a2

2 bila menggunakan fungsi aktivasi log

sigmoid menjadi :

a21 = F(1,428) = 0,8

a22 = F(-0,884) = 0,29

Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input

pada layer ketiga. Berikut merupakan perhitungannya :

n21 =

= [(0,3*0,8)+(-0,1*(0,29))] + 0,6

= 0,211 + 0,6

= 0,811

Dari hasil diatas nilai output akhir (a31) adalah :

a21 = F(0,986) = 0,986

Page 16: BAB IV Fungsi Aktivasi

4.8 Fungsi Tangent Sigmoid

Tangent sigmoid adalah fungsi sigmoid tangent yang digunakan sebagai

fungsi aktivasi Fungsi ini akan membawa nilai input pada output dengan

menggunakan rumus hyperbolic tangent sigmoid. Nilai maksimal output dari

fungsi ini adalah 1 dan minimal -1. Function tangent Sigmoid dapat digambarkan

sebagai berikut :

a = tangsig (W*p+b)

Gambar (a) Gambar (b)

Gambar 4.14 Gambar (a) fungsi Aktivasi Tangent Sigmoid; Gambar (b)

Tangent Sigmoid dengan Bias

Fungsi aktivasi Tangent Sigmoid dapat disimbulkan sebagai berikut :

Algoritma dari fungsi ini adalah:

Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1

3 bila

menggunakan fungsi aktivasi Tangent Sigmoid menjadi :

a11 = F(2,9) = 0,9939

a12 = F(-0,4) = -0,37

a13 = F(3,2) = 0,9966

p-b/W

Page 17: BAB IV Fungsi Aktivasi

Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi

input pada layer kedua. Berikut merupakan perhitungannya :

n21 =

= [(0,2*0,9939)+(0,4*(-0,37))+(0,5*0,9966)] + 0,6

= 0,54 + 0,6

= 1,14908

n22 =

= [(-0,4*0,9939)+(-0,1*(-0, 0,37))+(-0,8*0,9966)] + 0,3

= -1,16 + 0,3

= -0,85784

Dari hasil diatas nilai output a21 dan a2

2 bila menggunakan fungsi aktivasi Tangent

Sigmoid menjadi :

a21 = F(1,14908) = 0,817

a22 = F(-0, 85784) = -0,695

Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input

pada layer ketiga. Berikut merupakan perhitungannya :

n21 =

= [(0,3*0,817)+(-0,1*(-0. 695))] + 0,6

= 0,386 + 0,6

= 0,9146

Dari hasil diatas nilai output akhir (a31) adalah :

a21 = F(0,9146) = 0,7233

Page 18: BAB IV Fungsi Aktivasi

4.9 Fungsi Positive Linier

Fungsi positive linier akan membawa output sama dengan 0 saat nilai input

yang telah terbobot (n) dan telah ditambah bias lebih kecil dari 0. Dan akan

membawa output (a) sama dengan nilai input yang terbobot (n) saat nilai input

yang terbobot lebih besar atau sama dengan 0.

a = poslin (n) a = poslin (W*p+b)

Gambar (a) Gambar (b)

Gambar 4.16 Gambar (a) Fungsi Positive Linier; Gambar (b) Positive

Linier dengan bias

Fungsi aktivasi positive linier dapat disimbulkan sebagai berikut :

Algoritma Fungsi positive linier :

a = 0, jika n < 0

a = n , jika 0 ≤ n

Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1

3 bila

menggunakan fungsi aktivasi Positive Linier menjadi :

a11 = F(2,9) = 2,9, karena 2,9 ≥ 0

a12 = F(-0,4) = 0, karena -0,4 < 0

a13 = F(3,2) = 3,2, karena 3,2 ≥ 0

Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi

input pada layer kedua. Berikut merupakan perhitungannya :

Page 19: BAB IV Fungsi Aktivasi

n21 =

= [(0,2*2,9)+(0,4*(0))+(0,5*3,2)] + 0,6

= 2,18 + 0,6

= 2,78

n22 =

= [(-0,4*2,9)+(-0,1*(0))+(-0,8*3,2)] + 0,3

= -3,72 + 0,3

= -3,42

Dari hasil diatas nilai output a21 dan a2

2 bila menggunakan fungsi aktivasi Positive

Linier menjadi :

a21 = F(2,78) = 2,78, karena 1,14 ≥ 0

a22 = F(-3,42) = -3,42, karena 3,42< 0

Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input

pada layer ketiga. Berikut merupakan perhitungannya :

n21 =

= [(0,3*2,78)+(-0,1*(0))] + 0,6

= 0,834 + 0,6

= 1,434

Dari hasil diatas nilai output akhir (a31) adalah :

a21 = F(1,434) = 1,434, karena 1,434 ≥ 0

Page 20: BAB IV Fungsi Aktivasi

Contoh Fungsi Aktivasi

Pengguaan fungsi aktivasi dapat dilihat pada contoh berikut ini :

Untuk nilai masing-masing input (p) dan bobot (W) adalah serbagai berikut :

p1 = 2

p2 = 4

p3 = 7

W111 = 0,1

W112 = 0,3

W113 = -0,5

W121 = 0,5

n11

n12

W122

W123

W131

W132

W133

a31

a22

W321

W311

a21n2

1

n22

W232

n13

a13

W231

W222

a12

W221

W121

W112

P2

P3

b1

2

b2

2

W113

b3

1

a11W1

11P1

b11

W211

W212

b21

Page 21: BAB IV Fungsi Aktivasi

W122 = -0,2

W123 = 0,6

W131 = -0,1

W132 = 0,8

W133 = -0,4

W211 = 0,4

W212 = -0,2

W221 = 0,5

W222 = -0,3

W231 = 0,1

W232 = -0,1

W311 = 0,7

W321 = 0,3

b11 = 0,2

b12 = 0,2

b13 = 0,1

b21 = 0,4

b22 = 0,3

b31 = 0,5

Untuk perhitungan nilai neuron layer pertama :

n11 =

= [(0,1*2)+(0,5*4)+(-0,1*7)] + 0,2

= 1,5 + 0,2

= 1,7

Page 22: BAB IV Fungsi Aktivasi

n12 =

= [(0,3*2)+(-0,2*4)+(0,8*7)] + 0,2

= 5,4 + 0,2

= 5,6

n13 =

= [(-0,5*2)+(0,6*4)+(-0,4*7)] + 0,1

= -1,4 + 0,1

= -1,3

Dari hasil perhitungan diatas (Gambar 4.1) nilai output a11 sampai a1

3 bila

menggunakan fungsi aktivasi hard limit menjadi :

a11 = F(1,7) = 1, karena 1,7 ≥ 0

a12 = F(5,6) = 1, karena 5,6 ≥ 0

a13 = F(-1,3) = 0, karena -1,3 < 0

Untuk perhitungan pada layer kedua, nilai output pada layer pertama menjadi

input pada layer kedua. Berikut merupakan perhitungannya :

n21 =

= [(0,4*1)+(0,5*1)+(0,1*0)] + 0,4

= 0,9 + 0,4

= 1,3

n22 =

= [(-0,2*1)+(-0,3*1)+(-0,1*0)] + 0,3

= -0,5 + 0,3

Page 23: BAB IV Fungsi Aktivasi

= -0,2

Dari hasil perhitungan diatas nilai output a21 sampai a2

2 bila menggunakan fungsi

aktivasi symmetric hard limit menjadi :

a21 = F(1,3) = 1, karena 1,7 ≥ 0

a22 = F(-0,2) = -1, karena -0,2 < 0

Untuk perhitungan pada layer ketiga, nilai output pada layer kedua menjadi input

pada layer ketiga. Berikut merupakan perhitungannya :

n31 =

= [(0,7*1)+(0,3*-1)] + 0,5

= 0,4 + 0,5

= 0,9

Dari hasil perhitungan diatas nilai output a31 bila menggunakan fungsi aktivasi

symmetric saturating linier menjadi :

a31 = F(0,9) = 0,9, karena -1 < 0,9 < 1

Page 24: BAB IV Fungsi Aktivasi

Soal

1. Apa saja nilai output dari fungsi transfer Hard Limit?

2. Apa rumus dari perhitungan neuron?

3. Gambarkan lambang dari fungsi Tangent Sigmoid !

4. Berapa jumlah layer pada contoh di atas?

5. Hitunglah nilai keluaran(output) dari gambar di bawah!

Diketahui :

p1 = 2

p2 = 5

W111 = 0,1

W112 = 0,2

W121 = 0,2

W122 = -0,1

W211 = 0,2

W212 = -0,3

W221 = 0,4

W222 = -0,2

W311 = 0,2

n11

n12W1

22

a21n2

1

a12

W221

W121

W112

P2

b1

2

a11W1

11P1

b11

W211

b21

Page 25: BAB IV Fungsi Aktivasi

W321 = 0,3

b11 = 0,2

b12 = 0,1

b21 =0,5

DAFTAR PUSTAKA

[1]. Demuth, Howard. 2000. Neural Network Toolbox.

[2]. Fausett, Laurene. Fundamentals of Neural Networks.

[3]. Hagan, Martin T. DKK. 1996. Neural Network Design. USA : PWS

Publishing Company.

[4]. Smagt, Patrick van der. 1996. An Introduction Neural Networks. The

University of Amsterdam.

[5]. Tan, Clarence N W. An Artificial Neural Networks Primer with Financial

Applications Examples in Financial Distress Predictions and Foreign

Exchange Hybrid Trading System. Australia : School of Information

Technology.

[6]. Hagan, Martin T. DKK. AN INTRODUCTION TO THE USEOF

NEURAL NETWORKS IN CONTROL SYSTEMS.

DAFTAR PUSTAKA dari Internet

[7]. http://en.wikibooks.org/wiki/Artificial_Neural_Networks/

Activation_Functions