Download - BAB II stat 2
II-26
BAB II
LANDASAN TEORI
Landasan teori adalah teori atau bahan-bahan dari berbagai sumber yang
dijadikan sebagai pedoman untuk pengolahan data pada masing-masing modul.
Masing-masing modul memiliki teori dan rumus yang berbeda-beda. Landasan
teori dari masing-masing modul adalah sebagai berikut:
2.1. Korelasi
Korelasi dalam kata lain korelasi adalah (corelation) yaitu salah satu
teknik statistik yang digunakan untuk mancari hubungan antara dua variabel atau
lebih yang bersifat kuantitatif. Hubungan (relationship) antara dua variabel dapat
hanya karena kebetulan saja (accidentil), dapat juga merupakan hubungan sebab
akibat. Dua variabel dikatakan berkorelasi jika perubahan pada variabel yang satu
akan diikuti perubahan variabel lain secara teratur, dengan arah yang sama atau
arah yang berlawanan (Djarwanto dan Subagyo,1981). Korelasi dapat dinyatakan
dengan koefisien (r) dan merentang dari -1 sampai +1. Koefisien dinyatakan –
atau + menunjukan korelasi sempurna antara dua peubah. Sebaliknya, koefisien
nol berarti tidak ada korelasi sama sekali. Keseragaman dalam derajat korelasi
dinyatakan oleh koefisien yang merentang dari 0 sampai 1 dan dari -1 sampai 0.
Koefisien korelasi ini dapat dinyatakan bahwa jika terdapat data diatas dua
atau lebih variabel, maka dapat digunakan suatu cara yang mana menyatakan
bagaimana variabel-variabel itu berhubungan (Sudjana,1986). Mencoba mengukur
kekuatan hubungan antara dua peubah melalui sebuah bilangan disebut dengan
koefisien korelasi. Disimpulkan bahwa koefisien korelasi adalah ukuran hubungan
linier antara dua peubah X dan Y diduga dengan koefisien korelasi.
II-26
r=
Koefisien korelasi linier sederhana (r) adalah akar dari koefisien
determinasi linier sederhana (r²) atau,
r = =
karena nilai r² berkisar antara 0 sampai 1 maka nilai r terletak antara -1 dan +1
(r = = ± 1). r = 1, ini berarti ada korelasi positif sempurna antara X dan Y. r = -
1, ini berarti ada korelasi negatif sempurna antara X dan Y. r = 0, ini berarti tidak
ada korelasi antara X dan Y. Koefisien korelasi linier sebagai ukuran hubungan
linier antara dua peubah acak X dan Y dan dilambangkan dengan r. jadi r
mengukur sejauh mana titik–titik menggerombol sekitar sebuah garis lurus. Di
bawah ini adalah diagram pengamatan pencar bagi nilai n.
II-26
Gambar 2.1 Diagram Pengamat Pencar Nilai n
Gambar garis tarik lurus tersebut dapat disimpulkan, bila titik–titik
menggerombol mengikuti garis lurus dengan kemiringan positif, maka ada
korelasi positif yang tinggi antara kedua peubah, dan bila titik–titik
menggerombol mengikuti garis lurus dengan kemiringan negatif, maka antara
kedua peubah itu terdapat korelasi negatif yang tinggi. Korelasi antara kedua
peubah semakin menurun secara numerik dengan semakin memencarnya atau
menjauhnya titik-titik dari suatu garis lurus. Titik–titiknya mengikuti suatu pola
yang acak, dengan kata lain tidak ada pola seperti gambar. Disimpulkan korelasi
nol, dan disimpulkan tidak ada hubungan linier antara x dan y. Ukuran korelasi
linier antara peubah yang paling banyak digunakan disebut dengan koefisien
korelasi momen hasil kali pearson atau ringkasnya dapat disebut dengan koefisien
korelasi (Sudjana,1986).
2.1.1 Analisis korelasi
Analisis korelasi adalah metode statistik yang digunakan untuk
menentukan kuat tidaknya (derajat) hubungan linier antara dua variabel. Analisis
korelasi juga bertujuan menduga adanya persamaan regresi. Sementara dalam
analisis korelasi meliputi dua aspek yaitu mengukur kesesuaian garis regresi
terhadap data sampel atau disebut koefisien determinasi dan mengukur keeratan
hubungan antara variabel atau disebut dengan koefisien korelasi (Munir,2003).
Analisis korelasi sederhana adalah meneliti hubungan dan bagaimana eratnya
hubungan itu, tanpa melihat bentuk hubungan. Kenaikan di dalam suatu variabel
yang diikuti dengan kenaikan variabel yang lain dapat dikatakan bahwa kedua
variabel tersebut mempunyai korelasi yang positif. Kenaikan suatu variabel diikuti
dengan penurunan variabel lain, maka kedua variabel tersebut mempunyai
korelasi negatif. Suatu variabel dikatakan tidak mempunyai hubungan
(uncorrelated) apabila tidak ada perubahan terhadap suatu variabel tersebut
meskipun variabel lain mengalami perubahan. Pedoman untuk
menginterpretasikan koefisien korelasi (r), sebagai berikut.
II-26
Tabel 2.1 Interval Koefisien
Interval
Koefisien
Tingkat
Hubungan
0,00 - 0,199 Sangat rendah
0.20 - 0,399 Rendah
0,40 - 0,599 Sedang
0,60 - 0,799 Kuat
0,80 - 1,000 Sangat kuat
(Sumber: Munir,2003)
2.1.2 Pengujian Hipotesis dengan Asumsi ρ = 0
Signifikan ada atau tidak adanya hubungan antara variabel yang sedang
diselidiki dapat diketahui dengan menggunakan uji hipotesis terhadap koefisien
korelasi. Perumusan hipotesis dilakukan dengan menduga bahwa suatu variabel
mempunyai hubungan dengan variabel lain, penjelasannya sebagai berikut.
H0: ρ=0 (Tidak ada hubungan antara suatu variabel dengan variabel yang lain).
H1: ρ=0 (Terdapat hubungan yang signifikan antara suatu variabel dengan variabel
yang lain). Kesimpulan dibuat berdasarkan keputusan yang diambil. Keputusan
menerima H0 berarti tidak ada hubungan antara variabel yang satu dengan variabel
yang lain. Keputusan menolak H0 berarti terdapat korelasi yang signifikan antara
variabel yang satu dengan variabel yang lain. ρ=0 maka distribusi sampling r akan
simetris disekitar nol dengan varian. Distribusi samplingnya tergantung pada
besaran n (nilai ρ sudah ditetapkan) (Munir,2003).
II-26
Gambar 2.2 Grafik Distribusi Sampling
2.1.3 Koefisien Korelasi Parsial
Koefisien korelasi (r) mengukur keeratan hubungan linier antara dua
variabel. Dalam model regresi tiga variabel terhadap tiga koefisien korelasi: r12
(korelasi antara X1 dan X2), r13 (korelasi antara X1 dan X3), r23 (korelasi antara X2
dan X3). Koefisien korelasi itu dinamakan koefisien korelasi sederhana atau
koefisien korelasi tingkat nol. Rumus perhitungan koefisien korelasi itu adalah:
r =
r =
r=
r12, tidak menunjukan keeratan hubungan yang sebenarnya antara X1 dan
X2 karena variabel ketiga yaitu X3 mungkin berhubungan dengan X1 dan X2. Suatu
koefisien korelasi antara X1 dan X2 yang bebas terhadap pengaruh dari X3.
Koefisien korelasi demikian dinamakan koefisien korelasi parsial. Pada dasarnya
koefisien korelasi parsial hampir sama dengan koefisien regresi parsial.
2.1.4 Koefisien Determinasi
Redius merupakan ukuran untuk mengetahui apakah
garis regresi sampel sesuai dengan data. Redius yang besar berarti garis regresi
kurang sesuai, jika redius kecil berarti garis regresi sangat sesuai dengan data.
Jika semua data observasi terletak pada garis regresi, akan memperoleh garis
regresi yang sesuai sempurna, namun jarang terjadi. Koefisien determinasi r²
(untuk regresi dua variabel) atau R² (untuk regresi berganda) adalah suatu ukuran
kesesuaian garis regresi sampel terhadap data. Ukuran menentukan besarnya
II-26
koefisien determinasi mulai dengan mendefinisikan total variasi y (bukan varians
y). Total variasi y dirumuskan ².
Variasi y ini dapat dibedakan menjadi dua, pertama variasi yang dapat
diterangkan oleh persamaan regresi dan kedua variasi yang tak dapat diterangkan
oleh regresi atau variasi redius. r² adalah proporsi total variasi y yang dapat
diterangkan (bukan disebabkan) oleh persamaan regresi (variasi X). Menghitung
r² yang kelihatan lebih kompleks, tetapi memerlukan waktu perhitungan lebih
pendek adalah sebagai berikut.
r² =
2.2. Regresi
Regresi adalah peramalan, penaksiran, atau pendugaan (Iqbal
Hasan,2003). Menurut Walpole,1995 adalah persamaan matematika
memungkinkan peramalan nilai–nilai suatu peubah tak bebas (Dependent) dari
nilai–nilai suatu atau lebih peubah bebas (Independent). Persamaan regresi adalah
persamaan matematik yang memungkinkan peramalan nilai suatu peubah tak
bebas (dependent variable) dari nilai peubah bebas (independent variable).
Analisis regresi adalah sebuah teknik statistik yang digunakan untuk membuat
model atau fungsi dalam menyelidiki bentuk dua variabel atau lebih
(Mulyono,1990).
Analisis regresi bertujuan untuk mengestimasi suatu hubungan antara
variabel–variabel ekonomi, misalnya Y = f (X) dan untuk melakukan peramalan
atau prediksi nilai variabel dependen (Y), berdasarkan nilai variabel independen
(X). Regresi dibagi menjadi dua yaitu regresi liniear sederhana dan regresi liniear
berganda. Analisis regresi sederhana digunakan untuk mengetahui pengaruh dari
variabel bebas terhadap variabel terikat atau dengan kata lain untuk mengetahui
seberapa jauh perubahan variabel bebas dalam mempengaruhi variabel terikat.
Analisis regresi sederhana bertujuan juga mempelajari hubungan linier antara dua
variabel.
II-26
Analisis regresi berbeda dengan analisis korelasi. Analisis korelasi
digunakan untuk melihat hubungan dua variabel, maka analisis regresi digunakan
untuk melihat pengaruh variabel bebas terhadap variabel tergantung serta
memprediksi nilai variabel tergantung dengan menggunakan variabel bebas.
Analisis regresi data harus berskala interval atau rasio. Hubungan dua variabel
bersifat dependensi. Menggunakan analisis regresi diperlukan beberapa
persyaratan yang harus dipenuhi. Regresi linier sederhana adalah regresi yang
digunakan untuk meramalkan nilai peubah tak bebas (variabel Y) berdasarkan
peubah bebas (variabel X) yang telah diketahui nilainya. Maka di dapatkan rumus
dari regresi untuk nilai a dan nilai b adalah:
-b
Persamaan garis:
Dimana:
= variabel terikat (variabel yang diduga).
X = variabel bebas (variabel yang diketahui).
a,b = pendugaan parameter A dan B, koefisien regresi sampel.
a = menyatakan intersep atau perpotongan dengan sumbu tegak.
b = menyatakan slop (kemiringan garis regresi).
Analisis regresi sebagai kajian terhadap hubungan satu variabel yang
disebut sebagai variabel yang diterangkan (the explained variabel) dengan satu
atau dua variabel yang menerangkan (the explanatory). Variabel pertama disebut
juga sebagai variabel tergantung dan variabel kedua disebut juga sebagai variabel
bebas. Variabel bebas lebih dari satu, maka analisis regresi disebut regresi linear
berganda. Disebut berganda karena pengaruh beberapa variabel bebas akan
dikenakan kepada variabel tergantung. Regresi liniear berganda adalah digunakan
untuk meramalkan nilai peubah tak bebas (variabel Y) berdasarkan hasil
pengukuran pada beberapa peubah bebas (variabel , … ).
II-26
Analisis regresi berganda juga bertujuan untuk mempelajari hubungan
linier lebih dari dua variabel. Banyak kasus yang menggunakan regresi berganda,
pada umumnya jumlah variabel independent berkisar dua sampai empat variabel,
walaupun secara teoritis dapat digunakan banyak variabel bebas, namun
penggunaan lebih dari tujuh variabel independent dianggap tidak efektif.
Persamaan regresi berganda menggunakan metode kuadrat terkecil. Rumus-rumus
yang digunakan dalam regresi berganda adalah sebagai berikut.
II-26
Dimana,
a,b1,b2 = koefisien regresi linier berganda
ŷ = nilai rata-rata variabel Y
X1 = nilai rata-rata variabel X1
X2 = nilai rata-rata variabel X2
ΣY2 = jumlah kuadrat variabel Y
ΣX12 = jumlah kuadrat variabel X1
ΣX22 = jumlah kuadrat variabel X2
ΣX1Y = jumlah variabel X1 dikali variabel Y
ΣX2Y = jumlah variabel X2 dikali variabel Y
ΣX1X2 = jumlah variabel X1 dikali variabel X2
Metode eliminasi dan subtitusi
Telah disebutkan bahwa dalam analisis regresi tujuannya adalah menduga
fungsi regresi populasi berdasar fungsi regresi sampel setepat mungkin. Sampai
saat ini ada banyak metode untuk menyusun persaman regresi sampel, misalnya
metode free hand, least squares, dan maximum likelihood. Metode analisis regresi
yang paling banyak digunakan adalah metode least squares. Asumsi-asumsi
metode Least Squares adalah:
1. Error term u memiliki distribusi normal. Sebagai hasilnya, y dan distribusi
sampling koefisien regresi juga memiliki distribusi normal.
2. Rata–rata expected value dan error term untuk setiap nilai X sama dengan
nol , (ui Xi) = 0.
II-26
3. Varians error term adalah konstan pada setiap periode dan untuk semua
nilai Xi Var (ui Xi) =σ². Asumsi ini sering disebut homioscedasticity atau
equal variance.
4. Error term pada suatu observasi tidak berhubungan dengan error term
pada observasi yang lain.
5. Variabel bebas mempunyai nilai yang tetap dalam sampel yang berulang
atau variabel bebas merupakan variabel non-stokastis sehingga variabel
bebas tidak berhubungan dengan error term.
Analisis regresi mempunyai dua variabel yaitu variabel bebas (X) dan
variabel terikat (Y), berikut ini adalah perbedaan yang dimana analisis regresi
mempunyai dua variabel dalam satu metode. Perbedaan dari variabel terikat dan
variabel bebas adalah sebagai berikut.
Variabel bebas (X) variabel terikat
(independent variable) (dependent variable)
Variabel yang menjelaskan variabel yang dijelaskan
(ekplanatory variable) (ekplained variable)
Peramal yang diramal
(predictor) (predictend)
Yang meregresi yang diregresi
(regressor) (regressed)
Perangsangan / variabel kembali tanggapan
(stimulus or control variabel) (response)
II-26
2.3. Chi Square
Pengertian chi square atau khai kuadrat adalah sebuah uji hipotesis tentang
perbandingan antara frekuensi observasi dengan frekuensi harapan yang
didasarkan oleh hipotesis tertentu pada setiap kasus atau data (Diktat,2009). Khai
kuadrat adalah pengujian hipotesis tentang perbandingan antara frekuensi sampel
yang benar-benar terjadi (Subiyakto,1994). Khai kuadrat biasanya di dalam
frekuensi observasi berlambangkan dengan frekuensi harapan yang didasarkan
atas hipotesis dilambangkan . Ekspresi matematis tentang distribusi khai
kuadrat hanya tergantung pada suatu parameter, yaitu derajat kebebasan (d.f.).
Khai kuadrat mempunyai masing-masing nilai derajat kebebasan, yaitu distribusi
(kuadrat standard normal) merupakan distribusi khai kuadrat dengan d.f. = 1,
dan nilai variabel tidak bernilai negative. Kegunaan dari chi square untuk
menguji seberapa baik kesesuaian diantara frekuensi yang teramati dengan
frekuensi harapan yang didasarkan pada sebaran yang akan dihipotesiskan, atau
juga menguji perbedaan antara dua kelompok pada data dua kategorik untuk dapat
menguji signifikansi asosiasi dua kelompok pada data dua katagorik tersebut
(Mulyono,1990).
2.3.1 Tujuan dari Chi Square
Chi Square bertujuan untuk menguji kebebasan (independensi) antar
faktor dari data dalam daftar kontigensi atau uji kebebasan. Menguji kesesuaian
antara data hasil pengamatan dengan model distribusi dari mana data itu
diperoleh. Menguji apakah frekuensi yang diamati (diobservasi) berbeda secara
signifikan dengan frekuensi teoritis atau frekuensi yang diharapkan. Menguji
apakah data sampel mempunyai distribusi yang mendekati distribusi teoritis atau
hipotesis atau populasi tertentu seperti distribusi binomial, poison, dan normal
(Mulyono,1990).
2.3.2 Uji Chi Square
II-26
Uji Chi Square adalah uji hipotesis tentang perbandingan antara frekuensi
observasi dengan frekuensi harapan yang didasarkan oleh hipotesis tertentu pada
setiap kasus atau data (Diktat,2009). Terdiri dari beberapa uji yaitu:
2.3.3 Uji Kecocokan
Uji Kecocokan atau disebut goodness of fit test, hipotesis nol merupakan
suatu ketentuan tentang pola yang diharapkan dari frekuensi-frekuensi dalam
barisan kategori-kategori. Pola yang diharapkan harus sama dengan asumsi atau
anggapan atas kemungkinan kejadian yang sama atu bersifat umum. Perbedaan
frekuensi observasi dengan yang diharapkan harus dapat dilambangkan dengan
variabilitas secara sampling pada tingkat signifikansi yang diinginkan, pada
penerimaan hipotesis nol. Chi square didasarkan perbedaanya dari masing-masing
kategori dalam distribusi frekuensi. Menurut Subiyakto,1994 nilai chi squar
untuk pengujian perbedaaan antara pola frekuensi observasi dan frekuensi harapan
adalah sebagai berikut.
Dimana,
: frekuensi observasi.
: frekuensi harapan.
Menguji kecocokan derajat kebebasan (degree of freedom) sama dengan
jumlah kategori dikurangi jumlah estimator parameter yang didasarkan pada
sampel dan dikurang 1 dan bila dirumuskan menjadi.
d.f. = k – m – 1
Dimana,
k : Jumlah kategori data sampel.
M : Jumlah nilai–nilai parameter yang diestimasi.
Hipotesis nol menyatakan bahwa frekuensi-frekuensi observasi didistribusikan
sama dengan frekuensi harapan, tidak ada parameter estimator, sehingga nilai
m=0.
II-26
2.3.4 Uji Kebaikan Suai
Menurut Walpole,1995 uji kebaikan suai frekuensi yang teramati dengan
frekuensi harapan didasarkan pada besaran.
merupakan sebuah nilai bagi peubah acak yang sebaran penarikan
contohnya sangat menghampiri sebaran chi square. Lambang dan masing-
masing, menyatakan frekuensi teramati dan frekuensi harapan bagi sel ke-i.
Frekuensi yang teramati sangat dekat dengan frekuensi harapannya, nilai akan
kecil menunjukkan adanya kesuaian yang baik. Frekuensi yang teramati berbeda
cukup besar dari frekuensi harapannya, nilai akan besar sehingga kesesuaian
buruk. Kesesuaian yang baik akan membawa pada penerimaan , sedangkan
kesuaian yang buruk akan membawa pada penolakan . Banyaknya derajat
bebas dalam uji kebaikan suai yang didasarkan pada sebaran chi square, sama
dengan banyaknya sel dikurangi dengan banyaknya besaran yang diperoleh dari
data pengamatan (contoh) yang digunakan dalam perhitungan frekuensi
harapanya, dengan kata lain uji kebaikan suai disebut juga sebagai uji kecocokan.
Menurut Diktat,2009 langkah–langkah pengujian hipotesis, yaitu.
1. Menentukan formulasi hipotesis
: sesuai dengan
: tidak sesuai dengan
2. Menetukan nilai kritis
Derajat bebas (df/db/v) dan nilai tabel.
Df = k – 1
3. Menetukan kriteria pengujian
diterima apabila hitung
ditolak apabila hitung
4. Menetukan nilai uji satistik ( hitung)
Frekuensi harapan = total observasi
II-26
banyaknya jenis observasi5. Membuat kesimpulan
Menolak atau menerima berdasarkan kriteria pengujiannya.
2.3.5 Uji Tabel Kontigensi
Tabel Kontigensi memuat data yang diperoleh dari sampel random
sederhana dan diatur berdasarkan baris dan kolom. Nilai-nilai data tersebut
dinamakan frekuensi observasi ( ). Uji tabel kontigensi (contingency table test)
dapat menguji apakah kedua variabel saling independent. Gagasan ini didasarkan
atas anggapan bahwa nilai frekuensi observasi mendekati frekuensi harapan jika
kategori-kategori independent. Perbedaan-perbedaan yang besar akan mendukung
untuk menolak hipotesis independensi. Menurut Subiyakto,1994 apabila banyak
baris = r, banyak kolom = k, dan besar sampel n, nilai frekuensi harapan baris ke-i
dan kolom ke-j dapat diperoleh dengan rumus.
Dengan derajat kebebasan:
d.f. = (r - 1)(k - 1)
sedangkan rumus untuk memperoleh nilai adalah
Arti lain uji kebebasan disebut juga sebagai uji tabel kontigensi. Menurut
Diktat,2009 langkah–langkah pengujian hipotesis, yaitu.
1. Menetukan formulasi hipotesis
: kategori yang satu bebas dari kategori lainnya.
: kategori yang satu tidak bebas dari kategori lainnya.
2. Menetukan nilai kritis
derajat bebas (df/db/v) dan nilai tabel.
Df = (r - 1)(c - 1)
3. Menetukan kriteria pengujian
diterima apabila hitung
II-26
ditolak apabila hitung
4. Menentukan nilai uji statistik ( hitung)
Frekuensi harapan = total baris total kolom total observasi
5. Membuat kesimpilan
Menolak atau menerima berdasarkan kreiteria pengujiannya.
Rumus umum untuk mendapatkan frekuensi harapan bagi sebaran sel adalah
(Walpole,1995).
Frekuensi harapan = total baris total kolom total pengamatan
Menurut Walpole,1995 uji kebebasan untuk menghitung tabel kontigesi r x c
menggunakan rumus.
Penjumlahan dilakukan terhadap semua rc sel. dengan v = (r - 1)(c - 1)
derajat bebas, tolak hipotesis nol bahwa kedua penggolongan itu bebas pada taraf
nyata, bila selainnya diterima hipotesisnya nilai nol. Statistik yang digunakan
sebagai dasar untuk mengambil keputusan hanya dilampiri oleh sebaran chi
square. Nilai-nilai hitung bergantung pada frekuensi sel, dan berarti peluang
diskret yang sebaranya chi square yang kontinu yang menghampiri sebaran
penarikan bagi dengan sangat baik asalkan banyaknya derajat bebas lebih dari
pada 1. Tabel kontinu 2 x 2, yang hanya mempunyai 1 derajat bebas yang
biasanya diterapkan dengan (koreksi yate) bagi kekontinuan. Menurut
Walpole,1995 rumus yang telah dikoreksi adalah sebagai berikut.
Frekuensi harapannya besar, nilai yang terkoreksi maupun yang tidak
terkoreksi hampir sama dengan (koreksi yate) yang diharapkan. Harus digunakan
uji pasti (Fister-Irwin) yang dimana digunakan dalam (basic concepts of
probability and statistic), maka dari itu uji pasti ini harus menggunakan data atau
sampel yang ukurannya lebih besar.
II-26
2.4. Anova Satu Arah
Analisa varian (analysis of variance anova) digunakan untuk menguji
rata–rata dari tiga atau lebih populasi. Rata–rata populasi tersebut sama atau tidak
sama. Konsep dasar anova ditemukan oleh R.A.Fisher (Subiyakto,1994). Analisis
tersebut biasanya sering kali disebut dengan analisis ragam. Analisis ragam adalah
suatu metode untuk menguraikan keragaman total data menjadi komponen-
komponen yang mengukur sebagian sumber keragaman (Walpole,1995). Anova
digunakan untuk menguji perilaku antara dua variabel atau lebih. Menurut
Diktat,2009 cara untuk menguji anova adalah.
1. Menetukan formulasi hipotesis
2. Menetukan tararf nyata (X) dan f – tabel
3. Menetukan kriteria
Jika f – hitungan > f – tabel menjadi diterima
Jika f – hitungan ≤ f – tabel menjadi ditolak
4. Menetukan nilai statistik uji
5. Kesimpulan
Menurut Subiyakto,1994 konsep dasarnya adalah sebagai berikut.
1. Menghitung rata-rata masing-masing grup sampel dan menjelaskan kesalahan
baku rata-rata yang sama hanya didasarkan pada beberapa rata-rata
sampel.
2. Dengan formula
Didapat
Kemudian kesalahan baku dari rata-rata yang dihitung diatas dapat digunakan
untuk mengestimasi varian popilasi dari mana sampel diambil. Estimasi varian
II-26
populasi ini disebut kuadrat rata-rata diantara kelompok–kelompok (mean
square between groups: MSB).
3. Menghitung varian secara terpisah di dalam masing-masing kelompok sampel
dan berkaitan dengan masing-masing rata-rata kelompok. Kemudian
menyatukan nilai-nilai varian yang tertimbang dengan (n - 1) untuk masing-
masing sampel. Prosedur terimbang untuk varian ini adalah perluasan dari
prosedur untuk mengkombinasi dan menimbangkan dua varian sampel. Hasil
estimasi varian populasi disebut kuadrat rata–rata di dalam kelompok-
kelompok (mean square within groups: MSW).
4. Jika hipotesis nol: benar, kuadrat rata-rata MSB dan
MSW merupakan estimator yang tak bias dan independent dari varian
populasi yang sama (identik). Akan tetapi, jika hipotesis nol salah, nilai
harapan MSB lebih besar dari MSW. Sedikit saja ada perbedaan antara rata-
rata populasi akan membesarkan MSB walaupun tidak berpengaruh pada
MSW.
5. Berdasarkan pada pengamatan konsep 4 distribusi F dapat digunakan untuk
menguji perbedaan dua varian. Suatu pengujian satu sisi diperlukan distribusi
F. Menurut Subiyakto,1994 untuk menetukan nilai F digunakan rumus.
2.4.1 Analisa Varian Satu Arah
Menurut Subiyakto,1994 model anova satu arah atau nama lainnya (one-
way analysis of variance), digunakan untuk pengujian perbedaan antara K rata-
rata sampel apabila subyek–subyek ditentukan secara random pada setiap
beberapa grup atau kelompok perlakuan. Maka dalam model tersebut didapatkan
metode untuk menguji satu arah yaitu, rumusnya adalah sebagai berikut.
Dengan:
: rata-rata keseluruhan dari semua k populasi klasifikasi.
II-26
: efek klasifikasi dalam k kelompok
: kesalahan random yang tergabung dalam proses sampling.
Hipotesis nol dan hipotesis alternatif untuk anova satu arah adalah
.
.
Perhitungan anova satu arah yaitu dengan mencari MSB (mean square
between the A treatment groups) atau biasa disebut JKT(jumlah kuadrat total),
sedangkan MSW (mean square error) atau biasa disebut JKG (jumlah kuadrat
galat). N melambangkan total sampel (data) secara keseluruhan. merupakan
besarnya sampel pada kelompok k. Anova pada satuan simbolnya dapat dilihat
dalam tabel berikut.
Tabel 2.2 Rumus-Rumus Anova 1 Arah
Sumber
Keragaman
Jumlah
Kuadrat
Derajat
Bebas
Kuadrat
TengahF hitung
Nilai tengah
kolomJKK k – 1 s1
2 =
Galat
(Error)JKG k (n-1) s1
2 =
Total JKT nk – 1
(Sumber :Walpole,1995)
Dimana:
JKG = JKT – JKK
2.4.2 Klasifikasi Satu Arah
II-26
Kalsifikasi satu arah mempunyai k populasi. Masing–masing populasi
yang berukuran n. Menyatakan k populasi itu bebas dan menyebar normal dengan
nilai tengah.
,
seekurang – kurangnya dua nilai tengah tidak sama.
Menurut Subiyakto,1994 setiap pengamatan dapat dituliskan dalam bentuk rumus,
yaitu.
Hal ini simpangan pengamatan dari nilai tengah populasi dalam bentuk
lain didapat persamaan dengan mensubstitusikan sedangkan nilai
tengahnya adalah.
Hipotesis nol berarti bahwa semua nilai tengah populasi itu sama lawan
alternatifnya bahwa sekurang–kurangnya dua nilai tengah tidak sama juga dapat
dinyatakan oleh hipotesis berikut, yaitu.
Didasarkan pada perbandingan dua nilai dugaan yang bebas bagi ragam populasi
. Nilai dugaan itu dapat diperoleh dengan cara meguraikan keragaman total
menjadi dua komponen. Menurut Walpole,1995 ragam semua pengamatan bila
semua pengamatan itu tidak dikelompokan maka diberikan rumus.
II-26
Penjumlahan ganda itu berarti bahwa harus menjumlahkan semua
kemungkinan suku, dan ini akan diperoleh dengan mengambil i dari 1 sampai k
untuk setiap nilai j dari 1 sampai n. Menurut Walpole,1995 pembilang itu, yang
disebut jumlah kuadrat total, mengukur keragaman total. Total ini dapat diuraikan
melalui identitas, yaitu.
Identitas Jumah–Kuadrat klasifikasi satu–arah:
Akan lebih memudahkan bagi uraian selanjutnya bila suku–suku jumlah kuadrat
itu diberi notasi berikut.
JKT = = jumlah kuadrat total
JKK = = jumlah kuadrat untuk nilai tengah kolom
JKG = = jumlah kuadrat galat
Dengan ini, identitas jumlah kuadrat itu dapat dilambangkan melalui persamaan
JKT = JKK + JKG
Salah satu nilai dugaan bagi yang didasarkan pada ke-1 derajat bebas, adalah.
II-26
Bila merupakan pendugaan tak bias bagi . Akan tetapi,
bila benar, JKK cendrung menghasilkan nilai besar, artinya menduga lebih
(overestimate) Nilai dugaan bagi yang lain, didasarkan pada k (n - 1)
derajat bebas adalah berikut ini.
Nilai dugaan ini bersifat tak bias, baik hipotesis nol benar atau salah.
Ragam seluruh data tanpa memperhatikan pengelompokkannya yang mempunyai
(nk–1) derajat bebas adalah sebagai berikut..
Nilai dugaan tak bias bagi bila benar. Identitas jumah kuadrat tersebut
tidak hanya mengurangkan jumlah kuadrat total, tetapi juga jumlah total derajat
bebasnya adalah.
nk – 1 = k – 1 + k (n – 1)
maka bila benar rasionya adalah sebagai berikut.
2.5. Anova Dua Arah
One way anova dapat diperluas menjadi analisis dua arah atau (two way
anova). Perlakuan dalam two way anova sebanyak dua macam. Hipotesis yang
akan diuji adalah klasifikasi dua arah tanpa interaksi dan pengujian klasifikasi dua
arah dengan interaksi, menyatakan bahwa tidak ada perbedaan k mean (k>2) pada
perlakuan pertama, tidak ada perbedaan k mean (k>2) pada perlakuan kedua, dan
tidak ada efek interaksi antara perlakuan pertama dan kedua.
II-26
Menurut H, Umar (1999) mekanisme perhitungan dilakukan dijelaskan
dengan berdasarkan data di bawah ini.
Tabel 2.3 Mekanisme Perhitungan
Perlakuan 2 Perlakuan 1
P1 P2 ..... PK Jumlah
Q1 a111 a121 a1K1
a11n a12n a1Kn
T1.
Q2 a211 a221 a2K1
a21n a22n a2Kn
T2.
QJ aJ11 aJ21 aJK1
aJ1n aJ2n aJKn
TJ.
Jumlah T.1 T.2 T.K T..
(Sumber: H, Umar, 1999)
2.5.1 Uji Hipotesis Dua Varians
Mengetahui apakah variansi dua populasi sama atau tidak sama diperlukan
pengujian dengan melibatkan sampel dari keduanya. Pengujian didasarkan pada
pemikiran bentuk distribusi sampling dari perbandingan antara yang
merupakan variansi sampel dari populasi pertama dengan n1 titik sampel serta
yang merupakan variansi sampel dari populasi kedua dengan n2 titik sampel.
Menurut Djarwanto dan Subagyo (2000) perbandingan ini berdistribusi F atau
berdistribusi F. Sehingga dapat disusun langkah-langkah pengujian sebagai
berikut .
1. Menentukan Hipotesis dan alternatifnya.
a).
b).
c).
II-26
2. Dipilih level of significance
3. Dibuat kriteria pengujian dengan dasar level of significance yang sudah
ditentukan.
a. Untuk hipotesis yang pertama
Jika
H0 diterima jika
H0 ditolak jika
Jika
H0 diterima jika
H0 ditolak jika
b. Untuk hipotesis yang kedua
H0 diterima jika
H0 ditolak jika
c. Untuk hipotesis yang ketiga
H0 diterima jika
H0 ditolak jika
4. Perhitungan nilai F:
a. Untuk hipotesis yang pertama
F = Varian yang besar Varian yang kecil
b. Untuk hipotesis kedua
c. Untuk hipotesis ketiga
II-26
5. Kesimpulan diambil dengan membandingkan langkah 3 dan 4.
2.5.2 Anova Dua Arah Tanpa Interaksi
Menurut Walpole,1995 rancangan percobaan dengan anova jenis ini,
setiap kategori mempunyai banyak blok yang sama, sehingga jika, banyak kolom
= k dan banyak baris atau blok = r, maka banyak data N= r x c.
Tabel 2.4 Anova 2 Arah Tanpa Interaksi
SumberKeragaman(SK)
JumlahKuadrat(JK)
Derajat bebas(db)
KuadratTengah(KT)
fhitung ftabel
Rata-rataBaris
JKB dbnumerator1 =r-1
fhitung
=
=db numer1=db denum=f tabel =
Rata –rata Kolom
JKK Dbdenumerator2= k-1
Fhitung
=
=db numer2=db denum=f tabel =
Galat JKG Dbdenum=(r-1)(k-1)
Total JKT r.k-1
(Sumber :Walpole,1995)
JKT =
JKB =
JKK =
II-26
JKG = JKT –JKB-JK
Dimana:
k : banyaknya kolom
r : banyaknya baris/blok
Xij: data pada baris ke-I, kolom ke-j
: total (jumlah) baris ke-i
: total (jumlah) kolom ke-j
: total (jumlah) seluruh pengamatan
2.5.3 Anova Dua Arah dengan Interaksi
Menurut Walpole,1995 efek interaksi diperoleh setelah setiap kolom
[perlakuan] dan blok [baris] diulang. Interaksi dinyatakan sebagai perkalian Baris
x Kolom [BK].
Tabel 2.5 Anova 2 Arah dengan Interaksi
SumberKeragaman(SK)
JumlahKuadrat(JK)
Derajat bebas(db)
KuadratTengah(KT)
fhitung ftabel
Nilai tengahBaris
JKB dbnumer1 =r-1
F hitung
=
=db numer1=db denum=f tabel =
Nilai tengahKolom
JKK dbnumer2= k-1
F hitung
=
=db numer2=db denum=f tabel
Interaksi [BK]
JK[BK] db numer3=[r-1][k-1]
F hitung =
=db numer3=db denum=f tabel=
Galat JKG dbdenumer=
II-26
r.k.[n-1]Total JKT [r.k.n]-1
(Sumber :Walpole,1995)
JKT =
JKB =
JKK =
JK[BK] =
JKG = JKT – JKB – JKK- JK[BK]
Dimana:
r : banyak baris i = 1,2,3,…r
k: banyak kolom j = 1,2,3,…k
n: banyak ulangan m = 1,2,3,…n
: data pada baris ke-I, kolom ke-j dan ulangan ke-m
: Total baris ke-i
: Total kolom ke-j
: Total Sel di baris ke-I dan kolom ke-j
: Total keseluruhan pengamatan