belajar multivariat
DESCRIPTION
Rangkuman MultivariatTRANSCRIPT
UJI KANONIKcatatan: contoh uji menggunakan data dengan 6 variabel X dan 6 variabel Y
Asumsi : linearitas, normalitas, multikolinieritas
1) Uji Asumsi Normalitaslangkah-langkahnya:
gunakan Herodes – klik Analyze – Kenormalan Pilih semua variabel (baik X maupun Y) – pada Pemeriksaaan Kenormalan pilih Simultan –
pada Pengujian Kenormalan pilih Simultan – lalu centang Skewness And Kurtosis Test – klik OK
Interpretasi Output:
interpretasi grafik: jika ttik merah semakin mendekati yg biru berarti semakin normal Pengujian Secara Simultan
Tahap 1 Uji Skewness (x) => H0: data normal H1: data mencengKeputusan : signifikansi Skewness = 0.246 > 0.05 => terima H0 , atau data normal
Tahap 2 uji Kurtosis (sigma) => H0: data normal H1: data runcingKeputusan : signifikansi Kurtosis = 0.083 > 0.05 => terima H0 atau data normal ( Penting: di kedua tahap keputusannya harus TERIMA H0 , jika salah satu tolak H0 berarti data tidak normal => harus ditransformasi terlebih dahulu jika H0 ditolak di tahap 1 (Skewness) maka gunakan box cox, transformasi logaritma jika tolak H0 di tahap 2 (Kurtosis) gunakan transformasi varians di heterokedastisitas)
2) Uji Linearitas Scatter Plot untuk 6 variabel X dan 6 variabel Y => dipasangkan satu-satux1 - y1 . . . x6 - y1x1 - y2 x6 - y2x1 – y3 .x1 – y4 .x1 – y5 .x1 - y6 x6 - y6
Langkah-langkahnya: Gunakan SPSS - graphs - legacy dialogs - scatter/dot
pilih Simple Scatterplot – masukan satu persatu misalkan variabel X1 (Belanja Pegawai/BP) ke jendela X Axis dengan variabel Y1 (Pertumbuhan Ekonomi/PE) ke jendela Y Axis – OK
ulangi kembali langkah di atas untuk masing-masing kombinasi X dan Y
Output : Interpretasi : bersifat subjektif => dari gambar di atas bisa dilihat linear namun lemah
3) Uji Asumsi Non MultikolinieritasSecara agregat bisa dilihat dari matriks korelasiLangkah-Langkahnya:
gunakan spss uji nya dibagi menjadi dua bagian, X dan Y diuji secara terpisah Misalkan diuji untuk X terlebih dahulu: analyze- correlate - bivariate - masukan semua
variabel X – OK
Interpretasi: catatan: yang ada tanda ** berarti siginifikan => tolak H0=> ρ≠0 artinya ada korelasi antar variabel X => variabel tsb harus dibuang
H0: ρ=0 H1: ρ≠0 Dari matriks Korelasi hanya bisa melihat ada multikolinieritas atau tidaknya saja untuk mengetahui mana yg harus dibuang caranya : analyzse- regression - linear -
masukan ke enam variabel X ke box Independen dan masukan satu variabel Y (misalkan variabel Pertumbuhan Ekonomi) ke box Dependen
Lalu klik statistics: centang collinearity diagnostics
output: lihat di Tabel 'cofficients'
- buang yang VIF > 10 kesimpulan: variabel Belanja Pegawai, Transportasi, Pendidikan, Kesehatan dan Kesejahteraan memiliki multikolinieritasseharusnya variabel di atas dibuang namun karena ada teori yang kuat maka untuk di latihan uji kanonik variabel di atas tetap digunakan, tapi kalau di soal UAS tidak diberitahu tentang teori yang mendasari variabel maka harus dibuang.
Setelah semua pengujian asumsi dilakukan, sekarang ke uji kanonik, langkah-langkahnya:
Gunakan SPSS file-open-syntax
catatan: baris pertama saja yang diubah=> Y dulu baru X Y: PE TO TP X: BP TO KK artinya dari variabel PE (Pembangunan EKonomi) To variabel TP (Tingkat Pertumbuhan); dst. Nama variabel disesuaikan dengan variabel yg ingin diuji.
lalu klik run- all Interpretasi Output:
1) lihat Multivariate test of significance menguji semua gugus X dan gugus Y
H0: semua gugus peubah kanonik secara simultan tidak bisa menjelaskan hubungan set variabel X dengan set variabel Y
H1: semua gugus peubah kanonik secara simultan bisa menjelaskan hubungan set variabel X dengan set variabel Y
catatan: Uji pada Multivariate test of significance ada pillais, hotelling, wilks dan roys, jika salah satu saja signifikan berarti semua gugus peubah kanonik secara simultan bisa menjelaskan hubungan set variabel X dengan set variabel Y=> dapat lanjut ke analisis berikutnya
Kesimpulan : meskipun hanya satu uji saja yang signifikan yaitu uji Wilks ( 0.029 < 0.05) maka semua gugus peubah kanonik secara simultan bisa menjelaskan hubungan set variabel X dengan set variabel Y.
2) Lihat Tabel EigenValues and Canonical Correlation
'root no.1' artinya pasangan no 1 (V1W1 dimana V=X, W=Y) lihat kolom ke-5: Canon Cor. nilainya sebesar 0.996 artinya hubungan antara V1 dengan
W1 sangat kuat dan positif (interpretasi sama seperti korelasi biasa) lihat kolom ke -6: Sq.Cor nilainya sebesar 0.992 (0.9962 = 0.992) artinya
V1 bisa menjelaskan proporsi varian W1 sebesar 0.992.3) Lihat Dimension Reduction Analysis
roots : 1 TO 6 artinya V1W1 ; 2 TO 6 artinya V2W2 ; dst lihat nilai Sig.of F cari mana yg signifikan berarti itu yg digunakan dalam analisis
selanjutnya. Kesimpulan yang signifikan adalah root 1 to 6: V1W1 (Sig.of F = 0.029 < 0.05)
4) Lihat 'Standardized canonical coefficients for DEPENDENT variables'
karena pada tabel sebelumnya (Dimension Reduction Analysis ) hanya root 1 TO 6 atau V1W1 yang signifikan maka untuk modelnya hanya menggunakan nilai dari kolom 1:
ZW1: -0.070 ZPE - 0.154 ZABT + 0.240 ZAPS + 0.397 ZAMH + 0.272 ZTPT
interpretasi: ketika ZPE meningkat 1 satuan maka nilai ZW1 akan menurun sebesar -0.070, dst.
5) Lihat 'correlation between DEPENDENT and cannonical’
interpretasi: - hubungan PE dengan kanonikal variabel W1 sebesar 0.224 dan negatif,- hubungan ABT dengan kanonikal variabel W1 sebesar 0.667 dan negatif
- hubungan APS dengan kanonikal variabel W1 sebesar 0.786 dan positif; dst. lihat angkanya dr kolom 1 saja (W1) karena dari uji sebelumnya hanya V1W1 yang siginifikan (ingat yaah) kemudian lihat juga variabel mana yang memilki korelasi paling besar ( ρ>0.8 ) kesimpulan: indikator kesejahteraan (keseluruhan var X) dapat diwakili oleh variabel AMH (ρ = 0.868) catatan: jika ada lebih dari 1 variabel yang nilainya > 0.8 maka sejumlah variabel tersebutlah yang mewakili keseluruhan variabel.
6) lihat 'variance in independent variabel explained by canonical variabel'
interpretasi: - (lihat dr kolom ke-3) →variasi dalam set variabel DEPENDEN dapat dijelaskan oleh variabel
kanonik pertama (W1) yang terbentuk sebesar 42.871 % - (lihat dr kolom ke-5) →koef. Redudansi → variasi dalam set variabel INDEPENDEN dapat
dijelaskan oleh variabel kanonik pertama (V1) yg terbentuk sebesar 42.532 % (karena yg td signifikan cuma yg pertama jd dilihat cm baris pertama, kalau yg signifikan ada 2 berarti lihat yg baris 2 saja, baris 1 ga usah, dst)
7) Lihat yg standardizes canonical coef for COVARIATE '(COVARIATE= VAR INDEPENDEN)
Penting : COVARIATE= VAR INDEPENDEN (X) => sekarang sudah masuk ke analisis untuk variabel XInterpretasi: ZV1: -1.782 ZBP -0.59 ZTK -2.544 ZTranspor+ 0.042 ZPD– 0.099 ZPddkn - 0.52 ZKK
8) Lihat Correlations between COVARIATES and canonical variablesInterpretasi: variabel yang dapat mewakili (ρ>0.8 ) adalah variabel Transpor, Pddkn, dan KK (tidak melihat tanda positif atau negatif).
9) Lihat Variance in Covariates explained by canonical variables
interpretasi:- variasi dalam set variabel INDEPENDEN yg dpt dijelaskan oleh variabel kanonik V1
sebesar 61.379% (kol.5)- variasi dalam set variabel INDEPENDEN yg dpt dijelaskan oleh variabel kanonik W1
sebesar 60.894% (redundansi) (kol.3)
-analisis uji kanonik selesai- fiuuuhhhh
Catatan tambahan: Standardized canonical….. = PENIMBANG 'correlation between ….= FAKTOR LOADINGPoin Penting: KANONIK HANYA MEMPELAJARI HUBUNGAN => KALAU DUA GUGUS PASTI PAKAI KANONIK, X DAN Y HARUS BERUPA MATRIK, MINIMAL ADA 1 GUGUS YANG X ATAU Y NYA LEBIH DARI 1 DISKRIMINAN: KASUS KHUSUS DARI KANONIK => Y NYA HANYA 1 (BISA KATEGORIK) DAN X NYA HARUS BERUPA MATRIKPADA' DIMENSION REDUCTION ANALYSIS' LIHAT DI SIG.F NYA BISA DILAKUKAN UJI FORMAL UNTUK LINEARITAS => JIKA SIGNIFIKAN BERARTI LINEARH0: ρ=0 H1: ρ≠0→ ada korelasi → berarti linearPerbedaaan Analisis Faktor dengan Cluster: faktor mereduksi variabel, sedangkan cluster mereduksi amatan
ANALISIS FAKTOR
Pada Analisis Faktor belum dibedakan antara variabel X dengan Y; asumsinya: normal , multikolinieritasTahapan pengujian
1. uji asumsi normalitas2. lalu uji analisis:
analyze – data reduction – factor - masukan semua variabel – descriptif :centang KMO & anti images – extraction – jika satuannya beda pilih correlation, jika sama pilih covariance, pada display centang unrotated factor solution dan scree plot- lalu klik continue- lanjut ke rotation pilih ‘varimax’ - klik continue –pada score jika disuruh menampilkan variabel barunya maka pada ‘scores’ centang yg ‘save as’ – continue- ok
3. interpretasi: Bartlets test: (mendeteksi ada multikolinieritas atau tidak)H0: ρ=¿matriks identitas H1: ρ≠matrik identitas => multikolinieritas (ingin ditolak H0, kalau tolak berarti ada multikolinieritas)KMO TestKMO yang bagus >0,8KMO yang cukup >0,5 => bisa melanjutkan analisisMSA dilihat dari Anti images correlation -> lihat tabel anti-images matriks -> fokus di diagonal utama, syaratnya lebih dari 0,5. Jika kurang maka dibuang satu persatu di run ulangcommunalities: proporsi yang mampu dijelaskan oleh faktor
Communalities
Initia
lExtrac
tionTP 1.00
0.967
MSY
1.000
.808
TE 1.000
.978
HSE
1.000
.841
MVH
1.000 .726
Total Variance ExplainedComponent Initial Eigenvalues Extraction Sums of Squared Loadings Rotation Sums of Squared Loadings
Total% of
VarianceCumulati
ve % Total % of Variance Cumulative % Total % of Variance1 3.029 60.578 60.578 3.029 60.578 60.578 3.021 60.4302 1.291 25.823 86.401 1.291 25.823 86.401 1.299 25.9713 .572 11.449 97.8504 .095 1.908 99.7585 .012 .242 100.000
component: faktor yang terbentuk lihat dari kumulatif persentase; pada komponen 1 bisa menjelaskan 60,578% (masih kurang karena < 80%) sehingga ditambah dengan komponen ke-2, sehingga totalnya menjadi 86,401%; pada kolom Initial Eigen value di Total, pilih yang eigen valuenya > 1 , jadi Cuma komponen 1 dan 2; kenapa harus >1 ? karena ketika eigen value kurang dari 1 maka vektor ciri juga kecil. kalau eigen vektor kecil maka sumbangsih untuk menjelaskan variabel asal juga kecil.pada scree plot, subjektif, untuk melihat berapa komponen/faktor yang kita pakai
Component Matrix(a)
Component
1 2TP .972 .149MSY .545 .715TE .989 .005HSE .847 -.352MVH -.303 .797
Extraction Method: Principal Component Analysis.
a 2 components extracted. ; komponen matrik untuk menentukan faktor pertama dan faktor kedua itu terdiri dari apa saja; komponen matrik disebut juga faktor loading, dimana kuadrat loading pertama + kuadrat loading kedua = nilai extraction di communalities. nah berdasarkan output, lihat di faktor mana ia paling besarFaktor 1: TP, TE, HSE Faktor 2: MSY, MVH. jika perbedaan antara kedua komponen itu tidak terlalu jauh berbeda maka perlu dirotasi->VarimaxTeori:perbedaan antara AKU dengan A. Faktor: AKU bisa menghasilkan antara komponen 1 dengan komponen 2 masih berkorelasi (tidak mutually
exclusive) sedangkan pada Analisis Faktor sudah mutually exclusive PCA menghasilkan komponen, A.Faktor menghasilkan faktor. Faktor menyusun variabel, komponen disusun dari variabel.AKU=> komponen 1 = 0.972 TP + 0.545 MSY +0.989 TE + 0.847 HSE - 0.303 MVH komponen 2= 0.149TP + 0.715MSY + 0.005 TE – 0.352 HSE + 0.797 MVHAnalisis faktor: Faktor 1: TP, TE, HSE Faktor 2: MSY, MVH
ANALISIS DISKRIMINANAsumsi: Normalitas, rata2 populasi berbeda, ragam sama, non multikolinieritas1.uji normalitas : harus data yg kuantitaif, yg dinormalkan variabel X, Y di diskriminan ; uji dengan normalitas, interpretasi output:
sig. skewness dan sig.kurtosis =0 -> artinya data tidak berdistribusi normal (H0: data berdistribusi normal) sedangkan dari gambar:
bisa dilihat ada outlier sehingga perlu dikeluarkan data yg outlier tersebut. Untuk mengetahui mana yang outlier gunakan Box Plot (dgn SPSS)langkah-langkahnya: SPSS-graphs-Legacy Dialogs-Box Plot –Simple- klik yg separate variable –masukan var minum (variabel independennya) ke Y Axis, masukan yg semua variabel X ke X Axisbisa dilihat ada 4 outlier, yg tingginya antara 170-180 => harus dihilangkan dari data supaya normalcaranya: data-select cases-klik ‘if condisition is satisfied’
pada window ‘if’ ketik : tinggi <170 –continu
setelah kembali ke window ‘select cases’ klik ‘Delete unselected cases’
maka semua data yang tingginya >170 akan hilang sehingga data menjadi normal.2. Asumsi Rata-rata berbeda caranya : SPSS - analyze – classify – discriminant – statistic: centang univariate Anova (masukan semua var X) - OKoutput:
Tests of Equality of Group Means
Wilks'
Lambda F df1 df2 Sig.Tinggi .946 4.186 1 73 .044Income .894 8.656 1 73 .004Usia .945 4.247 1 73 .043Berat .934 5.173 1 73 .026Jam kerja 1.000 .000 1 73 .994Olahraga .946 4.183 1 73 .044
interpret: H0: μ1=μ2 H1: μ1≠μ2
harus tolak H0 agar memenuhi asumsi rata-rata grup berbeda. kesimpulan: semua signifikan berbeda kecuali variabel Jam kerja => lihat dari nilai sig. nyaket: μ1rata-rata per variabel untuk grup 1; μ2 = rata-rata per variabel untuk grup 2.Uji analisis Diskriminan:
gunakan SPSS analyze-classify-discriminant
masukan var’minum’ (variabel Y) ke ‘grouping variables’
lalu masukan semua var (kecuali var No) ke ‘Independents’ - pilih stepwise method
di ‘statistics: pilih means, box m, fisher-continu
di ‘method’ pilih ‘wilks lambda’ (bisa juga mahalanobis) - centang ‘use probability of’ –continue
di classify : all group equals . casewise results , summary table -continu
OK output
Analysis Case Processing SummaryUnweighted Cases N PercentValid 75 100.0Excluded Missing or out-of-range
group codes 0 .0
At least one missing discriminating variable 0 .0
Both missing or out-of-range group codes and at least one missing discriminating variable
0 .0
Total 0 .0Total 75 100.0
menunjukan proses: berapa yg dianalisisGroup Statistics
Minum
Mean Std. Deviation Valid N (listwise)
Unweighted Weighted Unweighted Weightedsedikit Usia 31.8684 6.12558 38 38.000
Berat 57.2105 11.76609 38 38.000Tinggi 158.4474 5.66496 38 38.000Income 659.4737 106.79476 38 38.000Jam kerja 5.2684 .11100 38 38.000Olahraga 3.1974 .55385 38 38.000
banyak Usia 28.9459 6.15515 37 37.000Berat 51.8108 8.48475 37 37.000Tinggi 161.5676 7.44439 37 37.000Income 578.9189 129.52442 37 37.000Jam kerja 5.2686 .15667 37 37.000Olahraga 2.9054 .67780 37 37.000
Total Usia 30.4267 6.27344 75 75.000
Berat 54.5467 10.56549 75 75.000Tinggi 159.9867 6.74335 75 75.000Income 619.7333 124.53127 75 75.000Jam kerja 5.2685 .13454 75 75.000
Olahraga 3.0533 .63124 75 75.000
interpret: rata-rata usia yang minumnya sedikit ialah 31 tahun dengan SIMPANGAN 6,12 ; dst.Test Results
Box's M 18.006F Approx. 2.867
df1 6df2 38532.597Sig. .009
Tests null hypothesis of equal population covariance matrices.H0: varians sama H1: varians tidak samahasilnya nilai sig = 0.009 maka tolak H0 artinya varians tidak sama => data tidak bisa dilanjutkancatatan: untuk uji normal jika tolak H0 => data tidak normal harus ditransformasi agar jadi normal ; jika uji keragaman hasilnya tidak ragam-> tidak perlu lanjut ujiagar bisa lanjut uji maka variabel Tinggi dan Income dikeluarkan sehingga hasilnya:Test Results
Box's M 7.255F Approx. 2.347
df1 3df2 982330.77
2Sig. .071
Tests null hypothesis of equal population covariance matrices. sig = 0.071 => terima H0 = ragam sama , maka uji bisa dilanjutkan
Variables Entered/Removed(a,b,c,d)
Step
Entered Wilks' LambdaStatistic df2 df3 Exact F Statistic df1Statistic df2 Sig. Statistic df1 df2 Sig. Statistic df1
1 Berat .934 1 1 73.000 5.173 1 73.000 .0262 Olahraga .879 2 1 73.000 4.947 2 72.000 .010
At each step, the variable that minimizes the overall Wilks' Lambda is entered.a Maximum number of steps is 8.b Maximum significance of F to enter is .05.c Minimum significance of F to remove is .10.d F level, tolerance, or VIN insufficient for further computation.di stepwise hanya ada variabel Berat dan Olahraga , artinya dalam Diskriminan function yang masuk hanya variabel Berat dan Olahraga
Variables in the AnalysisStep
Tolerance Sig. of F to Remove
Wilks' Lambda
1 Berat 1.000 .0262 Berat .995 .022 .946 Olahrag
a .995 .038 .934
artinya variabel yang akan dianalisis; Tolerance: utk mendeteksi multikolinieritas, ketika nilainya lebih dari 5 => ada multikolinieritas
Variables Not in the Analysis
Step ToleranceMin.
ToleranceSig. of F to
EnterWilks'
Lambda0 Usia 1.000 1.000 .043 .945
Berat 1.000 1.000 .026 .934Jam kerja 1.000 1.000 .994 1.000Olahraga 1.000 1.000 .044 .946
1 Usia 1.000 1.000 .051 .886Jam kerja .996 .996 .879 .934Olahraga .995 .995 .038 .879
2 Usia .761 .758 .299 .866Jam kerja .996 .991 .876 .879
di step 0: yg paling kecil nilai signifikasinya dan signifikan adalah variabel Berat => maka variabel Berat masuk ke Tabel Variabel in the analysis
Step Sig. of F to
Enter0 Usia .043
Berat .026Jam kerja .994
Olahraga .044
step 1: yg paling kecil nilai signifikasinya dan signifikan adalah variabel olahraga => maka variabel Olahraga masuk ke Tabel Variabel in the analysis
Step Sig. of F to
Enter1 Usia .051
Jam kerja .879Olahraga .038
step 2: tidak ada yg signifikan => maka tidak masuk ke fungsi di tabel
Variables in the Analysis
Step ToleranceSig. of F to Remove
Wilks' Lambda
1 Berat 1.000 .0262 Berat .995 .022 .946
Olahraga .995 .038 .934bisa dilihat sig. of F to remove nya tidak signifikan sehingga kedua variabel tidak perlu dihilangkan
Eigenvalues
Function Eigenvalue % of Variance Cumulative %Canonical
Correlation1 .137(a) 100.0 100.0 .348
a First 1 canonical discriminant functions were used in the analysis.interpretasi: keeratan hubungan antara skore diskriminan dengan grup adalah sebesar 0.348 (Canonical Correlation) ketika Canonical Correlation dikuadratkan maka akan sama dengan R2 (koef. determinasi)Interpret R2 (koef. determinasi): besarnya pengaruh var bebas untuk membedakan grupnya (masuk ek minum sedikit atau minum banyak) sebesar (0.121)Wilks' Lambda
Test of Function(s)Wilks'
Lambda Chi-square df Sig.1 .879 9.271 2 .010
Wilks' Lambda =0.879 : artinya varian total dalam diskriminan scores yang tidak bisa dijelaskan oleh perbedaan antar grup 87.9% ; diskriminan scores: untuk membedakan seseorang itu akan masuk ke grup mana; nilai 87.9% termasuk besar sehingga data bisa dikatakan tidak baikH0: fungsi diskriminan tidak dapat menjelaskan perbedaan antar kedua grup H1: fungsi diskriminan dapat menjelaskan perbedaan antar kedua grupnilai sig. sebesar .010 artinya tolak H0 => fungsi diskriminan dapat membedakan perbedaan antar kedua grup dengan jelas catatan: nilai wilks lambda hanya menjelaskan besarnya saja (tidak pasti) untuk lebih pasti lihat nilai sig.nya (df= 2 : karena ada 2 variabel yg masuk)Standardized Canonical Discriminant Function Coefficients
Function
1Berat .765Olahraga .698
interpret: Zminimum = 0.765 Zberat + 0,698 Zolahraga jika hanya ada 2 kategori ,maka hanya buat 1 Z (kayak dummy)Structure Matrix
Function
1Berat .718Olahraga .646Usia(a) .339Jam kerja(a) .051
Pooled within-groups correlations between discriminating variables and standardized canonical discriminant functions Variables ordered by absolute size of correlation within function.a This variable not used in the analysis.structure matrix : menjelaskan korelasi dari semua variabel bebas terhadap fungsi diskriminan. Jika ada tanda a berarti tidak masuk dalam fungsi, nilai korelasinya kecil
Functions at Group Centroids
MinumFunction
1sedikit .361banya -.371
kUnstandardized canonical discriminant functions evaluated at group meansCV (Cut of Value) = Z1n2 + Z2n1 / (n1 + n2) maka CV = 0.361*37 + (-0.371*38) / (75) = -0.03208 Centroid Z1 (minum sedikit) > Centroid Z2 (minum banyak) , maka jika nilai dari Zminimum = 0.765 Zberat + 0,698 Zolahraga kurang dari -0.03208 maka akan masuk ke Centroid Z2 (minum ba,nyak); jika nilai Zminimum > -0.03208 maka masuk ke Centroid Z1 (minum sedikit) .
nilai Zberat, Zolahraga didapat dari transformasi ( x i−xs )Centroid Grup ini menunjukan nilai tengah dari masing2 grup / dari masing2 Z score nyaClassification Results(a)Classification Results
MinumPredicted Group
Membership Total sedikit banyak sedikitOriginal Count sedikit 24 14 38 banyak 12 25 37 % sedikit 63.2 36.8 100.0 banyak 32.4 67.6 100.0
a 65.3% of original grouped cases correctly classified.ket: angka yg berwarna merah: yang benarinterpretasi nilai 65,3 % => tingkat keakuratan fungsi diskriminan dapat membedakan perbedaan grup adalah sebesar : (24 + 25) / 75 * 100% = 65,3 %
Tambahan Teori:Ciri-ciri Diskriminan
ada 1 variabel dependen yang kategorik ada var independen nya berupa matrik ingin menentukan amatan masuk ke grup mana bedanya dengan cluster => cluster menggunakan informasi variabel untuk membentuk
gerombol, sedangkan diskriminan membedakan dulu baru ada variabel-variabelnyaUJI CLUSTER
variabel belum dibedakan antara X dan Y ; Cluster Non Hierarki: sudah ada kepentingan dari peneliti (biaya, ada teori, dll); Cluster Hierarki: membebaskan SPSS untuk membuat pengklusteranAsumsi:
Normal Multikolinieritas Independen antar observasi sampelnya acak syarat utama: data harus berupa matrik
catatan jika normal maka sudah pasti independen, dan acaktahapan:1. uji kenormalan2. Uji analisisnya: analyze Descriptives statististik – descriptive –masukan semua variabel –
centang save standardized values as variables – ok3. analyze – classify- hierarchical cluster- masukan semua variabel Z score ke kolom variable(s) –
pada Statistic centang agglomeration dan proximity, pada cluster membership=> none itu membebaskan spss, single dibatasi oleh user, range solution=> memerintahkan mau minimum bro max brp pada plot pilih: dendogram, pada method pilih Wards method-continue – pada Label Cases masukan var provinsi (yg akan dibuat cluster) – OK
4. outputAgglomeration schedule : proses pembentukan cluster => ada …. Step
untuk yang non hierarki cluster:analyze – classify – K –means cluster – masukan var Z score- select case by : provinsi- number of cluster misalnya ingin buat jadi 3 cluster – save: centang cluster membership dan distance from cluster- di options : centang ANOVA- iterasi: tidak ada yg diubah – OKoutput:iteration history: melakukan iterasi brp kali untuk mendapatkan cluster terbaikfinal cluster centers: jika nilai Z scorepositif berartinilai tsb berada di atas rata2 total, jika negatif berarti rata2nya berada di bawah rata2 totaldengan kata lain jika + => di atas rata2 nasional, - di bawah rata2 nasional
Final Cluster Centers
Cluster
1 2 3
Zscore(PE) .02972 -.04791 -.19605Zscore(PDRB_per_kapita) -.23288 -.22111 1.68545Zscore(Share) -.36608 3.02753 1.80569Zscore(PAD) -.27798 4.84684 .73412Zscore(PMDN) -.29842 .82484 1.88275Zscore(PMA) -.26154 5.06503 .56451Zscore(J.Penduduk) -.31256 .23384 2.12945Zscore(IPM) -.12337 1.93049 .38094Zscore(TPAK) .15775 -1.83674 -.64503Zscore(PersenMiskin) .02559 -1.02641 .07750
jadi rata2 yg tertinggi ada di cluster pertama .02972, kedua di cluster ke-2 -.04791, terendah di cluster ke 3 -.19605ANOVA
Cluster Error F Sig.
Mean Square Df Mean Square Df Mean Square dfZscore(PE)
.090 2 1.061 30 .085 .919
Zscore(PDRB_per_kapita)6.465 2 .636 30 10.171 .000
Zscore(Share)12.980 2 .201 30 64.476 .000
Zscore(PAD)13.906 2 .140 30 99.592 .000
Zscore(PMDN)8.677 2 .488 30 17.771 .000
Zscore(PMA)14.422 2 .105 30 137.111 .000
Zscore(J.Penduduk)10.464 2 .369 30 28.354 .000
Zscore(IPM)2.367 2 .909 30 2.604 .091
Zscore(TPAK)2.867 2 .876 30 3.275 .052
Zscore(PersenMiskin).548 2 1.030 30 .532 .593
The F tests should be used only for descriptive purposes because the clusters have been chosen to maximize the differences among cases in different clusters. The observed significance levels are not corrected for this and thus cannot be interpreted as tests of the hypothesis that the cluster means are equal.
dilihat yang signifikan berbeda: share, PAD, PMDN, PMA, J Penduduk.=> variabel ini bisa digunakan untuk mengelompokan cluster.QCL1: melihat observasi masuk ke cluster manaQCL 2: jarak antara observasi ke pusat cluster . contoh jarak rata2 aceh dengan rata2 cluster tempat kemana aceh masuk.