T. C. ULUDAĞ ÜNİVERSİTESİ SOSYAL BİLİMLER ENSTİTÜSÜ EKONOMETRİ ANABİLİM DALI İSTATİSTİK BİLİM DALI DİSKRİMİNANT ANALİZİ VE BİR UYGULAMA DENEMESİ YÜKSEK LİSANS TEZİ Oya CANGÜL BURSA 2006 T. C. ULUDAĞ ÜNİVERSİTESİ SOSYAL BİLİMLER ENSTİTÜSÜ EKONOMETRİ ANABİLİM DALI İSTATİSTİK BİLİM DALI DİSKRİMİNANT ANALİZİ VE BİR UYGULAMA DENEMESİ YÜKSEK LİSANS TEZİ Oya CANGÜL BURSA 2006 U.Ü. S.B.E. DİSKRİMİNANT ANALİZİ VE EKONOMETRİ Oya BURSA ANABİLİM DALI BİR UYGULAMA DENEMESİ İSTATİSTİK BİLİM CANGÜL 2006 DALI YÜKSEK LİSANS TEZİ T. C. ULUDAĞ ÜNİVERSİTESİ SOSYAL BİLİMLER ENSTİTÜSÜ EKONOMETRİ ANABİLİM DALI İSTATİSTİK BİLİM DALI DİSKRİMİNANT ANALİZİ VE BİR UYGULAMA DENEMESİ YÜKSEK LİSANS TEZİ Oya CANGÜL Danışman Prof. Dr. Mustafa AYTAÇ BURSA 2006 T. C. ULUDAĞ ÜNİVERSİTESİ SOSYAL BİLİMLER ENSTİTÜSÜ MÜDÜRLÜĞÜNE Ekonometri Anabilim Dalı, İstatistik Bilim Dalı’nda U2004544 numaralı Oya CANGÜL’ün hazırladığı “DİSKRİMİNANT ANALİZİ VE BİR UYGULAMA DENEMESİ” konulu Yüksek Lisans Tezi ile ilgili tez savunma sınavı, 02/11/2006 günü 11:00-12:00 saatleri arasında yapılmış, sorulan sorulara alınan cevaplar sonunda adayın tezinin başarılı/başarısız olduğuna oybirliği/oy çokluğu ile karar verilmiştir. Sınav Komisyonu Başkanı (Tez Danışmanı) Prof. Dr. Mustafa AYTAÇ Uludağ Üniversitesi Üye Üye Prof. Dr. Nalan Ölmezoğulları Doç. Dr. Erkan IŞIĞIÇOK Uludağ Üniversitesi Uludağ Üniversitesi Yedek Üye Yedek Üye Prof. Dr. Ercan Dülgeroğlu Doç. Dr. Fatma ACAR Uludağ Üniversitesi Uludağ Üniversitesi Ana Bilim Dalı Başkanı Prof. Dr. Sacit ERTAŞ 02/11/2006 Enstitü Müdürü Prof. Dr. Mustafa AYTAÇ ÖZET Yazar :Oya CANGÜL Üniversite :Uludağ Üniversitesi Anabilim Dalı :Ekonometri Bilim Dalı :İstatistik Tezin Niteliği :Yüksek Lisans Tezi Sayfa Sayısı :X+ 120 Mezuniyet Tarihi :…./11/2006 Tez Danışmanı :Prof. Dr. Mustafa AYTAÇ TEZ BAŞLIĞI DİSKRİMİNANT ANALİZİ VE BİR UYGULAMA DENEMESİ Son yıllarda yapılan bilimsel araştırmalarda incelenen olayların analizinde, kısıtlayıcı varsayımlar altında geçerli olan tek değişkenli analizlerin yeterli olmadığı görülmektedir. Tek değişkenli analizlerle ilgili en önemli kısıt, olaydaki birçok faktörün deneysel olarak kontrol altında tutulması ve her defasında tek bir faktörün etkisinin incelenmesidir. Tek değişkenli istatistiklerin kısıtlılığı nedeniyle çok değişkenli istatistiksel analizler, araştırmacılar tarafından tercih edilmeye başlanmıştır. Bu çalışmada, çok değişkenli analiz yöntemlerinden biri olan ve gözlemleri en az hata ile ait oldukları gruplara ayırmak için yapılan işlemlerin tümü olarak tanımlanan diskriminant analizinin teorik altyapısı ve finans alanındaki bir uygulaması verilmiştir. Birinci bölümde, çok değişkenli istatistiksel analiz yöntemlerinin tercih sebepleri, amaçları, tanımları üzerinde durulduktan sonra Diskriminant Analizinin en önemli varsayımlarından biri olan normal dağılım ile ilgili bilgi verilmiş ve Diskriminant Analizinin diğer analizlerle karşılaştırılması yapılmıştır. İkinci bölümde, Diskriminant Analizinin kullanımı, varsayımları, matematiksel işlemlerle teorik yapısı, fonksiyonunun elde edilişi ve anlamı ve son olarak teknikleri gösterilmiştir. Üçüncü bölümde, finansal performanslarına göre 1999, 2000, 2001 yıllarında, mali açıdan başarısız ve mali açıdan başarılı bankaları ayırmak için bir Diskriminant Analizi uygulaması yapılmıştır. Bu çalışmada, risk ölçütlerine göre performans değerlendirilmesi yapıldığından, bankacılıkta risk unsurları üzerinde durulmuştur. Anahtar Sözcükler: Diskriminant Analizi TMSF Bankacılıkta risk Türk Bankaları iii ABSTRACT Author :Oya CANGÜL University :Uludag University Department :Econometrics Field :Statistics Type of the Thesis :Master of Arts Thesis Total Pages :X + 120 Date of Diploma :…./11/2006 Supervisor :Prof. Dr. Mustafa AYTAÇ THESIS TITLE DISCRIMINANT ANALYSIS AND AN APPLICATION TRIAL It can easily be seen that existing one variable analysis under some restictive conditions used in scientific research are not enough. The most important restriction regarding one variable analysis is that all but one variables are kept under control experimentally and the effect of only one variable each time is considered. Because of this ineffectiveness of one variable analysis, researchers started to prefer multi variable statistical analysis. In this study theoretical background of Discriminant Analysis which is considered as one of the multi variable statistical analysis methods defined as the total of procedures made to classify data to the group it belongs with the minimum number of errors is established and a financial application is given. In the first chapter, the reasons for the multi variable statistical analysis methods to be used, their aims, definitions are recalled and after all that, some information on normal distribution which is one of the most important assumptions of Discriminant Analysis is given. Also Discriminant Analysis is compared with other analysis. In the second chapter, the usage, theoretical background, assumptions, the meaning, the methods and the function of Discriminant Analysis are discussed. In the third chapter, a financial application of Discriminant Analysis to discriminate between financially succesful and unseccesful banks in the years 1999, 2000 and 2001 according to their financial performances is studied. In this study, the risk factors have been focused on as the performans is assessed according to risk criteria. Key Words: Discriminant Analysis TMSF Risk at Banking Turkish Banks iv ÖNSÖZ Bu tezde Diskriminant Analizinin finansal bir uygulaması olarak 1999-2003 yıllarında TMSF’ye devredilen 26 Türk bankasının geleceklerini bazı verilere bakarak belirleme problemi ele alındı. Bu çalışmayla Uludağ Üniversitesi Fen-Edebiyat Fakültesi Matematik Bölümünde almış olduğum teorik matematikçi kimliğimi matematiğin uygulama alanlarından birisiyle birleştirebilme fırsatı buldum. Bu çalışmaya başlamamda ve sona erdirebilmemde bana destek olan danışmanım Prof. Dr. Mustafa AYTAÇ’a hem ders aşamasında kazandırdığı bilgilerden dolayı, hem de tez aşamasındaki desteklerinden dolayı teşekkür ederim. Tez aşamasında tez konusunu oluşturan problemim ile ilgili her türlü desteğinden, değerli görüşlerinden ve tezimin son haline gelmesindeki katkılarından dolayı Arş. Grv. Dr. Özer ARABACI’ya teşekkür ederim. Yüksek Lisansa başladığım ilk günden bugüne kadar moral desteklerini esirgemeyen Prof. Dr. Serpil AYTAÇ’a; Prof. Dr. Melek TÜZ’e ve Doç. Dr. Nuran BAYRAM’a ve de yardımını, desteğini, zamanını esirgemeyen eşim Prof. Dr. İ. Naci CANGÜL’e teşekkürü bir borç bilirim. v İÇİNDEKİLER Sayfa TEZ ONAY SAYFASI....................................................................................................... II ÖZET............................................................................................................................ III ABSTRACT.................................................................................................................... IV ÖNSÖZ ........................................................................................................................ V İÇİNDEKİLER................................................................................................................ VI TABLOLAR.................................................................................................................... VIII ŞEKİLLER...................................................................................................................... X BİRİNCİ BÖLÜM ÇOK DEĞİŞKENLİ İSTATİSTİKSEL ANALİZ YÖNTEMLERİ 1.1. Çok Değişkenli İstatistiksel Analiz Nedir? ............................................................. 1 1.2. Çok Değişkenli Analiz Yöntemleri ........................................................................ 3 1.2.1. Temel Bileşenler Analizi ........................................................................... 4 1.2.2. Faktör Analizi ......................................................................................... 4 1.2.3. Kümeleme Analizi ................................................................................... 5 1.2.4. Çok Değişkenli Varyans Analizi ................................................................. 5 1.2.5. Diskriminant Analizi ................................................................................. 5 1.2.6. Lojistik Regresyon Analizi ........................................................................ 6 1.2.7. Çoklu Regresyon Analizi .......................................................................... 6 1.2.8. Çok Boyutlu Ölçekleme Analizi ................................................................. 6 1.2.9. Karşılık Getirme Analizi ........................................................................... 7 1.2.10. Bitişiklik Analizi ..................................................................................... 7 1.2.11. Doğal Korelasyon Analizi ....................................................................... 7 1.3. Çok Değişkenli Normal Dağılım ......................................................................... 8 1.3.1. Tek Değişkenli Normal Dağılım ................................................................ 9 1.3.2. Çok Değişkenli Normal Dağılım ................................................................ 10 1.3.3. İki Değişkenli Normal Dağılım .................................................................. 11 İKİNCİ BÖLÜM DİSKRİMİNANT ANALİZİ 2.1. Diskriminant Analizinin Kullanımı ve Varsayımları ............................................... 25 2.2. İki Gruplu Doğrusal Diskriminant Analizi ........................................................... 36 2.3. İkiden Çok Grup Olması Halinde Diskriminant Analizi ......................................... 41 2.3.1. Doğal Diskriminant Fonksiyonu Katsayılarının Üretilmesi .......................... 45 2.3.2. Tek Fonksiyonlu ve İki Fonksiyonlu Çizimler ............................................ 50 2.3.3. Özdeğerler, Bağıl Yüzde ve Doğal Korelasyon .......................................... 55 2.3.4. Diskriminant Fonksiyonlarının Önem Kontrolü ......................................... 61 2.3.5. Özel Durumlarda Kullanılan Diskriminant Analizi Teknikleri ....................... 72 2.4. Çok Değişkenli İstatistiksel Analizlerle Diskriminant Analizinin Karşılaştırılması ..... 74 vi ÜÇÜNCÜ BÖLÜM TÜRKİYE BANKACILIK SEKTÖRÜNDE MALİ BAŞARISIZLIĞIN ÖNGÖRÜLMESİ VE DİSKRİMİNANT ANALİZİ MODELİ 3.1. Diskriminant Analizinin Uygulama Alanları ........................................................... 77 3.1.1. Bazı Diskriminant Analizi Uygulamaları .................................................... 77 3.1.2. Bankacılık Sektöründeki Risk Çeşitleri ....................................................... 80 3.1.3. Bankacılık Sektöründe Yapılan Çok Değişkenli Analiz Çalışmaları ................. 84 3.2. Diskriminant Analizinin Bir Bankacılık Uygulaması ................................................ 92 SONUÇ......................................................................................................................... 112 KAYNAKLAR.................................................................................................................. 116 ÖZGEÇMİŞ.................................................................................................................... 120 vii TABLOLAR Tablo 1. Tek Değişkenli ve Çok Değişkenli İstatistiklerin Karşılaştırılması 2 Tablo 2. Analizde Kullanılan Oranlar 95 Tablo 3. 1999 yılı için Box’s M Testi sonuçları 96 Tablo 4. 1999 yılı için değişkenlerin korelasyonlarının karşılaştırılması 96 Tablo 5. 1999 yılı için özdeğerler 97 Tablo 6. 1999 yılı için Wilks' Lambda sonuçları 98 Tablo 7. 1999 yılı için standartlaştırılmış doğal korelasyon katsayıları 99 Tablo 8. 1999 yılı için yapı matrisi 99 Tablo 9. 1999 yılı için standartlaştırılmamış doğal diskriminant fonksiyonu katsayıları 100 Tablo 10. 1999 yılı için grup ortalamalarında hesaplanan standartlaştırılmamış katsayılar 101 Tablo 11. 1999 yılı için sınıflandırma tablosu 101 Tablo 12. 2000 yılı için değişkenlerin korelasyonlarının karşılaştırılması 102 Tablo 13. 2000 yılı için özdeğerler 103 Tablo 14. 2000 yılı için Wilks' Lambda sonuçları 103 Tablo 15. 2000 yılı için standartlaştırılmış doğal korelasyon katsayıları 104 Tablo 16. 2000 yılı için yapı matrisi 104 Tablo 17. 2000 yılı için standartlaştırılmamış doğal diskriminant fonksiyonu katsayıları 105 Tablo 18. 2000 yılı için grup ortalamalarında hesaplanan standartlaştırılmamış katsayılar 106 Tablo 19. 2000 yılı için sınıflandırma tablosu 106 Tablo 20. 2001 yılı için değişkenlerin korelasyonlarının karşılaştırılması 107 Tablo 21. 2001 yılı için özdeğerler 108 Tablo 22. 2001 yılı için Wilks' Lambda sonuçları 108 Tablo 23. 2001 yılı için standartlaştırılmış doğal korelasyon katsayıları 109 Tablo 24. 2001 yılı için yapı matrisi 109 Tablo 25. 2001 yılı için standartlaştırılmamış doğal diskriminant fonksiyonu katsayıları 110 viii Tablo 26. 2001 yılı için grup ortalamalarında hesaplanan standartlaştırılmamış katsayılar 110 Tablo 27. 2001 yılı için sınıflandırma tablosu 111 ix ŞEKİLLER Şekil 1. Ortalaması µ = 10 ve varyansı σ2 = 4 olan bir normal yoğunluk 10 Şekil 2. σ11 = σ22 ve σ12 > 0 (ya da ρ12 > 0) olan iki değişkenli bir normal dağılım için bir sabit yoğunluk çevresi. 16 Şekil 3. Gruplar ve ayırtedici değişkenler arasındaki ilişkiler 31 Şekil 4. Diskriminant Analizi için Karar Süreci 34 Şekil 5. k = 3 ve p ≥ 2 için bölgelerin sınıflandırılması 43 Şekil 6. k = 4 durumunda bölgelerin sınıflandırılması 43 Şekil 7. Diskriminant Analizinde boyut indirgeme 44 Şekil 8. Grup sentroidlerinin ve bireysel durumların iki fonksiyonlu bir çizimi. Düşey eksen 1. fonksiyonu, yatay eksen ise 2. fonksiyonu göstermektedir. 51 Şekil 9. Grup histogramları. Herbir X bir bireyi göstermektedir. Düşey eksen standart sapma birimleri cinsinden ölçülmüş olan ilk doğal diskriminant fonksiyonunu belirtir. 53 Şekil 10. Hatalı sınıflandırma durumu 60 Şekil 11. Bireylerin Gruplara Ait Olma Olasılıklarının Şekilsel İfadesi 60 Şekil 12. Risk Yönetiminin Yapısı 82 x BÖLÜM 1 ÇOK DEĞİŞKENLİ İSTATİSTİKSEL ANALİZ YÖNTEMLERİ 1.1. Çok Değişkenli İstatistiksel Analiz Nedir? Gerçek hayatta karşılaşılan olaylar genellikle bir çok etkenin etkisi altında olduğundan tek değişkenle açıklanamayacak kadar karmaşıktır. Bir problemin çözümünde problemi etkileyen bir çok faktör vardır ve problemin çözümünde bu faktörlerin olabildiğince fazlası dikkate alınmalıdır. Bu da tek değişkenli istatistiklerin sınırlılığı nedeni ile, çok değişkenli istatistiksel analizlerin incelenmesine ve kullanılmasına yol açmıştır. Böylece, tek değişkenli istatistiklerde varsayılan kısıtlamalar ortadan kalkacağından araştırmalarda daha objektif, daha tutarlı sonuçlar elde edilebilir. Çok değişkenli istatistik, inceleme konusu olayı bir bütün olarak ele almakta ve bütünlüğü sağlayan değişkenlerin bağımlılık yapısını açıklamaya çalışmaktadır. Bu durumda çok değişkenli istatistiğin en önemli amacının değişkenler arasındaki bağımlılık yapısının analizi olduğu iddia edilebilir (Tatlıdil 1996). Çok değişkenli istatistiksel analizlerde, birden çok özelliğin analizi ile ilgilenildiğinden en az iki değişken söz konusudur. Değişken sayısının çok olması durumunda, gösterim kolaylığı sağlaması nedeni ile, çok değişkenli istatistiksel analizde vektör ve matrislerden yararlanılmaktadır. Çok değişkenli istatistiksel analizlerin birçoğunun en önemli varsayımı, verilerin çok değişkenli normal dağılımlı kütleden çekilmiş olmasıdır. Tek değişkenli istatistik ve çok değişkenli istatistik olması durumunda örnek olarak aşağıdaki özetleyici bilgileri verebiliriz: Tablo 1. Tek Değişkenli ve Çok Değişkenli İstatistiklerin Karşılaştırılması Tek değişkenli istatistik Çok değişkenli istatistik Değişken sayısı P = 1 P ≥ 2 (çok değişkenli) (P) Değişkeni etkileyen diğer N birimli p tane değişken normal Varsayımı faktörler (değişkenler) türdeş ya dağılım gösterir. da sabittir. Örneklem Tek bir değer Bir vektör Ortalaması Kovaryans matrisi Varyans n − − n − S = 1 ∑ (xi − x)(xi − x)′ Örneklem ∑ (x 2 n −1 i=1i − x) s2 = i=1 − − n −1 = 1 ⎡XX ′ − n x x′⎤ n −1 ⎢⎣ ⎦⎥ Çok değişkenli istatistiksel analiz teknikleri; değişken setleri arasında karşılıklı ilişkileri eş zamanlı olarak analiz eden istatistiksel tekniklerin tümüdür (Yılmaz 1990). Çok değişkenli istatistiksel analizler, incelenen olay ve çevresindeki çok sayıda içsel ve dışsal faktörleri dikkate alarak, problemi doğasındaki yapısına ilişkin bilgilere göre incelemek ve çözümlere ulaşmak için geliştirilmiş yöntemler bütünüdür (Özdamar 1999). Çok değişkenli istatistiksel analiz teknikleri, çok sayıdaki değişkeni doğrusal bileşimlerine indirgeyen ve bu değişkenler arasındaki karmaşık ilşkilerin yorumlanmasına olanak sağlayan istatistiksel bir tekniktir (Erçetin 1993) Çok değişkenli istatistik, birden çok özelliğin analizi ile ilgilendiğinden, uygulamalarda değişik amaçlarla kullanılmaktadır. Çok değişkenli istatistiksel analiz yöntemlerinin çok farklı amaçları vardır. Bu amaçları kısaca şu şekilde belirtmek mümkündür (Tatlıdil 1996): 2 1. Basitleştirme ve Boyut İndirgeme: p değişken, k kütle olmak üzere, p sayıda değişken içeren veri setinin varyasyonunu açıklayan ve aralarında ilişki bulunmayan daha az sayıda değişkenle (k < p) veri yapısını açıklamayı sağlamak. 2. Birimlerin Kümelenmesi ve Sınıflandırılması: Sınıf özelliklerini bilinmeyen birimler hakkında birbirine benzeyen kümeler belirleme çalışmalarına yardımcı olmak. Daha önceden belirlenmiş gruplara yeni birimlerin atanmasını sağlamak. 3. Bağımlılık Yapısının İncelenmesi: Kütleyi oluşturan değişkenler arasındaki ilişkilerin yapısının belirlenmesi. 4. Sıralama ve Ölçekleme: p sayıda değişken içeren p boyutlu ölçümlemelerden daha az sayıda değişken kullanarak birimlerin gösterilmesini, tanımlanmasını sağlamak. Birimlerin birbirleri ile k < p boyutlu ölçekte benzerlik ve farklılıklarını incelemek. 5. Çok Değişkenli Hipotezlerin Oluşturulması ve Test Edilmesi: k tane kütlenin çok değişkenli ortalamalar vektörünün eşitliği/farklılığı üzerinde kurulacak hipotezleri test etmek. Çok değişkenli istatistiksel analiz yöntemleri; Ziraat, Biyoloji, Tıp, Kimya, Ekonomi, Sosyoloji, Arkeoloji, Jeoloji, İşletme, İktisat, Bankacılık, Eğitim gibi birçok bilim dalında uygulama alanları bulmuştur.Yukarıda sıralanan uygulama alanları nedeni ile sosyal bilimlerde önemi büyüktür. Ancak çok değişkenli istatistiksel analiz tekniklerinin varsayımlarının en önemlisi, kullanılacak verilerin çok değişkenli normal dağılımlı kütleden çekilmiş olduğu varsayımıdır. Verilerin bu varsayımı sağlamadığı durumlarda normallik varsayımının dönüşümlerle sağlanması da her zaman kolay olmayabilmektedir. Aşağıda temel çok değişkenli analiz yöntemlerinin ne zaman kullanıldıkları ve fonksiyonları ile beraber sunulmuştur. 1.2. Çok Değişkenli Analiz Yöntemleri Bu bölümde çok değişkenli analiz yöntemlerinin ne zaman kullanıldıkları, amaçları, tanımları ve kullanılan fonksiyonlar kısaca ele alınacaktır. 3 1.2.1. Temel Bileşenler Analizi Genel olarak değişkenler arasındaki bağımlılık yapısının yok edilmesi ve boyut indirgeme amacıyla kullanılan temel bileşenler analizi başlıbaşına bir analiz olduğu gibi, başka analizler için veri hazırlama tekniği olarak da kullanılmaktadır. Ayrıca çoklu regresyonda çoklu bağlantı durumunu gidermede ve çok değişkenli regresyonda ise değişken kümelerinde boyut indirgeme amacıyla kullanılmaktadır. Temel Bileşenler Yöntemi, bütün değişkenlerdeki maksimum varyansı açıklayacak faktörün bulunmasını sağlar. Temel Bileşenler Analizi, ham ya da standartlaştırılmış bağımlı değişkenlerden, bağımsız yeni değişkenler bulunmasını sağlar. Başlangıçtaki boyuttan daha küçük sayıda boyutla açıklama yapılabilmesi amaçlanmaktadır. 1.2.2. Faktör Analizi Birbiri ile ilişkili çok sayıda değişkeni bir araya getirerek az sayıda kavramsal olarak anlamlı yeni değişkenler (faktörler) bulmak ve keşfetmek istenildiğinde kullanılır ve az sayıda yeni ilişkisiz değişken bulmayı amaçlar. Faktör analizi, veriler arasındaki ilişkilere dayanarak verilerin daha anlamlı ve özel bir biçimde sunulmasını sağlayan bir yöntemdir. Bu yöntem bir boyut indirgeme ve bağımlılık yapısını yok etme yöntemidir. Amaç değişkenler arasındaki karşılıklı bağımlılığın kökenini araştırmaktır. Faktör, gözlenen değişkenlerin doğrusal bileşimidir (Erdoğan 1972). Faktör analizinde kovaryans ve korelasyon matrisinden hareket ederek bilgi kaybı olmadan daha az sayıda faktör adını verdiğimiz yeni değişkenlere ulaşılmaya çalışılır. Örneklem büyüklüğü faktör analizi için önemlidir. Gözlem sayısı değişken sayısından fazla olmalıdır (Akgül 1997). Başarılı bir faktör analizi uygulamasında, elde edilen faktör sayısı değişken sayısına göre çok daha az olmalıdır. Ayrıca faktörlerin yorumlanabilir olması aranılan diğer bir özelliktir (Aydoğan-Çapaoğlu 1989). Başlıca varsayımları, veri matrisinin analiz öncesi kriter ve tahmin değişkenlerinin alt matrisine bölüştürülmemesi ve değişkenler arasındaki ilginin doğrusal olduğudur (Green-Tull 1956) Çok sayıdaki değişkenler arasında içsel ilişkileri analiz etmeyi ve bu değişkenlerin temelinde yatan ortak boyutları (faktörleri) açıklamayı amaçlamaktadır. 4 1.2.3. Kümeleme Analizi Kümeleme Analizi, gruplaşmamış verileri ortak özelliklerine göre sınıflandırmak; uygun, işe yarar, özetleyici bilgiler elde etmek istendiğinde kullanılır. Aynı zamanda Kümeleme Analizi, bireylerin veya uyarıcıların benzerliklerine göre gruplarda toplanmasını amaçlayan çok değişkenli bir istatistik yöntemidir. Kümeleme Analizi, varlık (bireyler, nesneler) örneklerini daha az sayıda varlıklar arasındaki benzerliklere bakarak karşılıklı özel alt gruplar halinde sınıflandırmayı amaçlamaktadır. 1.2.4. Çok Değişkenli Varyans Analizi (MANOVA) MANOVA; araştırmacının grubun yanıtlarının varyansını dikkate alarak hipotezi test etmek için deneysel durumu tasarlamasında iki ya da daha fazla bağımlı değişken üzerindeki etkisini incelemede kullanılır. Fonksiyonu, farklı kategorilerdeki bağımsız değişkenler (genellikle davranışlar) ve iki veya daha fazla bağımlı metrik değişken arasındaki ilişkiyi eş zamanlı olarak araştırır. 1.2.5. Diskriminant Analizi Diskriminant fonksiyonları aracılığı ile gruplar arası ayırıma en fazla etki eden ayırıcı değişkenleri belirlemede ve hangi gruptan geldiği bilinmeyen bir bireyin hangi gruba dahil edileceğini belirlemede kullanılır. Genel anlamda ayırma olup, bireylere ait p tane özellikten yararlanarak ait oldukları grupları (kütle) belirlemede veya mevcut grupları birbirinden ayıracak en iyi fonksiyonu bulmada kullanılan çok değişkenli istatistik tekniklerinden birisidir (Çamdeviren 2000). Genel olarak birimlerin gruplanmasında bazı matematiksel eşitliklerden faydalanılır. Diskriminant fonksiyonu olarak adlandırılan bu eşitlikler birbirine en çok benzeyen grupları belirlemeye olanak sağlayacak şekilde grupların ortak özelliklerini belirlemek amacıyla kullanılmaktadır. Grupları ayırmak amacıyla kullanılan karakteristikler ise diskriminant değişkenleri olarak adlandırılmaktadır. Kısaca, iki veya daha fazla sayıdaki grubun farklılıklarının diskriminant değişkenleri vasıtasıyla ortaya konması işlemidir (Klecka 1980). Araştırıcı, 5 hatalı sınıflandırma olasılığını en aza indirgeyerek gözlemleri ait oldukları gruplara ayırmak veya bu gözlemlerin çekilmiş oldukları grupları belirlemek isteyecektir (Johnson-Wichem 2002). Belirlenecek grupların ortalamaları arasındaki farklılığın maksimum olması amaçlanmaktadır. İşlevi, grup farklılıklarını anlamak ve bir varlığın (birey, nesne) belirli bir sınıfa veya birkaç metrik bağımsız değişkene dayalı gruba ait olması olasılığını tahmin etmektir. Gruplar arası farklılığa etki eden tahmin değişkenlerinin hangileri olduğunu ortaya çıkarır. 1.2.6. Lojistik Regresyon Analizi Amaç bir veya birden fazla bağımsız değişken ile bağımlı değişken arasındaki ilişkiyi modellemektir. Diğer regresyon analizlerinde bağımlı değişken sürekli iken burada bağımlı değişken kategoriktir. Bağımsız değişkenler ise kategorik, sürekli veya hem kategorik hem de sürekli değişkenlerin bir karması olabilir. Tek değişken varsa lojistik regresyon, birden fazla bağımsız değişken varsa çoklu lojistik regresyon söz konusudur. İşlevi, lojistik ayırt etme fonksiyonunu kullanılarak gözlemleri gruplara atamaktır. Sonlu olasılıkların kestirimine yönelik çalışmalarda tercih edilir. 1.2.7. Çoklu Regresyon Analizi Tek bir bağımlı değişkenin bir veya daha fazla bağımsız değişken ile ilişkisinin incelemesinde kullanır. İşlevi, bağımsız değişkenlerdeki değişmelere yanıt olarak bağımlı değişkendeki değişmeleri tahmin eder. 1.2.8. Çok Boyutlu Ölçekleme Analizi Kişisel tercihler, tutumlar, eğilimler, inançlar ve bekleyişler gibi davranışsal verilerin analizinde kullanılr. Çok boyutlu ölçekleme, n tane nesne (birey, gözlem) 6 arasındaki uzaklık değerlerini kullanarak bu nesnelerin çok boyutlu uzaydaki konumlarını, ilişki yapısını veren resmini ortaya koymayı amaçlamaktadır. Uzaklıklar veya farklılıklar yardımıyla nesnelerin geometrik konumlarının belirlenmesi, şekillendirilmeleri önemli bir konudur. Bu amaçla yapılan çalışmalarda genellikle elde edilen şekillerin çok boyut içermesi sebebiyle bu ölçeklemelere çok boyutlu ölçekleme adı verilmiştir (Tatlıdil 1996). Bu analiz belli bir dağılım varsayımı gerektirmeyen bir yöntemdir. Buna karşın bu yöntemin sağlaması gereken varsayımların bazıları şunlardır: n tane nesne ya da birim arasındaki uzaklıkları kullanır. Bu uzaklıklar simetrik ve yansımalıdır. Veri tipini doğru olarak belirlemek gerekir (Örneğin; sınıflamalı, sıralı, eşitaralıklı veya orantılı). Analiz edilecek veriler farklılıklar belirtiyor ise, farklılıklar matrisi nicel değerler içermelidir. İşlevi, nesnelerin yapısını mümkün olduğunca az boyutlu orjinal şekle yakın bir biçimde ortaya koyar. 1.2.9. Karşılık Getirme Analizi Özellikle kategorik verilerin analizinde uygundur. İşlevi, özellikle kategorik verilerin analizinde uygundur. Analizin grafik çıktısı karar vermek için kullanılabilecek zengin bilgiye sahiptir. 1.2.10. Bitişiklik Analizi (Conjoint Analysis) Daha çok yeni ya da gözden geçirilen bir ürün ya da hizmetin niteliklerini belirlemek, fiyatların oluşturulmasına yardımcı olmak, satış ya da kullanım düzeyini tahmin etmek ve yeni bir ürün önermek amacıyla kullanılır. İşlevi, nitelikleri nicel olarak karşılaştırır. 1.2.11. Kanonik Korelasyon Analizi Çoklu regresyon analizinin uzantısıdır. En gelişmiş ve en karmaşık korelasyon analizi olan doğal korelasyon analizi ise çoklu boyutlu kütleden çekilmiş iki ya da daha çok değişken kümesi arasındaki korelasyon ile ilgilenir. 7 İşlevi, farklı bağımsız metrik değişkenler ile farklı bağımlı metrik değişkenleri eş zamanlı olarak ilişkilendirir. 1.3. Çok Değişkenli Normal Dağılım Çan eğrisi şeklindeki normal dağılımın çeşitli boyutlara genelleştirilmesi çok değişkenli istatistikte önemli bir rol oynar. Aslında bir çok istatistiksel teknik, verilerin çok değişkenli normal bir dağılımdan üretildiği varsayımına dayanmaktadır. Gerçek veriler hiçbir zaman tam olarak çok değişkenli normal dağılıma sahip olamasalar da normal dağılım çoğunlukla “doğru” anakütle dağılımına oldukça yaklaşmaktadır. Çok değişkenli istatistiksel analiz tekniklerinin çoğunda, örneklemlerin çok değişkenli normal dağılımlı kütlelerden geldiği kabul edilmektedir. Çok değişkenli normal dağılımı kullanmanın avantajları vardır. Bunlardan bazılarını şu şekilde sıralayabiliriz: Çok değişkenli normal dağılım, • Matematiksel olarak incelenmesi, çözümlenmesi ve sonuçların yorumlanması açısından kolay olan dağılımdır. • Doğada sürekli değişken içeren çok değişkenli olaylar normal dağılım gösterir. Bir çok uygulamacı, diğer dağılımlarla ilgili yaklaşımlar yaygın kullanıma sahip olmadığından ayrıntılı bilgiye sahip olmayabilir. • Çok değişkenli istatistiklerin örneklem dağılımları merkezi limit teoremi etkisinden dolayı çok değişkenli normal dağılım gösterir. • Çoğu problemin incelenmesinde normal dağılım varsayımlarının kullanılması oldukça tutarlı bir yaklaşımdır. Çok değişkenli normal dağılımın bir avantajı matematiksel olarak anlaşılır olması ve bir çok faydalı sonucun elde edilebilmesidir. Bu genellikle diğer veri üreten dağılımlarda rastlanmayan bir özelliktir. Tabii matematiksel çekiciliği pratik uygulama yapan bir araştırmacının çok da işine yaramaz. Bununla birlikte normal dağılımlar uygulamada iki sebepten dolayı faydalıdır. İlk olarak normal dağılım bazı durumlarda doğal bir kütle modeli olarak hizmet vermektedir. İkinci olarak ta bir çok çok değişkenli 8 istatistik örneklem dağılımları merkezi-limit teoreminin etkisiyle ana kütleye bağlı olmaksızın yaklaşık olarak normaldir. Özetleyecek olursak bir çok gerçek yaşam problemi normal dağılım teorisine uygun düşmektedir. Normal dağılımın önemi hem bazı doğal olaylara karşılık gelen bir ana kütle modeli olmasından hem de birçok istatistik için uygun bir örneklem dağılımı olmasındandır. 1.3.1. Tek Değişkenli Normal Dağılım Ortalaması µ ve varyansı σ2 olan tek değişkenli normal dağılımın olasılık yoğunluk fonksiyonu aşağıdaki gibidir: 1 ( ) 2 −∞ < x < ∞f (x) = e−⎡⎣ x−µ /σ ⎤⎦ / 2 2 (1) 2πσ 2 σ > 0 Bu fonksiyonun çizimi aşağıdaki Şekil 1’deki gibi çan eğrisine benzer bir şekildir. Şekil 1’de ayrıca eğri altında kalan ve ortalamadan ±1, ±2 ve ±3 standart sapmaya sahip yaklaşık alanlar da gösterilmiştir. Bu alanlar olasılıkları belirtir ve böylelikle normal rassal X değişkeni için P (µ −σ < X < µ +σ ) = 0,68 P (µ − 2σ < X < µ + 2σ ) = 0,95 P (µ −3σ < X < µ + 3σ ) = 0,9973 yazılabilir. Ortalaması µ ve varyansı σ2 olan normal yoğunluk fonksiyonunu N(µ,σ 2 ) ile göstermek uygundur. Bu yüzden N(10,4) gösterimi, Şekil 1’deki µ = 10 ve σ = 2 olan fonksiyonu gösterecektir. 9 0.683 0.954 µ-3σ µ − 2σ µ −σ µ µ +σ µ + 2σ µ+3σ Şekil 1. Ortalaması µ = 10 ve varyansı σ2 = 4 olan bir normal yoğunluk ve eğri altında kalan seçilmiş alanlar Tek değişkenli normal yoğunluk fonksiyonunun üssündeki x − µ 2⎛ ⎞ −1 ⎜ ⎟ = (x − µ)(σ 2 ) (x − µ) (2) ⎝ σ ⎠ terimi x’ten µ’ye kadar olan uzaklığın standart sapma birimi cinsinden karesini ölçmektedir. Bu durum çeşitli değişkenlerin gözlemlerinden oluşan p×1 boyutlu bir x vektörüne şu şekilde genelleştirilebilir: ( x µ)′ ∑ −1− ( x − µ) . (3) p×1 boyutlu bir µ vektörü X rassal vektörünün beklenen değerini belirtmektedir. p×p boyutlu ∑ matrisi ise X’in varyans-kovaryans matrisidir. Simetrik ∑ matrisinin pozitif tanımlı olduğu varsayıldığında, bu son denklem x’ten µ’ye olan genelleştirilmiş uzaklığın karesidir. 1.3.2. Çok Değişkenli Normal Dağılım Çok değişkenli normal yoğunluk, tek değişkenli normal yoğunluğun p≥2 boyuta genelleştirilmesidir. 10 Çok değişkenli normal yoğunluk (1) denklemindeki yoğunluk fonksiyonunda (2) denklemindeki tek değişkenli uzaklığı (3) denklemindeki çok değişkenli genelleştirilmiş uzaklıkla değiştirerek elde edilir. Bu değişiklik yapıldığında tek değişkenli −1/ 2 normalleştirme sabiti olan (2π )−1/ 2 (σ 2 ) ’nin, herhangi bir p için çok değişkenli yoğunluk fonksiyonunun yüzeyi altında kalan hacimi birim yapacak şekilde daha genel bir sabitle değiştirilmesi de gerekir. Bu, çok değişkenli durumda olasılıkların xi değerlerinin oluşturduğu bölgeler üzerinde tanımlanan yüzeyler altında kalan hacimler cinsinden ifade ediliyor olmaları sebebiyle gereklidir. Bu sabitin (2π )− p / 2 Σ −1/ 2 olduğu gösterilebilir ve sonuç olarak bir X = ⎣⎡X ′ 1, X 2 , ..., X p ⎤⎦ rassal vektörü için p-boyutlu bir normal yoğunluk, i = 1, 2, ..., p için -∞ < xi < ∞ olmak üzere −1 f (x) 1= e−(x−µ )′Σ ( x−µ ) / 2 (4) (2π ) p / 2 Σ 1/ 2 şeklindedir. Bu p-boyutlu normal yoğunluğu tek değişkenli duruma benzer şekilde Np(µ,∑) ile gösterilir. 1.3.3. İki Değişkenli Normal Dağılım p = 2 değişkenli normal yoğunluğu µ1 = E(X1), µ2 = E(X 2 ), σ11 =Var(X1), σ 22 =Var(X 2 ) ve ρ12 =σ12 / ( σ11 σ 22 ) = Corr(X1,X2) bireysel parametrelerine bağlı olarak hesaplansın. ⎡σ σ ⎤ ∑ = 11 12⎢ ⎥ ⎣σ12 σ 22 ⎦ kovaryans matrisinin tersi 11 ⎡ σ −σ ⎤ ∑-1 = 1 22 12 σ 2 ⎢ ⎥ 11σ 22 −σ 12 ⎣−σ12 σ11 ⎦ şeklindedir. σ12 = ρ12 σ11 σ 22 yazıldığında, σ 2 2 11σ 22 −σ12 =σ11σ 22 (1− ρ12 ) elde edilir ve karesi alınmış uzaklık ta ( x µ)′ ∑ −1− ( x − µ) = [x 11 − µ1, x2 − µ2 ] . σ11σ 22 (1− ρ 212 ) ⎡ σ ⎤ . ⎢ 22 −ρ12 σ11 σ 22 ⎡ x1 − µ⎥ 1 ⎤ ⎢ ⎥ ⎣⎢−ρ12 σ11 σ 22 σ11 ⎥⎦ ⎣x2 − µ2 ⎦ σ x − µ 2 +σ x − µ 2 − 2ρ σ σ x − µ x − µ = 22 ( 1 1 ) 11 ( 2 2 ) 12 11 22 ( 1 1 )( 2 2 ) σ11σ 22 (1− ρ 212 ) ⎡ 2 21 ⎛ x − µ ⎞ ⎛ x − µ ⎞ ⎛ x − µ ⎞⎛ ⎞⎤ = ⎢ 1 1 x − µ2 ⎜⎜ ⎟⎟ + ⎜ 2 2 ⎟ − 2ρ 1 1 2 2 ⎥ 1− ρ ⎢ σ ⎜ σ ⎟ 12 ⎜ ⎜ ⎟⎜ ⎟ (5) 12 ⎝ 11 ⎠ ⎝ 22 ⎠ ⎝ σ ⎟⎜ ⎟⎣ 11 ⎠⎝ σ 22 ⎠ ⎥ ⎦ haline dönüşür. Bu son eşitlik (x1 − µ1 ) / σ11 ve (x2 − µ2 ) / σ 22 standartlaştırılmış değerleri cinsinden ifade edilmiştir. |∑| = σ 2 2 -111σ 22 −σ12 = σ11σ 22 (1− ρ12 ) olduğundan (4) denkleminde ∑ ve |∑| yerine değerleri konulursa µ1,µ2 ,σ11,σ 22 ve ρ12 bireysel parametrelerini içeren iki değişkenli normal yoğunluk için aşağıdaki ifadeyi elde edilir: f (x1, x2 ) 1 = 2π σ11σ 22 (1− ρ 212 ) ⎧ 2 2 ⎪ 1 ⎡⎛ x − µ ⎞ ⎛ x − µ ⎞ ⎛ ⎞⎛ × exp ⎢ 1 1 x − µ x − µ ⎞⎤⎫ ⎨− ⎜⎜ ⎟ + ⎜ 2 2 ⎟ − 2ρ ⎜ 1 1 ⎟⎜ 2 2 ⎥⎪( 2 ) ⎟⎢ ⎬ . (6) ⎪ 2 1− ρ12 ⎝ σ ⎟ ⎜ ⎟ 12 ⎜ ⎟⎜ ⎟ ⎩ ⎣ 11 ⎠ ⎝ σ 22 ⎠ ⎝ σ11 ⎠⎝ σ 22 ⎠⎥⎦⎭⎪ 12 (6) denklemindeki ifade net bir bilgi vermezken (4) denklemindeki daha kompakt genel ifade ise daha fazla bilgi vericidir. Diğer yandan (6)’daki ifade normal dağılımın bazı özelliklerini çalışmada fayda sağlar. Örneğin eğer X1, X2 rassal değişkenleri ilişkisiz iseler, yani ρ12 = 0 ise, birleşik yoğunluk herbiri (1) formunda olan iki adet tek değişkenli normal yoğunluğun çarpımı olarak yazılabilir. Yani f(x1, x2) = f(x1).f(x2)’dir ve X1 ve X2 bağımsızdırlar. Bu sonuç genelde de doğrudur. p-boyutlu normal değişkenin yoğunluğu için verilen (4) denklemindeki ifadeden yoğunluğun sabit bir seviyedeki yükselti eğrilerinin elipsoidler olduğu görülür. Yani çok değişkenli normal yoğunluk, uzaklığın karesi olan ( x − µ)′ ∑ −1 ( x − µ) değerinin sabit olduğu yüzeylerde sabittir. Bu eğrilere çevre denilir ve şöyle tanımlanır: sabit olasılık yoğunluğunun çevresi = { ( x − µ)′ ∑ −1 ( x − µ) = c2 olacak şekildeki tüm x değerleri} = µ merkezli elipsoid yüzeyi. Sabit yoğunluklu her bir elipsoidin eksenleri ∑-1’in özvektörlerinin yönlerindedir. Uzunlukları ise ∑-1’in özdeğerlerinin kareköklerinin tersleriyle orantılıdır. Eksenleri belirlerken bu elipsoidler aynı zamanda ∑’nın özdeğer ve özvektörleriyle de belirlenebildiğinden ∑-1’in hesaplanmasına gerek yoktur. Bu ilişki şu şekilde verilebilir: Eğer ∑ pozitif tanımlı ise yani ∑-1 mevcutsa, ∑e = λe olması durumunda 13 ∑-1e = 1 e λ olur. Böylece ∑ için bir özdeğer-özvektör ikilisi olan (λ, e), ∑-1 için bir özdeğer- özvektör ikilisi olan (1/λ, e)’ye karşılık gelir. Ayrıca ∑-1 pozitif tanımlıdır. p boyutlu normal dağılım için sabit yoğunluk çevreleri, ( x µ)′ ∑ −1− ( x − µ) = c2 (7) olacak şekilde x yardımıyla tanımlanan elipsoidlerdir. Bu elipsoidler µ merkezlidir ve i = 1, 2, ..., p için ∑ei = λiei olmak üzere ±c λi ei eksenlerine sahiptirler. σ11 = σ22 olan iki değişkenli bir normal dağılım için sabit yoğunluk elipslerinin eksenleri (7) bağıntısından bu eksenlerin ∑’nın özdeğer ve özvektörleri yardımıyla verilir. O halde |∑-λI| = 0 eşitliğinden σ11 −λ σ 0 = 12 = (σ -λ)211 - σ2σ σ λ 12 12 11 − = (λ - σ11 - σ12) (λ - σ11 + σ12) Sonuç olarak özdeğerler λ1 = σ11 + σ12 ve λ2 = σ11 - σ12 şeklindedir. e1 özvektörü ise ⎡σ σ ⎤ ⎡e ⎤ ⎡e 11 12 1 =(σ +σ ) 1 ⎤⎢σ σ ⎥ ⎢ ⎥ 11 12 ⎢ ⎥ ⎣ 12 11 ⎦ ⎣e2 ⎦ ⎣e2 ⎦ eşitliğinden ya da 14 σ11e1 +σ12e2 =(σ11 +σ12 )e1 σ12e1 +σ11e2 =(σ11 +σ12 )e2 eşitliklerinden elde edilir. Bu denklemler e1 = e2 olduğunu gösterir ve normalleştirmeden sonra ilk özdeğer-özvektör ikilisi ⎡ 1 ⎤ ⎢ ⎥ λ1 = σ11 +σ12 , e1 = ⎢ 2 ⎥ ⎢ 1 ⎥ ⎣⎢ 2 ⎥⎦ olur. Benzer olarak λ2 = σ11 −σ12 olduğundan e2′ = ⎡⎣1/ 2,−1/ 2 ⎤⎦ özvektörü elde edilir. σ12 kovaryansı (ya da ρ12 korelasyonu) pozitif olduğunda λ1 = σ11 +σ12 en büyük özdeğerdir ve buna karşılık gelen özvektör e1′ = ⎡⎣1/ 2,1/ 2⎤⎦ 45 derecelik açıyla µ′ = [µ1, µ2] noktasından geçer. Bu durum kovaryansın (korelasyonun) her bir pozitif değeri için geçerlidir. Sabit yoğunluk elipslerinin eksenleri ±c λ1 e1 ve ±c λ2 e2 olduğundan ve de her bir özvektör birim uzunluklu olduğundan ana eksen en büyük özdeğer ile eşleştirilecektir. Dolayısıyla pozitif korelasyonlu normal rassal değişkenler için sabit yoğunluk elipslerinin ana ekseninin, µ noktasından geçen ve eksenlerle 45 derecelik açı yapan bir doğru olduğu sonucu bulunur (Şekil 2). Kovaryans (korelasyon) negatif olduğunda λ2 = σ11 −σ12 en büyük özdeğer olacaktır ve sabit yoğunluk elipslerinin ana ekseninin, µ noktasından geçen ve eksenlerle 45 derecelik açı yapan bir doğru olduğu sonucu bulunur (Bu sonuçlar sadece σ11 = σ22 olduğunda geçerlidirler). Yani, σ11 = σ22 olan iki değişkenli bir normal dağılım için sabit yoğunluk elipslerinin eksenleri 15 ⎡ 1 ⎤ ⎡ 1 ⎤ ⎢ ±c σ +σ ⎢ 2 ⎥ ⎢ ⎥ 11 12 ⎥ ve ±c σ 2 11 −σ12 ⎢ ⎥ ⎢ 1 ⎥ ⎢ −1 ⎥ ⎢⎣ 2 ⎦⎥ ⎢⎣ 2 ⎦⎥ şeklinde belirlenirler. x2 c σ11 +σ12 µ2 c σ11 −σ12 x µ 1 1 Şekil 2. σ11 = σ22 ve σ12 > 0 (ya da ρ12 > 0) olan iki değişkenli bir normal dağılım için bir sabit yoğunluk çevresi. Özel olarak aşağıdaki ifade bir p-boyutlu normal dağılım için geçerlidir. ( x − µ)′ ∑ −1 ( x − µ) ≤ χ 2p (α ) (8) bağıntısını sağlayan x değerlerinin katı elipsoidinin olasılığı 1-α’dır. (3)’deki karesi alınan uzaklık sıfır olduğunda, yani x = µ olduğunda (4)’deki p- değişkenli normal yoğunluk maksimum değerini alacaktır. Böylece µ maksimum 16 yoğunluk noktasıdır (mod) ve X’in de beklenen değeridir (ortalaması). µ’nün çok değişkenli normal dağılımın ortalaması olduğunu sabit yoğunluk çevrelerinin sahip olduğu simetriden görülebilir: Bu çevreler µ’de merkezlenmiştir (ya da dengelenmiştir). Çok değişkenli bir normal dağılıma sahip olan herhangi bir X vektörü için geçerli olan sonuçlar şu şekilde verilebilir: 1. X’in bileşenlerinin lineer kombinasyonları da normal dağılmıştır. 2. X’in bileşenlerinin tüm altkümeleri de (çok değişkenli) bir normal dağılıma sahiptirler. 3. Kovaryansın sıfır olması karşılık gelen bileşenlerin bağımsız olarak dağıldıklarını gösterir. 4. Bileşenlerin şartlı dağılımları da (çok değişkenli) normaldir. Eğer X, Np(µ,∑) dağılımına sahipse değişkenlerinin herhangi bir a′X = a1X1 + a2X2 + ... + apXp lineer kombinasyonu N(a′µ, a′∑a) dağılımına sahiptir. Ayrıca eğer a′X, her a için N(a′µ, a′∑a) dağılımına sahipse X, Np(µ,∑) dağılımına sahiptir. Bu, normal dağılımın uygulamaya yönelik tanımı olarak da alınabilir. Buna örnek olarak, bir normal rassal vektörün bileşenlerinin bir lineer kombinasyonunun dağılımı verilebilir. a′ = [1, 0, ..., 0] seçimine bağlı olarak belirlenen çok değişkenli normal rassal bir vektörün a′X lineer kombinasyonunu ele alınırsa. ⎡ X1 ⎤ ⎢ ⎢X ⎥ a′X = [1, 0, ..., 0] 2 ⎥ = X1 ⎢ M ⎥ ⎢ ⎥ ⎢⎣X p ⎥⎦ ve ⎡ µ1 ⎤ ⎢µ ⎥ a′µ = [1, 0, ..., 0] ⎢ 2 ⎥ = µ ⎢ ⎥ 1 M ⎢ ⎥ ⎣⎢µ p ⎥⎦ olduğundan 17 ⎡σ11 σ12 L σ1p ⎤ ⎡1⎤ ⎢σ ⎥ ⎢ ⎥ a′∑a = [1, 0, ..., 0] ⎢ 21 σ 22 L σ 2 p ⎥ ⎢0⎥ = σ ⎢ ⎥ ⎢ ⎥ 11 M M O M M ⎢ ⎣⎢σ p1 σ p2 L σ ⎥ ⎢ ⎥ pp ⎥⎦ ⎣0⎦ ve X1’in dağılımının N(µ1, σ11) olduğu görülür. Genelde ise X’in herhangi bir Xi bileşeninin marjinal dağılımı N(µi, σii) şeklindedir. Eğer X’in dağılımı Np(µ,∑) ise ⎡a11X1 + L +a1p X p ⎤ ⎢a X + L +a ⎥ A X = ⎢ 21 1 2 p X p ⎥ ⎢ M ⎥ ⎢ ⎢⎣aq1X1 + L +a ⎥ qp X p ⎦⎥ q lineer kombinasyonun dağılımları Nq(Aµ,A∑A′) şeklindedir. Ayrıca d, sabitlerden oluşan bir vektör olmak üzere X + d’nin dağılımı Np(µ+d,∑) şeklindedir. Buna örnek olarak, normal bir rassal vektörün bileşenlerinin iki lineer kombinasyonun dağılımı verilebilir. X’in dağılımı N3(µ,∑) olmak üzere ⎡X1 ⎤⎡X1 − X 2 ⎤ ⎡1 −1 0 ⎤ ⎢ ⎥= ⎢ ⎥ ⎢ ⎥ ⎢X 2 ⎥ = AX ⎣X 2 − X 3 ⎦ ⎣0 1 −1⎦ ⎢⎣X 3 ⎦⎥ matrisinin dağılımı bulunmak istenirse, AX’in dağılımı çok değişkenli normaldir ve ortalaması, 18 ⎡µ ⎤ ⎡1 −1 0 ⎤ 1 Aµ = ⎢ ⎥ ⎡µ1 − µ2 ⎤ ⎢ ⎥ µ2 = ⎢ ⎣0 1 −1⎦ ⎢ ⎥ ⎣µ2 − µ ⎥ ⎢⎣µ 3 ⎦ 3 ⎥⎦ olup kovaryans matrisi ⎡σ σ ⎡1 −1 0 ⎤ 11 12 σ13 ⎤ ⎡ 1 0 ⎤ A∑A′ = ⎢σ ⎥ ⎢ ⎥⎢ ⎥ ⎢ 21 σ 22 σ 23 ⎥ ⎢−1 1 ⎥ ⎣0 1 −1⎦ ⎣⎢σ 31 σ 32 σ 33 ⎥⎦ ⎣⎢ 0 −1⎦⎥ ⎡ 1 0 ⎤ ⎡σ = 11 −σ12 σ12 −σ 22 σ13 −σ 23 ⎤ ⎢ ⎢ −1 1 ⎥ ⎣σ ⎥ ⎢ ⎥ 12 −σ13 σ 22 −σ 23 σ 23 −σ 33 ⎦ ⎢⎣ 0 −1⎦⎥ ⎡ σ − 2σ +σ = 11 12 22 σ12 +σ 23 −σ 22 −σ13 ⎤ ⎢ ⎣σ12 +σ 23 −σ 22 −σ ⎥ 13 σ 22 − 2σ 23 +σ 33 ⎦ olur. Alternatif olarak Aµ ortalama vektörü ve A∑A′ kovaryans matrisi Y1 = X1-X2 ve Y2 = X2-X3 rassal değişkenlerinin ortalama ve kovaryanslarının hesaplanmasıyla elde edilir. Bir X çok değişkenli normal rassal vektörünün bütün altkümelerinin normal olarak dağıldığı aşağıdaki sonuçta ifade edilecektir. X’in tüm alt kümeleri normal dağılıma sahiptir. Eğer X vektörünü, µ ortalama vektörünü ve ∑ kovaryans matrisini aşağıdaki gibi bölersek o zaman X1’in dağılımı Nq(µ1,∑11) şeklinde olur. ⎡ X1 ⎤ ⎡ µ1 ⎤ ⎡Σ11 M Σ12 ⎤ X = ⎢⎢............ ⎥ ⎥ , µ = ⎢ ⎢............ ⎥ ⎢ ⎥ ⎥ , ∑ = ⎢L M L ⎥ ⎣⎢ X 2 ⎥⎦ ⎢⎣ µ2 ⎦⎥ ⎣⎢Σ21 M Σ22 ⎥⎦ 19 Normal rassal bir vektörün bir altkümesinin dağılımı verilmek istenirse, N5(µ,∑) ⎡X ⎤ dağılımına sahip bir X vektörü için 2⎢ ⎥ vektörünün dağılımı verilebilir. ⎣X 4 ⎦ ⎡X ⎤ ⎡µ ⎤ ⎡σ σ ⎤ X1 = 2⎢ ⎥ , µ1 = 2 ⎢ ⎥ , ∑ 22 24 X 11 = ⎢ ⎥ ⎣ 4 ⎦ ⎣µ4 ⎦ ⎣σ 24 σ 44 ⎦ alındığında X, µ ve ∑, ya ⎡ X 2 ⎤ ⎡ µ2 ⎤ ⎡σ 22 σ 24 M σ12 σ 23 σ 25 ⎤ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ X 4 ⎥ ⎢ µ4 ⎥ ⎢σ 24 σ 44 M σ14 σ 34 σ 45 ⎥ ⎢......⎥ ⎢......⎥ ⎢ ..... ..... ...... ..... ..... .....⎥ X = ⎢ ⎥ , µ = X ⎢ µ ⎥ , ∑ = ⎢ ⎢ 1 ⎥ ⎢ 1 ⎥ ⎢σ12 σ14 M σ ⎥ 11 σ13 σ15 ⎥ ⎢ X ⎥ ⎢ µ ⎥ ⎢3 σ σ M σ σ σ ⎥⎢ ⎥ ⎢ 3 ⎥ ⎢ 23 34 13 33 35 ⎥ ⎢⎣ X 5 ⎦⎥ ⎢⎣ µ5 ⎦⎥ ⎢⎣σ 25 σ 45 M σ15 σ 35 σ 55 ⎦⎥ olarak ya da ⎡ X1 ⎤ ⎡ µ1 ⎤ ⎡Σ11 M Σ12 ⎤ X = ⎢ ⎥⎢............⎥ , µ = ⎢ ⎢............ ⎥ ⎥ , ∑ = ⎢ ⎢L M L ⎥ ⎥ ⎣⎢ X 2 ⎥⎦ ⎣⎢ µ2 ⎥⎦ ⎢⎣Σ21 M Σ22 ⎦⎥ ⎡X ⎤ olarak bölünüp düzenlenebilir. Böylece X1 = 2⎢ ⎥ için aşağıdaki dağılım elde edilir: ⎣X 4 ⎦ ⎛ ⎡µ ⎤ ⎡σ σ ⎤ ⎞ N2(µ1,∑11) = N 22 ⎜ ⎢ ⎥ , 22 24 ⎢ ⎥ ⎟ . ⎝ ⎣µ4 ⎦ ⎣σ 24 σ 44 ⎦ ⎠ 20 Bu örnekten herhangi bir altküme için normal dağılımın basit bir şekilde orjinal µ ve ∑’dan uygun ortalama ve kovaryansları seçerek ifade edilebileceği söylenebilir. Normal rassal değişkenler ya da normal rassal değişkenlerin kümeleri arasındaki sıfır korelasyonun istatistiksel olarak bağımsızlığa denk olduğu söylenebilir: (a) Eğer X1 ve X2 bağımsızsalar Cov(X1,X2) = 0’dır. Yani q1×q2 boyutlu sıfır matrisidir. ⎡ X1 ⎤ ⎛ ⎡ µ1 ⎤ ⎡Σ11 M Σ12 ⎤ ⎞ (b) Eğer ⎢ ⎥⎢............⎥ ’nin dağılımı N ⎜ ⎢ q +q ⎜ ⎢............ ⎥ , ⎢L M L ⎥ ⎟ 1 2 ⎥ ⎢ ⎥ ⎟ ise X1 ve ⎣⎢ X ⎜2 ⎥⎦ ⎝ ⎣⎢ µ2 ⎥⎦ ⎢⎣Σ ⎟21 M Σ22 ⎦⎥ ⎠ X2’nin bağımsız olmaları için gerek ve yeter şart ∑12 = 0 olmasıdır. (c) Eğer X1 ve X2 bağımsızsalar ve dağılımları sırasıyla Nq (µ1,∑11) ve de 1 ⎡ X1 ⎤ Nq (µ2,∑22) ise ⎢ ⎢............ ⎥ ⎥ aşağıdaki normal dağılıma sahiptir: 2 ⎣⎢ X 2 ⎥⎦ ⎛ ⎡ µ1 ⎤ ⎡Σ11 M 0 ⎤ ⎞ N ⎜ ⎢q +q ⎜ ⎢............ ⎥ , ⎢ ⎥ ⎟ 1 2 ⎥ ⎢L M L ⎥ ⎟ ⎜ ⎝ ⎢⎣ µ2 ⎦⎥ ⎢⎣ 0′ M Σ ⎟22 ⎥⎦ ⎠ Sıfır kovaryanslıkla normal değişkenlerin bağımsızlığının denkliği, aşağıdaki örnek ile gösterilebilir. ⎡4 1 0⎤ Eğer X’in dağılımı ∑ = ⎢⎢1 3 0 ⎥ ⎥ olmak üzere N3(µ,∑) şeklindeyse, X1 ve ⎢⎣0 0 2⎥⎦ X2’nin kovaryansı σ12 = 1 olduğundan bağımsız değildirler. Bununla birlikte X ve ∑’u 21 ⎡ X1 ⎤ ⎡ 4 1 M 0 ⎤ ⎢ ⎡Σ M Σ ⎤ ⎢ X ⎥ ⎢ 2 ⎥ 1 3 M 0 ⎥ 11 12 X = , ∑ = ⎢ ⎥ = ⎢L M L ⎥ ⎢......⎥ ⎢.... .... .... ....⎥ ⎢ ⎥ ⎢ ⎢Σ M ΣX ⎥ ⎢ 0 0 2 ⎥ ⎣ 21 22 ⎥ ⎣ 3 ⎦ ⎣ M ⎦ ⎦ ⎡X ⎤ ⎡0⎤ şeklinde parçalanırsa X 11 = ⎢ ⎥ bulunur ve X3’ün kovaryans matrisinin ∑12 = X ⎢ ⎣ 2 ⎦ ⎣0 ⎥ ⎦ olduğu görülür. Böylece X1, X2 ve X3 bağımsızdırlar. Bu da X3’ün X1 ve X2’den bağımsız olduğunu göstermektedir. İki değişkenli normal dağılım ile ilgili tartışmada sıfır korelasyonun (yani ρ12 = 0) bağımsızlığa neden olduğu görülmüştü. Çünkü birleşik yoğunluk fonksiyonu, (6), X1 ve X2’nin marjinal (normal) yoğunluklarının çarpımı olarak yazılabilir. Bu da q1 = q2 = 1 özel durumudur. ⎡ X1 ⎤ ⎡ µ1 ⎤ X = ⎢⎢............ ⎥ ⎥ vektörünün dağılım fonksiyonu µ = ⎢ ⎢............ ⎥ ⎥ , ∑ = ⎣⎢ X 2 ⎥⎦ ⎣⎢ µ2 ⎥⎦ ⎡Σ11 M Σ12 ⎤ ⎢ ⎢L M L ⎥ ⎥ ve |∑22| > 0 olmak üzere Np(µ,∑) olsun. Bu durumda X2 = x2 olmak ⎣⎢Σ21 M Σ22 ⎦⎥ şartıyla X1’in şartlı dağılımı normaldir ve ortalaması µ1 + ∑ ∑ -112 22 (x2-µ2), kovaryansı ise ∑11 - ∑ -112∑22 ∑21 şeklindedir. Kovaryans, şartlı değişkenin x2 değerine bağlı değildir. İki değişkenli normal dağılımın şartlı yoğunluğuna örnek verilmek istenirse, herhangi bir iki değişkenli dağılım için X2 = x2 olmak şartıyla X1’in şartlı dağılımı f(x2), X2’nin marjinal dağılımı olmak üzere, f(x1|x2) = { X2 = x2 olmak şartıyla X1’in şartlı dağılımı} = f (x1, x2 ) f (x2 ) 22 ile tanımlanmaktadır. Eğer f(x1|x2) iki değişkenli normal yoğunluk ise f(x1|x2)’nin ⎛ σ 2dağılımının N ⎜ µ + 12 ⎞ 1 (x2 − µ2 ),σ σ − 1211 ⎟ olduğu görülebilir. ⎝ σ 22 σ 22 ⎠ |∑| > 0 olmak üzere X’in dağılımı Np(µ,∑) olsun. Bu durumda (a) (X-µ)′∑-1(X-µ), χ 2p serbestlik derecesi p olan Ki-kare dağılımını göstermek üzere χ 2p dağılımına sahiptir. (b) Np(µ,∑) dağılımı χ 2p (α ) , serbestlik derecesi p olan bir Ki-kare dağılımının üstten (100α)-ıncı yüzdelik dilimi olmak üzere {x :(x − µ)′Σ−1(x − µ) ≤ χ 2p (α )} katı elipsoidine (1-α) olasılığını atamaktadır. Xj’nin dağılım fonksiyonu Np(µj,∑) olmak üzere X1, X2, ..., Xn ikişer ikişer bağımsız olsunlar. Bu durumda V1 = c1X1 + c2X2 + ... + cnXn ⎛ n ⎛ n 2 ⎞ ⎞ in dağılım fonksiyonu N p ⎜∑c jµ j ,⎜⎜∑c j ⎟⎟Σ⎟ ’dur. Ayrıca V1 ve V2 = b1X1 + b⎜ ⎟ 2X2 + ⎝ j=1 ⎝ j=1 ⎠ ⎠ ... + bnXn birlikte çok değişkenli normaldirler ve kovaryans matrisleri ⎡⎛ n 2 ⎞ ⎤ ⎢⎜ ⎢⎜ ∑c j ⎟⎟Σ (b′c)Σ ⎥ ⎝ j=1 ⎠ ⎥ ⎢ ⎥ 2 ⎢ ⎛ n ⎞ ⎢ (b′c)Σ ⎥ ⎜⎜∑bj ⎟⎟Σ⎥ ⎣ ⎝ j=1 ⎠ ⎦ n şeklindedir. Sonuç olarak eğer b′c = ∑c jbj = 0 ise V1 ve V2 bağımsızdır. j=1 23 Çok değişkenli problemlerin incelenmesinde normal dağılım varsayımını kullanmak alışılmış ve yaygın biçimde kullanılan bir yaklaşımdır. Kanonik korelasyon, Diskriminant Analizi, çok değişkenli varyans analizi gibi yöntemler tamamıyla normallik varsayımı üzerine kurulmuştur. Eğer çok değişkenli verilerde normal dağılım varsayımı gerçekleşmiyorsa verilere uygun dönüştürme (transformation, Box-Cox transformation) yaklaşımları uygulamak ve dağılımı normale yaklaştırmak gerekir. Bunun için grafiksel tekniklerden yararlanmak uygundur. 24 BÖLÜM 2 DİSKRİMİNANT ANALİZİ 2.1. Diskriminant Analizinin Kullanımı ve Varsayımları Diskriminant Analizi, farklılığın en fazla hangi değişkenlerde yoğunlaştığının belirlenmesi ve böylece grupların farklılaşmasına etkin olan faktörlerin saptanmasını da sağlar. Analiz sonucunda yapılan sınıflama ile orjinal grup üyeliklerinin karşılaştırılması bilinen fonksiyonun yeterli olup olmadığını test etmeye olanak sağlar (Erçetin 1993). Diskriminant Analizi, hatalı sınıflandırma olasılığını en aza indirgeyerek birimleri ait oldukları gruplara ayırmak amacına yönelik olan, istatistiksel bir karar verme yöntemidir (Tatlıdil 1996). Diskriminant Analizi, X veri setindeki değişkenlerin iki veya daha fazla gerçek gruplara ayrılmasını belirlemek amacıyla yararlanılan bir yöntemdir (Özdamar 1999). Diskriminant Analizi, genel anlamda ayırma olup, bireylere ait p tane özellikten yararlanarak ait oldukları grupları belirlemede veya mevcut grupları birbirinden ayıracak en iyi fonksiyonu bulmada kullanılan çok değişkenli istatistik tekniklerinden biridir. Bazı yazarlar Diskriminant Analizinde ayırma fonksiyonu katsayılarının hesaplanmasında başvurulan yöntemlere göre Diskriminant Analizini, kanonik Diskriminant Analizi, en çok olabilirlik Diskriminant Analizi ve Bayes Diskriminant Analizi şeklinde adlandırırlar (Çamdeviren 2000). Diskriminant Analizi, gruplar arasında çeşitli değişkenlere bağlı olarak farklılıklarını ortaya koymasına olanak sağlamaktadır. Birimler en az hata ile ait 25 oldukları birimlere ayrılmaktadır. Temelinde incelenen bireyin kitlesinin belirlenmesini sağlayacak bir fonksiyon bulmaktır. İki veya daha fazla gruptaki birimlerin etkileşim seviyelerinin hangi düzeyde olduğu, diğer değişkenler arasında ne gibi farklılıklar bulduğunu ortaya koymaktır (Tümer 2001). Diskriminant Analizi, bir araştırmacının aynı anda çeşitli değişkenlere göre iki ya da daha fazla örnek grubu arasındaki farklılıkları çalışmasına olanak sağlayan bir istatistiksel tekniktir. Genel olarak birimlerin gruplanmasında bazı matematiksel eşitliklerden faydalanılır. Diskriminant fonksiyonu olarak adlandırılan bu eşitlikler birbirine en çok benzeyen grupları belirlemeye olanak sağlayacak şekilde grupların ortak özelliklerini belirlemek amacıyla kullanılmaktadır. Grupları ayırmak amacıyla kullanılan karakteristikler ise diskriminant değişkenleri olarak adlandırılmaktadır. Kısaca, Diskriminant Analizi, iki veya daha fazla sayıdaki grubun farklılıklarının diskriminant değişkenleri vasıtasıyla ortaya konması işlemidir. Birbiriyle yakından ilişkili birkaç istatistiksel yaklaşımı kapsayan geniş bir kavramdır (Klecka 1980). Bu yaklaşımlar iki ana kategoride ele alınabilir. Birinci kategoriyi oluşturan yaklaşımlardan gruplar arası farklılıkları yorumlamada faydalanılırken, ikinci kategorideki yaklaşımlar birimleri gruplara ayırmak amacıyla kullanılmaktadır. Diskriminant Analizi eğer bir ayırma fonksiyonu belirlemeye yönelik olarak uygulanmış ise tanımlayıcı Diskriminant Analizi, eğer sınıflama amacıyla uygulanmış ise tahmin edici Diskriminant Analizi olarak adlandırılır. Tahmin edici Diskriminant Analizi, davranış değerleri içinde bulunan temel bilgilerin gruplar için verilerin nasıl belirleneceği sorusuna işaret eder. Bir girdi eğer tahmini grubun üyesi değilse yanlış sınıflandırılmış olarak nitelendirilir. Genellikle yanlış sınıflandırma olasılığını ve bedelini düşürmek oldukça önemlidir (Demirhan 1997). Araştırıcının, p tane özelliği bilinen gözlemleri belli özelliklerine göre bazı gruplara ayırmak istemesi, elde edilecek somut ve özetleyici bilgiler açısından istatistiksel değerlendirmede önemli bir konudur. Araştırıcı, hatalı sınıflandırma olasılığını en aza indirgeyerek gözlemleri ait oldukları gruplara ayırmak veya bu özlemlerin çekilmiş oldukları grupları belirlemek isteyecektir (Johnson-Wichern 2002). 26 Özetleyecek olursak; Diskriminant Analizi X veri setindeki değişkenlerin iki veya daha fazla gerçek gruba ayrılmasını sağlayabilmek amacıyla yararlanılan bir yöntemdir. Araştırmacının p tane özelliği bilinen birimleri doğal ortamdaki gerçek guruplarına, sınıflarına optimal düzeyde atamasını sağlayacak fonksiyonlar bulmasına yarayan bir yöntemdir. Elde edilebilecek somut özetleyici bilgiler açısından istatistiksel değerlendirme de önemli bir konudur. Çünkü hatalı sınıflandırma olasılığını en aza indirgeyerek birimleri ait oldukları guruplara ayırır, ait oldukları ana kütleleri belirler. Sosyal bilimlerde bu tekniğin işe yaradığı bir çok durum mevcuttur. Örneğin, bir ülkeye gelen turistlerin o ülkede yaşanan teröre bağlı olaylardan etkilenmesini araştırmak üzere bir komisyon oluşturulduğunu varsayalım. Bu grup, terörist olayların olduğu yıllarda turist sayısındaki değişimi gözlemlemek istesin. Grubun hipotezi, belli değişkenlerin turist sayısı üzerinde etkili oldukları şeklinde olsun. Bu değişkenler arasında terör olaylarının olma sıklığı, bu olaylarda yaralanan ve ölenlerin sayısı, yakalanan terörist sayısı vs olabilir. Daha önce gerçekleşen olaylara bağlı olarak bu komisyonun hedefleri şunlar olsun: 1) Bu değişkenlerden hangilerinin turist sayısının ciddi oranda düşmesine etkisi olduğu, 2) Bu değişkenlerin turist sayısında ciddi bir azalma olmayacak şekilde bir matematiksel formülü oluşturacak şekilde nasıl biraraya getirileceği, 3) Elde edilen formülün işe yarama derecesi. Diskriminant Analizi gereken sonucu verecektir. Eğer geçmişte turist sayısında ciddi bir azalma olmadığı yıllarda bu değişkenler, ciddi bir azalma olan yıllardan farklılık gösteriyorsa bu durumda tahmin formülü bu tür olumsuz etkilerin nasıl en aza indirilebileceğini belirlemede yetkililere yardımcı olacaktır. Bu tekniğin yarar sağlayacağı alanlar arasında, personel yerleştirme testleri, çocukların psikolojik testleri, tıbbi tedavilerin etkileri, coğrafi bölgeler arasındaki ekonomik farklılıklar, seçim sonuçlarını tahmin etme, finansal başarısızlık tahmini 27 çalışmaları ve benzerleri yer almaktadır. Gereken tek şey ise bazı değişkenlerde farklılık gösteren ve bir aralık veya orana göre ölçülebilen iki veya daha fazla grubun var olmasıdır. Diskriminant Analizi bize bu gruplar arasındaki farklılıkları analiz etmekte ve herhangi bir yeni durumun en uygun olan gruba yerleşmesinde yardımcı olur. İlk olarak, veriler iki veya daha fazla birbirinden farklı grubun elemanı olmalıdır. Teorik olarak her grubun temel özellikleri vardır. Her grup bu temel özelliklerine göre tanımlanır ve bilinir. Veri durumları, analizin çalışılacak olan temel birimleridir. Bunlar, insanlar, hayvanlar, ülkeler veya ekonomileri ve benzerleri olabilir. Gruplar her bir durum bir ve yalnız bir gruba ait olabilecek şekilde tanımlanmalıdır. Doğada bazı grupların bazı özellikleri birbirine benzerlik gösterirken bazı özellikler yönünden gruplar birbirinden farklılık gösterirler. Bazı araştırmalarda da analize giren grupların hiç birine ait olmayan bazı durumlarla karşılaşılınabilinir. Bu grup üyeliğinin belirlenemediği belli sayıda durumu içerir ya da belki de bu durumlar analizdan dışlanıyor olabilir. Bu durumda, belirlenen grupların analizinden elde edilen matematiksel denklemlerin ışığında, daha sonra bir grup olarak sınıflandırılırlar. Diskriminant Analizi ve çoklu Diskriminant Analizi’nin çeşitli amaçları vardır: • Örnek durumları bir diskriminant tahmin denklemi yardımıyla gruplara ayırmak. • Örnek durumların tahmin edildiği gibi sınıflandırılıp sınıflandırılmadığına bakarak teoriyi test etmek. • Gruplar arasındaki ve gruplar içindeki farkları incelemek. • Gruplar arasında ayrım yapabilmek için en kolay yolu belirlemek. • Bağımlı değişkendeki değişimin yüzdesini bağımsız değişkenler yardımıyla belirlemek. Diskriminant Analizi bağımlı dağişkenin iki ihtimalli bir değişken olduğunu varsayar. • Dizisel Diskriminant Analizini kullanarak kontrol değişkenleri tarafından hesaplanan bağımsız değişkenler yardımıyla bağımlı değişkendeki varyansın yüzdesini belirlemek. • Bağımlı değişkeni sınıflandırmada bağımsız değişkenlerin birbirine göre önemini değerlendirmek. 28 • Grupları ayırt etmede fazla işe yaramayan değişkenleri elemek. Bir araştırmacı grupların birbirinden ayırt edilebileceği yolları çalışırken yani belli bir özellik kümesine bakarak gruplar arasında ayrım yaparken bunların ne kadar iyi ayrım yapabildiğini, hangi özelliklerin en kuvvetli ayırt ediciler olduklarını yorumlamak durumundadır. Diğer uygulama ise sınıflandırma amacı ile bir veya daha fazla matematiksel denklem üretmektir. Bu denklemler diskriminant fonksiyonları adını alırlar ve bunlar bir durumun en uygun şekilde yerleştirileceği grubu belirlemeye yararlar. Diskriminant Analizinin temeli, incelenen bireyin ana kütlesinin belirlenmesini sağlayacak bir fonksiyonun bulunmasıdır. Bu fonksiyonun bulunmasında, belirlenecek grupların ortalamaları arasındaki farklılığın maksimum olması amaçlanmaktadır. Gruplar arasındaki ayrımı gerçekleştirmede kullanılan özellikler ayırt edici değişkenler (tahmin ediciler) adını alan bağımsız değişkenlerdir. Bu değişkenler ölçümün belli bir aralığında veya oranı seviyesinde ölçülmelidir. Bu da ortalama ve varyansların hesaplanabileceği ve matematiksel denklemlerde kullanılabilecekleri anlamına gelir. Gruplara ayrılacak durum sayısı ile değişken sayısı arasındaki fark ikiden çok olmadıkça, ayırt edici değişkenlerin sayısı ile ilgili bir kısıt yoktur. Ayırt edici değişkenlerin sahip olabilecekleri istatistiksel özelliklerle ilgili bazı kısıtlamalar vardır. Hiç bir değişken diğer ayırt edici değişkenlerin bir lineer bileşimi olmamalıdır. Bir lineer bileşim sabit katsayılar ile çarpılan bir ya da daha çok değişkenin ağırlıklı toplamıdır. Bu yüzden bir araştırmacı bu değişkenlerin yanında bunların toplamını ya da ortalamasını kullanma şansına sahip olmaz. Birbiri ile oldukça uyumlu iki değişkeni de aynı anda kullanamayız. Lineer bileşimlere karşı olan bu kısıtlama sezgisel olarak anlamlı olsa da matematiksel olarak gereklidir. Lineer bileşim olarak elde edilecek bir değişken, bileşenlerin sahip olduğu bilgilerin ötesinde yeni bir bilgi içermediğinden kullanımı gereksizdir. Bir çok uygulamada gerekli olan bir başka varsayım her bir grup için kovaryans matrislerinin eşit olmasıdır. En kolay ve sıkça kullanılan Diskriminant Analizi türü ayırt edici değişkenlerin basit bir lineer bileşimi şeklinde olan bir liner diskriminant fonksiyonu kullanandır. Bu yöntem en kolay olandır. Çünkü eşit grup kovaryans 29 matrisleri varsayımı diskriminant fonksiyonu ve belli başlı önem testlerini hesaplamada kullanılan formüllerin basitleştirilmesini sağlar. Diskriminant Analizi, grupların kovaryans matrislerinin eşit olup olmamasına göre farklı biçimlerde uygulanabilmektedir. Her ne kadar Diskriminant Analizinin temel varsayımlarından birisi grupların kovaryans matrislerinin birbirine eşit olduğu biçiminde ise de bu varsayım geçerli olmaması durumlarında da Diskriminant Analizi yapılabilmektedir. Başka bir varsayım her bir grubun çok değişkenli normal dağılıma sahip olan bir kütleden alınmasıdır. Böyle bir dağılım her bir değişkenin tüm diğerlerinin sabit değerleri etrafında normal bir dağılıma sahip olmaları durumunda ortaya çıkar. (Blalock 1979: 452) Bu önem testlerinin ve grup üyeliklerinin olasılıklarının kesin hesaplanmasını müsaade eder. Bu varsayım kaldırıldığında hesaplanan olasılıklar doğru değildir. Ama bunlar dikkatli yorumlanırlarsa yine de oldukça faydalı olabilirler (Lachenbruch 1975: 41/46). Diskriminant Analizi aynı zamanda birbirine girmiş ortak özelliklere sahip grupları birbirinden ayırmak için grup ortalama vektörlerini birbirinden ayıracak fonksiyonlar geliştiren bir yöntemdir. Diskriminant Analizi; ANOVA ve MANOVA yöntemleri gibi grupları ortalamalarına (ortalama vektörlerine) göre ortak ortalamadan (ortalama vektöründen) farklı olmalarını sağlayacak bir ayırma kriteri geliştirmeyi amaçlayan bir yöntemdir. Bu nedenle veri setlerine Diskriminant Analizi uygulanabilmesi için veri setlerinin ANOVA ve MANOVA uygulaması için gerekli olan aşağıdaki varsayımları taşıması gerekir. 1) X veri matrisi çok değişkenli normal dağılım göstermelidir. 2) Değişkenlerin varyans ve kovaryansları homojen olmalıdır. X matrisinde yer alan değişkenler ortak kovaryans matrisine sahip çok değişkenli ana kütleden çekilmiş örnekler olmalıdır. 3) Değişkenlerin ortalamaları ve varyansları arasında bir korelasyon bulunmamalıdır. 4) Değişkenler arasında çoklu bağımlılık bulunmamalıdır. 30 5) X matrisi grupların birbirinden ayrılmasında rol oynamayacak gereksiz değişken içermemeli, grupların birbirinden ayrılmasını sağlayacak kadar doğru ve gerekli değişkenleri içermelidir. Bu varsayımlar Diskriminant Analizine genelde yapılan yaklaşımlara dayalı bir matematiksel model ortaya koyar. Eğer belli bir problemin verileri varsayımları sağlamazsa istatistiksel sonuçlar tam olarak gerçeği yansıtmayacaktır. Gruplar Ayırt Edici Değişkenler X1 G1 G X2 2 X3 G3 G4 ...... Xp Şekil 3. Gruplar ve ayırtedici değişkenler arasındaki ilişkiler Grupları bir tek seviye değişkeni yardımı ile tanımlanmış olarak düşünürsek Diskriminant Analizinin bir seviye değişkenini çeşitli aralık seviye değişkenlerine atayan bir teknik olduğunu görürüz. Diskriminant Analizinin altında yatan matematiksel kavramları şu şekilde özetleyebiliriz: g = grup sayısı p = ayırt edici değişkenlerin sayısı 31 ni = i grubundaki durumların sayısı n. = tüm gruplardaki tüm durumların sayısı. Tüm istatistiksel ve matematiksel modellerde olduğu gibi, Diskriminant Analizi de bazı varsayımlara dayanmaktadır. Analizin ayırım gücü dayandığı varsayımların sağlanmasına ya da bu varsayımlar karşısında sağlam olmasına bağlıdır. Özellikle modelin başarısının, beklenenden düşük çıktığı durumlarda, doğru yorumda bulunabilmek için bu varsayımların test edilmesi gerekmektedir. Diskriminant Analizinin varsayımları şu şekilde ifade edilebilir: 1) Anakütle belli özelliklere göre gruplanabilir (Tatsuoka 1976). Birbirinden farklı iki veya daha fazla grup söz konusu olmalıdır (Polat 1995). Yani g ≥ 2’dir. 2) Her grupta en az iki durum olmalıdır: ni ≥ 2. 3) Veriler anakütleden rassal olarak seçilmiştir. 4) Toplam durum sayısının 2 eksiğinden az olmak kaydıyla herhangi sayıda ayırt edici değişken olmalıdır: 0 < p < n.-2. 5) Ayırt edici değişkenler 1. ölçek seviyesinde ölçülürler. 6) Hiçbir ayırt edici değişken diğer ayırt edici değişkenlerin lineer bileşimi olamaz. 7) Özel formüller kullanılmadıkça her bir grup için kovaryans matrisleri (yaklaşık olarak) eşittir. Gruplara ait ortalamalar ve kovaryans matrisi önceden bilinir. Grupların kovaryans (sapma) matrisleri eşittir (Karels-Prakash 1987). Bu varsayımın sağlanmadığı durumlarda, Diskriminant Analizinin karesel formu kullanılabilir. 8) Her bir grup, ayırtedici değişkenler üzerindeki çok değişkenli normal dağılıma sahip bir örnek grubundan alınır. Bağımsız değişkenler çok boyutlu normal dağılıma sahiptirler (Leeuwen 1985). 9) Grupların eşit sayıda birimden oluşmadığı durumlarda, üyelerin tahmini olasılıklarının bilindiği varsayılır. 10) Herhangi bir durumun yanlış sınıflandırılmasının maliyeti önceden bellidir. Bu varsayımlardan bir ya da daha fazlasının sağlanmadığı durumda, Diskriminant Analizi optimum bir sınıflandırma ortaya koyamayacaktır. Yedinci 32 varsayımda bağımsız değişkenlerin normal dağılıma sahip olduğu belirtilmiştir. Ancak yapılan araştırmalar mali oranlar kullanılarak yapılan çalışmalarda mali oranların normal dağılıma uygunluk göstermemesi sebebiyle dağılımların normalden ziyade sağa çarpık olduğunu göstermektedir. Bu durumda mali oranlar kullanılarak yapılan çalışmalar değişkenlerin dağılımını normal dağılıma yaklaştırmayı hedeflemektedir (İç- Yurdakul 2000) Diskriminant Analizi için karar süreci 6 adımda toplanabilir. Verilen bilgilerin bir şemada gösterimi aşağıdaki gibidir: 33 Şekil 4. Diskriminant Analizi için Karar Süreci Araştırma Problemi Adım 1 Hedefleri Seç: Çok değişkenli bir profildeki grup farklılıklarını hesapla Gözlemleri gruplara sınıflandır Gruplar arasındaki ayrımın boyutlarını belirle Araştırma Dizaynı Konuları Adım 2 Bağımsız değişkenlerin seçimi Örnek boyutu gözlemleri Analizlerin ve çıktı örneklerinin yaratılması Varsayımlar Adım 3 Bağımsız değişkenlerin normalliği Bağıntıların doğrusallığı Bağımsız değişkenler arasında çoklu doğrusallık olmayışı Eşit dispersiyon matrisleri Diskriminant Fonksiyonlarının Tahmini Adım 4 Aynı anda ya da adım adım tahmin Diskriminant fonksiyonlarının önemi 34 Sınıflandırma matrisleri yardımıyla tahmin kesinliğinin değerlendirilmesi Uygun kesme seviyesini belirle Başarı oranını değerlendirme kriterlerini belirle Tahminin kesinliğinin istatistiksel önemi Diskriminant fonksiyonlarının yorumlanması Adım 5 Kaç tane fonksiyon yorumlanacak? İki ya da Bir daha çok Bir tek fonksiyonun Ayrı ayrı fonksiyonların değerlendirilmesi değerlendirilmesi Diskriminant ağırlıkları Diskriminant ağırlıkları Diskriminant yükleri Diskriminant yükleri Kısmi F değerleri Kısmi F değerleri Birleşik fonksiyonların değerlendirilmesi Fonksiyonların yer değiştirmesi Potansiyel indeksi Grup sentroidlerinin grafiksel gösterimi Yüklerin grafiksel gösterimi Diskriminant değerlerinin geçerlilik kazanması Ayrık durumlar ya da çarpraz geçerlilik kazanma Adım 6 Grup farklarının profilini çıkarma 35 2.2. İki Gruplu Doğrusal Diskriminant Analizi Doğrusal diskriminant fonksiyonları ile ilgili çalışma 1936 yılında Fisher’in klasik makalesi yayınlandığında başlamıştır. Bununla birlikte Hodges’in de belirttiği gibi Pearson’un ırk benzerliği katsayısı, Mahalanobis’in D2’si, Hotelling’in T2 istatistiği ile ilgili başlangıçtaki çalışmalar arasında yakın bir ilişki vardı. Doğrusal Diskriminant Analizindeki temel problem p tane değişkenin hangi lineer bileşiminin örnekleri en iyi şekilde ayırtedeceğidir. Sonuçlar genellikle grup içi oranları, gruplar arası oranları ve de toplam varyansı da içeren bir kurala göre hesaplanmaktadır. Fisher sadece bir tek lineer diskriminant fonksiyonu kullanmıştır. Birden fazla lineer fonksiyon olması durumunda çözüm matris cebirleri teorisinde kolayca elde edilebilir ve bir determinant denkleminin köklerinin bulunması esasına dayanır. Sosyal bilimler literatüründeki Diskriminant Analizi uygulamaları bu türdedir. Fisher, lineer diskriminant fonksiyonuyla ilgili çalışmasında örneklerin gruplara yanlış atanması problemini ele almıştır. 1939 yılında Welch tarafından yayınlanan kısa bir makalede bu problemin, hipotez testi ve Neyman ve Pearson’un verdiği hata tipleri üzerine kurulu yeni bir formülasyonu önerilmiştir. Welch probleme örnek uzayı iki bölgeye bölerek ve sonra da bu iki bölgeden birisine yanlış sınıflandırma yapma olasılığını en aza indirecek şekilde bir örnek gözlem atamıştır. Sınıflandırma ve atama kuralları için uygun bir kararın seçimi ilk olarak gözlemin iki örnek grubundan birisine ait olduğu bir öncelik mevcut olduğunda; ikinci olaraksa bu tür bir öncelik mevcut olmadığında yapılmalıdır. Welch tarafından ayırt etme probleminin olasılıksal yorumu ve özellikle de atama problemleri hakkındaki fikirleri, içinde istatistiksel karar fonksiyonlarının da yer aldığı bir çok yayının yapılmasına sebep olmuştur. Kabul edilebilir süreçler hakkındaki tartışmalar, minimax metodu, Bayes teoremi ve benzerleri, bu alanda çalışan uzmanların temel çalışma konuları haline gelmiştir. Belirli kalıpları yakalamak hakkındaki literatür, Sebestyen de olduğu gibi daha modern istatistiksel yaklaşımların daha geçerli olacağının ipuçlarını vermektedir. 36 Diskriminant Analizinde amaç, çok değişkenli problemin tek değişkenli biçime dönüştürülmesidir. Yani tüm değişkenlerin uygun ağırlıklarla katılacağı tek bir fonksiyonun elde edilmesidir. Diskriminant Analizi her bir grup için birer diskriminant fonksiyonu hesaplamayı içerir. Her bir diskriminant fonksiyonu için bir özdeğer mevcuttur. İki gruplu Diskriminant Analizi için, açıklanan varyansın yüzde yüzüne karşılık gelen bir diskriminant fonksiyonu ve bir de özdeğer mevcuttur. Birden fazla diskriminant fonksiyonu varsa bunlardan ilki, bunlardan en büyüğü ve en önemlisidir. Açıklayıcı anlamda ikinci fonksiyon, ikinci en önemli olandır. Bir diskriminant fonksiyonu belli şartları gerçeklediği bilinen ayırt edici değişkenlerin bir lineer birleşimidir. Matematiksel ifade aşağıdaki gibidir: Y = fkm = u0 + u1X1km + u2X2km + ... + upXpkm. [1] Burada, fkm = m durumunun k grubunda doğal diskriminant fonksiyonundaki değeri; Xikm = m durumunun k-ıncı grupta Xi ayırt edici fonksiyonundaki değeri ve ui = fonksiyonda istenen özellikleri üreten katsayılardır ( u0 sabit değer). Böyle bir fonksiyon bulunurken, gruplar arası varyansın grup içi varyansa göre en büyüklenmesi gerekir. Yani, ⎛ ⎞ F = Max Gruplar ArasıVaryans⎜ ⎟ [2] ⎝ Grup İçi Varyans ⎠ oranının en büyük olması istenir. 37 Doğrusal diskriminant fonksiyonunun kullanılabilmesi için ana kütlelerin normal dağılımlı ve ortak varyans- kovaryans matrisine sahip olmaları gerekir. Bu varsayımların bozulduğu durumlar için bazı çalışmalar yapılmıştır. Fisher’in bulduğu klasik Diskriminant Analizinde p-gözlemli iki grup için iki fonksiyon ortaya çıkarılmıştır. g1 ve g2 toplumlarından n1 ve n2 hacimli gözlem matrisleri X1 ve X2, kovaryans matrisleri W1 ve W2 olsun. g1 ve g2 toplumları Σ ortak kovaryans matrisine sahiptir. Yani W1 = W2 dir. g1 ve g2 gruplarının ortak varyansları (Σ’ in tahmini) W kovaryans matrisi (W matrisi gruplar içi kovaryans matrisi olarak da isimlendirilir), W = (n1 −1) ∗W1 + (n2 −1) ∗W2 n1 + n2 − 2 şeklinde hesaplanır. Ortak kovaryans matrisi, ^ − − ∑ = E(X - xi )(X - x /i ) biçiminde de hesaplanır. ui katsayılarının bulunmasında kullanılan ilk eşitlik aşağıdaki biçimde Fisher tarafından verilmiştir. ′ f(u1, u 2, u3,...u ) = u Bu p . [3] u′Wu Bu formülde; u: px1 boyutlu katsayılar vektörünü; B: pxp boyutlu (her grup ortalama vektörünün genel ortalama vektöründen farklarından elde edilen ) gruplar arası varyans matrisini; 38 W: pxp boyutlu (her gruptaki bireylerin kendi ortalama vektörlerinin farklarından elde edilen) grup içi varyans matrisini göstermektedir. [3] nolu eşitlik; / / f(u n1n2 u dd u1, u 2, u3,...up) = / n1 + n2 u Cu biçiminde de yazılabilir. Burada, C = 1 W n1 + n2 − 2 − (1) − (2) − (1) − (2) ve dj = ( x j - x j ) ve x j , x j sırasıyla birinci ve ikinci grubun j’inci değişken ortalamalarıdır. d/ = (d1,d2,...,dp) olarak alınmıştır. Bu durumda [2] nolu eşitlik p bilinmeyenli denklem sistemidir. İki grubun grup içi varyanslarının (kovaryans) eşitliği varsayımından doğrusal bileşenler, − ui = W-1( xi ), i = 1, 2, ..., p, biçiminde hesaplanır. ui katsayılarına grup ayırma fonksiyonu katsayıları ya da doğal değişkenler adı verilir. Bazen katsayılar ölçeklendirilerek ya da normalize edilerek kullanılmaktadır. Normalizasyonun amacı katsayıları genel katsayılar içinde ağırlandırarak elemanların kolay biçimde yorumlanmasını sağlamaktır. İki tür normalizasyon vardır: 39 1-u* = u ve 2-u* = u . u /u u1 Burada u1 en büyük doğrusal bileşendir. Her iki normalizasyon yaklaşımında da katsayılardan birinin diğerlerine göre önemli olarak ağırlığını arttırmak ve diğerlerine göre daha önemli değişkenleri modelde görmek amaçlanmaktadır. Bir diskriminant fonksiyonu aracılığı ile gruplar arasındaki farklılığı maksimize ederek grupları birbirinden ayırmak mümkündür. Bunun için bir diskriminant fonksiyonu belirlenir. i ve j grupları arasındaki diskriminant fonksiyonu, Y = u0 + u1X1 + u2X2 + ... + upXp biçiminde yazılır. Daha sonra p değişkenli g grup arasındaki karesel uzaklığı veren ve Mahalanobis tarafında ileri sürülen D2 uzaklığı hesaplanarak i ve j gruplarını birbirinden ayırmada etkin rol oynayıp oynamadığı test edilebilir. Bu amaçla Hotelling T2 yaklaşımı ile D2’nin önemliliği test edilebilir. T2’nin önemliliğinin belirlenmesi için de F yaklaşımından yararlanılır. D2 ,T2 ve F’nin hesaplaması aşağıdaki gibidir. − − − − D2ij = ( xi - x ) / j W-1( xi - x j ) ⎛ ⎞ T2 = n⎜ 1 ∗n2 2⎟D ⎝ n1 + n2 ⎠ F = n1 + n2 − p −1 T2 , p(n1 + n2 − 2) F’nin önemliliği p, ( n1 + n2 -p-1) serbestlik dereceli F dağılımının kritik değerleri kullanılarak belirlenir. Hesap değerinin tablo değerini aşması durumunda, bulunan diskriminant fonksiyonunun bireyleri gruplara ayırma özelliğinin iyi olduğu sonucuna 40 varılır. Aksi durumda Diskriminant Analizi sonuçlarına güvenilmeyeceği yorumu yapılır. 2.3. İkiden Çok Grup Olması Halinde Diskriminant Analizi İkiden çok grup olması durumunda kullanılan Diskriminant Analizi teknikleri, iki grup için geliştirilenlerin genel bir halidir. Burada p değişkenli, ikiden çok sonlu sayıda grup bulunmaktadır. Bireyler gruplar arasında ayırma gücü en büyük olacak şekilde belli sayıda doğrusal bağıntılar yardımıyla sınıflandırılmaktadır. Ayırt edici değişkenleri p-boyutlu bir uzayın eksenleri olarak düşünülür.. Herbir veri örneği, bu uzayda her bir bileşeni verinin bu değişkenlerin herbirindeki değerleri olmak üzere bir nokta belirtecektir. Eğer grupların davranışları bu değişkenlere göre değişiklik gösteriyorsa her bir grubu bu uzayın belli bir kısmında yoğunlaşmış noktalar grubu olarak düşünebiliriz. Gruplar bazen bir şekilde kesişseler de ayrı ayrı kapladıkları bölgeler özdeş değildir. Bir grubun yerini özetlemek istersek onun merkezini hesaplamamız gereklidir. Bir grubun merkezi hayali bir noktadır ve koordinatları bu grubun herbir değişken için ortalamasından oluşmaktadır. 6 değişkenli 4 grup oluşturulmuş bir örneği düşünürsek; değişkenler, 6 boyutlu bir uzayda yer almaktadırlar Grup sayısının en çok 1 eksiği kadar bir boyuta ihtiyaç duymaktayız. Diskriminant Analizi, bu eksenleri belirtecek doğrusal bağıntılara ait katsayıların bulunması ile ilgilidir. Elde edilebilecek fonksiyonların maksimum sayısı grupların sayısının 1 eksiği ile ayırt edici değişkenlerin sayısından küçük olanına eşittir. örneğinde 6 değişken 4 grup örneğinde en çok 3 fonksiyon elde edilebilir. Genelleştirirsek, ikiden fazla grup olması durumunda bulunacak diskriminant fonksiyonu sayısı; r = min(k -1, p) = min(q , p) tanedir. Burada k grup sayısını, p değişken sayısını göstermektedir. Ayırt edici değişkenlerin sayısı olan p’nin grup sayısından az olduğu durumlarda fonksiyonların maksimum sayısı olan q’nun p’ye eşit olması beklenir. Burada çok boyutlu bir uzaydan az boyutlu bir uzaya bir dönüşüm yapılmamaktadır. Tam tersine, sezgisel olarak kurallara uygun şekilde eksenler yerleştirilir. 41 Geometrik bir benzerlikten faydalanarak grup sayısının önemini anlayabiliriz. Euclid geometrisinin kurallarının geçerli olduğu bir uzayda iki nokta bir doğru belirtir. Genelde, 3 nokta bir düzlem belirtecektir. Dört nokta ise 3 boyutlu bir yüzey belirtecektir. Bu şekilde nokta sayısı arttıkça boyut ta artacaktır. Temel prensip noktaların, nokta sayısının bir eksiği boyuta sahip (doğru, düzlem, vs.) bir uzay tanımlamalarıdır. Eksenlerin sıfır değerini aldığı yer olan orjin için uygun olan yeri “esas merkez” olarak alırsak bu yer veri örneklerinin herbir eksendeki ortalama değerini aldığı yer olarak tanımlanabilir. Bu orjin etrafında uzay içinde kalmak kaydıyla eksenlerin sonsuz çoklukta yönlendirilmesi mümkündür. Bu eksenlerden belli bir tanesini eksen üzerindeki grup ortalamaları başka bir açıda olabileceğinden daha çok fark edecek şekilde uygun bir açıyla yerleştirmek istersek sezgisel olarak anlam ifade eden bir eksen bulmuş olurduk. Daha fazla eksenlerin varolduğunu (yani ikiden fazla grup olduğunu) varsayarak ikinci ekseni, uzayda kalmak ve ilk eksene dik olmak kaydıyla gruplar arasında en çok ayrım yapacak şekilde yerleştirebiliriz. Diğer eksenler de benzer yöntemle yerleştirilebilirler. Şimdi sınıflandırmayı nasıl yaptığımıza yönelik bir örnek görelim. k = 3 ve p ≥ 2 olsun. Üç tane farklı eksen (lineer diskriminant skoru) mevcuttur: W12, W13 ve W23. Ancak W23 = W13 – W12 olduğundan sadece iki tane eksen yeterli olacaktır. Yani sadece W12 ve W13’ün kullanılması yeterli olur. Sınıflandırma kuralı aşağıdaki şekilde tanımlanabilir: Eğer W12 > 0 ve W13 > 0 ise x’i 1. topluluğa; W12 < 0 ve W13 > W12 ise x’i 2. topluluğa; W13 < 0 ve W12 > W13 ise x’i 3. topluluğa sınıflandıralım. Wij > 0 ya da Wij < 0 gibi bir ifade bize Wij = 0 doğrusunun belirttiği iki yarı düzlemden hangisinin alınacağını göstermektedir. Üç adet sınıflandırma bölgesi Şekil 5’de gösterilmiştir. 42 W13 1. topluluk 2. topluluk W12 3. topluluk Şekil 5. k = 3 ve p ≥ 2 için bölgelerin sınıflandırılması Dört grup olduğunda ise aşağıdaki gibi bir şekil ortaya çıkmaktadır: W24 2. W23 . W34 3. 4 W12 W13 W14 1. Şekil 6. k = 4 durumunda bölgelerin sınıflandırılması 43 Yeni bir boyut tanımlamak yerine bir noktayı diğer noktalar yardımıyla uzaya yerleştirmek de söz konusudur. Bu tür durumlar, örneğin dört noktanın aynı doğru üzerinde kaldıkları durumlarda ortaya çıkabilmektedir. Diskriminant Analizinde de benzer durum söz konusudur. Diskriminant Analizinin asıl amacının dışında boyut indirgeme tekniği biçiminde de düşünülebilir. Örneğin iki boyutlu bir uzaydan tek boyutlu bir uzaya indirgeme aşağıda Şekil 7’de verilmiştir. İki boyutlu uzaydaki noktaların B doğrusu üzerine izdüşümleri arasındaki çakışma en az olacaktır. Ayrıca fonksiyon, bireye ait iki ayrı değişken değerini tek bir ayırıcı fonksiyon değerine dönüştürmektedir. İki grup olması durumunda tek bir ayırıcı fonksiyon grupları birbirinden ayırırken, çok grup olması durumunda tek ayırıcı fonksiyon tüm grupları ayırmada yeterli olmayacaktır. Bundan dolayı ikinci hatta üçüncü ayırıcı fonksiyonlara ihtiyaç duyulmaktadır. 1. Grup 2. Grup .(1)x . (2)x R1 R2 (1) y yc (2) y B Şekil 7. Diskriminant Analizinde boyut indirgeme 44 2.3.1. Doğal Diskriminant Fonksiyonu Katsayılarının Üretilmesi Doğal diskriminant fonksiyonları olan u’ların katsayılarının üretilmesinde, İlk olarak veri durumları arasındaki farklılıkları ölçmeye yarayacak istatistiksel bir yönteme ihtiyacımız vardır. Grup ortalamalarının ve standart sapmalardan oluşan bir tablo bu iş için yeterli değildir. Gerçekten de böyle bir tablo, değişkenler arasındaki bağıntılar hakkında fikir verici değildir. Buna rağmen kareler toplamlarını ve T çarpraz çarpımlarını veren simetrik bir karesel matrisi kullanabiliriz. T sembolünün nereden geldiğini anlamak için aşağıdaki sembolleri tanımlamak gerekir: g = grup sayısı nk = k grubundaki durumların sayısı n. = tüm gruplardaki tüm durumların toplam sayısı Xikm = i değişkeninin k grubunda m durumunda aldığı değer Xik. = k grubundaki durumlar için i değişkeninin ortalama değeri Xi.. = tüm durumlar için i değişkeninin ortalama değeri (genel ya da toplam ortalama) Şimdi de g nk tij = ∑∑(Xikm − Xi.. )(X jkm − X j.. ) [4] k=1 m=1 değerini tanımlayalım. Parantez içindeki terimler belli bir durumun bu değişkene ait büyük ortalamadan ne kadar uzak olduğunu belirtmektedir. i = j olduğunda iki terim aynı olacaktır ve bu durumda sapmanın karesini elde etmiş oluruz. Böylece köşegen üzerindeki herbir eleman genel ortalamadan sapmaların karelerinin toplamı şeklindedir. Bu ise durumların bir değişkene ait değerlerinin nasıl dağıldığını gösteren bir ifadedir. i ≠ j olduğunda ise bir değişkendeki sapmanın bir diğer değişkendeki sapma ile çarpımlarının toplamını elde etmekteyiz. Aslında bu iki değişken arasındaki korelasyonun ölçümü için iyi bir metodtur. Çünkü bir değişkendeki büyük sayılabilecek bir sapmanın ne şekilde bir başka değişkendeki büyük bir sapmaya karşı geldiğini 45 görebiliriz. Tüm matrisi ele alarak tüm değişkenlerin tanımladığı toplam uzay içinde noktaların nasıl dağıldığını gözlemleyebiliriz. Buna da dispersiyon adı verilir. T’nin herbir elemanını (n.-1) ile bölersek toplam kovaryans matrisini elde ederiz. Diskriminant Analizi hesaplamalarının çoğunluğu kovaryans matrisinden çok T’yi kullansa da istatistiksel literatürün çoğunluğu kovaryans matrisinden bahsetmektedir. Kovaryans matrisleri aynı zamanda, sadece bir tek gruptaki durumlara bağlı olduklarında bu grup için hesaplanabilir. Herhangi iki değişkenin ne kadar sıkı bir şekilde ilişkili olduklarını anlayabilmek için aralarındaki korelasyona bakabiliriz. Bu amaç için korelasyon katsayısı -1 ile +1 arasında değişecek şekilde standartlaştırıldığından kovaryanstan daha yararlıdır. T matrisi kolayca her bir elemanı aynı satır ve sütündaki iki köşegen elemanının çarpımının kareköküne bölünerek korelasyon katsayılarının bir matrisi haline getirilebilir. (benzeri sonuç kovaryans matrisinden de elde edilebilir (Cooley- Lohnes 1971:40)). Eğer grupların yerleri gerçekten de ayrıksa (yani sentroidler özdeş değilse) (Sentroid: Belli bir kategori ya da grup içindeki tüm nesnelerin diskriminant Z skorlarının ortalama değeri. Örneğin iki gruplu bir Diskriminant Analizinde her bir gruptaki nesneler için birer tane olmak üzere iki sentroid bulunur), gruplar arasındaki dispersiyonun derecesi toplam dispersiyondan daha az olacaktır. Bu gruplar arası karelerin toplamı ve çarpraz çarpımları matrisi adı verilen W matrisiyle ölçülür. W büyük oranda T gibidir. Sadece burada sapmalar durumun ait olduğu grubun ortalamasından faydalanarak (genel ortalamadan farklı olarak) hesaplanmaktadır. W matrisinin elemanları şu şekilde tanımlanırlar: g nk wij =∑∑(Xikm − Xik . )(X jkm − X jk . ) . [5] k=1 m=1 46 W matrisinin elemanları (n.-g) ile bölündüklerinde gruplar arası kovaryans matrisi elde edilir. Bu aslında grup kovaryans matrislerinin ağırlıklı ortalamasından başka bir şey değildir. W matrisini ya da gruplar arası kovaryans matrisini toplam korelasyon matrisini elde etmek için takip edilen prosedüre benzer bir şekilde kolayca gruplar arası korelasyon matrisine dönüştürebiliriz. Her bir korelasyon katsayısı, gruplar içinde ilişkili değişken çiftleri arasındaki bağlantının derecesini tahmin etmeye yarar. Bu genellikle grup farklarından etkilenen toplam korelasyondan farklıdır. Veri durumlarının ya aynı örnek grubundan ya da özdeş dispersiyon kalıplarına sahip gruplardan alındığını varsayarsak gruplar arası korelasyonlar değişkenler arası bağlantıları tahmin etmede toplam korelasyonlara göre daha faydalıdırlar. Grup centroidleri arasında fazla ayrım bulunmadığında W matrisinin tüm elemanları T’nin karşılık gelen elemanlarına eşit olacaktır (çünkü Xik. Değeri her zaman Xi.. değerine eşittir). Ancak eğer centroidler farklıysalar, W matrisinin elemanları T matrisinin karşılık gelen elemanlarından daha küçük olurlar. Bu farkı B = T – W (yani bij = tij – wij) ile tanımlı B matrisi yardımıyla ölçeriz. B matrisine gruplar arası kareler toplamı ve çarpraz çarpımlar matrisi denilir. B matrisinin elemanlarının büyüklüklerinin W matrisininkilerle karşılaştırılması bize ileride tartışılacağı üzere grupların ne kadar farklı olduklarına ilişkin bir ölçüm verir. W ve B matrisleri gruplar arasındaki tüm basit bilgileri bize verir. Calculus ve diğer matematiksel işlemlerin kullanımı sonucunda istenilen özelliklere sahip bir fonksiyonu elde edebiliriz. İlk olarak aşağıdaki ortak denklem sistemini çözmeliyiz: ∑b1ivi = λ∑w1ivi ∑b2ivi = λ∑w 2ivi [6] M M ∑bpivi = λ∑wpivi , 47 Burada λ “özdeğer” denilen sabit bir değerdir ve v’ler p tane katsayının oluşturduğu bir kümedir. Daha önce tanımlandığı gibi b’ler ve w’ler sırasıyla gruplararası ve grup içi kareler toplamını ve çarpraz çarpımlarını vermektedir. b’ler ve w’ler örnek verilerden hesaplanabilen bildiğimiz büyüklüklerdir. Amacımız [6] ile verilen denklem sistemini λ’nın ve v’lerin değerlerine göre çözmektir. Çözümün tekliğini elde etmek için v’lerin değerlerinin karelerinin toplamının 1.0’a eşit olması koşulunu da koyacağız. Sonuç olarak bu denklem sisteminin en çok q tane birtek şekilde belirli olan aşikâr olmayan çözümleri vardır. Kendi λ değerini ve v’lerin kümesini veren her bir çözüm bir adet doğal diskriminant fonksiyonuna karşılık gelecektir. v katsayıları istenilen diskriminant fonksiyonunun katsayıları olarak kullanılabilir. Bununla birlikte değerlerdeki küçük bir ayarlamayla daha fazla istenen özelliğe sahip olan bir fonksiyona ait katsayıları elde edebiliriz. Bu son katsayılar Denklem 1’deki katsayılar olup aşağıdaki şekilde tanımlanırlar: p ui = vi n.− g ve u0 = - ∑ui Xi.. . [7] i=1 u değerleri kullanıldığında veri durumları için f’lerin (diskriminant skorları adı verilen) değerleri standart formda olacaktır. Bunun anlamı diskriminant skorlarının tüm durumlar üzerinden ortalamasının 0 olduğu ve grup içi standart sapmanın 1 olduğu şeklindedir. Verilen bir duruma ait diskriminant skoru bu durumun bu değişken tarafından tanımlanan eksen üzerindeki yerini temsil eder. [6] denkleminin çözümü her bir fonksiyon için bir katsayı kümesini, yani v değerlerini, verecektir. Bu ham katsayılar sanki sınıflandırma amacına yönelikmiş gibi kullanılabilirler. Ancak, katsayılar olarak düşünüldüklerinde tamamıyla yorumlanamazlar ve veri durumları için ürettikleri skorların hiçbir ilginç anlamı yoktur. Bunun sebebi çözümün ne orjine ne de diskriminant uzayı için kullanılan uzunluk birimlerine bağlı olan bir kısıta sahip olmayışıdır. Uzayın gruplar arasında en fazla ayırt edicilik sağlanacak şekilde oluşturulmuş olmasına rağmen gruplar uzayın herhangi bir yerinde bulunabilirler. Bu aynen sahadaki beyzbol oyuncularının birbirlerine göre bağıl 48 konumlarını korumaları şartıyla istedikleri yerde yer alabilmelerine benzer. Ek olarak kuzey-güney uzaklıkları belli büyüklükte iken doğu-batı uzaklıkları başka bir büyüklükte olabilirler. Bunun sonucu, ilk durak başlangıçtan 100 feet uzaktayken ikinci durağın ilk duraktan sadece 25 feet uzakta olması gibidir. Bazı bilgisayar programları bu ham katsayıları yazdırabilir ve bunlar sınıflandırma amacıyla kullanılabilirler. Bununla birlikte [7] denklemindeki gibi ayarlamalar yaparak bunları bizim için daha kullanışlı hale getirebiliriz. Katsayıların ayarlanması süreci ne ayrımın miktarını, ne de grupların birbirine göre konumlarını değiştirir. Bu süreç sonucunda diskriminant fonksiyonu eksenlerinin orjinini (tüm diskriminant fonksiyonu eksenlerinin sıfır değerini aldığı nokta) genel centroid ile çakışacak şekilde taşımak yoluyla eksenler daha anlamlı bir pozisyona getirilirler. Genel centroid, uzayda tüm ayırt edici değişkenlerin tüm durumlar için ortalama değerlerini aldıkları noktadır. Aynı zamanda veri durumlarını temsil eden tüm noktalar için merkezi bir pozisyondur. Bu yeniden yerleştirme gerçekten de faydalıdır. Çünkü bunun sonucunda bir grup centroidine veya bir özel duruma baktığımızda direkt olarak sistemin merkezine göre nerede yerleştirilmiş olduğunu söyleyebiliriz. Beyzbol örneğinde bu başlangıç noktasının her zaman alanın belli bir köşesinde yer aldığını ve diğer durakların bu noktadan sabitlenmiş yönlerde yer aldığını söylemeye denktir. Oyuncular bir kez bu düzeni gördüklerinde birbirlerine göre durumlarını kolaylıkla ve çabuk bir şekilde belirleyebilirler. Katsayılara yapılan genel ayarlamalar bir başka değişikliğe de sebep olurlar. Bu da uzaklıkları ölçmede kullanılan birimlerle ilgilidir. Ayarlanmış katsayılar standart sapma birimlerine bağlı olarak ölçülebilen diskriminant skorları üretirler. Yani herbir eksen bir durum için karşılık gelen skor büyük centroidden olan satandart sapmaların sayısını gösterecek şekilde kısaltılıp uzatılacaktır. Belli bir duruma karşılık gelen skora bakılarak orjine göre bağıl uzaklığı ve sistemin büyüklüğüne göre bu uzaklığın küçük ya da büyük olduğu kolayca söylenebilir. Böylece örneğin -2.5 değerindeki bir skor bize bu durumun, karşılık gelen eksenin orjininden negatif yönde ikibuçukluk bir standart sapmanın varolduğunu söyler. Dağılımın şekli ne olursa olsun genelde sadece birkaç 49 durum için ortalamadan standart sapma 2’den büyük olacağından bu durumun ortalamadan oldukça uzakta kaldığı söylenebilir. Beyzbol örneğinde uzaklıkların standardizasyonu bir duraktan bir sonrakine olan uzaklıkların tümünün eşit olacağını ve ayrıca başka bir alanda da bu uzaklıkların aynen geçerli olacağını söylemekle eş anlamlıdır. Burada tartışılan ayarlamaları yapma şeklimiz tamamen katsayıların orjinal veri değerlerine göre mi yoksa standartlaştırılmış veri değerlerine göre mi kullanılacağına bağlıdır. Orjinal verilere uygulandığında katsayılara “standartlaştırılmamış katsayılar” adını vereceğiz. Çünkü orjinal veriler de standartlaştırılmamışlardır. Burada u harfi bu tür katsayıları göstermek için kullanılmıştır ve [7] denklemi v’leri u’lara nasıl çevirebileceğimizi göstermektedir. Normalde standartlaştırılmamış katsayılar diskriminant skorlarını hesaplamada kullanılırlar. Bir başka ifade ile katsayılar, veri durumlarının diskriminant uzayındaki pozisyonlarını hesaplamak için kullanılırlar. 2.3.2. Tek ve İki Fonksiyonlu Çizimler Denklem 1 ayırt edici değişkenlerin p-boyutlu uzayından doğal diskriminant fonksiyonlarının q-boyutlu uzayına matematiksel bir dönüşüm tanımlar. (Burada q ile maksimum fonksiyon sayısı belirtilmektedir). Bulunacak ayırıcı fonksiyonlardan ilki, gruplar arasındaki en büyük ayırımı sağlayan olacaktır. İkinci fonksiyon, ilki ile ilişkisi olmayan ve ilk ayırıcı fonksiyondan sonra gruplar arasında en iyi ayırımı sağlayan bağıntı olacaktır. Diğer fonksiyonların yorumlanması da bu şekilde olacaktır. İki tane diskriminant fonksiyonu varolduğunda sentroidlerin ve veri durumlarının yerlerini kolayca çizebiliriz. Özellikle de en önemli olan ilk iki fonksiyonu kullanırsak. Şekil 5 bu şekilde elde edilmiş bir çizimdir. Yıldızlar dört grubun sentroidlerini, sayılar da bu sayılara karşılık gelen gruplardaki bireyleri sembolize etmektedir. 1.birey 1. gruptadır ve sağ alt köşeye en yakın köşede 1 ile gösterilmiştir. 2. birey 4. gruptadır ve yıldıza yakın yerde 4 ile gösterilmiştir. 50 Bu çizimin incelenmesi grupların oldukça farklı olduklarını belirtmektedir. Sentroidler oldukça ayrıktırlar ve 1. gruptaki bazı bireyler 4. gruba yakın yer almasına rağmen bireysel durumların çakışması sözkonusu değildir. Şekil 8’de, grup sentroidlerinin ve bireysel durumların iki fonksiyonlu bir çizimi gösterilmiştir. Örnek değerler verilerek çizimde nasıl yerleştirileceği verilmek istenmiştir. Şekil 5’deki gibi çizimler gruplar arasında çok az çakışma olduğu durumlarda oldukça faydalı olabilir. Gruplar daha az çakıştığında ve özellikle de durumların sayısı çok fazla olduğunda tüm durumların çizilmesi karmaşa yaratır. Böyle durumlarda sadece sentroidlerin çizilmesi ya da her bir grup için ayrı çizim yapılması daha bilgi verici olabilir. -9.000 -4.500 0.0 -4.500 9.000 9.000 • • • • • -4.500• 4 • 4 3 4 • 1 1 0.0 • • 3 3 • 1 1 1 -4.500 • 1 -9.000 • • • • • Şekil 8. Grup sentroidlerinin ve bireysel durumların iki fonksiyonlu bir çizimi. Düşey eksen 1. fonksiyonu, yatay eksen ise 2. fonksiyonu göstermektedir. 51 Diskriminant fonksiyonlarının sayısı arttıkça sentroidlerin yerlerinin belirlenmesi problemi her adımda giderek güçleşecektir. Tabii ki üç tane fonksiyon için bir model çizebilmemize rağmen dört ya da daha fazlası için bunun yapılması mümkün değildir. İlk iki fonksiyon en iyi ayırtediciler olduklarından dolayı sadece ilk iki fonksiyona dayalı bir çizim de oldukça faydalı olacaktır. Sadece bir adet diskriminant fonksiyonu var olduğunda veri durumlarını bir doğru üzerine yerleştirebiliriz. Bu da bize fonksiyonun hangi kısımlarının kullanıldığını belirtirken, özellikle durum sayısı çok olduğunda noktaların yoğunluğu ile ilgili fazla bilgi vermeyecektir. Bir alternatif strateji de her bir grup için bir histogram hazırlamaktır. İlk olarak doğrumuzu örneğin 0.1’lik standart sapma aralıklarına ya da ne uygunsa ona bölelim. Bu durumda bir X işareti ya da bu durum için grup numarası gibi bir sembol veri durumlarını içeren aralıklara yerleştirilir. Bir aralığa düşen ikinci ve sonraki durumlar için X sembolleri birbirleri üzerine yığılmalıdır ve bu yığınların yüksekliği bu aralıktaki durumların sayısını belirtecektir. Bunlar yapıldığında grubun yoğunluğu ve dağılımıyla ilgili bilgi elde edilir. Grup histogramlarını üstüste yerleştirerek grupların birbirine göre yerleşimlerini karşılaştırabiliriz. Bireysel durumlardan ve grup sentroidlerinden bireysel değişkenlerin katkısı düşünülürse, standartlaşırılmamış katsayılardan daha fazlasına ihtiyaç duyulur.. Standartlaştırılmamış katsayılar bize bir değişkenin diskriminant skorunu hesaplamada mutlak katkısını vermekle beraber bu bilgi, bir değişkenin değerindeki bir birimlik değişme bir başka değişken için aynı değilse (yani standart sapmalar aynı değilse) yanlış yönlendirici olabilir. Eğer değişkenin diğerlerine göre önemini vurgulamak istersek standartlaştılmış katsayılara bakmamız gerekir. Şekil 9, grup histogramlarının örnek değerler ile çizimini göstermektedir (herbir X bir bireyi göstermektedir). 52 Grup 1 X X ı X X XX X X X Grup 2 X X ı Grup 3 X X X X X ı Grup 4 ı X X X -6.0 -4.0 -2.0 0.0 2.0 4.0 6.0 Şekil 9. Grup histogramları. Herbir X bir bireyi göstermektedir. Düşey eksen standart sapma birimleri cinsinden ölçülmüş olan ilk doğal diskriminant fonksiyonunu belirtir. Standartlaştırılmış katsayılar, ham veriler standart forma dönüştürüldüğünde elde edilecek olan tüm verilerin standart sapmalarının 1.0 olması durumunda [7] denkleminde elde edilen katsayılardır. Ham verileri dönüştürüp katsayıları yeniden hesaplamaktansa standartlaştırılmamış u katsayılarından aşağıdaki dönüşüm yardımıyla standartlaştırılmış c katsayılarını hesaplayabiliriz: c u w= iii i [8] n.− g Burada wii ([5]. denklemde tanımlandığı gibi) i-inci değişken için kareler toplamı, n. toplam durum sayısı ve g de grup sayısıdır. Standartlaştırılmış katsayılar hangi değişkenlerin fonksiyondaki skorlara en çok katkısı olduğunu belirlemede 53 kullanabileceğimizden dolayı faydalıdırlar. Bu da standartlaştırlmış katsayıların büyüklüklerine (işareti umursamadan) bakarak yapılabilir. Büyüklük arttıkça değişkenin katkısı da artmaktadır. Bir tek değişken ile bir diskriminant fonksiyonu arasındaki benzerliği belirlemek için bu ikisi arasındaki ürün-moment korelasyonuna bakabiliriz. Bu tür korelasyonlara “toplam yapısal katsayılar” adı verilir. Korelasyonda olduğu gibi değişkenlerle ve fonksiyonla oluşturulan açıların kosinüsleri olarak gözönüne alınabilirler. Böylece bu katsayıları bildiğimizde veri uzayının geometrik yapısını da bilmiş oluruz. Bir yapısal katsayı bize bir değişkenin ve bir fonksiyonun ne kadar yakın korelasyonlu olduklarını gösterir. Katsayının büyüklüğü mutlak değerce oldukça büyük olduğunda (+1.0 ya da -1.0 civarında) fonksiyon neredeyse değişken kadar bilgi vericidir. Katsayı sıfıra yakın olduğunda ise çok az ortak bilgiye sahip oldukları söylenebilir. Bir fonksiyonu yapısal katsayılar cinsinden en yüksek katsayılara sahip olan değişkenlere bakılarak isimlendirebiliriz. Eğer bu değişkenler benzer bir özellik ölçmeye yarıyorlarsa fonksiyonu bu özelliğe bağlı bir şekilde isimlendirebiliriz. Bazen gruplar içinde fonksiyonların değişkenlere nasıl bağlı olduklarını bilmek isteriz. Bu bilgi aşağıdaki şekilde hesaplanabilecek ve “grup içi yapısal katsayılar” olarak da adlandırılabilecek olan grup içi korelasyonlardan elde edilmektedir: p p ' w csij =∑r 'ik ckj =∑ ik kj . [9] k=1 k=1 wiiwkk Burada s ’ij = i değişkeni ve j fonksiyonu için grup içi yapısal katsayısı r ’ ik = i ve k değişkenleri arasında grup içi korelasyon katsayısı ckj = k değişkeninin j fonksiyonu için standartlaştırılmış doğal diskriminant fonksiyonu katsayısıdır. 54 Yapısal katsayılar, standartlaştırılmış katsayılardan elde edilenlerden oldukça farklı şeyler söyler. Standartlaştırılmış katsayılar bize değişkenin diskriminant skorlarının hesaplanmasındaki katkısını verirler. Bu, değişkenlerin önemini anlamada kullanılabilecek bir yoldur. Ancak önemli bir kısıtlamaya sahiptir. Eğer iki değişken aşağı yukarı birbirlerine yakın ayırtedici bilgilere sahipseler (yani yüksek oranda korelasyon halindeyseler) bu ortak bilgi çok önemli de olsa skora aynı katkıda bulunurlar. Sonuç olarak onların standartlaştırılmış katsayıları sadece değişkenlerden birisinin kullanılması durumundakinden daha küçük olabilirler. Ya da standartlaştırılmış katsayılar daha büyük olup farklı işaretlere sahip olabilirler. Böylece de bunlardan birinin katkısı diğerinin zıt yöndeki katkısı tarafından kısmen yok olur. Bunun sebebi standartlaştırılmış katsayıların tüm diğer değişkenlerin ortak katkılarını da göz önüne almalarıdır. Bununla birlikte yapısal katsayılar basit iki değişkenli korelasyonlardır. Bu yüzden diğer değişkenlerle olan ilişkilerden etkilenmezler. 2.3.3. Özdeğerler, Bağıl Yüzde ve Doğal Korelasyon [6] denkleminin çözümünün bir özdeğer (lamda) ve herbir doğal diskriminant fonksiyonu için bir katsayı kümesi verdiği gösterildi.. Genel problemin mümkün olan çözümlerinin sayısı aslında p’ye yani ayırt edici değişkenlerin sayısına eşittir. Bununla birlikte bunlardan bazıları matematiksel olarak aşikâr çözümlerken diğerlerinin istatistiksel önemi olmayabilir. Bütün lamdalar (özdeğerler) pozitif ya da sıfır olacaktır ve lamda büyüdükçe bu fonksiyonda gruplar o kadar ayrık olacaklardır. Böylelikle en yüksek özdeğere sahip olan fonksiyon en kuvvetli ayırt edici ve en düşük özdeğere sahip olansa en zayıf ayırt edici olacaktır. Özdeğerleri temsil eden esas sayılar, açık bir anlam ifade etmezler. Yani doğrudan yorumlanamazlar. Ancak birden fazla fonksiyon olduğunda herbirisini ne kadar ayırtedici kuvvete sahip olduklarını görmek amacıyla büyüklükleri birbirleriyle karşılaştırılır. Örneğin ilk özdeğere karşılık gelen I.diskriminant fonksiyonun değeri, ikinci fonksiyon için olan özdeğerden 7 kattan fazla daha büyük, ilk özdeğerin 55 üçüncüden yaklaşık 150 kez büyük olsun. Bu bize üçüncü fonksiyonun ayırt ediciliğinin oldukça zayıf olduğunu göstermektedir. Bu tarz karşılaştırmaları yapabilmek için özdeğerleri bağıl yüzdelere çevirmek faydalıdır. Bunu yapmak için ilk olarak tüm özdeğerleri toplam ayırt etme kuvvetini ölçecek şekilde toplarız. Daha sonra bu sonucu herbir bireysel özdeğere böleriz. Böylece ilk fonksiyon bu denklem sistemin toplam ayırt edici kuvvetin yukarıdaki örneğe göre en büyük yüzde değerine sahip olur. Bu örnekteki üçüncü fonksiyon hiç bir işe yaramayan bir fonksiyon örneğidir. Bir fonksiyon toplam ayırt etme kuvvetinin bu kadar önemsiz bir kısmını taşıyorsa bu fonksiyon diğerlerinden öğrendiklerimizin dışında bizim grup farklılıklarını anlamamıza katkıda bulunmayacak demektir. Hangi yüzdeden sonra fonksiyonun bizim için ilginçliğini yitireceğinin bir kuralı yoktur. Bu sebeple biraz daha uğraşıldığında ikinci fonksiyonu bile ilgi alanımız dışında tutabiliriz. Aslında birinci fonksiyon bile üç fonksiyon arasında açıkça en ayırtedici olanı olmakla beraber diğer kriterlere göre çok önemli bilgi vermekten uzak olarak düşünülebilir. Sonuç olarak bağıl yüzdeler bize sadece bir fonksiyonun diğerlerine göre öylesine zayıf olduğunu ve bu sebeple gruplar arasındaki ayrımı anlamamıza ekstra bir katkıda bulunmayacağını gösterir. [6] denkleminin ilginç olmayan bir çözümü lamdayı sıfır alarak elde edilir. Böyle bir çözüm fonksiyonun gruplar arasında farklılaşmasına katkıda bulunmayacağından işe yaramaz. Ancak p sayısı (k-1) değerinden küçük olduğunda (p-k+1) tane özdeğeri sıfır olan çözüm elde edilir. Bu aslında doğal diskriminant fonksiyonlarının maksimum sayısı olan q’nun neden p ve (k-1) sayılarından küçük olanına eşit olacağını da açıklar. Bir diskriminant fonksiyonunun faydasını anlayabilmenin bir başka yolu da doğal korelasyon katsayısına bakmaktır. Bu katsayı gruplar ve diskriminant fonksiyonu arasındaki bağlantının derecesini ölçümleyen bir değerdir. Sıfır şeklinde bir değer hiç bir bağlantı bulunmadığını belirtirken (pozitif) yüksek değerler, 1.0 maksimum değer olmak üzere ilişkinin artan derecesini belirtirler. r* ile gösterebileceğimiz doğal korelasyon özdeğere aşağıdaki formülle bağlıdır: 56 r* λ= ii [10] 1+ λi Burada i, ilgili diskriminant fonksiyonunu belirtmektedir. Doğal korelasyon katsayıları, doğal korelasyon analizi denilen bir teknikten gelmektedir (Levine 1977). Doğal korelasyon, aralık seviyesindeki değişkenlerin iki ayrık kümesi arasındaki ilişkiyi çalışmanın bir yoludur. Analiz, q küçük kümedeki değişkenlerin sayısı olmak üzere q tane lineer kombinasyon çifti oluşturmakla gerçekleştirilir. Herbiri kümelerden birinden alınan iki elemanın oluşturacağı çiftler halindeki lineer kombinasyonlar, aralarındaki korelasyonu maksimize edecek şekilde elde edilirler. İlk çift en yüksek uyum derecesine sahiptir. İkinci çift, ilkiyle ilişkide olmadan en yüksek ikinci uyum dercesine sahip çifttir ve bu şekilde devam edilir. Tabii ki doğal korelasyon katsayısı uyumun ölçümüdür ve çiftteki iki adet lineer kombinasyon arasındaki Pearson ürün-moment korelasyonuna özdeştir. Biraz matematik yardımıyla Diskriminant Analizini doğal korelasyon analizine çevirebiliriz. Açıkça ayırt edici değişkenler kümelerden birisini oluştururlar. Grupları (k-1) adet iki ihtimalli değişkenlerle (kukla değişkenler) temsil edersek diğer kümeyi elde etmiş oluruz. Buradan q tane lineer kombinasyon çifti elde ederiz ve diskriminant fonksiyonu çiftin bir yarısını temsil ederken grupları temsil eden kombinasyon hiçbir zaman elde edilemez. Doğal korelasyon katsayıları, lineer kombinasyon çiftleri üzerinde hareket eden iki küme arasındaki ilişkinin ölçümünü yukarıda anlatıldığı gibi yorumlamaya yararlar. Bu benzerlik sebebiyle bazı istatistikçiler doğal diskriminant fonksiyonuna bir “doğal değişken grubu” olarak bakarlar. Doğal korelasyon katsayılarının farklı bir yorumu da varyans analizinden gelir (Iversen-Norpoth 1976: 30-32). Orada “eta” ve “korelasyon oranı” kelimeleri altında işlenmektedir. Burada gruplar bağımlı değişken olan diskriminant fonksiyonu üzerindeki değerleri etkileyen bağımsız bir değişken olarak ele alınırlar. Fonksiyonun grup ortalamaları arasındaki farkın derecesi eta ile ölçülür. Eta’nın daha sezgisel bir 57 yorumu karesi alınarak yapılabilir. Eta kare (yani doğal korelasyonun karesi) diskriminant fonksiyonundaki gruplarla açıklanan varyansın oranıdır. Hangi yaklaşım seçilirse seçilsin doğal korelasyon, diskriminant fonksiyonunun sağlayacağı faydanın ölçülmesinde yararlı bir işlev görür. Doğal korelasyon bize diskriminant fonksiyonunun görevini ne kadar iyi yaptığını da gösterdiğinden daha faydalıdır. Eğer gruplar analiz edilen değişkenlerde çok farklılık göstermiyorsa tüm korelasyonlar, ayrım oluşmayacağından dolayı düşük olacaktır. Hem bağıl yüzdeyi hem de doğal korelasyonu incelediğimizde kaç tane diskriminant fonksiyonunun ciddi anlamda faydalı olduğunu ve grup farklılıklarını ne kadar açıkladıklarını oldukça iyi bir oranda belirleyebiliriz. . Eğer anakütle verilerini analiz ediyorsak fonksiyon sayısına ve bunların önemine ilişkin sorular bağıl yüzde ve doğal korelasyonla cevaplanmaktadır. Ölçüm hatası limitleri dahilinde bu istatistikler gruplarla ayırt edici değişkenler arasındaki ayrımın derecesini tamamıyla tanımlamaktadırlar. [1] nolu denklemi ele alarak λ’nın (özdeğerlerin) elde edilmesi ve bu değerlerle diskriminant fonksiyonlarının bulunması yani diskriminant fonksiyonlarının boyutunun belirlenmesi, λ değerleri ile fonksiyon sayılarının karşılaştırılmasının matematiksel işlem sırası ve birbirleri ile ilişkisi aşağıdaki gibidir. İkiden çok grup olması durumunda bulunacak ayırıcı foksiyonların elde edilmesi [1] ve [2] nolu eşitliklerde ifade edildiği gibi varyans oranlarının en büyüklenmesi temeline dayanır. Fisher’in tanımladığı iki varyans oranının u’ya göre türevi alınıp, elde edilecek denklemlerin çözümü yapıldığında elde edilecek λi özdeğerlerine karşılık gelen özvektörler istenilen ayırıcı fonksiyonların elde edilmesini sağlar.. Yani, ′ λ = u Bu = y 'nin gruplar arası kareler toplamıΙ u′Wu max y için gruplar içi kareler toplamı 58 diskriminant kriterinin maksimizasyonu için λ’nın u’ya göre kısmi türevi alınır ve 0’a eşitlenir. 2 ⎡ / /∂λ = ⎣ (Bu)(u Wu) − (u Bu)(Wu)⎤⎦ ∂u (u 'Wu)(u /Wu) buradan, 2(Bu −λWu) ' = 0 uWu ve 2(Bu – λWu) = 0 olacağından (B – λW)u = 0 eşitliği elde edilir. W matrisinin tekil olmayan bir matris olduğunu kabul edip elde edilen eşitliğin her iki tarafını W-1 matrisi ile çarpıldığında (W-1B – λI)u = 0 eşitliğinde W-1B matrisi yerine A matrisini koyduğumuzda, (A – λI)u = 0 eşitliği elde edilir. Bu eşitliğin çözümüne ulaşabilmek için, W-1B - λI u= 0 59 eşitliğinden yararlanılır. Determinantın çözümünden karakteristik denklemin kökleri λi (i = 1,2,...,r) değerleri bulunur. λi (i = 1,2,...,r) değerleri W-1B matrisinin sıfırdan farklı özdeğerleridir. Diskriminant fonksiyonu sayısı; r = min(k -1, p) olmak üzere elde edilen λ1, λ2,..., λr özdeğerlerine karşılık gelen r tane özvektör, istenen ayırıcı fonksiyonlar olacaktır. k-1 < p olması durumunda W-1B matrisi simetrik olmayacaktır. Böyle durumlarda özdeğerler karekök yöntemi ile veya özel logaritmalar kullanılarak elde edilirler. λ , W-11 B matrisinin öz değeri ve u1 = (u11, u12,...u1p) birinci özdeğere karşılık gelen özvektör (katsayılar) ise, birinci diskriminant fonksiyonu, Y = 1 u11X1+ u12X2 +...+ u1pXp biçiminde ifade edilir. Y1 en büyük diskriminant kriteri λ1’e sahiptir. λ , W-12 B matrisinin öz değeri ve u2 = (u21, u22,...u2p) bu özdeğere karşılık gelen özvektör ise, diskriminant fonksiyonu, Y = 2 u21X1+ u22X2 +...+ u2pXp olarak elde edilir. Y2’de ikinci büyük diskriminant kriteri λ2’e sahiptir. Y2 diskriminant fonksiyonu ile Y1 diskriminant fonksiyonu arasındaki korelasyon sıfırdır. Benzer şekilde, Y 3 = u31X1+ u32X2 +...+ u3pXp Y1 ve Y2 ile korelasyonu sıfır olan 3. en büyük diskriminant kriterine sahip Y3 diskriminant fonksiyonu elde edilir. 60 Benzer şekilde r. Diskriminant fonksiyonu Yr, λr’ye karşılık gelen ur = (ur1, ur2,...usp) ağırlıkları kullanılarak elde edilir. Yr, Y1, Y2,..., Yr-1 diskriminant fonlsiyonları ile korelasyonu sıfır olan en büyük diskriminant kriteri Yr’ye sahiptir. Böyle bir karşılaştırmanın yapılabilmesi için bulunan katsayıların da, i = 1, ..., p ve j = 1,...,r için v 1/2ij= (uij Wii) formüllerinde standartlaşması, ayırıcı fonksiyondaki dağişkenlerin ayırmaya etkilerinin ya da fonksiyona katkı miktarının bilinmesi özellikle yorum aşamasında önemli olduğundan gereklidir. Buraya kadar, - diskriminant fonksiyonlarının boyutu belirlenmeye, - diskriminant fonksiyonlarının boyut sayısının, W-1B matrisinin sıfırdan farklı öz değerlerinin sayısına eşit olduğu, - W-1B matrisinin sıfırdan farklı öz değerlerinin sayısının, diskriminant fonksiyonu sayısı; r = min(k -1, p) değerine eşit olduğu, (genelllikle, istatistiksel olarak anlamlı diskriminant fonksiyonu sayısı; r = min(k -1, p) den daha küçüktür. Nedeni ise bazı diskriminant fonksiyonlarının, grup farklılaşmalarının oluşumuna etkilerinin istatistiksel olarak önemsiz olmasıdır) gösterilmeye çalışıldı. Artık istatistiksel olarak anlamlı olan diskriminant fonksiyonları belirlenebilir. 2.3.4. Diskriminant Fonksiyonlarının Önem Kontrolü İkiden fazla grup olması durumunda elde edilen diskriminant fonksiyonununun önemlilik kontrolünde kullanılan kriterlerden ilki, Wilks tarafından genelleştirilmiş ve varyans olarak bilinen Λ’dır. Diskriminant fonksiyonlarının istatistiksel önemi ile ilgili en çok kullanılan testler dolaylı yoldan çalışırlar. Fonksiyonun kendisini test etmek yerine fonksiyonu elde etmeden önceki sistemdeki kalan ayrımı incelenir. “Kalan 61 ayrımı” ile değişkenlerin gruplar arasında önceki değişkenler ile elde edilenlerin dışında da ayrım yapabilme yeteneğini ölçeriz. Kalan ayrımın çok düşük olduğu durumlarda matematiksel olarak mevcut olsalar da daha fazla fonksiyon üretmek anlamsızdır. Bu kavramı daha iyi anlamak için ayrımı ölçmede kullanılan ve Wilks’in lamdası denilen (bazen U istatistiği de denilir) bir istatistiktir. Çok değişkenli normal dağılımlı ve ortak varyans-kovaryans matrisli iki ana kütleden (g = 2) gelen örneklemler için Mahalonobis Uzaklık Değeri-D2 istatistiği, F dağılımına sahiptir. Bu durumda F istatistiği yardımıyla bulunan diskriminant fonksiyonlarının grupları ayırma özelliklerinin önemliliği kontrol edilebilir. H0 = diskriminant fonksiyonunun ayırıcı özelliği önemsizdir. H1 = diskriminant fonksiyonunun ayırıcı özelliği önemlidir. şeklinde kurulan hipotezlerin kontrol edilmesinde kullanılacak olan test istatistiği, F = n1n2 (n1 + n2 − p −1)h D2 ∼ F p(n + n )(n + n − 2) p;n1+n2 − p−1 1 2 1 2 şeklindedir. Burada D2, iki grup ortalama vektörleri arasındaki Mahalonobis-D2 uzaklığıdır (Sınıflandırmanın daha sezgisel bir yolu belli bir durumdan her bir grup sentroidine olan uzaklığın ölçülmesi ve en yakın gruba sınıflandırılmasıdır. Bununla birlikte değişkenler ilişkili olduklarında ve aynı ölçüm birimlerine ve standart sapmalara sahip olmadıklarında uzaklık kavramı iyi tanımlı olmayacaktır. Hintli istatistikçi Mahalanobis (1963), bu problemi çözecek genelleştirilmiş bir uzaklık ölçümü önermiştir. p p D2( X |Gk ) = ( n.− g )∑∑aij ( Xi − Xik . )( X j − X jk . ) i=1 j=1 Burada D2(X|Gk), özel bir durum olan X noktasından k grubunun sentroidine kadar olan uzaklığın karesidir. Her bir grup için D2’yi hesapladıktan sonra durumu en küçük D2’ye 62 sahip olan gruba sınıflandırırız. Bu grup ayırt edici değişkenlerin tipik profilinin bu durumun profiline en yakın olduğu gruptur. En yakın gruba olan uzaklık büyükse, profiller arasındaki uyum zayıf olacaktır ama yine de diğer gruplarla olan uyumdan daha iyidir). α anlamlılık düzeyinde eğer; F ≤ F1−α , p;n1+n − p−1 2 ise H0 kabul edilir. Ve bulunan diskriminant fonksiyonunun grupları iyi ayırmadığı söylenir. Aksi taktirde, F > F1−α , p;n 1+n2− p−1 ise H0 reddedilir. Bulunan diskriminant fonksiyonunun grupları ayırma özelliğinin iyi olduğu ifade edilir. Grup sayısının ikiden fazla olduğu durumda ise bulunacak olan diskriminant fonksiyonlarının önem kontrolünde Wilks’in Lamdası (Λ) kriteri kullanılır. Λ kriteri ile diskriminant fonksiyonlarının diskriminant değerleri arasında cebirsel bir ilişki vardır. Genelleştirilmiş varyans oranı olarak da bilinen bu kriter: W W Λ = = T W + B W grup içi, T toplam varyans matrisleridir. Önerilen Λ değerinin küçük bulunması gruplar arası farklılığın önemli olduğunu gösteren bir işarettir. Bu değer, aynı zamanda çok değişkenli varyans analizinin de temelini teşkil etmektedir. Gruplardaki birey sayısının büyük olması durumunda m = n – 1 – (p + k) / 2 olmak üzere, Λ değeri kullanılarak aşağıdaki test istatistik değeri bulunmaktadır. 63 X2 = -mlog(Λ) ∼ χ 2p(k−1);α [11] Tatsuoka (1971), Cooley ve Lohnes (1972), Λ oranının diskriminant fonksiyonlarının sayısını belirlemede kullanılabileceğini göstererek bir yöntem oluşturmuşlardır. Bu yöntem, 1 T = = W −1 T = W −1T Λ W = W −1(W + B) = W −1W +W −1B = 1+W −1B W-1B matrisinin özvektörler matrisi P = ⎣⎡e1e2...ep ⎦⎤ olsun. P ortogonal bir matris pxp olduğundan, 1 = PP / I + W-1B = P / (1+ W-1B)P Λ = P / P + P /W −1BP = Köş[λi ] r = ∏ (1+ λi ) i=1 ve böylece r 1Λ = ∏ i=1 1+ λi elde edilir. Buradan r r ln( ) = -ln( 1Λ ) = -ln⎛⎜∏ (1 λ )⎞+ i ⎟ = -∑ ln(1+ λi ) Λ ⎝ i=1 ⎠ i=1 64 = -[(1+ λ1) + (1+ λ2 ) + ...(1+ λr )] olmak üzere [11] eşitliği, r X2 = m ∑ ln(1+ λi ) i=1 r = [n-1- 1 (p+k)] ∑ ln(1+ λi ) 2 i=1 burada her bir λi’ye karşılık gelen X 2i değerinin (p+k-2i) serbestlik derecesi ile khi-kare dağılacağı düşüncesi ile, X2 = X 2 21 + X 2 +...+ X 2 r biçimindeki r tane ayırıcı fonksiyondan kaç tanesinin ele alınacağı ya da ihmal edilenlerin ayırmada önemli etkisinin bulunup bulunmadığının belirlenmesinde bu bilgilerden yararlanılmaktadır. Test işlemi için hipotezler kurulur; H0 = bulunan diskriminant fonksiyonları önemsizdir. H1 = bulunan diskriminant fonksiyonlarından en az bir tanesi önemlidir. Diskriminant fonksiyonlarının test edilmesi X 2i test istatistiğine dayanır. X 21 → birinci diskriminant fonksiyonunu X 21 → ikinci diskriminant fonksiyonunu ... X 2r → r-inci diskriminant fonksiyonunu test etmektedir. X 2i > X 2 1−α , p+k−2i 65 olduğunda H0 reddedilir. Bu ise i-nci diskriminant fonksiyonunun bireyleri sınıflara ayırmada önemli olduğu anlamına gelir. r = min(k-1,p) tane diskriminant fonksiyonundan m < r olmak üzere; m tanesinin önemli olduğu varsayılsın. Geriye kalan r-m tanesinin önemli olup olmadığını anlamak için aşağıdaki hipotezler oluşturulur. H0 = geriye kalan r-m tane diskriminant fonksiyonu önemsizdir. H1 = geriye kalan r-m tane diskriminant fonksiyonu önemlidir. Bu hipotezler de test edilirken, X 2 test istatistiği olarak kullanılır. m X 2 = X 2r−m p−(k−1) - ∑ X 2 2i X m i=1 p(k−1)−∑( p+k−2i) i=1 eğer, X 2 2r−m ≥ X m 1−α ; p(k−1)−∑( p+k−2i) i=1 ise H0 reddedilir ve geriye kalan r-m tane diskriminant fonksiyonlarından en az bir tanesi için ayırma özelliğinin önemli olduğuna karar verilir. m’in sayısı bir arttırılarak test işlemi tekrarlanır. X 2r−m < X 2 m 1−α ; p(k−1)−∑( p+k−2i) i=1 olduğunda ise H0 kabul edilir ve geriye kalan r-m tane diskriminant fonksiyonunun önemsiz olduğuna karar verilir. D2, p serbestlik derecesine sahip bir Ki-kare istatistiği ile aynı özelliklere sahiptir. Böylece uzaklığı Ki-kare birimlerine göre ölçmüş oluruz. Her bir grubun çok 66 değişkenli normal dağılıma sahip bir popülasyondan geldiğini varsayarsak çoğu durumun sentroid etrafına yığılacağı ve durumların yoğunluğunun sentroidden uzaklaştıkça azalacağını biliriz. Sentroide olan uzaklığı bilince grubun daha yakın ve daha uzak olan kısımlarının oranını da belirleyebiliriz. Sonraki oran bize bu kadar uzaklıkta yer alan bir durumun aslında gruba ait olma olasılığıdır. Uzaklıklar Ki-kare birimlerinde ölçüldüğünden onların önemini bu olasılığı hesaplamak için test edebiliriz. Bu olasılığı P(X|Gk) ile gösterirsek bu bize sentroidden bu kadar uzaklıktaki bir durumun k grubuna ait olma olasılığını verir. Bir durumu D2’ye göre en yakın gruba sınıflandırmakla aslında gizlice onu ait olma olasılığının en yüksek olduğu gruba atamış oluyoruz. Olasılıklara bakarak bir durumun belli bir gruba ait olmasından daha fazla bilgi elde edebiliriz. Bir durum bazen birden fazla gruba ait olma ya da hiçbir gruba ait olmama olasılığına sahip olabilir. Ayrımın düşük olduğu ve grupların epeyce kesiştiği durumu düşünelim. Burada 1. grubun sentroidinde kalan bir durumun 2. gruba yakın olması sebebiyle hala 2. gruba ait olma olasılığının bulunduğuna dikkat edersek, gerçekten de bu kullanılmakta olan ayırt edici değişkenlerin ayırt edici kuvvetini belirlemek için bir testtir. Bir başka önemli durum da örnek durumumuzun tüm gruplara uzak olması, yani tüm olasılıkların küçük olmasıdır. Bizim için bu durumu gruptaki diğer durumlarla hiçbir benzerliğe sahip olmayacağından dolayı en yakın gruba sınıflandırmak anlamsızdır. Açıkça tüm gruplar için bu uzaklık olasılıkları verilen bir durum için toplam 1.0’e eşit olmayabilir. Bununla birlikte herbir durumun gruplardan birine ait olduğunu varsayarsak her bir grup için grup üyeliği olasılığını hesaplayabiliriz. X durumunun k grubuna ait olma olasılığı P X |G ( ( )P G kk | X ) = g ∑P( X |Gi ) i=1 67 şeklindedir. Genellikle posterior olasılıklar denilen bu olasılıklar tüm gruplar üzerinden hesaplandığında 1.0 değerine ulaşılır ve bu değerlerin en yükseğine göre yapılacak olan bir sınıflandırma, uzaklıkların en küçüğünün kullanılmasına denktir. Bu iki olasılığın yorumlanmasında farklılıklar vardır. P(Gk|X) posterior değerleri durumun k grubuna ait olma olasılığını vermektedir. P(X|Gk) ise bu grubun popülasyonunda sentroide X’ten daha uzak olan durumların oranını vermektedir. Buraya kadar sınıflandırmaya ilişkin yapılanlar her bir grubun eşit olarak değerlendirildiği esasına dayanıyordu. Uygulamada bu arzu edilen bir durum olmayabilir. Örneğin toplam anakütlenin %90’ının 1. gruba ait olduğu iki gruplu bir durumu ele alalım. Herhangi bir hesaplama yapmadan önce herhangi verilen bir durumun 1. gruba ait olma olasılığının yüksek olduğunu zaten bilmekteyiz. Böylelikle elimizde 2. gruba ait olduğuna ilişkin çok kuvvetli veriler olmadıkça 1. gruba sınıflandırılması mantıklı olacaktır. Bu, grup üyeliklerine ilişkin sonradan ortaya çıkan olasılıkları önceki olasılıklara katarak yapılabilir. Sonradan ortaya çıkan olasılıkları ayarlamak isteyeceğimiz bir başka durum da yanlış sınıflandırmanın bedelinin gruplar arasında ciddi bir şekilde farklılık gösterdiği durumdur. Bedel ile kastettiğimiz, bir durumu bir gruba atamanın para, eziyet, ve diğer getirdikleri ile ölçülmesidir. Tipik bir örnek olarak sınıflandırma fonksiyonlarının bir kanserin belli semptomlara bakılarak iyi huylu ya da kötü huylu olduğunu belirlemedeki kullanımı verilebilir. Sınıflandırmada bir hata yapıldığında hasta kötü huylu olduğu halde iyi huylu diye sınıflandırılması durumunda, iyi huylu olduğu halde kötü huylu diye sınıflandırılması durumundakinden daha fazla zarar görecektir. Bu yanlış sınıflandırma bedelleri oran şeklinde birbirine göre ifade edilebilseydi önceki olasılıklar ile benzer bir şekilde kullanılabilirlerdi. Bu örneklerin ikisi de önceki olasılıkları tahminin kesinliğini arttırmak ya da hata yapmanın bedelini minimize etmek için sınıflandırma fonksiyonlarıyla birleştirmek isteyeceğimiz durumlardır. Bu ayarlama grubun sabit terimine önceki olasılığın doğal logaritması katılarak basit sınıflandırma fonksiyonlarına yapılmıştır. Ya da biz Ki-kare uzaklığını (D2), önceki olasılığın doğal logaritmasının iki katını çıkarmakla modifiye 68 edebiliriz. Ki-kare uzaklığındaki değişim matematiksel olarak P(X|Gk)’yı bu grup için önceki olasılıkla çarpmakla özdeştir. Tatsuoka (1971: 217-232) ve Cooley ve Lohnes (1971: 262-270) bu modifikasyonları daha ayrıntılı bir biçimde ele almaktadır. Eğer gruplar oldukça farklı iseler önceki olasılıklara yapılacak ayarlamalar çok az sayıda durum gruplar arasındaki sınırlara yakın olacağından sınıflandırma sonuçlarını etkilemekten uzaktır. Böylece önceki olasılıklar gruplar kesiştiğinde en büyük etkiyi yapacaklardır ve bir çok durum aksi halde birden fazla gruba ait olma olasılığıyla karşılaşacaktır. Tabii ki önceki olasılıkları kullanma kararı teorik sebeplerle yapılmalıdır. Eğer bunları kullanmak için teorik bir sebep yoksa kullanmamak daha iyidir. Ayrıca popülasyon boyutlarına dayalı önceki olasılıkların örnek oranları ile aynı olamayabilirler. Kovaryans matrislerinin ortak olduğu varsayılan iki grup olması durumunda y (1) (2) ile ifade edilen diskriminant fonksiyon değişkeni de y ve y ortalamaları ve σ 2 = d/a varyansı ile normal dağılacaktır. Ayırıcı fonksiyona ait her grup için z değeri, (i) z y − yy = i var(y) eşitliğinden bulunabilir. i=1, 2 için sırasıyla birinci ve ikinci gruba ait z değeri bulunur. Yc iki grup arasındaki sınır noktasını göstermek üzere iki grup olması durumunda hatalı sınıflandırma durumu aşağıda Şekil 10’da gösterilmiştir. 69 1. Grup 2. Grup (1) yc (2)y y Şekil 10. Hatalı sınıflandırma durumu Şekil 10’dan görüleceği gibi Diskriminant Analizinde en önemli sorun bireylerin yanlış gruplara atanmasıdır. Yanlış sınıflandırma genellikle her iki grup ortalamalarına aynı uzaklıkta bulunan bireyler için geçerlidir. Yanlış sınıflandırma genellikle her iki grup ortalamalarına aynı uzaklıkta bulunan bireyler için söz konusudur. Eğer herhangi bir birey yc noktasında yer almış ise hatalı sınıflandırma olasılığı büyük olacaktır. Gruplardaki birey sayıları eşit ise her iki grup için de hatalı sınıflandırma olasılığı aynı olacaktır. Sınıflanacak bireyin yc kritik (sınır) noktasının sağında ya da solunda olması durumunda her grup için yanlış sınıflandırma olasılıkları farklı olacaktır. 1. Grup 2. Grup h1 h .2 (1) y yc (2) y Şekil 11. Bireylerin Gruplara Ait Olma Olasılıklarının Şekilsel İfadesi 70 Sınıflandırma orjinal ayırt edici değişkenler yerine doğal diskriminant fonksiyonlarıyla da yapılabilir. Sadece X’lerin yerine f’ler alınarak aynı formüller kullanılır. Son sınıflandırmalar da genellikle özdeş olur. Uzaklık ya da olasılık yöntemleriyle büyük sayıda durum sınıflandırılmak istenildiğinde işimizi diskrminant fonksiyonlarını kullanarak yüksek oranda azaltabiliriz. p tane değişken için uzaklıkları hesaplamak yerine sadece q tane doğal diskriminant fonksiyonunu hesaplamak yeterlidir. Bu da genelde diskriminant fonksiyonlarının üretilmesini gerektirse de daha az matematiksel işlem anlamına gelmektedir. Eğer basit sınıflandırma fonksiyonları kullanılırsa doğal diskriminant fonksiyonlarının kullanılması daha fazla iş gerektirirdi. Doğal diskriminant fonksiyonları kullanıldığında sınıflandırmanın aynı olmayacağı bazı koşullar vardır. Bunlardan birisi grup kovaryans matrislerinin eşit olmamasıdır. Bu doğal diskriminant fonksiyonlarını üretmek için kullanılan prosedürün grupların tek tek çapraz çarpım matrislerinin ağırlıklı ortalaması olan grup içi çapraz çarpımların matrisini kullanmak zorunda kalmasından dolayıdır. Böylece dönüşüm asla tam olmayacaktır. Maalesef diskriminant fonksiyonlarının kullanılması anlamsızlaşana kadar grup matrislerinin ne kadar farklılaşacağına karar verebilecek bir yöntem yoktur. Tatsuoka (1971: 232-233) doğal diskriminant fonksiyonu sürecinin yakın sonuçlar verdiğine ve grup kovaryans matrislerinin çok aşırı farklı olması durumu haricinde kullanılabileceğine dair bulgular sunmuştur. İki prosedürün farklı sonuçlara yol açtığı bir başka durum ise bir ya da daha fazla doğal diskriminant fonksiyonunun istatistiksel olarak önemli olmamaları sebebiyle ihmal edilmeleri durumudur. Bu aşamada bazı durumlar farklı sınıflandırılırken doğal diskriminant fonksiyonunun sonuçları daha kesin olmalıdır. Bardes üç tane diskriminant fonksiyonundan sınıflandırma için ikisini kullanmıştır ve önceki olasılıklara hiçbir ayarlama yapmamıştır. Diskriminant Analizi konusunun anlatımında X veri matrisinin normal dağılımlı olması ve grupların ortak varyans kovaryans matrisine sahip olmaları genel varsayımı 71 üzerinde duruldu. Bu varsayımın sağlanmaması durumunda klasik Diskriminant Analizi teknikleri doyurucu sonuçlar verememektedir. 2.3.5. Özel Durumlarda Kullanılan Diskriminant Analizi Teknikleri Fisher yöntemi ve genelleştirilmiş hali olan Anderson yöntemi ([12] eşitliği) kullanılarak doğrusal diskriminant fonksiyonu bulunduğunda tanımlanan bu fonksiyondaki veriler normal dağılımlı ve anakütleler ortak varyans-kovaryans matrisine sahiptir. (i) ( j ) (i) ( j ) f = fij = L(x) = ⎧ / 1 ⎨x − (x + x )/ ⎫ ⎬S −1(x − x ) [12] ⎩ 2 ⎭ Doğrusal diskriminant fonksiyonunun normallikten uzaklaşmayı engellemede kuvvetli, fakat eğik dağılımlarda kullanılamayabilir olduğu gösterilmiştir. Bu varsayımların bozulduğu durumlarda alternatif fonksiyonlar kullanılır. Karesel Diskriminant Fonksiyonu; verilerin normal dağıldığı ancak, grupların varyans-kovaryans matrislerinin farklı olmaları durumunda kullanılan fonksiyondur. S / / Q(x) = 1 log j 1 (i) −1 (i) ( j ) ( j )− (x S x − x S −1 x + x / (S −1 (i) ( j ) 1 i j i x − S −1 j x ))− x / (S −1 − S −1i j )x 2 Si 2 2 Başlangıçta iki grup için geliştirilen bu fonksiyon, ikişerli alınarak çok grup olma durumu için de kullanılır. Fonksiyonda Si ve Sj sırasıyla i’nci ve j’nci gruba ilişkin varyans-kovaryans matrisleridir. Si = Sj = S alınırsa; karesel fonksiyon, doğrusal fonksiyona eşit olacaktır. Fonksiyon değeri Q(x) ≥ 0 ise bireyin Ri bölgesine, değilse Rj bölgesine sınıflandığı bu yöntemde, hatalı sınıflandırma olasılığı; −1 RQ(x) = ⎣⎡1+ exp(Q(x) − log(qˆ j / qˆi ))⎤⎦ 72 eşitliği ile ifade edilir. Verilerin karışık olması durumunda yani bazılarının sürekli ve normal dağılımlı, bazılarının ise kesikli olması durumunda doğrusal diskriminant fonksiyonuna bazı karesel terimler eklenerek yeni bir fonksiyon oluşturulur. Buna Yüksek Derece Terimli Doğrusal Diskriminant Fonksiyonu (doğrusal diskriminant fonksiyonu + karesel terimler) adı verilir. LQ(x) = bo + b1w1 + ... + brwr Biçimindeki fonksiyonda yer alan katsayılar birinci ve ikinci dereceden değişkenlere aittir. Bu yöntemde hatalı sınıflandırma olasılığı, −1 RLQ = ⎣⎡1+ exp(LQ(x) − log(qˆ j / qˆi ))⎦⎤ bağıntısı ile hesaplanır. Doğrusal diskriminant fonksiyonunda olduğu tahmin edilen katsayılar, doğrusal diskriminant fonksiyonunun sonuçlarına çok yakın değerler alırlar (Tatlıdil 1996-Aldrich&Nelson 1986-Anderson 1982). Yüksek dereceli fonksiyonda olduğu gibi değişkenlerden bazılarının sürekli, bazılarının kesikli olduğu durumlarda Diskriminant Analizine alternatif olarak lojistik regresyon analizi önerilmektedir. Özetleyecek olursak Diskriminant Analizi, • Çekildiği anakütlesi bilinmeyen herhangi bir gözlemin uygun anakütleye atanmasıdır. Verilerden grup ya da grupların konum ve yayılma parametrelerinin bilinmesi durumunda yeni çekilen herhangi bir gözlemin bu gruplara atanıp atanmayacağına karar verme konusu diskriminant fonksiyonları yardımıyla 73 yapılmakta ve bu işlemlere tanımlama analizi adı verilmektedir. Aynı biçimde tek bir örneklemin ortalamasının bilinen tüm diğer grupların ortalaması ile karşılaştırılması da yine bu fonksiyonlardan yararlanarak yapılmakta ve böyle analizlere de belirleme analizi adı verilmektedir (Flury 1988). • Diskriminant Analizi gelecekte kullanılabilir fonksiyonlar ortaya koyar. Bu nedenle kümeleme analizinden farklılaşmakta ve temel bileşenler analizi, doğal korelasyon analizi, çok değişkenli regresyon analizine yaklaşmaktadır. 2.4. Çok Değişkenli İstatistiksel Analizlerle Diskriminant Analizinin Karşılaştırılması Gözlemlerin, gruplara ayrılmasında kullanılan yöntemlerden üç tanesi; Kümeleme, Diskriminant ve Lojistik Regresyon Analizleridir. Diskriminant Analizi, tek faktör çok değişkenli varyans analizi MANOVA’nın uzantısı olan çok değişkenli analiz türüdür. Diskriminant Analizinin amacı bireyleri bilinen belli özelliklerinden faydalanarak kendi arasında ortak özelliklere sahip gruplara ayırmaktır. Gruplar arası ayırımda ayırıcı değişkenler belirlenir. Bir birimin hangi gruba dahil edileceğini belirlemede kullanılır. Bir çok yönden MANOVA ile Diskriminant Analizi birbirinin aynısıdır. MANOVA’daki bağımlı değişkenler (ölçülebilir değişkenlerin belli bir kümesi), Diskriminant Analizindeki bağımsız değişkenlerdir. Benzer şekilde Diskriminant Analizindeki ölçülemeyen tek bağımlı değişken de MANOVA’daki bağımsız değişken halini alacaktır. Ayrıca, ikisi de gruplar arasındaki istatistiksel farklılıkları değerlendirirken aynı metodları kullanır. Ancak farklılıklar, analizlerin hedefleri etrafında ve ölçülemeyen değişkenlerin görevleri üzerine odaklanır. Diskriminant Analizi, bağımlı değişken olarak bir tek ölçülemeyen değişken kullanılır. Bağımlı değişkenin kategerizasyonunun verildiği varsayılır. Bağımsız değişkenler genelde bağımlı değişken kategorileri yardımıyla oluşturulan gruplar arasında en yüksek farka sahip olanı oluşturmada kullanılır. MANOVA’da ölçülebilir değişkenlerin kümesi bağımlı değişkenler olarak görev görür ve böylece amaç, bağımlı değişkenlere göre farklılıklar sergileyen örnek grupları bulmak haline dönüşür. Bu gruplar önceden 74 belirlenmemiştir. Bunun yerine araştırmacı grupları oluştururken bir ya da daha fazla (ölçülemeyen) bağımlı değişken kullanır. MANOVA, bu grupları oluştururken bile her bir ölçülemeyen değişkenin etkisini değerlendirme etkisini değerlendirme özelliğini korumaktadır (Hair et al. 1998). Çok değişkenli istatistiksel analizlerden biri olan Kümeleme Analizinin amacı, gruplanmamış verileri benzerliklerine göre sınıflandırmak, gruplarda toplamak ve araştırmacıya işe yarar özetleyici bilgiler elde etmede yardımcı olmaktır. Diskriminant Analizi, Kümeleme Analizi ile aynı değildir. Diskriminant Analizinde gruplar önceden belirlenir ve amaç bağımsız değişkenlerin gruplar arasında en uygun ayırımı yapabilecek olan lineer bileşimini belirlemektir. Kümeleme Analizinde ise gruplar önceden belirlenmemiştir ve amaç örnek durumların gruplara yığılmasını en iyi şekilde sağlayan yöntemi bulmaktır. Kümeleme Analizinde de Diskriminant Analizinde olduğu gibi verilerin normal dağılımlı olması gerektiği varsayımı olmakla birlikte bu varsayım prensipte kalmaktadır ve Kümeleme Analizinde kovaryans matrisine ilişkin bir varsayım da bulunmamaktadır. Kümeleme Analizinin sosyal bilimlerde, tıpta, ziraat ve mühendislik alanlarında kullanımı yaygın olarak görülmektedir. Lojistik regresyon analizinin temel amacı, diğerlerinde olduğu gibi bir veya birden fazla bağımsız değişken arasındaki ilişkiyi modellemektir. Diğer regresyon analizlerinde bağımlı değişken sürekli iken, lojistik regresyon analizinde bağımlı değişken kategoriktir. Bağımsız değişkenlerin tümü kategorik değişken, sürekli değişken veya kategorik ve sürekli değişkenlerin bir karması olabilir. Lojistik regresyon analizi çeşitli varsayım (normallik, ortak kovaryansa sahip olma gibi) ihlalleri durumunda diğer analizlere alternatif oluşturmaktadır (Bayram 2002). Diskriminant Analizi, günümüzde Diskriminant Analizinin yerine sıkça kullanılan lojistik regresyonun olmadığı önceki zamanlarda bir alternatif metod olarak kullanılmaktaydı. Diskriminant Analizinin iki temel varsayımı olan; verilerin çok değişkenli normal dağılması ve grupların ortak varyans-kovaryans matrisli olmaları, pratikte genellikle sağlanamadığı için bu yöntemin kullanımı kısıtlı olmaktadır. Varyasımların bozulumu durumunda kullanılan bazı özel diskriminant fonksiyonları olmakla birlikte yorum kolaylılığı ve kestirim güçlülüğü nedeniyle lojistik regresyon analizi son yıllarda daha 75 çok kullanılmaya başlanmıştır. Çünkü lojistik regresyon, genelde varsayımlarla daha az çelişen (bağımsız değişkenler normal olarak dağılmayabilirler, lineer olarak bağımlıdır, ya da eşit grup içi varyansa sahiptirler), kategorik ve aynı zamanda sürekli değişkenlerle ilgilenir ve ayrıca bir çok kişi için daha kolay yorumlanabilen katsayılara sahiptir. Lojistik regresyon, verilerin dağılımı normal olmadığında ya da grup büyüklükleri farklı olduğunda tercih edilebilmektedir. Sonuç olarak, küçük hacimli örneklemler olması durumunda ve sınıflama amacına yönelik çalışmalarda Diskriminant Analizinin, sonsal olasılıkların kestirimine yönelik çalışmalarda ise lojistik regresyon analizinin tercih edilebilir olması söylenebilir. Kümeleme Analizinde gözlemlerin atanacağı küme sayısı bilinmezken, diskriminant ve lojistik regresyon analizinde grup (küme) sayısı bilinmekte, mevcut veriler kullanılarak bir ayrımsama modeli elde edilmekte ve kurulan bu model yardımı ile veri kümesine eklenen yeni gözlemlerin gruplara atanması mümkün olabilmektedir (Tatlıdil 1996). 76 BÖLÜM 3 TÜRKİYE BANKACILIK SEKTÖRÜNDE MALİ BAŞARISIZLIĞIN ÖNGÖRÜLMESİ VE DİSKRİMİNANT ANALİZİ MODELİ 3.1. Diskriminant Analizinin Uygulama Alanları 3.1.1. Bazı Diskriminant Analizi Uygulamaları Araştırmacılar Diskriminant Analizini çok değişik alanlarda kullanmışlardır. İlk olarak fiziksel antropoloji ve biyolojideki bazı problemleri çözmek için 1936 yılında Fisher tarafından ortaya atılmıştır. Sosyal bilimlerdeki ilk uygulamalardan bazıları psikolojik ve eğitim ile ilgili testler ile ilgiliydi (Tatsuoka-Tiedeman 1954). Politik araştırmacılar ise Diskriminant Analizini vatandaşların oy verme konusundaki davranışları (Klecka 1973), kanunlarla ilgili düşünceler (Kornberg-Frasure 1971; Heyck-Klecka 1973), mahkeme kararları (Eisenstein-Jacob 1977) konularında faydalı bulmuşlardır. Psikologlar Diskriminant Analizini özellikle personel ve eğitimle ilgili testlerde çok fazla kullanmışlardır. Bununla birlikte bu metod özellikle bir gruba atama yapmanın çeşitli karar verme değişkenlerinin skorlarını etkilediği durumlarda, deneysel verileri analiz etmede kullanışlıdır. Bardes’in (1975; 1976) 1953’ten 1972 yılına kadar geçen dönemde yabancı yardımlar konusunda alınan senato kararlarını analiz etmesi ile ilgili kısa bir özet aşağıda verilmiştir. Bardes, A.B.D. Senatosunun oy verme alışkanlıklarının zamanla nasıl değiştiğini, özellikle de yıldan yıla ne kadar sabit kaldığını, diğer konulardan ne kadar etkilendiğini görmek istemiştir. Tabii ki Bardes, senatörlerin net bir şekilde yabancı yardımı desteklediklerini veya eleştirdiklerini biliyordu. Genelde tartışmalar dağıtılacak 77 yardımın seviyesi, yardımın türü (nakit para, eşya, ya da borç) ile ya da başkan ya da senatonun bu alanda insiyatifi ele alması gerekip gerekmediği ile ilgiliydi. Kongrenin 3 aylık oturum raporlarından okuduğu kadarıyla Bardes, kararlar ve bu kararlara destek veren senatörler hakkında bilgi sahibi olabilmekteydi. Karşılaştığı en büyük problem, senatörlerin çounluğunun fikirlerini açık şekilde belirtmemeleri idi. Çözüm olarak, çalıştığı 10 oturumun herbirisi için üç adımlık istatistiksel bir uygulamayı ardarda tekrarlamayı seçmişti. İlk olarak bilinen fikirleri belirledi ve bunları az sayıda ölçeğe uyacak şekilde azaltmak amacıyla kütle analizini uyguladı. Bunun amacı hangi oylarda en fazla uyumsuzluk olduğunu belirlemekti. İkinci adımda sınıflandırılabilecek tüm senatörler belirlenen oylama sonuçlarına göre gruplara atanırlar. Üretilen grupların sayısı oturumlarda oylamaya katılan ve nasıl oy verdiklerini bildiğimiz senatörlerin sayısına bağlıdır. Bu aşamada fikirleri bilinmeyen senatörler sınıflandırılmamış olarak düşünülürler. Son olarak Diskriminant Analizini oylama ölçütlerine uyguladı ve aralarında az farklılık olan grupların birleştirilip birleştirilmeyeceğine karar verdi. Diskriminant fonksiyonu denklemleri, fikirleri belirsiz senatörleri de uygun gruplara sınıflandırmaya yarayabilir. Ayrıca, gruplar arasında en iyi şekilde ayrım yapmaya yarayan konuları da belirleyebiliyordu. Zamana göre oturumlardaki sonuçları karşılaştırarak çeşitli görüşlerdeki değişimin grafiğini çizmiş ve örneğin yeni başkanların seçimi ve Vietnam savaşı ile ilgili kararlara ilişkin önemli değişiklikleri belgelendirmişti. Tatsuoka ve Tiedeman (1954) ve Kendall (1968) Diskriminant Analizinin tarihsel gelişimine ilişkin ilginç düşünceler içermektedir. Bunlardan ilki aynı zamanda bu tekniğin psikolojideki, eğitim testlerindeki, ve biyometrideki kullanımıyla ilgili referanslar da vermektedir. Morrison’un (1969; 1974) çalışmaları Diskriminant Analizini çok az sayıda matematiksel formüle bağlı olacak şekilde özetlemektedir. Son çalışmasındaysa Morrison, Diskriminant Analizinin pazarlama analizcileri tarafından kullanımına ilişkin bir örnek vermektedir. Uygulamalı sosyal istatistiklerle ilgili bir çok ders kitabı da bu tekniği tartışmaktadır. Lachenbruch (1975), Cooley ve Lohnes (1971), Overall ve Klett (1972), 78 Tatsuoka (1971) ve Van de Geer (1971) farklı bakış açılarına sahip olmakla beraber birarada düşünüldüklerinde konuyu yeterli bir şekilde ele almaktadırlar. Bu ders kitaplarını anlayabilmek için basit matris işlemlerini bilmek gereklidir. Ancak yine de Anderson (1958) ve Rao (1952; 1965) klasiklerinde olduğu kadar karmaşık matematik bilgilerine ihtiyaç duyulmaz. Evans (1978)’de Diskriminant Analizinin bir şirketin verdiği hizmetlerin rakip şirketinkilerden ayırt edilmesinde nasıl kullanılabileceği belirtilmiştir. İki şirketin verdiği hizmetlerin arasındaki farkları değerlendirmede ortalama skorlar diskriminant katsayıları ile çelişmiştir. Bu sonuç Diskriminant Analizinin, ayırt edilmiş ve edilmemiş servislere ait veriyi belirlemek için seçilmiş bir ölçme yönteminden daha anlamlı bir yol olduğunu önermektedir. King (1970)’de yazar, 1959 yılında hazırladığı bir makalesinde tartışmış olduğu coğrafik araştırmalarda lineer diskriminant fonksiyonlarının muhtemel kullanım alanlarını geniş olarak ele almıştır. Diskriminant Analizi toplumla ilgili bir çok çalışmada kullanılabildiğinden coğrafyacıların da ilgisini çekmiştir ve makalenin sonunda Diskriminant Analizinin Amerika’da EDA (Economic Development Administration) tarafından bölgesel ekonomik sağlık projesindeki kullanımı, bir uygulama olarak ele alınmıştır. Gramm (1973)’de genelde var olan iki seçenek yerine üç seçeneği olan (çalışmama, part-time veya full-time çalışma) evli kadın öğretmenlerin tercih ettikleri işgücü durumu çalışılmıştır. Diskriminant Analizi uygulanarak bireyleri bilinen belli özelliklerinden faydalanarak kendi arasında ortak özelliklere sahip üç gruptan birine sınıflandırılmak istenmiştir. Scott (1978) eserinde, Joy ve Tollefson’un bir makalesinde Diskriminant Analizi ile ilgili yapılmış olan iki yanlış değerlendirme yorumlanmaktadır. Bunlardan birincisi kullandıkları bölünmüş örnek değerlendirme tekniğinin tahmin edilen diskriminant fonksiyonunun etkinliğini ortaya koymada uygun olmayan bir metod olması; ikincisi ise bireysel değişkenlerin ayırt edici güçlerini değerlendirmek için verdikleri iki metodun doğruluğu üzerine yapmış oldukları hatalı değerlendirmelerdir. 79 Daniels (1983), Diskriminant Analizinin politik araştırmalardaki uygulamaları ile ilgili iki problem üzerine odaklanmıştır. Bunlardan ilki sınıflandırma değişkeninin çok seçenekli olması durumunda sınıflandırmanın başarısını değerlendirme, ikincisi ise tahmin değişkenlerinin önemini belirlemektir. Ülkemizde yapılan finansal başarısızlık tahmini çalışmalarının bazıları - 1981 yılında çok boyutlu Diskriminant Analizi, - 1989 yılında çoklu regresyon analizi, - 1993 yılında doğrusal ve ikinci dereceden Diskriminant Analizi, doğrusal çoklu regresyon, logit ve probit analizleri, - 2001 yılında Altman Z-score modeli örnek alınarak yapılan çalışma, şeklindedir. Z-Score Modeli ve gelişimi: Altman (1968) çok değişkenli Z-Score modelini hem oran düzeyinde hem de kategorisel değerler üzerinde kurmuştur. Yaptığı çalışmada 66 işletmeyi değerlendirmiş ve bunları başarısız ve başarısız olmayan olmak üzere 33’lü 2 gruba ayırmıştır. Daha sonra ayrılan grupların ortak özelliklerini bulmak için oranlarına yönelik Diskriminant Analizi yapmıştır. 3.1.2. Bankacılık Sektöründeki Risk Çeşitleri Bankacılık, riskin etkili olduğu bir sektör olması ve ekonomideki tasarruf yatırım ilişkilerinde kritik bir rol oynaması dolayısıyla risk kontrolünün ve yönetiminin önem taşıdığı bir faaliyet alanıdır. Bankalar fon arz eden kişi ve kurumlardan topladıkları fonları nakit ihtiyacı olan kişi ve kurumlardan topladıkları fonları nakit ihtiyacı olan kişi ve kuruluşlara aktaran ve böylelikle üretim ve tüketimi finanse eden, mali nitelikli aracı kuruluşlardır. Mali başarısızlık ülke ekonomisi açısından son derece önemli olup, ülke kaynaklarının verimli bir şekilde değerlendirilmediğini gösterir. Bir çok ülkede bankacılık sektörü, mali sistem içinde önemli bir yer tutmaktadır. Bu nedenle banka bünyelerinin sağlıklı olmasının birçok kesim üzerinde dolaylı ve dolaysız etkileri vardır. Bankalara 80 tasarruflarını emanet eden tasarruf sahipleri, bankalara kredi şeklinde fon sağlayan yurtiçi ve yurtdışı kuruluşlar, banka güvencesi ve garantisi ile taahhüt altına giren veya yatırım yapan kişi ve kuruluşlar ve dolayısıyla bu kişi ve kurumlarla ilişki içinde olan üçüncü şahıslar, bankaların ortakları, T. C. Merkez Bankası ve diğer resmi kuruluşlar banka bünyesinin sağlamlığı hakkında bilgi sahibi olmak isterler (Kısa 1997). Risk, gerek belirsizlik gerekse belirsizliğin sonuçları olarak tanımlanabilir (Tevfik 1997). Teknik anlamda risk, getirilere ilişkin olasılık değerlerinin ortalama değer etrafındaki dağılımı ile ifade edilebilir (Çıtak 1999). Risk, bir olayın ya da olaylar setinin ortaya çıkma olasılığıdır (Karacan 2000). Genel anlamda risk beklenen gelirler ile gerçekleşen gelirler arasındaki fark sonucu zararın doğma olasılığı olarak tanımlanabilir. Bankalar açısından ise risk, planlanan ve arzu edilen başarının gerçekleşememesi olarak ifade edilir. Bankaların kâr maksimizasyonu amaçlarındaki sapmalar risk unsurunu ortaya çıkarmakta ve riskin bankacılıkta önlenemeyen ve giderilmeyen bir faktör olarak ele alınmasını zorunlu kılmaktadır (Yalkın 2003). Risk, bankacılık faaliyetinin başarısızlık yönüyle ilgilidir. Başarılı bir şekilde yönetildiğinde risk, bankanın kârlılığını arttırıcı bir etken olarak önemli bir yer tutar. Bankacılık sektöründe ortaya çıkabilecek olan yeni bir risk, sadece o sektörü değil, ekonomik sistemin tamamını peşinden sürükleyebilmektedir (Çolak 2001). Risk yönetiminin temel amacı, kârlılığı arttırmak için sermaye, getiri ve riski birbirleriyle ilişkilendirirken, pazarın sürekli artan ve çeşitlenen zor taleplerini tatmin edebilecek bir risk yönetim sisteminin oluşturulmasıdır. 81 Politika ve Maksimum Aktif Risk Yönetimi Süreçlerin İletişim • Limit Takibi Doğru • Risk Analizi Uygulanması • Portföy Yönetimi • Risk İlgilendirmesi Doğru Metodoloji Şekil 12. Risk Yönetiminin Yapısı Bir ülkenin ekonomik gelişimi o ülkedeki finansal sistemin gelişimiyle doğru orantılıdır. Bankalar da ülkenin finans sisteminin temel taşı niteliği taşır. Risk yönetimi, mevcut risklerin çeşit durumuna bağımlı olduğundan, öncelikle riskin ne çeşit bir risk olduğunu belirlemek gerekir. Bir bankanın hissedarları ve sigorta garantisi altında olmayan alacakları açısından finansal risk ve hizmet verme riski olmak üzere iki çeşit risk kaynağı vardır. Bu iki ana risk alt gruplara ayrılmaktadır (Kane 1985). Temelde iki ana risk grubu vardır. Bunlar suistimal ve aşırı-risk alma riskidir. Bunlar kendi içinde alt gruplara ayrılmaktadır (Benston 1986). Dokuz risk grubu oluşturulur. Bunlar; Likitide, kambiyo, faiz oranı, kârlılık, işlemsel, özsermaye yeterliliği, suistimal ve hırsızlık, yönetim ve portföy riskleridir (Goyeau-Tarazi 1992). 82 Temelde yedi ana risk faktörü vardır. Bunlar; kredi, faiz oranı, kambiyo, likitide, ülke, bilanço dışı işlemler ile teknoloji ve işlem riskleridir. Bunlara ek olarak yasal düzenleme riski gibi bir risk de mevcuttur (Saunders 1994). Türk bankacılık sektörü, 1980 yılında Türkiye ekonomisinde uygulamaya konulan istikrar politikaları sonrasında yeni bir döneme girmiş ve günümüze kadar çok önemli gelişmeler göstermiştir. Bununla birlikte, sektördeki yenileşmenin ve hızlı büyümenin getirdiği bir çok sorun ile karşılaşılmıştır. Bu sorunların başında da yüksek oranlı enflasyonun neden olduğu ekonomik istikrarsızlık gelmektedir. Bu yıllarda, bankacılık sektörü, genişleyen kamu finansman açıkları ile birlikte kronikleşen yüksek enflasyonun etkisiyle istikrarlı bir gelişme sürecine girememiştir. Yüksek enflasyon ve ekonomik konjonktürdeki dalgalanmalar döviz kuru ve faiz riskini arttırırken, sektör büyük ölçüde nakite dayanan özvarlıklarını enflasyona karşı korumada zorlanmaya başlamıştır. Bankalar bir yandan enflasyonun zararlı etkilerinden kaçınmaya çalışmakta, diğer yandan da belirsizliklerin üstesinden gelme ve risk alma yöntemlerini gözden geçirmektedir. Ekonomik istikrarsızlık ve kronik enflasyon dönemlerinde, sektörü olumsuz etkileyen bir diğer sorun da, problemli kredilerin artmasıdır. Özellikle artan faiz yükü, banka alacaklarının tahsilini sınırlandırıcı etki yaratmaktadır. Vadesinde ödenmeyen alacaklar banka kaynaklarının akışkanlığını azalttığı gibi, kaynak maliyetinin artması sonucunu da vermektedir. Sonuç olarak, makroekonomik istikrarı sağlamayan bir ülke ekonomisinde, bankacılık sektörü sorunsuz olmayacağı gibi, tersi bir durumda yani, bankacılık sektöründeki sorunlarda, makroekonomik istikrar için her zaman risk oluşturacaktır. Türkiye’de 2000 yılının Kasım ayında ve 2001 yılının Şubat ayında yaşanan finansal krizler, bankacılık sektörünü doğrudan ve önemli ölçüde etkilemiştir. Kasım 2001 krizi sonrasında likitide ve faiz riski nedeni ile sorunlar yaşayan bankacılık sistemi, Şubat 2001 krizi sonrasında ilave olarak kur riskinden kaynaklanan kayıplarla karşı karşıya kalmış, yaşanan krizlerin reel sektör üzerindeki daraltıcı etkisi ise bankacılık sektöründe aktif kalitesinin zayıflamasına neden olmuştur (Apak 2002:54). 83 Son yıllarda, bankacılık krizine neden olan dışsal nedenlerin hemen hemen tümünü Türkiye’de de (bilgi asimetrisi, ahlaki çöküntü (tersine seçim ve ahlaki çöküntü problemi kamu oyunda hortumlama olarak ifade edilmektedir) ekonomik büyümenin düşük, enflasyonun ve gerçek faiz oranlarının yüksek olduğu, yetersiz yasal düzenlemelerin yanında, finansal liberalleşme ile birlikte doğrudan tasarruf mevduat sigortası uygulamaları) gözlemlemek mümkündür. Bu güne kadar Türk bankacılık sistemi içinde yer alan tüm bankalar aynı olumsuz dışsal (makroekonomik) koşullarla karşı karşıya kalmıştır. Ancak sistem içerisinde bazı bankalar, tüm bu olumsuz dışsal koşullara rağmen ayakta kalmayı başarmış ve sağlıklı olarak faaliyetini sürdürmektedir. Bu nedenle, mali başarısızlığa sürüklenen (TMSF’ye devredilen) problemli bankaların başarısızlığı, olumsuz dışsal koşulların yanı sıra, büyük oranda içsel (yönetimsel) sorunlardan ve risk yönetim sistemlerinin yeterince uygulanmamasından kaynaklanmaktadır. Türkiye’de bankacılık sisteminin risk odaklı denetlenmesine ilişkin yasal altyapının oluşturulması oldukça yenidir. Türkiye’de bankaların iç denetim ve risk yönetimi sistemi BDDK tarafından, 08.02.2001 Tarih ve 24312 Sayılı Resmi Gazete’de Yayımlanan Bankaların İç Denetim ve Risk Yönetimi Sistemleri Hakkında Yönetmelikle düzenlenmiştir. Bu yönetmelik, bankaların karşılaştıkları risklerin izlenmesini ve kontrolünü sağlamak üzere kuracakları iç denetim sistemleri ile risk yönetim sistemlerine ilişkin esas ve usulleri belirlemeyi amaçlamaktadır. Yönetmelik, bankaların cari olarak taşıdıkları riskler ile ileride maruz kalabilecekleri riskler için yeterli ve düzenli risk ölçümü, kontrol ve yönetim tekniklerine sahip olmalarını zorunlu hale getirmiştir. 3.1.3. Bankacılık Sektöründe Yapılan Çok Değişkenli Analiz Çalışmaları Bugüne kadar Türk bankacılık sektörüne yönelik gerçekleştirilen mali başarısızlık çalışmaları sınırlı sayıdadır. Aşağıda bu çalışmalarda kullanılan yöntemler ve elde edilen sonuçlar özetlenmektedir. Canbaş ve Erol (1985) ABD’deki bankaların sorunlarını ve özelliklerini belirleyen analizleri (Altman 1968-Sinkey 1975, 1977, 1978, 1979) Türkiye’ye 84 uygulayarak, Türkiye’deki bankaların sorunlarının tanımlanmasını ve özelliklerinin saptanmasını amaçlamışlardır. Çalışmada kıyaslama yöntemiyle sorunlu ve sorunsuz bankalar arasında faaliyet ve finansal davranış farklılıklarının ortaya çıkarılması amaçlanmıştır. Bunun için tek değişkenli varyans analizi kullanılarak örneklemdeki banka gruplarının aynı ana kütleden gelip gelmediği saptanmaya çalışılmıştır. Çalışmada değişik oranlar kullanılarak uygulanan varyans analizinin, örneklemdeki sorunlu ve sorunsuz banka gruplarının birbirinden farklı olup olmadığını ortaya koyacağı belirtilmektedir. Erol (1985) çalışmasında, Türk bankacılık sektöründe faaliyet gösteren 24 ticari bankanın ve iflas etmiş 5 bankanın mali tablolarından aktif ve pasif kalemlerine ait ayrıştırılmış skor değerleri hesaplanarak 1977-1983 döneminde sektördeki değişmelerle iflas etmiş 5 bankadaki değişiklikleri karşılaştırmıştır. Çalışmada ayrıştırma analizinin iflas etmiş bankaların iflas öncesi sorunlarını yansıtacak nitelikte olduğu ifade edilmektedir. Çilli ve Temel (1988), bankaların mali sıkıntıya düşmelerinin öngörülebilmesinde çok değişkenli istatistiksel yaklaşımların kullanılmasının umut verici sonuçlar verdiğini ve sistemin yapısal özelliklerini açıklayabilecek nitelikte olduğunu ifade etmektedir. Ayaoğlu (1989), 36 başarılı ve 15 başarısız banka ve 7 finansal oran kullanarak çoklu regresyon analizi ile mali başarısızlık tahmini yapmıştır. Çalışmada, modelin açıklayıcılık gücü (R2) 0,5501 olarak bulunmuştur. Kopuş değerinin 0,6 olarak alınması durumunda başarılı bankaların % 94,45, başarısız bankaların % 93,33 oranında doğru sınıflandırıldığını saptamıştır. Bankacılık sektörü dışında gerçekleştirilen bir çalışmada Aktaş (1993), Türkiye’deki Endüstri İşletmeleri için mali başarısızlık tahmini yapmıştır. Çalışmada, 1980-1989 döneminde iflastan bir yıl öncesi için 25 başarısız 35 başarılı, iflastan iki yıl öncesi için 23 başarısız 35 başarılı ve iflastan üç yıl öncesi için 19 başarısız 35 başarılı firma seçilmiş, 23 finansal oran kullanılarak logit, probit, çoklu regresyon ve diskriminant analizleri gerçekleştirilmiştir. 85 Bankacılık sisteminin temel karakteristikleri üzerine gerçekleştirilen çalışmalar ve bu çalışmaların yapmış olduğu bazı önemli saptamalar aşağıda özetlenmiştir: Mali başarısızlığın tahminine yönelik ilk yapılan çalışmalar, tek değişkenli modellerdir (Tamari, 1966; Beaver, 1967; 1968). Tek değişkenli modeller finansal oranları tek tek ele alarak mali başarısızlığı tahmin etmeye çalıştıkları için, incelenen oranlara göre çelişkili sonuçlar üretmektedirler. Bu sorunun giderilmesi için olayları çok boyutlu ele alan çok değişkenli modeller kullanılmıştır. Altman (1968) çalışmasında çoklu Diskriminant Analizi kullanmış; bu modelle işletmeleri mali açıdan başarısız ve başarısız olmayan işletmeler şeklinde bir sınıflandırma ile ilk yıl için %95 tahmin başarısı göstermiştir. Çok değişkenli istatistik modelleri kullanan diğer önemli çalışmalar; Çoklu diskriminant modelini kullanan Deakin (1972), Altman ve Loris (1976), Altman,Haldeman, Narayanan (1977), Taffler ve Tisshaw (1977); lojit modelini kullanan Ohlson (1980), Zavgren (1985), Hing ve Lau (1987); Probit modelinin kullanıldığı Zmijewski (1984); Çoklu Regresyon Modelinin kullanıldığı Meyer ve Pifer (1970) olarak verilebilir. Türkiye’de, mali başarısızlığın tahminine yönelik yapılan çalışmaları da inceleyelim: Aydoğan ve Çilli (1989), Türk bankacılık sektöründe faaliyet gösteren bankaları belirli finansal karakteristiklerine göre kümeleme analizi kullanarak 4 ana grup altında toplamışlardır. Aydoğan (1990), Türk bankacılık sisteminin finansal karakteristiklerinin, verimliliğinin ve rekabet yapısının belirlenmesine yönelik bir istatistiksel analiz gerçekleştirmiştir. Çalışmada, bazı finansal oranlar ve risk değişkenleri kullanılarak Türk bankacılık sistemi için bir kârlılık modeli tahmin edilmiştir. Modelde sermaye yeterliliği, takipteki alacakların provizyonu, özsermaye katılımı ve sabit varlıklar anlamlı açıklayıcı değişkenler olarak bulunmuştur. 86 Karamustafa (1999), Türk finans piyasalarında faaliyet gösteren ticaret bankalarının finansal karakteristiklerinin 1990-1997 döneminde nasıl bir gelişme gösterdiğini ortaya koyma amacını taşıyan çalışmasında, 18 finansal oran kullanılarak TBA faktör analizi ile 5 faktör saptamıştır. Çalışmada ilk 3 faktörün toplam varyansın büyük kısmını açıkladığı için finansal karakteristikleri belirleyen en önemli faktörler konumunda olduğu ve ilgili dönem içinde istikrarlı bir yapı izlediği (1994 yılı hariç) ifade edilmektedir. Bu faktörler önem sırasına göre, 1) sermaye yeterliliği ve aktif kalitesi 2) kârlılık ve gelir-gider yapısı 3) likidite olarak sıralanır. Pekkaya, Aydoğan ve Tosuner (2002), Türk bankacılık sektöründe 1998-2000 dönemi için çok değişkenli faktör analizi ile sıralama yapma denemesi ve finansal riskliliğe ilişkin öncü göstergelelerin belirlenmesini amaçladıkları çalışmalarında, sırasıyla kârlılık, sermaye yeterliliği, likitide ve aktif yapısı değişkenlerinin Türk bankacılık sisteminin performansının ölçülmesinde en önemli değişkenler olduğunu ifade etmiştir. Araştırmacılar, bu sonucun uluslararası performans ölçüm yöntemi olan CAMEL ile karşılaştırdığında, aktif kalitesi değişkenlerinin daha az önem taşıyor olması sebebiyle Türk bankacılık sistemine özgü performans kriterlerinin uluslararası normlarla çakışmadığını ortaya koyduğunu belirtmektedir. Atan (2002), Türkiye bankacılık sistemindeki riskler ele alınarak bu risk unsurlarının bankalar üzerindeki etkileri verilen bu çalışmada, ülkemiz mali piyasaların kalbini oluşturan bankaların mali performanslarında meydana gelebilecek değişimleri saptayarak erken uyarı görevi üstlenecek alternatif risk belirleme modelleri geliştirilmeye çalışılmıştır. Özet olarak, Türk bankacılık sisteminin temel finansal karakteristiklerini belirlemeye yönelik çalışmaların tümünde sermaye yeterliliği birinci faktör olarak 87 saptanmıştır. Sermaye yeterliliğinden sonra sırasıyla kârlılık ve gelir-gider yapısı ile likitide bileşenleri ön plana çıkmaktadır. Serpil Canbaş, Altan Çabuk, S. Bilgin Kılıç, Türkiye’de finansal sistemin en önemli unsuru olan bankaların mali başarısızlıkların öngörülmesine yönelik çok değişkenli istatistiksel yöntemlere dayanan erken uyarı modellerinin tahmin edilmesini amaçlayan çalışmalarında TBA ile elde ettikleri sonuçlar, Türk bankacılık sistemindeki yapının CAMEL sistemi tarafından önerilenlerden farklı olduğu sonucuna ulaşmışlardır. Benzer sonuca Çilli ve Temel (1988)’de ulaşmıştır. Ancak, gerek bu çalışma gerekse diğer çalışmalar (Çilli-Temel 1988; Aydoğan-Çilli 1989; Karamustafa 1999), sermaye yeterliliğini birinci derecede önemli faktör olarak bulmuş olup, sadece bu yönü ile CAMEL sistemi ile uyum göstermiş ve buna karşın Türk bankacılık sisteminde CAMEL sistemi bileşenlerinin aksine, sermaye yeterliliğinden sonra sırasıyla gelir- gider ve likitide bileşenlerini ön plana çıkarmaktadır. Keskin Benli (2005), Türk bankacılık sektöründe 1997-2001 dönemi için, lojistik ve yapay sinir ağı modeli kullanarak, bankalarda mali başarısızlığın öngörme gücünün tespit edilmesini amaçlamış ve çalışma sonucunda yapay sinir ağı modelinin, lojistik regresyon modelinden daha üstün olduğunu tespit etmiştir. Bankaların mali başarısızlık risklerini arttırıcı etkileri olan hatta iflas etmelerine sebep olan finansal riskler vardır. Türk bankacılık sektöründe kriz dönemlerinde bankaların faaliyetleri esnasında, piyasa fiyatlarındaki dalgalanmalar ve piyasalardaki dalgalanmalar veya piyasalarda ters yöndeki fiyat hareketlerinden dolayı, karşılaştıkları piyasa (sistematik) riskleri aşağıdaki şekilde verilebilir. Sermaye Yeterliliği Riski: Sermaye, finansal işlemlerde alternatif kaynak olma özelliği gösterir. Bankalarda kaynakların kullanım şekilleri ve yerleri sonucu bu risk unsuru önem kazanmaktadır. Bu nedenle, ihtiyaç duyulan sermaye miktarı, aktif ve pasif kalemlerin kompozisyonuna, nakit akışların düzenliliğine, yönetimin kalitesine ve özellikle rekabet açısından bankanın içinde bulunduğu ortama bağlıdır (Aydın 1993). Bir bankanın özsermaye yeterliliği riski ile karşılaşması için; 88 1. Bankanın özsermaye miktarı sabit kalırken, bankanın aktiflerinin çok daha hızlı artması halinde, 2. Bankanın aktif kalemleri sabit kalırken özsermaye miktarının azalması durumunda, 3. bankanın sahip olduğu özsermaye miktarının aktiflere göre daha hızlı azalması durumunda, olması gerekir (Akyüz 1996). Bankanın sermaye yeterliliği riskinin yönetiminde; gerçek sermaye yapısı belirlenmeli, sermayeyi oluşturan birimlerin dağılımı ve özsermayenin seyrinin takibi gözlenmeli, sermayeye nakit katkısı olan veya olmayan birimler tespit edilmeli, sermaye yetersizliği olma durumunda alınacak tedbirler önceden belirlenmelidir. Bu durumda banka birleşmeleri, aktif büyüklüklerin azaltılması veya sınıflandırılmaları gibi alternatif çözüm yolları aranmalıdır. Kredi Riski: Türk bankacılar sistemi için aktif varlıklar krediler, net menkul değerler portföyü, iştirakler, mevduat karşılıkları, karşılıklar, bankalar ve bankalar arası piyasa işlemleridir. Kredi müşterisinin almış olduğu borcun faiz ve/veya anapara ödemelerini yapamayacak olma riski bankanın kredi riskini oluşturur. Kredi riskinin yönetiminin amacı, bankanın kullandırdığı kredilerden beklediği geri dönüşü en uygun koşullarda maksimize etmektir. Kredi riski aktif kalitesi ile ters orantılıdır. Aktifin kalitesi kârlılığın ve ödünç verilen fonların geri döneceğinin bir göstergesidir. Kredi riski sadece bir bankanın kullandırdığı krediler için değil aynı zamanda finansal ürünleri ve bilanço dışı kalemleri için de söz konusudur. Kâr marjlarındaki azalmayı, daha fazla kredi kullandırarak aşmaya çalışan bankalar, olumsuz ekonomik gelişmelerin de etkisiyle kredi riski ile karşı karşıya kalmaya başlamışlardır. Bu gelişmeler sonucunda, kredi işlemlerine ilişkin riskin daha etkin ölçüm ve kontrolünün yapılması gereği ortaya çıkmış ve bankaların kullandıkları kredi derecelendirme modellerinin geliştirilmesi yanında geçmişe yönelik kredi 89 zararlarının analizi, iflas olanaklarına dayanan modeller gibi, bazı istatistiksel analiz yöntemleri de kullanılmaya başlanmıştır (Serdengeçti 1999). Likidite Riski: Bir işletmenin vadesi gelen yükümlülüklerini yerine getirememesinden doğan risktir. İşletme aktiflerinin daha akışkan, daha kısa vadeli ve daha kolay paraya dönüştürülebilecek şekilde düzenleyerek, pasiflerle vade uyumlu hale getiren, dengeli bir finansman politikası izlenmesi anlamında kullanılan bir kavramdır. Likitide riski, bankaların ilişkide bulundukları ekonomik birimlere karşı yükümlülüklerini yerine getirememelerinden dolayı mevduat sahiplerinin taleplerini karşılayamayıp vadesi gelen borçlarını ödeyememelerinden, bekledikleri kaynak girişlerini sağlayamamalarından veya ani talep yükselmelerinden doğabilmektedir (Basell Komite 2000). Likiditenin arttırılması durumunda, bankanın riski ve getirisi azalmaktadır. Bir banka birkaç farklı türde likitide riski ile karşı karşıya kalabilir. Bunlar, refinansman riski, tahsilatlarda gecikme riski ve olağanüstü çekişler riskidir. Refinansman riski, kredinin vadesi, bunun için kullanılan pasiflerin vadesinden daha uzun olduğundan vadesi gelen mevduat geri ödemelerini ve yapılan kredi tahsislerini ödemeye yetmeyecek kadar yeni mevduat gelmemesi veya kredi kullanılamamasından kaynaklanan bir risktir (Parasız 2000). Tahsilatlarda gecikme riski, kullandırılan kredilerin anapara ve/ya faizlerin vadesinde geri dönmemesi veya gecikme ile dönmesinin yol açtığı riskleridir. Olağanüstü çekişler riski, olağanüstü durumlar nedeniyle açılan kredi limitleri veya vadesi gelen mevduatın beklenenden çok daha hızlı bir şekilde çekilmeye başlaması sonucunda bankanın bu çekişleri ödemede güçlük çekmesidir (Ziraat Bankası Araştırma ve Geliştirme Dairesi Raporu 2000). Kârlılık Riski: Kârlılık, bir bankanın varolma sebebi olmasının yanı sıra bankanın üstlenebileceği riski ve/veya sermayesini arttırabilme kapasitesini gösteren önemli bir sonuçtur. Kârlılık riski, banka yönetiminin bankanın gelir kaynaklarını iyi belirleme, bankacılık faaliyetlerini yüksek getirili alanlara aktarabilme yeteneği ve esnekliğidir. Bir bankanın kârlılık riskinin ölçümünde, bankanın reel olarak yeterince kâr edip etmediğine bakılır. Bu amaçla bankaların kârlarının, aktif büyüklükleri ile o 90 kârı elde etmek içinsahip oldukları sermaye miktarı ve sektörün kârlılık ortalaması ile bankaların durumunun karşılaştırılması gereklidir. Bankanın gelir ve gider kaynaklarının iyi analiz edilmiş olması gerekir. Faiz dışı gelir ve giderlerin tespiti iyi yapılmalıdır. Gelir kaynaklarının sürekliliği sağlanmalı, maliyetlerin nasıl düşürüleceği ve fonların daha kârlı alanlara yönlendirilmesi konuları araştırılmalı ve uygulamaya geçilmelidir. Faiz Oranı Riski: Günümüzde işletmeler makro düzeyde alınan yanlış kararlar yüzünden bir anda iflas riski ile karşı karşıya kalabilmektedirler. Ülke ekonomik politika ve kararlarında yapılan hatalar ve ani değişiklikler finans kesiminde de büyük dalgalanmalara neden olmaktadır. Piyasalara olan güvenin üst düzeyde tutulması gereken bir ekonomik ortamda, finans sektöründe ortaya çıkabilecek bir güven bunalımı mal ve hizmet piyasalarında da büyük bir krizi gündeme getirmektedir. Devletin 1980'li yıllardan başlayarak günümüze kadar artan bir hızla devam eden kamu finansman açıklarını içte ve dışta borçlanarak kapamaya çalışması; bunu çok yüksek faiz oranları ödeyerek yapması işletmeleri ve bu arada bankaları, döviz kuru riski ile birlikte yönetilmesi zor bir diğer risk olan faiz oranı riski ile karşı karşıya bırakmıştır. Bu durum, bankaları olumsuz yönde etkilemiş, kârlılıklarını azaltmış, öz kaynaklarını güçlendirme olanaklarını sınırlamıştır. Buna karşılık, kamunun artan borçlanma ihtiyacından ve hızla yükselen Türk Lirası maliyetinden dolayı bankalar ve bu arada bazı işletmeler, yurtdışından borçlanmayı arttırmışlar ve döviz pozisyon açıklarını büyütmüşlerdir. Dışa açılma ile birlikte giderek artan liberalleşme politikaları, daha önceleri görülmeyen veya çok az hissedilen bazı az risklerin yoğun bir şekilde banka işletmelerinin bilançolarına yerleşmesine neden olmuştur. Bankalar, faiz risk değişmelerini etkili bir şekilde tanımlayan, ölçen, gözlemleyen ve kontrol eden kapsamlı bir faiz risk yönetimine sahip olmalıdırlar ve bu, uygun yönetim kurulu ve üst yönetim idaresiyle sağlanabilmektedir. Para sabit bir fiyat üzerinden alınıp satıldığında ya da gelecekte ortaya çıkacak faiz değişmeleri beklenmekte iken, doğrudan yatırım yapılması durumunda faiz riski sözkonusu olur. Borçlanma araçlarında görülen en önemli risk olan faiz oranı riski piyasada geçerli faiz 91 oranı düzeyindeki değişmelerin, aktif ve pasiflerin piyasa fiyatlarında meydana getirdiği dalgalanmalar olarak ya da kazançlarda meydana gelen azalma veya kayıplarda meydana gelen artma olarak tanımlanabilir. Banka bilançolarında birçok kalem, faiz oranlarına indeksli gelir ve maliyetler yaratır. Faiz oranları istikrarlı değilse, kazançlar da buna bağlı olarak değişir. Borç verenler, faiz oranları düştükçe kazançlarının da buna paralel olarak düştüğünü göreceklerdir. Değişken faiz ile borçlanan taraf da faiz oranları yükseldikçe maliyet artışları ile karşılaşır. Günümüzde bankaların faiz vade ve oranlarındaki değişimler nedeni ile zarara uğrama olasılığı giderek artmaktadır. Banka yöneticileri faiz oranlarının gelecekteki durumunu doğru olarak tahmin edebildiklerine inanıyorlarsa, bu duruma uygun olarak izleyecekleri stratejileri düzenleyebilirler. Örneğin, faiz oranlarının artacağı yönünde bir beklentinin olduğu dönemlerde, yükümlülüklere göre daha duyarlı varlıklara sahip olma yönünde kararlar alabilir ve faiz oranındaki değişmelerin ortaya koyduğu risklerden korunmak için değişik pozisyon tutabilirler. Bir diğer deyişle, faiz oranlarının yükseleceğini tahmin ediyorlarsa riskten korunmak için faize karşı duyarlı aktiflerinin, faize karşı duyarlı yükümlülüklerinden fazla olmasına özen gösterirler. Faiz oranlarındaki dalgalanmalara paralel olarak, bankaların aktif ve pasiflerinin fiyatlandırılmasında meydana gelen değişim lehlerine olabileceği gibi, aleyhlerine de sonuçlanabilir. Faiz oranları, piyasalar ve bu piyasalarda işlem gören finansal araçlar arasında dengeyi sağlayan önemli bir değişkendir. Faiz oranlarında meydana gelen dalgalanma sürekli değişkenlik bir belirsizlik ortamı oluşturmakta ve bu durum da bankalar ve finans kuruluşlarının uzun vadeli ve sabit faiz oranlı yükümlülüklerden kaçmalarına neden olmaktadır. Özellikle ülkemizdeki bankalar uzun vadeli aktiflerini finansal piyasalardan topladıkları kısa vadeli fonlarla finanse etmektedirler. 3.2. Diskriminant Analizinin Bankacılık Açısından Bir Uygulanması Türkiye Bankacılık Sektöründe faaliyet gösteren bankaların gelişiminin izlenmesi ve riskliliğin ölçülmesi, bankaların mali, iktisadi yapısını ve verimliliğini yansıtan mali tabloların ayrıntılı olarak analiz edilmesiyle mümkün olabilir. Bankaların 92 mali tablolarının analiz edilmesi suretiyle performanslarının ölçülmesine ilişkin olarak kullanılan nicel yöntemleri istatistiki açıdan ‘Tek Değişkenli’ ve ‘Çok Değişkenli’ analiz teknikleri olarak ele alınabilir. Tek değişkenli analiz teknikleri, analizde yer alan tüm değişkenlerin etkisinin bir bütün olarak incelenememesi, söz konusu tekniklerin ancak analizde yer alan diğer değişkenlerin kontrol altında tutularak her defasında tek bir değişkenin etkisinin incelenmesine olanak tanıması nedeniyle her zaman etkin ve yeterli olmamaktadır. Oysa çok değişkenli analiz teknikleri, incelenen olayı bir bütün olarak ele aldığından bütünlüğü sağlayan değişkenlerin bağımlılık yapısını açıklamaya çalışmaktadır. Aynı zamanda, birden çok özelliğin analizi ile ilgilendiğinden, basitleştirme ve boyut indirgeme, birimlerin sınıflandırılması, hipotez testleri ve hipotez oluşturma, sıralama ve ölçekleme gibi değişik amaçlara da hizmet etmektedir (Pekkaya- Aydoğan-Tosuner 2001). Bankacılık sektörü, küreselleşme ve finansal liberalleşmeyle birlikte son yıllarda üzerinde tartışmaların yaşandığı ve ülke ekonomisi içinde oldukça önemli ve belirleyici role sahip olan bir sektör konumuna gelmiştir. Bu sektördeki dalgalanmalar ülke ekonomisi için tehlikeli sonuçlar doğurabilmektedir. Öte yandan, bankacılık krizleri gelişmekte olan ülkelerde finansal krizlerle birlikte anılmaya başlanmıştır. Bunun en önemli nedeni bir finansal krizle birlikte yanlış risk pozisyonu almış bankaların iflasının söz konusu olmasıdır. Bu amaçla özellikle gelişmekte olan ülkelerde bankacılık sisteminin düzenlenmesi ve yeniden yapılandırılması önemli bir konu başlığıdır. Ülkemizde de Bankacılık Düzenleme ve Denetleme Kurulu (BDDK) bu nedenlerle sektördeki düzenlemelerin hayata geçirilmesi için kurulmuş bir kurumdur. BDDK 1999–2003 yılları arasında toplam 21 bankaya yüksek risk taşımaları nedeniyle el koymuştur. Bu tezin uygulama bölümünde finansal bir problem yaşayan bankaların bir yıl önceden diskirminant analizi yardımıyla tespit edilip edilemeyeceği konusu ele alınmaktadır. 2002 ve 2003 yıllarına ilişkin yeterli veriye ulaşmak mümkün olmadığından 1999, 2000 ve 2001 yıllarında el konulan 16 bankanın diğerlerinden ayrılacağı bir diskirminant fonksiyonu bankaların bir yıl önceki bazı oranları kullanılarak oluşturulmaya çalışılmıştır. 93 BDDK tarafından oluşturulan yeni genelgeler bütün bankaların iç denetim sistemleri ile risk kontrolü ve yönetimi sistemlerini bir yıl içinde kurulmasını şart koşmuşlardır. Bu bağlamda bankalar ilk olarak aldıkları risklerin bir sistem içerisinde kontrolü ve yönetilmesi amacıyla gerekli organizasyonel yapıyı yerleştirmelidirler. Organizasyonel yapının tanımı sonrasında bankalar risk yönetimi konusunda eksikliklerini tespit etmeli ve gerekli sistemleri geliştirmeye başlamalıdır. Bu amaçla bankalar risk yönetimi grupları oluşturmalıdır. Oluşturulan bu gruplar önce piyasa, sonra kredi ve işlemsel riskleri oluşturmak için gerekli modelleri geliştirmeli, limit ihlallerini tanımlamalı ve izlemeli, zamanlı raporlarla bildirmeyi sağlamalı, gerekli hallerda risk konusunda eğitim vermeli, saydam adil ve tutarlı risk ölçüm yöntemleri kullanmalı ve yeni ürünler için modeller geliştirmelidir. Risk belirleme modelleri, bankaların sağlıklı karar vermesinde son derece faydalı roller oynayacaktır. Bu durum hem finansal sektör hem de reel sektör açısından olumlu sonuçlar doğuracaktır. Risk yönetiminin felsefesi; riski azaltmak veya gidermek değil, riski yöneterek getiriyi ve sermayeyi optimum düzeyde kullanmaktır. Belirli bir sermaye ayırarak risk üstlenilir ve getiri de aynı sermaye ile elde edilmeye çalışılır. Risk yönetimi bunun arasındaki dengeyi gözeten bir yönetim anlayışıdır. Risk yönetimi sayesinde bankalar bir taraftan risklerini kontrol ederek kayıplarını azaltırken diğer taraftan da riske ayarlı kârlılık analizleri yaparak daha kârlı ürünlere yönelebilirler. Bu risk unsurlarından dolayı aşağıdaki tabloda belirtilen oranların ilgili yıldan bir önceki değerleri kullanılarak ilgili yılda BDDK tarafından el konulan bankalarla diğerlerini ayıracak bir fonksiyon tahmin edilecektir. Veri setinde el konulan bankalar 1 ve diğerleri 0 olarak kodlanmış olup 1999, 2000 ve 2001 yılları için 3 ayrı diskriminant fonksiyonu oluşturulmuştur. 1999 yılına ilişkin analiz sonuçları şu şekildedir: Analizde, kamu sermayeli ve özel sermayeli olmak üzere toplam 38 ticari banka ele alınmıştır. Bu 38 bankadan 7 tanesi 1999 yılında Tasarruf Mevduatı Sigorta Fonu’na devredilmiştir. Devredilen bu bankalar Egebank A. Ş., Eskişehir Bankası T. A. Ş., Interbank, Sümerbank A. Ş., Türkiye Tütüncüler Bankası, Yaşarbank A. Ş. ve Yurt 94 Ticaret ve Kredi Bankası A. Ş. İsmindeki bankalardır. Bu bankalar veri setinde 1, diğer 31 banka ise 0 ile kodlanarak ve yukarıdaki oranlar kullanılarak SPSS 13.0 paket programında Diskriminant Analizi uygulanmıştır. Tablo 2. Analizde Kullanılan Oranlar Oran Türü Oran Analizdeki Adı Sermaye Özkaynaklar / Toplam Aktifler S1 (Özkaynaklar–Duran Aktifler)/Toplam Aktifler S2 Aktif Değerler Toplam krediler / Toplam aktifler A1 YP Aktifler / YP Pasifler A2 Likidite Likit Aktifler / Toplam Aktifler L1 Kârlılık Net Dönem Kârı/Ortalama T.Aktifler K1 Net Dönem Kârı / Ortalama Özkaynaklar K2 Gelir–Gider Takip.Alac.Son.Net Faiz Gel./Ort.T.Aktif. G1 Yapısı Faiz Dışı Gelir/ Toplam Aktif G2 1. Adım İlk olarak Diskriminant Analizinin önemli varsayımlarından biri olan kovaryansların homojenliği varsayımının sağlanıp sağlanmadığını kontrol etmek için Box’s M testi kullanılmıştır. Burada test ettiğimiz hipotezler şu şekildedir: Ho: Grupların kovaryans matrisleri eşittir. Hı: Grupların kovaryans matrisleri eşit değildir. Söz konusu test, çoklu normallikten uzaklaşma durumuna hassas olup, normallik varsayımı ihlal edildiğinde matrislerin eşit olmadıklarını belirtme eğilimine sahiptir. Test, grup kovaryans matrislerinin determinantına dayanmaktadır. Gruplardaki örneklem sayısı büyük ise, grup kovaryans matrisleri birbirinden çok farklılık göstermemekle beraber önemlilik ihtimali küçük olabilir. Bu test çok değişkenli normal dağılımdan uzaklaşma durumuna karşı hassastır. Doğrusal diskriminant fonksiyonunun optimal olabilmesi ve yanlış sınıflandırma ihtimalini minimize edebilmesi için her bir 95 grup, çok değişkenli normal kitleden alınan bir örneklem olmalı ve ayrıca bütün grupların kovaryans matrisleri eşit olmalıdır. Aşağıdaki tabloda da görüldüğü gibi α < 0,05 anlamlılık düzeyinde sıfır hipotezi reddedilememektedir (0,198). Yani gruplar kovaryans matrisleri açısından eşittir. Böylece Diskriminant Analizinin uygulanabilmesi için gerekli olan bu varsayımın da sağlandığı görülür. Tablo 3. 1999 yılı için Box’s M Testi sonuçları Box's M 0,198 Hesap değeri 0,192 Serbestlik Derecesi 1 1 F Serbestlik Derecesi 2 4205,410 Anlamlılık 0,661 Bu test için gruplar oluşturulurken yukarıda tanımlanan grup değişkeni ile beraber, 1999-2001 yılları için genel faktör skorları sıralamasındaki negatif değerli başarısızlıklar da dikkate alınmıştır. Tablo 4. 1999 yılı için değişkenlerin korelasyonlarının karşılaştırılması S1 S2 A1 A2 L1 K1 K2 G1 G2 S1 1,000 0,580 0,083 0,072 0,315 0,582 -0,464 0,519 -0,035 S2 0,580 1,000 0,131 0,142 0,383 0,216 -0,482 0,142 -0,076 A1 0,083 0,131 1,000 0,035 -0,614 0,083 -0,235 -0,042 0,269 A2 0,072 0,142 0,035 1,000 0,005 0,086 -0,160 -0,250 0,301 L1 0,315 0,383 -0,614 0,005 1,000 0,315 0,065 0,385 -0,293 K1 0,582 0,216 0,083 0,086 0,315 1,000 -0,481 0,440 -0,034 K2 -0,464 -0,482 -0,235 -0,160 0,065 -0,481 1,000 -0,277 -0,143 G1 0,519 0,142 -0,042 -0,250 0,385 0,440 -0,277 1,000 -0,369 G2 -0,035 -0,076 0,269 0,301 -0,293 -0,034 -0,143 -0,369 1,000 Bu adımda ikinci olarak değişkenler arasında çoklu korelasyonun olup olmadığını kontrol etmek için bağımsız değişkenler arasındaki korelasyonlara 96 bakılmıştır. Yukarıdaki tabloda da görüldüğü üzere, değişkenler arasındaki korelasyon 0,70’ten küçük olduğu için değişkenler arasında çoklu korelasyon olmadığı sonucuna varılmıştır. Eğer değişkenler arasındaki korelasyon katsayısı %70’ten yüksek olsaydı yüksek korelasyona sahip değişkenlerden birinin analiz dışı tutulması gerekecekti. 2.Adım. Ayırma Fonksiyonlarının Öneminin Değerlendirilmesi Diskriminant fonksiyonunun ne kadar önemli olduğunu belirlemek için doğal korelasyon, özdeğer ve Wilks' Lambda istatistiklerine bakılır. Doğal korelasyon, diskriminant skorları ve gruplar arasındaki korelasyonu ölçer ve açıklanan toplam varyansı gösterir. Aşağıdaki tabloda bu değer 0,815’tir. Bu değeri yorumlayabilmek için karelerinin alınması gerekmektedir (0,6642). Buna göre modelimiz bağımlı değişkendeki varyansın %66’sını açıklayabilmektedir. Özdeğerler, Diskriminant Analizinin ne kadar önemli olduğunu değerlendirmede kullanılan bir istatistiktir. Özdeğer sıfır değerini aldığında Diskriminant Analizinin herhangi bir ayırt edici özelliğinin olmadığı anlaşılmaktadır. Özdeğer istatistiği ne kadar büyük ise bağımlı değişkendeki varyansın büyük bir kısmı o fonksiyon tarafından açıklanacak demektir. Kesin bir değer olmamakla birlikte 0,40’tan büyük özdeğerler mükemmel olarak kabul edilir. Bu örnekte de özdeğer istatistiği 1,984 olduğundan bu fonksiyonun iyi bir ayırım sağladığını söyleyebiliriz. Aşağıdaki tabloda 1999 yılı için ayırtedici fonksiyonların önemliliği değerlendirilmiştir: Tablo 5. 1999 yılı için özdeğerler Varyansın Kümülatif Doğal Fonksiyon Özdeğer Yüzdesi Yüzde Korelasyon 1 1,984 100,0 100,0 0,815 97 Özdeğer bu analizde 1,984 olarak bulunduğundan oldukça iyi bir değer elde edilmiş olur. Bir başka deyişle bu durumda Diskriminant Analizi iyi bir ayrım sağlamaktadır. Tablo 6’da hipotezi oluşturan grupların grup ortalamalarının farklı olup olmadıklarını test eden Wilks’ Lambda testinin sonuçları verilmiştir. Bu test yardımıyla her bir diskriminant fonksiyonu için özdeğerin önemi belirlenebilmektedir: Tablo 6. 1999 yılı için Wilks' Lambda sonuçları Test Edilen Wilks' Serbestlik Ki-kare Anlamlılık Fonksiyon Lambda Derecesi 1 0,335 40,996 1 0,000 Wilks' Lambda istatistiği 0 ile 1 arasında değerler alır. Wilks' Lambda istatistiğinin sonuçları, ayırma skorlarındaki toplam varyansın gruplar arasındaki farklar tarafından açıklanamayan kısmını gösterir. Büyük Wilks’ Lambda değerleri grup ortalamalarının farklı olmadıklarını ifade eder. Wilks’ Lambda değeri ne kadar küçük olursa modelin ayırt edicilik gücü de o oranda artar. Bu uygulamada Wilks’ Lambda değeri 0,335 olarak bulunmuş olduğundan fonksiyonumuz ayırma skorlarındaki toplam varyansın %33’ünü açıklayamamıştır. 3. Adım. Diskriminant Analizinde Bağımsız Değişkenlerin Öneminin Değerlendirilmesi Bağımsız değişkenlerin öneminin değerlendirilmesi için diskriminant fonksiyo- nu katsayılarına ve yapı matrisindeki her bir değişkenin yüküne bakmak gerekir. Aşağıdaki tabloda görüldüğü gibi gruplara ayırmada tüm değişkenler önemli ayırt edici bağımsız değişkendir. Burada standartlaştırılmış katsayıların kullanılmasının sebebi, bağımsız değişkenlerdeki farklı ortalamalar ve farklı standart sapmaların etkile- rini ortadan kaldırmaktır. Aksi takdirde daha küçük standart sapması olan değişkenlerin 98 daha büyük ayırma katsayısı olan durumu ortaya çıkabilir. Bu durumda bağımsız değişkenlerin nisbi öneminin değerlendirilmesi zorlaşır. Ayrıca büyük rakamlar büyük katkıyı, küçük rakamlar ise düşük katkıyı gösterir. Katsayı işaretinin ise özel bir anlamı yoktur. Tablo 7. 1999 yılı için standartlaştırılmış doğal korelasyon katsayıları Fonksiyon 1 S1 0,234 S2 -0,414 A1 0,450 A2 0,925 L1 1,012 K1 -0,982 K2 -0,024 G1 1,004 G2 0,119 Tablo 8. 1999 yılı için yapı matrisi Fonksiyon 1 S1 0,697 S2 0,608 A1 0,297 A2 -0,260 L1 0,207 K1 0,181 K2 0,113 G1 -0,089 G2 0,056 99 Yapı matrisi de bağımsız değişkenlerin öneminin değerlendirilmesinde kullanılabilecek bir matristir. Bu matris her bir değişkenin diskriminant fonksiyonu ile korelasyonunu gösterir. Bu matrise göre de diskriminant fonksiyonu ile en yüksek korelasyona sahip bağımsız değişkenler S1 ve S2 değişkenleridir. 4. Adım. Diskriminant Fonksiyonu Tablo 9. 1999 yılı için standartlaştırılmamış doğal diskriminant fonksiyonu katsayıları Fonksiyon 1 S1 0,013 S2 -0,017 A1 0,037 A2 0,050 L1 0,067 K1 -0,046 K2 0,001 G1 0,053 G2 0,001 (Sabit) -8,621 O halde ayırma (diskriminant) fonksiyonumuz Z = -8,621+ 0,013 S1 -0,017 S2 + 0,037 A1 + 0,050 A2 + 0,067 L1 -0,046 K1+ 0,001 K2 + 0,053 G1 + 0,001 G2 şeklindedir. Ayırma fonksiyonu bağımsız değişenlerin lineer kombinasyonudur. Z değeri diskriminant skorudur. Bu eşitlik çoklu regresyona benzemektedir. Fakat burada katsayılar bağımsız değişkenlerin ortalamaları arasındaki uzaklığı maksimize ederler. Bu eşitlik yardımıyla yeni gözlemleri sınıflandırmada kullanılabilecek gerçek tahmin modeli oluşturulur. Örneğimizde her bir bankanın Z skoru, ilgili oranlar yukarıdaki eşitlikte yerine konularak elde edilmiş ve bu skorlara dayanılarak gruplama yapılmıştır. 100 Öte yandan her bir grubun ortalama diskiriminant fonksiyon skoru aşağıdaki gibidir: Tablo 10. 1999 yılı için grup ortalamalarında hesaplanan standartlaştırılmamış katsayılar Gruplar Fonksiyon 1 0,00 0,312 1,00 -1,921 Yani TMSF’ye devredilmeyen bankaların ortalama skor değeri 0,312 iken TMSF’ye devredilenlerin ortalama skorları ise -1,921dir. 5. Adım. Diskriminant Analizinin Başarısının Değerlendirilmesi Diskriminant Analizinde, analizin başarısı doğru sınıflandırma yüzdesidir. Doğru sınıflandırma yüzdesi ne kadar yüksekse analiz o kadar başarılıdır. 1999 yılı için yapılan bu analizde sınıflandırma tablosu şu şekilde elde edilmiştir. Tablo 11. 1999 yılı için sınıflandırma tablosu Tahmin Edilen Grup Üyeliği Grup üyeliği 0 1 Toplam 0 31 0 31 1 1 6 7 Toplam 32 6 38 Sınıflandırma tablosunda da görüldüğü şekilde risk taşımayan 31 bankanın tamamı doğru gruba atanmıştır. Risk taşıyan 7 bankadan sadece 1 tanesi risksiz olarak değerlendirilmiş ve geri kalan 6 tanesinin risk taşıdığı, tahmin edilen diskriminant fonksiyonu ile de ortaya konulmuştur. Doğru sınıflandırma yüzdesi 0 grubu için %100, 101 1 grubu için %86 ve toplamda da % 97,36 olup oldukça iyi bir sınıflandırma oranı elde edilmiştir. 2000 yılı için analiz sonuçları 1999 yılında TMSF’ye devredilen 7 banka analiz dışında bırakılarak geriye kalan 31 banka ele alınmıştır. Bu bankalardan 2000 yılında TMSF’ye devredilenler, Bank Kapital, Demirbank ve Etibank’tır. Bu bankalar veri setinde 1, diğer 28 banka ise 0 olarak kodlanarak ve aynı oranların 1999 yılı değerleri kullanılarak SPSS 13.0 paket programında Diskriminant Analizi uygulanmıştır. Sonuçlar şu şekilde elde edilmiştir: 1.Adım İlk olarak Diskriminant Analizinin önemli varsayımlarından biri olan kovaryansların homojenliği varsayımının sağlanıp sağlanmadığını kontrol etmek için Box’s M testi kullanılmıştır. Test ettiğimiz hipotezler şu şekildedir: Ho: Grupların kovaryans matrisleri eşittir. Hı: Grupların kovaryans matrisleri eşit değildir. Test istatistiği 0,212 bulunmuş olup α < 0,05 anlamlılık düzeyinde sıfır hipotezi reddedilememektedir. Yani gruplar kovaryans matrisleri açısından eşittir. Tablo 12. 2000 yılı için değişkenlerin korelasyonlarının karşılaştırılması S1 S2 A1 A2 L1 K1 K2 G1 G2 S1 1,000 0,425 0,176 -0,054 0,078 0,644 0,390 0,485 -0,199 S2 0,425 1,000 0,039 0,136 0,318 0,106 0,029 0,378 -0,233 A1 0,176 0,039 1,000 -0,010 -0,611 -0,033 -0,108 0,021 0,067 A2 -0,054 0,136 -0,010 1,000 -0,100 -0,165 -0,142 -0,579 0,479 L1 0,078 0,318 -0,611 -0,100 1,000 0,123 0,125 0,154 -0,092 K1 0,644 0,106 -0,033 -0,165 0,123 1,000 0,607 0,452 -0,060 K2 0,390 0,029 -0,108 -0,142 0,125 0,607 1,000 0,316 -0,031 G1 0,485 0,378 0,021 -0,579 0,154 0,452 0,316 1,000 -0,485 G2 -0,199 -0,233 0,067 0,479 -0,092 -0,060 -0,031 -0,485 1,000 102 2. Adım. Ayırma Fonksiyonlarının Öneminin Değerlendirilmesi Diskriminant fonksiyonunun ne kadar önemli olduğunu belirlemek için doğal korelasyon, özdeğer ve Wilks' Lambda istatistiklerine bakılır. Doğal korelasyon, diskriminant skorları ve gruplar arasındaki ilişkiyi ölçer ve açıklanan toplam varyansı gösterir. Aşağıdaki tabloda bu değer 0,865’tir. Bu değeri yorumlayabilmek için kare alınması gerekmektedir (0,7482). Buna göre modelimiz bağımlı değişkendeki varyansın %75’ini açıklayabilmektedir. Özdeğer istatistiği ne kadar büyük ise bağımlı değişkendeki varyansın büyük bir kısmı o fonksiyon tarafından açıklanacak demektir. Kesin bir değer olmamakla birlikte %40’tan büyük özdeğerler iyi olarak kabul edilir. Bu örnekte de özdeğer istatistiği 1,922 olduğundan bu fonksiyonun iyi bir ayırım sağladığını söyleyebiliriz. Tablo 13. 2000 yılı için özdeğerler Varyans Kümülatif Doğal Fonksiyon Özdeğer Yüzdesi Yüzde Korelasyon 1 1,922 100,0 100,0 0,865 Tablo 14. 2000 yılı için Wilks' Lambda sonuçları Test Edilen Wilks' Serbestlik Ki-kare Anlamlılık Fonksiyon Lambda Derecesi 1 0,244 40,996 1 0,000 Wilks' Lambda istatistikleri, ayırma skorlarındaki toplam varyansın gruplar arasındaki farklar tarafından açıklanamayan kısmını gösterir. Bu uygulamada fonksiyon; ayırma skorlarındaki toplam varyansın % 24’ünü açıklayamamıştır. 103 3. Adım. Diskriminant Analizinde Bağımsız Değişkenlerin Öneminin Değerlendirilmesi Hatırlanacağı gibi, gruplara ayırmada tüm değişkenler önemli ayırt edici bağımsız değişkenlerdir. Burada standartlaştırılmış katsayılar, bağımsız değişkenlerdeki farklı ortalamaların ve farklı standart sapmaların etkilerini ortadan kaldırmak için kullanılmaktadır. Ayrıca büyük rakamlar büyük katkıyı, küçük rakamlar ise düşük katkıyı gösterir. Tablo 15. 2000 yılı için standartlaştırılmış doğal korelasyon katsayıları Fonksiyon 1 S1 0,447 S2 -0,559 A1 0,336 A2 0,921 L1 0,937 K1 0,111 K2 -0,217 G1 -0,139 G2 -0,513 Tablo 16. 2000 yılı için yapı matrisi Fonksiyon 1 S1 0,570 S2 0,475 A1 0,314 A2 -0,301 L1 -0,284 K1 0,140 K2 0,064 G1 -0,036 G2 -0,027 104 Bu matris hatırlanacağı gibi her bir değişken ile diskriminant fonksiyonu arasındaki korelasyonu gösterir. Bu matrise göre de diskriminant fonksiyonu ile en yüksek korelasyona sahip bağımsız değişkenler 1999 yılında olduğu gibi S1 ve S2 değişkenleridir. 4. Adım. Diskriminant Fonksiyonu Tablo 17. 2000 yılı için standartlaştırılmamış doğal diskriminant fonksiyonu katsayıları Fonksiyon 1 S1 0,080 S2 -0,061 A1 0,027 A2 0,041 L1 0,053 K1 0,025 K2 -0,002 G1 -0,014 G2 -0,003 (Sabit) -7,027 Dolayısıyla burada ayırma fonksiyonunu yukardaki verilerden faydalanarak Z = -7,027+ 0,080 S1 -0,061 S2 + 0,027 A1 + 0,041 A2 + 0,053 L1 + 0,025 K1 - 0,002 K2 - 0,014 G1 - 0,003 G2 olarak ifade edebiliriz. Bu eşitlik yardımıyla yeni gözlemleri sınıflandırmada kullanılabilecek gerçek tahmin modeli oluşturulur. Örneğimizde her bir bankanın Z skoru, ilgili oranlar yukarıdaki eşitlikte yerine konularak elde edilebilir ve bu skorlara dayanılarak gruplama yapılır. Öte yandan her bir grubun ortalama diskiriminant fonksiyon skoru aşağıdaki gibidir: 105 Tablo 18. 2000 yılı için grup ortalamalarında hesaplanan standartlaştırılmamış katsayılar Gruplar Fonksiyon 1 0,00 0,102 1,00 -1,125 Yani TMSF’ye devredilmeyen bankaların ortalama skor değeri 0,102 iken TMSF’ye devredilenlerin ortalama skorları -1,125’dir. 5. Adım. Diskriminant Analizinin Başarısının Değerlendirilmesi Diskriminant Analizinde, analizin başarısı doğru sınıflandırma yüzdesidir. Doğru sınıflandırma yüzdesi ne kadar yüksekse analiz o kadar başarılıdır. 2000 yılı için yapılan bu analizde sınıflandırma tablosu şu şekilde elde edilmiştir. Tablo 19. 2000 yılı için sınıflandırma tablosu Tahmin Edilen Grup Üyeliği Grup üyeliği 0 1 Toplam 0 28 0 28 1 0 3 3 Toplam 28 3 31 Sınıflandırma tablosunda da görüldüğü şekilde risk taşımayan 28 bankanın tamamı doğru gruba atanmıştır. Risk taşıyan 3 bankanın da doğru olarak risk taşıdığı, tahmin edilen diskriminant fonksiyonu ile de ortaya konulmuştur. Doğru sınıflandırma yüzdesi 0 grubu için %100, 1 grubu için %100 ve toplamda da %100 olup hiçbir sınıflandırma hatası yapılmamıştır. 2001 yılı için analiz sonuçları 2000 yılında TMSF’ye devredilen 3 banka daha analiz dışında bırakılarak geriye kalan 28 banka ele alınmıştır. Bu bankalardan 2001 yılında TMSF’ye devredilenler, Bayındır Bank, Ege Giyim Sanayi Bankası, İktisat Bankası, Kentbank, 106 Milli Aydın Bankası, Toprakbank ve Sitebank’tır. Bu bankalar veri setinde 1, diğer 21 banka ise 0 olarak kodlanarak ve aynı oranların 2000 yılı değerleri kullanılarak SPSS 13.0 paket programında Diskriminant Analizi uygulanmıştır. Sonuçlar şu şekilde elde edilmiştir. 1.Adım İlk olarak Diskriminant Analizinin önemli varsayımlarından biri olan kovaryansların homojenliği varsayımının sağlanıp sağlanmadığını kontrol etmek için Box’s M testi kullanılmıştır. Tablo 20. 2001 yılı için değişkenlerin korelasyonlarının karşılaştırılması S1 S2 A1 A2 L1 K1 K2 G1 G2 S1 1,000 0,596 -0,004 0,254 0,183 0,496 -0,206 0,525 -0,555 S2 0,596 1,000 -0,049 0,383 0,407 0,583 -0,289 0,586 -0,523 A1 -0,004 -0,049 1,000 -0,119 -0,581 0,008 -0,029 0,046 -0,113 A2 0,254 0,383 -0,119 1,000 0,151 0,329 0,168 -0,011 -0,101 L1 0,183 0,407 -0,581 0,151 1,000 0,222 -0,191 0,232 0,048 K1 0,496 0,583 0,008 0,329 0,222 1,000 -0,151 0,586 -0,537 K2 -0,206 -0,289 -0,029 0,168 -0,191 -0,151 1,000 -0,273 0,110 G1 0,525 0,586 0,046 -0,011 0,232 0,586 -0,273 1,000 -0,544 G2 -0,555 -0,523 -0,113 -0,101 0,048 -0,537 0,110 -0,544 1,000 Test ettiğimiz hipotezler aynen yukarıda olduğu gibi şu şekildedir: Ho: Grupların kovaryans matrisleri eşittir. Hı: Grupların kovaryans matrisleri eşit değildir. Test istatistiği 0,321 bulunmuş olup α < 0,05 anlamlılık düzeyinde sıfır hipotezi reddedilememektedir. Yani gruplar kovaryans matrisleri açısından farklılık göstermemektedirler. 2. Adım. Ayırma Fonksiyonlarının Öneminin Değerlendirilmesi Diskriminant fonksiyonunun ne kadar önemli olduğunu belirlemek için doğal korelasyon, özdeğer ve Wilks' Lambda istatistiklerine bakılır. 107 Doğal korelasyon, diskriminant skorları ve gruplar arasındaki korelasyonu ölçer ve açıklanan toplam varyansı gösterir. Aşağıdaki tabloda bu değer 0,833’tir. Bu değeri yorumlayabilmek için kare alınması gerekmektedir (0,6889). Buna göre modelimiz bağımlı değişkendeki varyansın %69’unu açıklayabilmektedir. Özdeğer istatistiği ne kadar büyük ise bağımlı değişkendeki varyansın büyük bir kısmı o fonksiyon tarafından açıklanacak demektir. Kesin bir değer olmamakla birlikte %40’tan büyük özdeğerler iyi olarak kabul edilir. Bu örnekte de özdeğer istatistiği 1,922 olduğundan bu fonksiyonun iyi bir ayırım sağladığını söyleyebiliriz. Tablo 21. 2001 yılı için özdeğerler Varyans Kümülatif Doğal Fonksiyon Özdeğer Yüzdesi Yüzde Korelasyon 1 1,966 100,0 100,0 0,833 Tablo 22. 2001 yılı için Wilks' Lambda sonuçları Test Edilen Wilks' Ki- Serbestlik Anlamlılık Fonksiyon Lambda kare Derecesi 1 0,326 40,996 1 0,000 Wilks' Lambda istatistikleri, ayırma skorlarındaki toplam varyansın gruplar arasındaki farklar tarafından açıklanamayan kısmını gösterir. Bu uygulamada ifade ettiğimiz ayırma fonksiyonu; ayırma skorlarındaki toplam varyansın % 32’sini açıklayamamıştır. 108 3. Adım. Diskriminant Analizinde Bağımsız Değişkenlerin Öneminin Değerlendirilmesi Yukarıda 1999 ve 2000 yıllarında yapıldığı gibi matrislerimizi oluşturarak gerekli testleri uygulayalım. İlk olarak diskriminant fonksiyonumuz için standartlaştırılmış doğal korelasyon katsayılarının değerlerini ve bunlara bağlı olarak yapı matrisini oluşturalım: Tablo 23. 2001 yılı için standartlaştırılmış doğal korelasyon katsayıları Fonksiyon 1 S1 -0,379 S2 -0,127 A1 -0,106 A2 -0,338 L1 -0,141 K1 1,471 K2 0,514 G1 0,763 G2 0,890 Tablo 24. 2001 yılı için yapı matrisi Fonksiyon 1 S1 0,729 S2 0,729 A1 0,565 A2 0,548 L1 -0,524 K1 0,269 K2 0,197 G1 -0,043 G2 -0,019 109 Bu yapı matrisine göre de diskriminant fonksiyonu ile en yüksek korelasyona sahip bağımsız değişkenler S1 ve S2 değişkenleridir. 4. Adım. Diskriminant Fonksiyonu Tablo 25. 2001 yılı için standartlaştırılmamış doğal diskriminant fonksiyonu katsayıları Fonksiyon 1 S1 -0,015 S2 -0,004 A1 -0,008 A2 -0,014 L1 -0,007 K1 0,074 K2 0,001 G1 0,054 G2 0,002 (Sabit) 1,490 2001 yılı için ayırma fonksiyonu ise Z = 1,490 - 0,015 S1 - 0,004 S2 - 0,008 A1 - 0,014 A2 - 0,007 L1 + 0,074 K1 + 0,001 K2 + 0,054 G1 + 0,002 G2 şeklinde ifade edilecektir. Burada her bir grubun ortalama diskiriminant fonksiyon skoru aşağıdaki gibidir: Tablo 26. 2001 yılı için grup ortalamalarında hesaplanan standartlaştırılmamış katsayılar Gruplar Fonksiyon 1 0,00 0,338 1,00 -1,303 110 Yani TMSF’ye devredilmeyen bankaların ortalama skor değeri 0,338 iken TMSF’ye devredilenlerin ortalama skorları ise -1,303’dür. 5. Adım. Diskriminant Analizinin Başarısının Değerlendirilmesi Diskriminant Analizinde, analizin başarısı doğru sınıflandırma yüzdesidir. Doğru sınıflandırma yüzdesi ne kadar yüksekse analiz o kadar başarılıdır. 2001 yılı için yapılan bu analizde sınıflandırma tablosu şu şekilde elde edilmiştir: Tablo 27. 2001 yılı için sınıflandırma tablosu Tahmin Edilen Grup Üyeliği Grup üyeliği 0 1 Toplam 0 21 0 21 1 1 6 7 Toplam 22 6 28 Sınıflandırma tablosunda da görüldüğü şekilde risk taşımayan 21 bankanın tamamı doğru gruba atanmıştır. Risk taşıyan 7 bankanın 6 tanesi doğru olarak 1 grubuna atanmış 1 tanesi ise TMSF’ye devredilmesine rağmen risk taşımayan bankaların grubuna atanmıştır. Doğru sınıflandırma yüzdesi 0 grubu için %100, 1 grubu için %83,3 ve toplamda da %96,4 olup oldukça iyi sınıflandırma yüzdeleri elde edilmiştir. 111 SONUÇ Bu tezde bir çok bilim dalında yapılan bilimsel araştırmalarda kullanılmakta olan istatistiksel analiz yöntemlerinden birisi olan Diskriminant Analizinin bir finansal uygulaması ele alınmıştır. 1999-2003 yıllarında TMSF’ye devredilen Türk bankalarının geleceklerini bazı verilere bakarak belirleme problemi ele alınmıştır. 2002 ve 2003 yıllarında konuyla ilgili yeterli sayıda veriye ulaşmak mümkün olmadığından dolayı, bu yıllarda TMSF’ye sadece 5 bankanın devredildiği gerçeği de göz önünde bulundurularak analizler sadece 1999, 2000 ve 2001 yılları için yapılmıştır. BDDK tarafından oluşturulan yeni genelgeler bütün bankaların iç denetim sistemleri ile risk kontrolü ve yönetimi sistemlerini bir yıl içinde kurulmasını şart koştuktan sonra bankalar, ilk olarak aldıkları risklerin bir sistem içerisinde kontrolü ve yönetilmesi amacıyla gerekli organizasyonel yapıyı yerleştirmeye başlamıştır. Organizasyonel yapının tanımı sonrasında bankalar risk yönetimi konusunda eksikliklerini tespit etmeli ve gerekli sistemleri geliştirmeye başlamalıdır. Bu amaçla bankalar risk yönetimi grupları oluşturmalıdır. Oluşturulan bu gruplar önce piyasa, sonra kredi ve işlemsel riskleri oluşturmak için gerekli modelleri geliştirmeli, limit ihlallerini tanımlamalı ve izlemeli, zamanlı raporlarla bildirmeyi sağlamalı, gerekli hallerde risk konusunda eğitim vermeli; saydam, adil ve tutarlı risk ölçüm yöntemleri kullanmalı ve modeller geliştirmelidir. Bu amaca uygun olarak bu tezde; sermaye, aktif değerler, likidite, kârlılık, gelir-gider yapısı gibi unsurlardan dolayı özkaynaklar/toplam aktifler, özkaynaklar-duran aktifler/toplam aktifler, toplam krediler/toplam aktifler, likit aktifler/toplam aktifler, net dönem kârı/ortalama toplam aktifler, net dönem kârı/ortalama özkaynaklar, faiz dışı gelir/toplam aktif gibi oranlardan ilgili yıldan bir önceki değerleri kullanılarak ilgili yılda BDDK tarafından el konulan bankalarla diğerlerini ayıracak bir fonksiyonun tahmin edilmesi hedeflenmiştir. 112 Veri setinde el konulan bankalar 1 ve diğerleri 0 olarak kodlanmış olup 1999, 2000 ve 2001 yılları için 3 ayrı diskriminant fonksiyonu oluşturulmuştur. Analizde, kamu sermayeli ve özel sermayeli olmak üzere toplam 38 ticari banka ele alınmıştır. Bu 38 bankadan 6 tanesi göz önüne alınan ilk yıl olan 1999 yılında, Tasarruf Mevduatı Sigorta Fonu’na devredilmiştir. Bu bankalar veri setinde 1, diğer 32 banka ise 0 ile kodlanarak ve yukarıdaki oranlar kullanılarak SPSS 13.0 paket programında Diskriminant Analizi uygulanmıştır. Söz konusu test, çoklu normallikten uzaklaşma durumuna hassas olup, normallik varsayımı ihlal edildiğinde matrislerin eşit olmadıklarını belirtme eğilimine sahip olduğu bilinmektedir. Test, grup kovaryans matrislerinin determinantına dayanmaktadır. Bu test çok değişkenli normal dağılımdan uzaklaşma durumuna karşı hassastır. Doğrusal diskriminant fonksiyonunun optimal olabilmesi ve yanlış sınıflandırma ihtimalini minimize edebilmesi için her bir grup, çok değişkenli normal kitleden alınan bir örneklem olarak seçilmiş ve ayrıca bütün grupların kovaryans matrisleri eşit olması beklenmiştir. Bu test sonucunda α < 0,05 anlamlılık düzeyinde sıfır hipotezinin reddedilemediği, yani grupların kovaryans matrisleri açısından eşit oldukları görülmüştür. Bu test için gruplar oluşturulurken 1999-2001 yılları için genel faktör skorları sıralamasındaki negatif değerli başarısızlıklar da dikkate alınmıştır. İkinci olarak değişkenler arasında çoklu korelasyonun olup olmadığını kontrol etmek için bağımsız değişkenler arasındaki korelasyonlara bakılmıştır. Doğal korelasyon, diskriminant skorları ve gruplar arasındaki korelasyonu ölçer ve açıklanan toplam varyansı gösterir. Örneğin 1999 yılında bu değer 0,815’tir. Bu değeri yorumlayabilmek için karelerinin alınması gerekmektedir (0,6642). Buna göre modelimiz bağımlı değişkendeki varyansın %66’sını açıklayabilmektedir. Özdeğerler, Diskriminant Analizinin ne kadar önemli olduğunu değerlendirmede kullanılan bir istatistiktir. Özdeğer sıfır değerini aldığında Diskriminant Analizinin herhangi bir ayırt edici özelliğinin olmadığı anlaşılmaktadır. 1999 yılı için özdeğer istatistiği 1,984 olduğundan bu fonksiyonun iyi bir ayırım sağladığını söyleyebiliriz. Daha sonra diskriminant fonksiyonu bağımsız değişkenlerin doğrusal bileşimi olarak ifade edilmiştir. Diskriminant fonksiyonunun Z değeri diskriminant skorudur. Bu eşitlik çoklu regresyona benzemektedir. Fakat burada katsayılar bağımsız değişkenlerin ortalamaları 113 arasındaki uzaklığı maksimize ederler. Bu eşitlik yardımıyla yeni gözlemleri sınıflandırmada kullanılabilecek gerçek tahmin modeli oluşturulmuştur. Örneğimizde her bir bankanın Z değeri, ilgili oranlar yukarıdaki eşitlikte yerine konularak elde edilmiş ve bu skorlara dayanılarak gruplama yapılmıştır. Sınıflandırma tablosunda, 1999 yılı için risk taşımayan 32 bankanın tamamının doğru gruba atandığı görülmüştür. Risk taşıyan 7 bankadan sadece 1 tanesi risksiz olarak değerlendirilmiş ve geri kalan 6 tanesinin risk taşıdığı, tahmin edilen diskriminant fonksiyonu ile de ortaya konulmuştur. Doğru sınıflandırma yüzdesi 0 grubu için %100, 1 grubu için %85,86 ve toplamda da % 97,36 olup oldukça iyi bir sınıflandırma oranı elde edilmiştir. 2000 yılı için geriye kalan 31 banka ele alınmıştır. Bu bankalardan 2000 yılında 3 banka TMSF’ye devredilmiştir. Devredilen bu bankalar veri setinde 1, diğer 28 banka ise 0 olarak kodlanarak ve aynı oranların 1999 yılı değerleri kullanılarak SPSS 13.0 paket programında Diskriminant Analizi uygulanmıştır. Test istatistiği 0,212 bulunmuş olup α < 0,05 anlamlılık düzeyinde sıfır hipotezinin reddedilmediği görülmüştür. Yani gruplar kovaryans matrisleri açısından eşittir. Özdeğer istatistiği 1,922 olduğundan iyi bir ayrım sağlandığı söylenebilir. Sınıflandırma tablosunda, risk taşımayan 28 bankanın tamamının doğru gruba atandığı, risk taşıyan 3 bankanın da doğru olarak risk taşıdığı, tahmin edilen diskriminant fonksiyonu ile de ortaya konulmuştur. Doğru sınıflandırma yüzdesi 0 grubu için %100, 1 grubu için %100 ve toplamda da %100 olup hiçbir sınıflandırma hatası yapılmadığı sonucu ortaya çıkmıştır. Son olarak 2001 yılında, 2000 yılında TMSF’ye devredilen 3 banka daha analiz dışında bırakılarak geriye kalan 28 banka ele alınmıştır. TMSF’ye devredilen 7 banka veri setinde 1, diğer 21 banka ise 0 olarak kodlanarak ve aynı oranların 2000 yılı değerleri kullanılarak SPSS 13.0 paket programında Diskriminant Analizi uygulanmıştır. İlk olarak test istatistiği 0,321 bulunmuş olup α < 0,05 anlamlılık düzeyinde sıfır hipotezi reddedilememektedir. Yani grupların kovaryans matrisleri açısından farklılık göstermedikleri sonucu ortaya çıkmıştır. 114 Sınıflandırma tablosunda, risk taşımayan 21 bankanın tamamının doğru gruba atandıkları ve risk taşıyan 7 bankanın 6 tanesinin doğru olarak 1 grubuna atandığı, 1 tanesinin ise TMSF’ye devredilmesine rağmen risk taşımayan bankaların grubuna atandığı görülmüştür. Doğru sınıflandırma yüzdesi 0 grubu için %100, 1 grubu için %83,3 ve toplamda da %96,4 olduğundan elde edilen sınıflandırma yüzdelerinin oldukça iyi oldukları düşünülmektedir. Uygulama sonucuna göre Diskriminant Analizinin bankalar için yapılacak olan mali başarısızlık tahmin çalışmalarında kullanılabileceği söylenebilir. 115 KAYNAKLAR Acar, Tülin, “Çok Değişkenli İstatistiklerin Araştırmalarda Kullanımı”, 21.02.2006, http://www.istatistik.gen.tr/index.php?option=com_content&task=view&id=3 6&Itemid=2 Akgül, Aziz, Tıbbi Araştırmalarda İstatistiksel Analiz Teknikleri, Yükseköğretim Kurulu Matbaası, Ankara, 1997. Akyüz, Meltem, Mali Başarısızlık Riskinin Genel Olarak Değerlendirilmesi ve Türk Mevduat Bankaları Üzerine Bir Deneme, Yüksek Lisans Tezi, Çukurova Üniversitesi, Adana, 1996:80. Altman, E. I., The Prediction of Corporate Bankruptcy: A Discriminant Analysis, Garland Pub., New York, 1988 Aydın, M., Erol, M. “Aktif-Pasif Yönetiminde Likidite ve Faiz Oranı Riski”, Uzman Gözüyle Bankacılık Dergisi, 1993, pp. 65-68. Aydoğan, K., Çapoğlu, G., Bankacılık Sistemlerinde Etkinlik ve Verimlilik: Uluslararası Bir Karşılaştırma,Milli Prodüktivite Merkezi Yayınları, 397, 1989:60. Basel Committee on Banking Supervision, Working Paper on the Regulatory Treatment of Operational Risk, Bank for International Settlements, 2001: 1-35. Bayram, Nuran, “Diskriminant Analizi: Akademisyenler Üzerine Bir Uygulama”, Marmara Üniversitesi Sosyal Bilimler Enstitüsü Dergisi: Öneri, 5, 17, 219-229, 2002. Canbaş, S., Çabuk, A., Kılıç, S. B., “Prediction of Commercial Bank Failures via Multivariate Statistical Analysis of Financial Structures: The Turkish Case”, European Journal of Operational Research, Sayı: 166/2, sayfa, 528-546, 2005. Chan, L. S., Dunn, O. J., “A Note on the Asymptotic Aspect of the Treatment of Missing Values in Discriminant Analysis”, Journal of the American Statistical Association, Vol. 69,No. 347, 1974, pp. 672-673. Çakmak, Zeki, Çoklu Ayırma ve Sınıflandırma Analizi, Anadolu Üniversitesi Yayınları, No: 658, Eskişehir, 1992. Çamdeviren, H., Lojistik Regresyon ve Diskriminant Analizi, Doktora Tezi, Ankara Üniversitesi, Ankara, 2000:89-91. Çıtak, S., Geleneksel Risk Yönetiminden Programlanmış Menkul Kıymet İşlemlerine, Dünya Yayıncılık, Ekonomi Dizisi: 7, İstanbul, 1999:11. Çolak, Ö. F., Yiğidim, A., Türk Bankacılık Sektöründe Kriz, Nobel Yayın Dağıtım, Ankara, 2001:117. Daniels, M. R., Darcy, R., “Notes on the Use and Interpretation of Discriminant Analysis”, American Journal of Political Science, Vol. 27, No. 2, 1983, pp. 359-381. Demirhan, N., Kümeleme Analizi ile Konfeksiyon Üretiminde Beden-Drop Ölçülerinin Belirlenmesi ve bir Uygulama, Yüksek Lisans Tezi, Marmara Üniversitesi, İstanbul, 1997:18-19. Doğanay, Murat, “Finansal Başarısızlık ve Likidite”, www.politics.ankara.edu.tr/ct/enfmuh.pps 116 Emir, Mustafa, “Bankacılıkta Risk: Türk Bankacılık Sektörü Üzerine Bir Uygulama”, Prof. Dr. Yüksel Koç Yalkın’a Armağan, Siyasal Yayınevi, Ankara, 2003. Erçetin, Y., Diskriminant Analizi ve Bankalar Üzerine Bir Uygulama, Türkiye Kalkınma Bankası A. Ş., APM/28 (KİG-26), 1993:1-2. Erdoğan, İ., SPSS Kullanım Örnekleriyle Araştırma Dizaynı ve İstatistik Yöntemleri, Emel Matbaası, Ankara, 1998:153. Evans, R. H., “Inter-Bank Perceptions: A Marketing Application of Discriminant Analysis”, The Journal of the Operational Research Society, Vol. 29, No. 7, 1978, pp. 661-665. Everitt, B., Dunn, G., Applied Multivariate Data Analysis, Oxford Uni. Press, New York, 1992. Glorfeld, L. W., “A Robust Methodology for Discriminant Analysis Based on Least-Absolute- Value Estimation”, Managerial and Decision Economics, Vol. 11, No. 4, Special Issue: Linear Programming Methods for Discriminant Analysis, 1990, pp. 267- 277. Gramm, W. L., “The Labor Force Decision of Married Female Teachers: A Discriminant Analysis Approach”, The Review of Economics and Statistics, Vol. 55, No. 3, 1973, pp. 341-348. Green, E. P., Tull, S. D., Introduction to Multivariate Statistical Analysis, John Wiley & Sons Inc., New York, 1956:402-405. Hair, J. F., Anderson, R. E., Tatham, R. L., Black, W. C., Multivariate Data Analysis, Prentice Hall International, 1998. İç, Y. T., Yurdakul, M., “Analitik Hiyerarşi Süreci (AHS) Yöntemini Kullanan Bir Kredi Değerlendirme Sistemi”, Gazi Üniversitesi Müh. ve Mim. Fakültesi Dergisi, Cilt: 15, No: 1, 2000, pp. 1-14. İpekçi Çetin, E., “Çok Değişkenli Analizlerin Pazarlama İle İlgili Araştırmalarda Kullanımı: 1995- 2002 Arası Yazın Taraması”, Akdeniz Üniversitesi IIBF Dergisi, 3(5), 2003, pp. 32-47. Johnson, R. A., Wichern, D. W., Applied Multivariate Statistical Analysis, Prentice Hall, USA, 1998. Joy, O. M., Tollefson, J. O., “Some Clarifying Comments on Discriminant Analysis”, The Journal of Financial and Quantitative Analysis, Vol. 13, No. 1, 1978, 197-200. Karacabey, A. A., “Matematiksel Programlama ile Sınıflandırma”, Savunma Bilimleri Dergisi, Vol.2, No:1, 2003. Karacan, A. İ., Bankacılık ve Kriz, Creative Yayıncılık, İstanbul, 2000:19. Karels, V. G., Prakash, J. A., “Multivariate Normality and Forecasting of Business Bankruptcy”, J. of Business Finance & Accounting, 14(4), 1987, pp. 573-593. Kısa, T., Bankaların Mali Başarısızlığının Tahminine Yönelik Çok Boyutlu Model, Doktora Tezi, Gazi Üniversitesi, Ankara, 1997:18. King, L. J., “Discriminant Analysis: A Review of Recent Theoretical Contributions and Applications, Economic Geography, Vol. 46, Supplement: Proceedings Int. Geographical Union, Commission on Quantitative Methods, 1970, pp. 367-378. 117 Klecka, W. R., Discriminant Analysis, Sage Pub., Beverly Hills, 1980. Knoke, J. D., “Discriminant Analysis with Discrete and Continuos Variables”, Biometrics, Vol. 38, No.1, 1982, pp. 191-200. Kutman, Önder, “Türkiye’deki Şirketlerde Erken Uyarı Göstergelerinin Araştırılması”, Doğuş Üniv. Dergisi, 2001/4, pp. 59-70. Lattin, J., Carroll, D. And Gren, P. Analyzing Multivariate Data, Brooks/Cole, 2003. Lebart, L., Morineau, A., Warwick, K., Multivariate Descriptive Statistical Analysis, John Wiley & Sons, USA, 1984. Leeuwen, H. P., “The Prediction of Business Failure at Robobank”, J. of Bank Research, 1985, pp.91-98. Meulepas, E., “On a Criterion for Omitting Variables in Discriminant Analysis”, Biometrics, Vol. 46, No. 4, 1990, pp. 1181-1183. Morrison, D. F., Multivariate Statistical Methods, McGraw-Hill Kogakusha Ltd., Tokyo, 1976. Oktay Fırat, Ü., Demirhan, A., “Ticaret Bankalarının Performanslarının Analizi”, http://fbe.marmara.edu.tr/bolumler/yonetim.doc Özdamar, Kâzım, Paket Programlar ile İstatistiksel Veri Analizi, Kaan Kitabevi, Eskişehir, 1999. Parasız, İ., Modern Bankacılık, Teori ve Uygulama, Kuşak Ofset, İstanbul, 2000:193. Pekkaya, S., Aydoğan, M. E., Tosuner, A., Türk Bankacılık Sisteminde Finansal Risk Analizi, Çalışma Raporu, Türkiye Kalkınma Bankası A. Ş., Ankara, 2001:2-3 Polat, E., Türk Bankacılık Sisteminde Problemli Kredileri Önceden Belirleyecek Model Geliştirilmesi İçin Bir Uygulama, Pamukbank T. A. Ş. Eğitim Yayınları, İstanbul, 1995:66. Press, S. J., Wilson, S., “Choosing Between Logistic Regression and Discriminant Analysis”, Journal of the American Statistical Association, Vol. 73, No. 364, 1978, pp. 699-705. Scott, E., “On the Financial Applications of Discriminant Analysis: Comment”, The Journal of Financial and Quantitative Analysis, Vol. 13, No. 1, 1978, pp. 201- 210. Seber, G. A. F., Multivariate Observation, John Wiley& Sons, USA, 1984. Sharma, Subhash, Applied Multivariate Techniques, John Wiley& Sons, USA, 1996. Solow, A. R., “A Randomization Test for Misclassification Probability in Discriminant Analysis”, Ecology, Vol. 71, No. 6, 1990, 2379-2382. Tacq, Jacques, Multivariate Analysis Techniques, Sage Pub., London, 1997. Tatlıdil, Hüseyin, Uygulamalı Çok Değişkenli İstatistiksel Analiz, Cem Web Ofset Ltd. Şti., Ankara, 1996. Tatsuoka, M. M., “Discriminant Analysis”, Data Analysis Strategies and Designs for Substance Abuse Research, 1976, pp. 201-220. 118 T. C. Ziraat Bankası A. Ş. Bankacılıkta Risk Yönetimi, Araştırma ve Geliştirme Dairesi Raporu, Ankara, 2000:1-197. Tevfik, T. A., Tevfik, G., Bankalarda Finansal Yönetime Giriş, Türkiye Bankalar Birliği Yayını, No: 203, İstanbul, 1997:2. Titus, K., Mosher, J. A., Williams, B. K., “Chance-Corrected Classification for Use in Discriminant Analysis: Ecological Applications”, American Midland Naturalist, Vol. 111, No. 1, 1984, pp. 1-7. Tunç, Taner, “Diskriminant Analizi ve Türkiye’de İstihdam Konusu Üzerine Bir Uygulama”, Ondokuz Mayıs Üniversitesi Fen Bilimleri Enstitüsü, Yüksek Lisans Tezi, Samsun, 1997. Tümer, M., Kuzey Kıbrıs Türk Cumhuriyeti İmalat Sanayinde Faaliyet Gösteren Kobileri Ayrıştıran Faktörlerin Tespiti, Doğu Akdeniz Üniversitesi, 2001:296-303. Urbakh, V. Y., “Linear Discriminant Analysis: Loss of Discriminating Power When a Variete is Omitted”, Biometrics, Vol. 27, No.3, 1971, pp. 531-534. Ünsal, Aydın, “Diskriminant Analizi ve Uygulaması Üzerine Bir Örnek”, Gazi Üniversitesi İİBF Dergisi, Vol. 2, No. 3, pp. 19-36. ---------------, “Önemli Bileşenler, Faktör, MANOVA ve Diskriminant Analizi Yöntemleri İle Şirketlerin Mali Başarılarının Analizi”, Ankara, 1996. Yıldırım, Oğuz, “Türk Bankacılık Sektörünün Temel Sorunları ve Sektörde Yaşanan Mali Riskler”, Dış Ticaret Dergisi, 2004, http://www.dtm.gov.tr/ead/DTDERGI/ocak%202004/turk.htm Garson, G. D., “Discriminant Function Analysis” http://www2.chass.ncsu.edu/garson/pa765/discrim.htm 119 ÖZGEÇMİŞ Doğum Yeri ve Yılı: BURSA-1965 Öğr.Gör. Kurumlar : Başlama Yılı Bitirme Yılı Kurum Adı Lise: 1979 1982 BURSA ATATÜRK LİSESİ Lisans: 1983 1987 ULUDAĞ ÜNİVERSİTESİ Yüksek Lisans: 2004 2006 ULUDAĞ ÜNİVERSİTESİ Doktora: Medeni Durum: EVLİ Bildiği Y. Diller ve Düzeyi: İNGİLİZCE (ORTA) Çalıştığı Kurum (lar): Başlama-Ayrılma Tarihleri Çalışılan Kurumun Adı 1. 1989-1991 ZONGULDAK/ALAPLI KIZ LİSESİ 2. 1994-1997 BURSA OSMANGAZİ LİSESİ 3. 1997-...... BURSA NİLÜFER MİLLİ PİYANGO ANADOLU LİSESİ Yurtdışı Görevleri: Kullandığı Burslar: Aldığı Ödüller: Üye Olduğu Bilimsel ve Mesleki Topluluklar : Editör veya Yayın Kurulu Üyelikler: Yurt İçi ve Yurt Dışında katıldığı Projeler: Katıldığı Yurt İçi ve Yurt Dışı Bilimsel Toplantılar: Yayımlanan Çalışmalar: Temel Matematik- 2001 (Yüksekokullar için) Diğer: Tarih-İmza Oya CANGÜL 120