User:Korkmazel/Tümevarımsal yanlılık

Bir öğrenme algoritmasının tümevarımsal yanlılığı (endüktif önyargı), modelin daha önce karşılaşmadığı belirli girdilerin çıktılarını tahmin etmek için kullandığı varsayımlar kümesidir. Tümevarımsal yanlılık, algoritmanın bir örüntüyü başka bir örüntüden öğrenmesini sağlamaktadır (örneğin, doğrusal bir regresyon modelinde sürekli fonksiyon yerine karar ağaçlarındaki adım fonksiyonları).

Makine öğrenmesinde, bir algoritmanın belirli bir hedef çıktıyı tahmin etmeyi öğrenmeye çalıştığı durumlarla karşılaşılır. Bu amaçla, algoritmaya giriş ve çıkış değerlerini içeren eğitim örnekleri verilir. Ardından, modelden eğitim sırasında görülmeyen örnekler için doğru çıktılara yaklaşması beklenir. Ancak, daha önce karşılaşılmayan durumlar için herhangi bir çıktı değeri keyfi olabileceğinden, bu problemi çözmek için belirli varsayımlara ihtiyaç duyulur. Bu varsayımlar, tümevarımsal (endüktif) yanlılık olarak adlandırılır ve hedef fonksiyonun doğasına dair bilgileri içerir.

Klasik bir tümevarımsal yanlılık örneği, Occam'ın usturası tarafından sunulan, en basit tutarlı hipotezin aslında en iyisi olduğunu varsayan bir yaklaşımdır. "Tutarlı" burada, modelin hipotezinin tüm örnekler için doğru çıktılar üretmesi anlamına gelir.

Tümevarımsal yanlılığın daha formel bir tanımı matematiksel mantığa dayanır.Burada tümevarımsal yanlılık, eğitim verileriyle birlikte model tarafından oluşturulan hipotezi mantıksal olarak sağlayan bir formüldür. Bununla birlikte, bu katı formalizm, tümevarımsal yanlılığın pratik durumlarda kaba bir tanım olarak verilebildiği(örneğin, yapay sinir ağları) veya hiç verilemediği durumlarda yetersiz kalabilir.

Türler
Makine öğrenimi algoritmalarındaki yaygın tümevarımsal yanlılıkların bir listesi aşağıda verilmiştir:


 * Maksimum koşullu bağımsızlık: Eğer hipotez Bayes çıkarımı çerçevesinde oluşturulabiliyorsa, koşullu bağımsızlığı maksimuma çıkarmaya çalışın. Bu yanlılık Naive Bayes sınıflandırıcısında kullanılır.
 * Minimum çapraz doğrulama hatası: Hipotezler arasında seçim yaparken en düşük çapraz doğrulama hatasına sahip hipotezi seçmeye çalışın. Çapraz doğrulama, önyargısız gibi görünse de, "bedava öğle yemeği yok" teoremi çapraz doğrulamanın yanlı olması gerektiğini göstermektedir.
 * Maksimum kenar boşluğu: İki sınıf arasında bir sınır çizerken sınırın genişliğini maksimuma çıkarmaya çalışın. Bu, destek vektör makinelerinde kullanılan yanlılıktır. Varsayım, farklı sınıfların geniş sınırlarla ayrılma eğiliminde olduğu yönündedir.
 * Minimum açıklama uzunluğu: Bir hipotez oluştururken, hipotezin açıklamasının uzunluğunu en aza indirmeye çalışın.
 * Minimum özellikler: Bir özelliğin yararlı olduğuna dair sağlam bir kanıt olmadığı sürece, özelliği çıkarmaya yönelik bir yanlılık içerir. Özellik seçme algoritmalarının temelinde bu varsayım bulunmaktadır.
 * En yakın komşular: Özellik uzayındaki birbirine yakın durumların çoğunun aynı sınıfa ait olduğunu varsayın. Sınıfı bilinmeyen bir durum için, yakın çevresindeki çoğunluk ile aynı sınıfa ait olduğunu tahmin edin. Bu yanlılık, k-en yakın komşular algoritmasında kullanılır. Varsayım, birbirine yakın olan vakaların aynı sınıfa ait olma eğiliminde olduğu yönündedir.

Yanlılık değişimi
Çoğu öğrenme algoritmasının statik bir yanlılığı olmasına rağmen, bazı algoritmalar daha fazla veri elde ettikçe yanlılıklarını değiştirecek şekilde tasarlanmıştır. Bu yanlılık engellemez çünkü yanlılık değiştirme sürecinin kendisinin bir yanlılığı olması gerekir.

Ayrıca bakınız

 * Algoritmik önyargı
 * Bilişsel önyargı
 * Bedava öğle yemeği teoremi yok
 * Arama ve optimizasyonda ücretsiz öğle yemeği yok