Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.
Bu bir Ox.
Şekil 19. Ox.
1906 yılında Birleşik Krallık'ta ağırlık değerlendirme yarışması yapıldı.
787 katılımcı bir öküzün ağırlığını tahmin etti. Tek bir tahmine ait ortanca hata 37 lb (%3,1 hatası)ydı. Ancak tahminlerin genel ortanca değeri, oksit ağırlığından (1.198 lb) yalnızca 9 lb'lik bir mesafedeydi. Bu da sadece %0,7'lik bir hataydı.
Şekil 20. Ayrı ayrı kilo tahminlerinin histogramı.
Bu fıkra, kalabalığın bilgeliğini tasvir eder: Belirli durumlarda toplu görüş, kişilerin sağduyularını yansıtır.
Matematiksel olarak kalabalığın bilgeliği Merkezi sınır teoremi ile modellenebilir:
Bilinçli olarak, bir değerin ve bu değerin N gürültülü tahmininin ortalaması arasındaki kare hatası 1/N faktörüyle sıfıra düşme eğilimi gösterir.
Ancak değişkenler bağımsız değilse değişken daha büyük olur.
Makine öğreniminde topluluk, tahminlerinin ortalaması alınan (veya bir şekilde toplanan) modeller koleksiyonudur.
Birim modelleri tek tek çok kötü olmadan yeterince farklıysa
topluluğun kalitesi genellikle her bir modelin kalitesinden daha iyidir. Bir topluluk, tek bir modelden daha fazla eğitim ve çıkarım süresi gerektirir. Sonuçta, tek bir model yerine birden fazla model üzerinde eğitim ve çıkarım yapmanız gerekir.
Bir topluluğun en iyi şekilde çalışması için bağımsız modellerin bağımsız olması gerekir. Resim olarak, tamamen aynı modellerden 10 (yani bağımsız olmayan) oluşan bir topluluk, her bir modelden daha iyi değildir. Öte yandan, modelleri bağımsız hale getirmek, onları daha kötü hale getirmek anlamına gelebilir. Etkili birleştirme, modelin bağımsız modeli ile alt modellerinin kalitesi arasındaki dengeyi gerektirir.
[[["Anlaması kolay","easyToUnderstand","thumb-up"],["Sorunumu çözdü","solvedMyProblem","thumb-up"],["Diğer","otherUp","thumb-up"]],[["İhtiyacım olan bilgiler yok","missingTheInformationINeed","thumb-down"],["Çok karmaşık / çok fazla adım var","tooComplicatedTooManySteps","thumb-down"],["Güncel değil","outOfDate","thumb-down"],["Çeviri sorunu","translationIssue","thumb-down"],["Örnek veya kod sorunu","samplesCodeIssue","thumb-down"],["Diğer","otherDown","thumb-down"]],["Son güncelleme tarihi: 2022-09-26 UTC."],[[["The \"wisdom of the crowd\" suggests that collective opinions can provide surprisingly accurate judgments, as demonstrated by a 1906 ox weight-guessing competition where the collective guess was remarkably close to the true weight."],["This phenomenon can be explained by the Central Limit Theorem, which states that the average of multiple independent estimates tends to converge towards the true value."],["In machine learning, ensembles leverage this principle by combining predictions from multiple models, improving overall accuracy when individual models are sufficiently diverse and reasonably accurate."],["While ensembles require more computational resources, their enhanced predictive performance often outweighs the added cost, especially when individual models are carefully selected and combined."],["Achieving optimal ensemble performance involves striking a balance between ensuring model independence to avoid redundant predictions and maintaining the individual quality of sub-models for overall accuracy."]]],[]]