Makine Öğrenimi Sözlüğü: Makine Öğrenimiyle İlgili Temel Bilgiler

Koleksiyonlar ile düzeninizi koruyun İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.

Bu sayfada ML ile İlgili Sözlük terimleri yer almaktadır. Tüm sözlük terimleri için burayı tıklayın.

A

doğruluk

#fundamentals

Doğru sınıflandırma tahminlerinin toplam tahmin sayısına bölünmesiyle elde edilen değerdir. Yani:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

Örneğin, 40 doğru tahmin ve 10 yanlış tahminde bulunan bir modelin doğruluğu şu şekildedir:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

İkili sınıflandırma, farklı doğru tahminler ve doğru olmayan tahminler kategorileri için belirli adlar sağlar. İkili program sınıflandırmasının doğruluk formülü şu şekildedir:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

Bu örnekte:

Doğruluğu hassaslık ve hatırlanabilirlik ile karşılaştırın.

etkinleştirme işlevi

#fundamentals

Nöral ağların özellikler ile etiket arasındaki doğrusal olmayan (karmaşık) ilişkileri öğrenmesini sağlayan bir işlevdir.

Sık kullanılan etkinleştirme işlevleri şunlardır:

Etkinleştirme işlevlerinin grafiği asla tek bir düz çizgi şeklinde olmamalıdır. Örneğin, LULU etkinleştirme işlevinin olay örgüsü iki düz satırdan oluşur:

İki çizgiden oluşan çizgili bir plan. İlk satırın sabit y değeri 0'dır ve x ekseninde -infinity, 0, -, 0 arasında geçer.
          İkinci satır 0,0'dan başlar. Bu çizginin +1'in eğimi olduğu için 0,0 ile +infinity,+infinity aralığında çalışır.

Sigortayla ilgili etkinleştirme işlevinin şeması aşağıdaki gibidir:

x değeri + ile pozitif olanı kapsayan, y değerlerinin neredeyse 0 ile 1 arasındaki aralığı kapsayan iki boyutlu eğri grafik. X 0, y ise 0,5'tir. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0, 0,5'tir ve x'in mutlak değeri arttıkça eğimler giderek azalıyor.

yapay zeka

#fundamentals

Karmaşık görevleri çözebilen insan olmayan bir program veya model. Örneğin, hem metinlerin çevirisini yapan bir program veya model hem de radyolojik görüntülerden hastalıkları tanımlayan bir program ya da model yapay zekaya sahiptir.

Resmi olarak makine öğrenimi yapay zekanın bir alt alanıdır. Ancak son yıllarda bazı kuruluşlar yapay zeka ve makine öğrenimi terimlerini birbirlerinin yerine kullanmaya başladı.

AUC (ROC eğrisinin altındaki alan)

#fundamentals

İkili sınıflandırma modelini temsil eden 0,0 ile 1,0 arasında bir sayı. Bu oran, pozitif sınıfları negatif sınıflardan ayırabilir. AUC, 1,0 değerine ne kadar yakınsa modelin sınıfları birbirinden ayırma olasılığı da o kadar yüksektir.

Örneğin, aşağıdaki resimde pozitif sınıfları (yeşil oval) negatif sınıflardan (mor dikdörtgenler) kusursuz bir şekilde ayıran bir sınıflandırıcı modeli gösterilmektedir. Bu gerçekçi olmayan mükemmel modelin AUC'si 1,0'dır:

Bir tarafında 8 pozitif, diğer tarafında 9 negatif örnek içeren bir sayı satırı.

Buna karşılık, aşağıdaki çizimde rastgele sonuçlar oluşturan bir sınıflandırıcı modelinin sonuçları gösterilmektedir. Bu modelin 0,5 AUC'si vardır:

6 pozitif ve 6 negatif örnek içeren bir sayı satırı.
          Örnek dizisi pozitif, negatif, pozitif, negatif, pozitif, negatif, pozitif, negatif, pozitif negatif, pozitif, negatif olur.

Evet, önceki modelin AUC değeri 0,5 değil, 0,5'tir.

Çoğu model, bu iki aşırı uç arasında bir yerdedir. Örneğin, aşağıdaki model pozitifleri negatif içeriklerden bir miktar ayırır ve bu nedenle 0,5 ile 1,0 arasında bir AUC'ye sahiptir:

6 pozitif ve 6 negatif örnek içeren bir sayı satırı.
          Örnek dizisi negatif, negatif, negatif, negatif, pozitif, negatif, pozitif, pozitif, negatif, pozitif, pozitif, pozitif olur.

AUC, sınıflandırma eşiği için belirlediğiniz tüm değerleri yoksayar. Bunun yerine AUC, olası tüm sınıflandırma eşiklerini değerlendirir.

B

yayılma

#fundamentals

Nöral ağlarda gradyan iniş uygulayan algoritma.

Bir nöral ağın eğitiminde aşağıdaki iki geçişli döngünün birçok iterasyonu uygulanır:

  1. Yönlendirme sırasında sistem, tahminleri sağlamak için örneklerin bir toplusunu işler. Sistem, her tahmini her bir etiket değeriyle karşılaştırır. Tahmin ile etiket değeri arasındaki fark, bu örneğin kayıp değeridir. Sistem, mevcut örneklerin toplam kayıpını hesaplamak için tüm örneklerin kayıplarını toplar.
  2. Geriye dönük geçiş (geriye yayılma) sırasında sistem, tüm gizli katmanların tüm nöronların ağırlıklarını ayarlayarak kayıpları azaltır.

Nöral ağlar genellikle birçok gizli katmanda birçok nöron içerir. Bu nöronların her biri toplam kayıpa farklı şekillerde katkıda bulunur. Geri yayılma, belirli nöronlara uygulanan ağırlıkları artırıp artırmayacağını belirler.

Öğrenim oranı, her bir geriye doğru geçişin her bir ağırlığı ne kadar artıracağını veya azaltacağını kontrol eden bir çarpandır. Yüksek bir öğrenme hızı, her bir ağırlığı küçük bir öğrenme oranından daha fazla artırır veya azaltır.

Hesaplama terimlerine göre, geri yayılma kalkanı uygular.#zincir kuralı. Başka bir deyişle, geri yayılma her hataya göre hatanın kısmi türevini hesaplar. Daha fazla bilgi için bu Makine Öğrenimi Kilitlenme Kursu eğitimini inceleyin.

Yıllar önce, makine öğrenimi uygulayıcılarının geri yayılmayı uygulamak için kod yazması gerekiyordu. TensorFlow gibi modern makine öğrenimi API'leri artık sizin için geri yayılma uyguluyor. Bora

grup

#fundamentals

Tek bir eğitimde kullanılan örnekler grubu. Tekrar. Toplu boyut, bir toplu örnekteki örnek sayısını belirler.

Bir grubun bir dönemle nasıl ilişkili olduğunun açıklaması için dönem konusuna bakın.

grup boyutu

#fundamentals

Toplu işlemdeki örneklerin sayısı. Örneğin, grup boyutu 100 ise model, kez başına 100 örnek işler.

Aşağıda popüler toplu boyut stratejileri verilmiştir:

  • Grup boyutunun 1 olduğu Olası Gradyan İniş (SGD).
  • Burada toplu boyut, tüm eğitim grubunun içindeki örnek sayısıdır. Örneğin, eğitim kümesi bir milyon örnek içeriyorsa grup boyutu bir milyon örnek olur. Tam grup genellikle verimsiz bir stratejidir.
  • Paket boyutunun genellikle 10 ile 1000 arasında olduğu mini toplu. Mini grup genellikle en etkili stratejidir.

ön yargı (etik/adil)

#fairness
#fundamentals

1. Bazı şeylere, kişilere veya gruplara karşı stereosterizm, önyargı ya da favorilere ekleme. Bu sapmalar verilerin toplanmasını ve yorumlanmasını, bir sistemin tasarımını ve kullanıcıların bir sistemle nasıl etkileşimde bulunduğunu etkileyebilir. Bu tür ön yargı türleri şunlardır:

2. Örnekleme veya raporlama prosedüründen kaynaklanan sistematik hata. Bu tür ön yargı türleri şunlardır:

Makine öğrenimi modellerinde ön yargı terimi veya tahmin ön yargısı ile karıştırılmamalıdır.

ön yargı (matematik) veya ön yargı terimi

#fundamentals

Bir kaynaktan gelen müdahale veya ofset. Ön yargı, makine öğrenimi modellerinde yer alan ve aşağıdakilerden biriyle simgelenen bir parametredir:

  • b
  • hafta0

Örneğin, aşağıdaki formülde ön yargı b'dir:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Basit ve iki boyutlu çizgide, ön yargı yalnızca "y" kesişimi" anlamına gelir. Örneğin, aşağıdaki çizimde çizginin eğimi 2'dir.

Eğimi 0,5 ve ön yargısı (y kesen) 2 olan bir çizginin grafiği.

Tüm modeller kaynak (0,0) ile başlamadığı için ön yargı bulunur. Örneğin, lunaparka girmenin 2 avro ve müşterinin konakladığı her saat için 0,5 avro ek ücret aldığını varsayalım. Bu nedenle, en düşük maliyet 2 avro olduğundan toplam maliyeti eşleyen modelin 2 ön yargısı vardır.

Ön yargı, etik ve adalet ön yargısı veya tahmin ön yargısı ile karıştırılmamalıdır.

ikili program sınıflandırması

#fundamentals

Aynı anda kullanılamayan iki sınıftan birini tahmin eden bir sınıflandırma görevi türü:

Örneğin, aşağıdaki iki makine öğrenimi modelinin her ikisi de ikili sınıflandırma gerçekleştirir:

  • E-posta iletilerinin spam (olumlu sınıf) veya spam değil (negatif sınıf) olup olmadığını belirleyen model.
  • Bir kişinin belirli bir hastalığı (pozitif sınıf) olup olmadığını veya bu hastalığın (negatif sınıf) olup olmadığını belirlemek için tıbbi belirtileri değerlendiren bir model.

Çok sınıflı sınıflandırma ile kontrast oluşturun.

Lojistik regresyon ve sınıflandırma eşiği konulu makaleyi de inceleyin.

kovalama

#fundamentals

Tek bir özelliği, genellikle bir değer aralığına dayalı olarak paketler veya binler adı verilen birden fazla ikili özellik özelliğine dönüştürür. Doğranmış özellik genellikle sürekli bir özelliktir.

Örneğin, sıcaklığı tek bir sürekli kayan nokta özelliği olarak göstermek yerine, sıcaklık aralıklarını ayrı gruplar halinde kesebilirsiniz. Örneğin:

  • <= 10 santigrat derece "soğuk" paketi olur.
  • 11 - 24 santigrat derece "sıcaklık" olur.
  • >= 25 santigrat derece, "sıcak" grup olur.

Model, aynı paketteki her değeri aynı şekilde işler. Örneğin, 13 ve 22 değerlerinin her ikisi de ılık pakettedir, bu nedenle model iki değeri aynı şekilde işler.

C

kategorik veriler

#fundamentals

Belirli bir olası değer grubuna sahip özellikler. Örneğin, aşağıdaki üç olası değerden yalnızca birine sahip olabilecek traffic-light-state adlı bir kategori özelliğini düşünün:

  • red
  • yellow
  • green

traffic-light-state, kategorik bir özellik olarak temsil edildiğinde, red, green ve yellow'in sürücü davranışı üzerindeki farklı etkilerini öğrenebilir.

Kategorik özellikler bazen ayrı özellikler olarak da adlandırılır.

Sayısal verilerin karşıtlığı.

sınıf

#fundamentals

Etiketin ait olabileceği kategori. Örneğin:

Sınıflandırma modeli bir sınıfı tahmin eder. Buna karşılık, regresyon modeli sınıf yerine bir sayı tahmin eder.

sınıflandırma modeli

#fundamentals

Tahmini sınıf olan bir model. Örneğin, aşağıdaki sınıflandırma modelleri şunlardır:

  • Giriş cümlesinin dilini tahmin eden bir model (Fransızca? İspanyolca mı? İtalyanca mı?)
  • Ağaç türlerini tahmin eden bir model (Akça mı? Meşe? Baobab?).
  • Belirli bir tıbbi koşul için pozitif veya negatif sınıfı tahmin eden bir model.

Buna karşılık, regresyon modelleri sınıflar yerine sayıları tahmin eder.

Sık kullanılan iki sınıflandırma modeli türü vardır:

sınıflandırma eşiği

#fundamentals

İkili sıralamada, lojistik regresyon modelinin ham çıkışını pozitif sınıf veya negatif sınıf tahminine dönüştüren 0 ile 1 arasında bir sayıdır. Sınıflandırma eşiğinin, model eğitimi tarafından seçilen bir değer değil, kullanıcının seçtiği bir değer olduğunu unutmayın.

Lojistik regresyon modeli, 0 ile 1 arasında ham değer oluşturur. Ardından:

  • Bu işlenmemiş değer sınıflandırma eşiğinin büyükse pozitif sınıf tahmin edilir.
  • Bu işlenmemiş değer sınıflandırma eşiğinin altındaysa negatif sınıf tahmin edilir.

Örneğin, sınıflandırma eşiğinin 0,8 olduğunu varsayalım. Ham değer 0, 9 ise model pozitif sınıfı tahmin eder. Ham değer 0,7 ise model, negatif sınıfı tahmin eder.

Sınıflandırma eşiğinin seçimi, yanlış pozitiflerin ve yanlış negatiflerin sayısını büyük ölçüde etkiler.

sınıf dengesiz veri kümesi

#fundamentals

Her sınıfın toplam etiketi sayısının önemli ölçüde farklılık gösterdiği bir sınıflandırma sorunu için veri kümesi. Örneğin, iki etiketi şu şekilde bölünen bir ikili sınıflandırma veri kümesi düşünün:

  • 1.000.000 negatif etiket
  • 10 olumlu etiket

Olumsuz etiketlerin oranı 100.000 ile 1 arasındadır. Bu, sınıf dengesiz bir veri kümesidir.

Buna karşılık, aşağıdaki veri kümesi negatif etiketlerle pozitif orana göre 1'e yakın olduğundan sınıf dengeli değildir:

  • 517 negatif etiket
  • 483 olumlu etiket

Çok sınıflı veri kümelerinin sınıf dengesizliği de olabilir. Örneğin, aşağıdaki çok sınıflı sınıflandırma veri kümesi, bir etiket diğer ikisine göre daha fazla örnek içerdiği için de dengesizdir:

  • Sınıfı 1.000.000 "yeşil" etiketi
  • "mor" sınıfına sahip 200 etiket
  • Sınıfı "turuncu" olan 350 etiket

Ayrıca, entropi, büyük sınıf ve azınlık sınıfı bölümlerine de göz atın.

kırpma

#fundamentals

Aşağıdakilerden birini veya ikisini birden yaparak aykırı değerleri ele alma tekniği:

  • Maksimum eşikten daha yüksek olan özellik değerlerini bu maksimum eşiğe indirin.
  • Minimum eşiğin altında olan özellik değerlerini söz konusu minimum eşiğe kadar artırma.

Örneğin, belirli bir özellik için değerlerin% 0,5'inin 40-60 aralığının dışında kaldığını varsayalım. Bu durumda, aşağıdakileri yapabilirsiniz:

  • 60'ın (maksimum eşik) üzerindeki tüm değerleri tam olarak 60 olacak şekilde kırpın.
  • 40'ın (minimum eşik) altındaki tüm değerleri, tam olarak 40 karakter olacak şekilde kırpın.

Aykırı değerler, modellere zarar verebilir ve bazen eğitim sırasında ağırlıkların taşmasına neden olabilir. Bazı aykırı değerler, doğruluk gibi metrikleri önemli ölçüde bozabilir. Klip, hasarı sınırlamaya yarayan yaygın bir tekniktir.

Gradyan kırpma, eğitim sırasında belirli bir aralıktaki gradyan değerlerini zorunlu kılar.

kafa karışıklığı matrisi

#fundamentals

Bir sınıflandırma modelinin yaptığı doğru ve yanlış tahminlerin sayısını özetleyen bir NxN tablosu. Örneğin, ikili sınıflandırma modeli için aşağıdaki karışıklık matrisini göz önünde bulundurun:

Tümör (tahmini) Sınırsız (tahmini)
Tümör (kesin referans) 18 (TPG) 1 (yanlış pozitif)
Sınırsız (hiçbiri) 6 (TRY) 452 (TN)

Önceki karışıklık matrisi aşağıdakileri gösterir:

  • Kesin referansın Tumor olduğu 19 tahminden birinde, model 18'i doğru şekilde sınıflandırdı ve 1'i yanlış sınıflandırdı.
  • Kesin referansın Telafisiz olduğu 458 tahminden birinde, model 452'yi doğru bir şekilde sınıflandırmış ve 6. yanlış olarak sınıflandırmıştır.

Çok sınıflı sınıflandırma problemi için karışıklık matrisi, hata kalıplarını belirlemenize yardımcı olabilir. Örneğin, üç farklı iris türünü (Virginica, Versicolor ve Setosa) kategorize eden 3 sınıflı çok sınıflı bir sınıflandırma modeli için aşağıdaki karışıklık matrisini dikkate alın. Kesin referans Virginica'yı kullandığında, matris matrisi, Setosa'ya kıyasla yanlışlıkla Versicolor'u tahmin etme olasılığının çok daha yüksek olduğunu gösterir:

  Setosa (tahmini) Versicolor (tahmini) Virginica (tahmini)
Setosa (kesin referans) 88 12 0
Versicolor (kesin referans) 6 141 7
Virjinica (kesin referans) 2 27 109

Bir diğer örnek de, karışıklık matrisi, elle yazılmış sayıları tanımak için eğitilen bir modelin genellikle 4 yerine 9'u veya 7 yerine 1'i yanlışlıkla tahmin etme eğilimi gösterdiğini ortaya koyabilir.

Kafa karışıklığı matrisleri, hassaslık ve hatırlanabilirlik gibi çeşitli performans metriklerini hesaplamak için yeterli bilgi içerir.

kesintisiz özellik

#fundamentals

Sıcaklık veya ağırlık gibi sınırsız olası değer aralığına sahip kayan nokta özelliği.

Ayrıntılı özellik ile kontrast oluşturun.

dönüşüm

#fundamentals

Kaybedilen değerler çok az değiştiğinde veya hiç değişmediğinde ulaşılan durum. Her yineleme için. Örneğin, aşağıdaki kayıp eğrisi yaklaşık 700 yinelemeyle birleşim olduğunu gösterir:

Cartesian hikayesi. X ekseni kayıptır. Y ekseni, eğitim yinelemelerinin sayısıdır. İlk birkaç iterasyonda kayıp çok yüksek olsa da ciddi oranda düşüyor. Yaklaşık 100 tekrardan sonra kayıp hâlâ azalan ancak çok daha yavaş bir şekilde ilerliyor. Yaklaşık 700 yinelemeden sonra kayıp sabit kalır.

Bir model, ek eğitimin modeli geliştirmediği durumlarda birleşir.

Derin öğrenmede, kayıp değerleri zaman zaman azalana kadar birçok tekrar için sabit kalır. Uzun süreli sabit kayıp değerleri sırasında geçici olarak yanlış bir yakınlık hissi yaşayabilirsiniz.

Erken durma konusuna da bakın.

G

DataFrame

#fundamentals

Popüler bir pandas veri türü, bellekteki veri kümelerini temsil eder.

DataFrame, tablo veya e-tabloya benzerdir. DataFrame'in her sütununun bir adı (başlık) vardır ve her satır benzersiz bir sayıyla tanımlanır.

Bir DataFrame'deki her sütun, 2D dizisi gibi yapılandırılır ancak her sütuna kendi veri türü atanabilir.

Resmi pandas.DataFrame referans sayfasını da inceleyin.

veri kümesi veya veri kümesi

#fundamentals

Aşağıdaki biçimlerden birinde düzenlenmiş (çoğunlukla hariç) ham veri koleksiyonu:

  • e-tablo
  • CSV (virgülle ayrılmış değerler) biçiminde bir dosya

derin model

#fundamentals

Birden fazla gizli katman içeren bir nöral ağ.

Derin modeller derin nöral ağ olarak da adlandırılır.

Geniş model ile zıtlık.

yoğun özellik

#fundamentals

Değerlerin çoğunun veya tümünün sıfır olmadığı bir özellik (genellikle kayan nokta değerlerinin bir Tensörü). Örneğin, aşağıdaki 10 öğeli Tensor değeri, 9 değeri sıfır olmadığı için yoğundur:

8 3 7 5 2 4 0 4 9 6

Savaşlık özelliğiyle kontrast oluşturun.

derinlik

#fundamentals

Bir nöral ağda aşağıdakilerin toplamı:

Örneğin, beş gizli katmanı ve bir çıkış katmanı bulunan bir nöral ağın derinliği 6'dır.

Giriş katmanının derinliği etkilemediğine dikkat edin.

ayrı özellik

#fundamentals

Olası değerlerden oluşan sonlu bir grubun yer aldığı bir özellik. Örneğin, değerleri yalnızca hayvan, sebze veya mineral olabilecek bir özellik, ayrıntılı (veya kategorik) bir özelliktir.

Kesintisiz özellik ile karşıtlık.

dinamik

#fundamentals

Sık sık veya sürekli olarak bir şey yapmak. Dinamik ve çevrimiçi terimleri, makine öğreniminde eş anlamlıdır. Makine öğreniminde dinamik ve online kavramlarının yaygın kullanım şekilleri aşağıda belirtilmiştir:

  • Dinamik model (veya online model), sık sık veya sürekli olarak yeniden eğitilen bir modeldir.
  • Dinamik eğitim (veya online eğitim), sık veya sürekli bir eğitim sürecidir.
  • Dinamik çıkarım (veya çevrimiçi çıkarım), isteğe bağlı olarak tahmin oluşturma işlemidir.

dinamik model

#fundamentals

Sık sık (belki de sürekli) yeniden eğitilen bir model. Dinamik model, sürekli gelişen verilere uyum sağlayan "ömür boyu öğrenen"dir. Dinamik model, online model olarak da bilinir.

Statik model ile kontrast oluşturun.

E

erken durduruluyor

#fundamentals

Eğitim kaybı azalmadan önce eğitim'in sona ermesini içeren normalleştirme yöntemi. Erken durdurmada, bir doğrulama veri kümesindeki kayıp artmaya başladığında modeli kasten eğitmeyi durdurursunuz. Genelleştirme performansı kötüleşir.

katman yerleştir

#language
#fundamentals

Daha küçük boyutlu bir yerleştirme vektörünü kademeli olarak öğrenmek için yüksek boyutlu kategorik özellik eğitimi yapan özel bir gizli katman. Yerleştirme katmanı, nöral ağın yalnızca yüksek boyutlu kategorik özellik eğitimine kıyasla çok daha verimli bir şekilde eğitilmesini sağlar.

Örneğin, Earth şu anda yaklaşık 73.000 ağaç türünü desteklemektedir. Ağaç türlerinin modelinizdeki bir özellik olduğunu ve modelinizin giriş katmanının 73.000 öğe uzunluğunda tek bir vektör içerdiğini varsayalım. Örneğin, baobab şu şekilde temsil edilebilir:

73.000 öğeden oluşan dizi. İlk 6.232 öğe,0 değerini tutar. Sonraki öğe 1 değerini tutar. Son 66.767 öğe sıfır değerini tutar.

73.000 öğeli bir dizi çok uzundur. Modele bir yerleştirme katmanı eklemezseniz 72.999 sıfırın çarpımı nedeniyle eğitim çok zaman alır. Yerleştirme katmanını 12 boyuttan oluşan bir boyut seçerek Sonuç olarak, yerleştirme katmanı kademeli olarak her bir ağaç türü için yeni bir yerleştirme vektörü öğrenir.

Belirli durumlarda yerleştirme katmanına makul bir alternatif olarak karma oluşturma işlemi yapılabilir.

sıfır zaman

#fundamentals

Eğitim grubunun tamamını kapsayan, her bir örnek için bir kez işlenmiş tam eğitim kartı.

Dönem, toplam örnek sayısı olan N/toplu boyut eğitimi çevirilerini temsil eder.

Örneğin, şunları varsayalım:

  • Veri kümesi 1.000 örnekten oluşur.
  • Grup boyutu 50 örnektir.

Bu nedenle, tek bir dönem için 20 tekrar gerekir:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

Örnek

#fundamentals

Bir özellik satırı ve bir etiketin değerleri. Gözetimli öğrenme ile ilgili örnekler iki genel kategoriye ayrılır:

  • Etiketli örnek, bir veya daha fazla özellik ile bir etiketten oluşur. Etiketli örnekler eğitim sırasında kullanılır.
  • Etiketlenmemiş örnek, bir veya daha fazla özellikten oluşur ancak etiket içermez. Çıkarım sırasında etiketlenmemiş örnekler kullanılır.

Örneğin, hava koşullarının öğrenci test puanları üzerindeki etkisini belirlemek için bir modeli eğittiğinizi varsayalım. Etiketlenen üç örneği aşağıda bulabilirsiniz:

Özellikler Etiket
Sıcaklık Nem Basınç Test puanı
15 47 998 İyi
19 34 1020 Mükemmel
18 92 1012 Yetersiz

Aşağıda, etiketlenmemiş üç örnek verilmiştir:

Sıcaklık Nem Basınç  
12 62 1014  
21 47 1017  
19 41 1021  

Veri kümesi satırı genellikle bir örneğin ham kaynağıdır. Diğer bir deyişle, örnek genellikle veri kümesindeki sütunların bir alt kümesinden oluşur. Ayrıca, bir örnekteki özellikler özellik çaprazları gibi yapay özellikleri de içerebilir.

C

yanlış negatif (yanlış negatif)

#fundamentals

Modelin negatif sınıfı yanlışlıkla tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta iletisinin spam olmadığını (negatif sınıf) tahmin eder ancak e-posta iletisinin gerçekten spam olduğunu tahmin eder.

yanlış pozitif (yanlış pozitif)

#fundamentals

Modelin pozitif sınıfı yanlışlıkla tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta iletisinin spam (pozitif sınıf) olduğunu, ancak e-posta iletisinin aslında spam olmadığını tahmin eder.

yanlış pozitif oranı (FPR)

#fundamentals

Modelin yanlışlıkla pozitif sınıfı tahmin ettiği gerçek negatif örneklerin oranı. Aşağıdaki formül yanlış pozitif oranını hesaplar:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

Yanlış pozitif oran, bir ROC eğrisindeki x eksenidir.

özellik

#fundamentals

Makine öğrenimi modeli için bir giriş değişkeni. Örnek, bir veya daha fazla özellikten oluşur. Örneğin, hava koşullarının öğrenci test puanları üzerindeki etkisini belirlemek için bir modeli eğittiğinizi varsayalım. Aşağıdaki tabloda her biri üç özellik ve bir etiket olmak üzere üç örnek gösterilmektedir:

Özellikler Etiket
Sıcaklık Nem Basınç Test puanı
15 47 998 92
19 34 1020 84
18 92 1012 87

Etiket ile kontrast oluşturun.

özellik çaprazı

#fundamentals

Geçişli kategorik veya gruplanmış özelliklerden oluşan yapay özellik.

Örneğin, aşağıdaki dört paketten birinde sıcaklığı temsil eden bir "ruh hali öngörme" modelini inceleyelim:

  • freezing
  • chilly
  • temperate
  • warm

Aşağıdaki üç paketten birinde rüzgar hızını temsil eder:

  • still
  • light
  • windy

Özellik çarpıları olmadan, doğrusal model önceki yedi paketin her birinde bağımsız olarak eğitilir. Bu nedenle model, örneğin windy eğitiminden bağımsız olarak freezing üzerinde çalışır.

Alternatif olarak, aşırı ısınma ve rüzgar hızı gibi bir özellik oluşturabilirsiniz. Bu yapay özelliğin olası 12 değeri olabilir:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

Özellik çaprazları sayesinde model, freezing-windy gün ile freezing-still gün arasında ruh hali farklarını öğrenebilir.

Her biri çok sayıda farklı gruba sahip olan iki özellikten sentetik bir özellik oluşturursanız ortaya çıkan özellik çaprazı, çok sayıda olası kombinasyona sahip olur. Örneğin, bir özelliğin 1.000 paket ve diğer özelliğin 2.000 paket olması durumunda ortaya çıkan özellik çarpı 2.000.000 pakete sahiptir.

Resmi olarak, bir haç Cartesian ürünüdür.

Özellik haçları, genellikle doğrusal modellerle kullanılır ve nöral ağlarla nadiren kullanılır.

özellik mühendisliği

#fundamentals
#TensorFlow

Aşağıdaki adımları içeren bir işlem:

  1. Model eğitirken hangi özelliklerin yararlı olabileceğini belirleme.
  2. Veri kümesindeki ham verileri bu özelliklerin verimli sürümlerine dönüştürme.

Örneğin, temperature özelliğinin yararlı bir özellik olabileceğini belirleyebilirsiniz. Ardından, modelin farklı temperature aralıklarından neler öğrenebileceğini optimize etmek için gruplandırma özelliğini deneyebilirsiniz.

Özellik mühendisliği bazen özellik çıkarma olarak da adlandırılır.

özellik grubu

#fundamentals

Makine öğrenimi modelinizin eğitildiği özellikler grubu. Örneğin, posta kodu, mülk boyutu ve mülk durumu, konut fiyatlarını tahmin eden bir model için basit bir özellik kümesini derleyebilir.

özellik vektörü

#fundamentals

Bir örneği içeren özellik değerleri dizisi. Özellik vektörü, eğitim ve çıkarım sırasında girilir. Örneğin, iki farklı özelliğe sahip bir modelin özellik vektörü şu şekilde olabilir:

[0.92, 0.56]

Dört katman: Giriş katmanı, iki gizli katman ve bir çıkış katmanı.
          Giriş katmanı, biri 0,92 değerini ve diğeri 0,56 değerini içeren iki düğüm içerir.

Her örnek, özellik vektörü için farklı değerler sağlar. Bu nedenle, bir sonraki örnekteki özellik vektörü aşağıdaki gibi olabilir:

[0.73, 0.49]

Özellik mühendisliği, özellik vektöründeki özelliklerin nasıl temsil edileceğini belirler. Örneğin, beş olası değere sahip ikili bir kategorik özellik, tek bir sıcak kodlamayla gösterilebilir. Bu durumda, özellik vektörünün belirli bir örnek için kısmı, sıfırlardan ve üçüncü konumda tek bir 1,0 değerinden oluşur.Bu değer, aşağıdaki gibidir:

[0.0, 0.0, 1.0, 0.0, 0.0]

Başka bir örnek olarak, modelinizin üç özellikten oluştuğunu varsayalım:

  • beş olası değeri ve tek bir sıcak kodlamayı temsil eden ikili kategorik bir özellik; örneğin: [0.0, 1.0, 0.0, 0.0, 0.0]
  • Tek sıcak kodlamayla temsil edilen üç olası değere sahip başka bir ikili kategori özelliği; örneğin: [0.0, 0.0, 1.0]
  • bir kayan nokta özelliği (ör. 8.3).

Bu durumda, her örneğin özellik vektörü dokuz değerle temsil edilir. Yukarıdaki listedeki örnek değerler doğrultusunda, özellik vektörü şu şekildedir:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

geri bildirim döngüsü

#fundamentals

Makine öğreniminde, bir modelin tahminlerinin aynı model veya başka bir modelin eğitim verilerini etkilediği bir durum. Örneğin, film öneren bir model, kullanıcıların gördüğü filmleri etkiler ve sonraki film önerisi modelleri bundan etkilenir.

Y

genelleştirme

#fundamentals

Model, daha önce görülmeyen yeni verilerle ilgili doğru tahminlerde bulunma yeteneğine sahiptir. Genelleştirme yapan modeller, uygunsuz bir modelin tersidir.

genelleştirme eğrisi

#fundamentals

Alıntı sayısının işlevi olarak hem eğitim kaybı hem de doğrulama kaybı grafiği.

Genelleme eğrisi, olası aşırı eşleşmeleri tespit etmenize yardımcı olabilir. Örneğin, aşağıdaki genelleştirme eğrisi aşırı uyuma işaret eder. Bunun nedeni, doğrulama kaybının nihai olarak eğitim kaybından önemli ölçüde daha yüksek olmasıdır.

Y ekseninin &#39;kayıp&#39; ve x ekseninin &#39;iterasyon&#39; olarak etiketlendiği Kartezyen grafiği. İki plan gösterilir. Şemalardan biri eğitim kaybını, diğeri ise doğrulama kaybını göstermektedir.
          İki alan benzer şekilde başlıyor ancak eğitim kaybı sonunda doğrulama kaybından çok daha düşük seviyelere ulaşıyor.

gradyan iniş

#fundamentals

Kaybolma oranını en aza indirmek için matematiksel tekniktir. Kademeli iniş, ağırlıkları ve önyargıları tekrar tekrar görerek kaybını en aza indirmek için en iyi kombinasyonu aşamalı olarak bulur.

Gradyan inişi makine öğreniminden çok daha eski, çok daha eskidir.

kesin referans

#fundamentals

Gerçeklik.

Aslında olan şey.

Örneğin, üniversitedeki ilk yıllarında bir öğrencinin altı yıl içinde mezun olup olmayacağını tahmin eden bir ikili sınıflandırma modeli kullanmayı düşünebilirsiniz. Bu modelle ilgili kesin bilgi, öğrencinin altı yıl içinde mezun olup olmadığıdır.

H

gizli katman

#fundamentals

Nöral ağda giriş katmanı (özellikler) ile çıkış katmanı (tahmini) arasında bir katmandır. Her gizli katman bir veya daha fazla nörondan oluşur. Örneğin, aşağıdaki nöral ağda iki gizli katman vardır: birincisi üç nöron, ikincisi iki nöron.

Dört katman. İlk katman, iki özellik içeren bir giriş katmanıdır. İkinci katman, üç nöron içeren gizli bir katmandır. Üçüncü katman, iki nöron içeren gizli bir katmandır. Dördüncü katman, bir çıkış katmanıdır. Her özellik, her biri ikinci katmanda farklı bir nörona işaret eden üç kenar içerir. İkinci katmandaki nöronların her biri, her biri üçüncü katmandaki farklı bir nörona işaret eden iki kenar içerir. Üçüncü katmandaki nöronların her biri, her biri çıkış katmanına işaret eden bir kenar içerir.

Derin nöral ağ birden fazla gizli katman içerir. Örneğin, önceki resimde derin bir nöral ağ yer almaktadır. Bunun nedeni, modelin iki gizli katman içermesidir.

hiperparametre

#fundamentals

Sizin veya bir hiperparametre ayarlama hizmetinin bir modeli art arda çalıştırdığınız çalıştırmalarda ayarlanır. Örneğin, öğrenme oranı bir hiperparametredir. Bir eğitim oturumundan önce öğrenme oranını 0,01 olarak ayarlayabilirsiniz. 0,01 değerinin çok yüksek olduğunu belirlerseniz bir sonraki eğitim oturumu için öğrenme oranını 0,003 olarak ayarlayabilirsiniz.

Buna karşılık, parametreler, modelin eğitim sırasında öğrendiği çeşitli ağırlıklar ve ön yargıdır.

I

bağımsız ve aynı şekilde dağıtılır (ör.

#fundamentals

Değişmeyen ve her bir değerin çekildiği dağıtımdan alınan veriler daha önce çizilen değerlere bağlı değildir. ideal makine öğrenimi, yararlı bir matematiksel yapıdır, ancak gerçek dünyada neredeyse hiçbir zaman bulunamaz. İdeal gazdır. Örneğin, bir web sayfasının ziyaretçilerinin dağılımı kısa bir zaman dilimi içinde ör. kısa bir zaman aralığı içinde olabilir. Yani dağılım bu kısa zaman aralığında değişmez ve bir kullanıcının ziyareti genellikle başka bir kullanıcının ziyaretinden bağımsızdır. Ancak bu zaman aralığını genişletirseniz web sayfasının ziyaretçilerinde mevsimsel farklılıklar görünebilir.

Ayrıca istismarsızlık konusunu da inceleyin.

çıkarım

#fundamentals

Makine öğreniminde, eğitilmiş bir modeli etiketlenmemiş örneklere uygulayarak tahminde bulunma işlemi.

Çıkarımın istatistiklerde biraz farklı bir anlamı vardır. Ayrıntılar için istatistiksel çıkarımlarla ilgili Wikipedia makalesine bakın.

giriş katmanı

#fundamentals

Özellik vektörünü tutan bir nöral ağın katmanı. Yani giriş katmanı, eğitim veya çıkarım için örnekler sağlar. Örneğin, aşağıdaki nöral ağda giriş katmanı iki özellikten oluşur:

Dört katman: Giriş katmanı, iki gizli katman ve bir çıkış katmanı.

yorumlanabilirlik

#fundamentals

Bir makine öğrenimi modelini mantıksal olarak insanlara açıklama veya gösterme becerisi.

Örneğin doğrusal regresyon modellerinin çoğu, çok iyi yorumlanabilir. (Her bir özelliğin eğitimli ağırlıklarına bakmanız yeterlidir.) Karar ormanları da yüksek düzeyde yorumlanabilir. Bununla birlikte, bazı modellerin yorumlanabilir olması için gelişmiş görselleştirme gerekir.

iterasyon

#fundamentals

Eğitim sırasında, model#yönleri ve ağırlıklar tek bir güncellemeyle güncellenir. Toplu boyut, modelin tek bir yinelemede kaç örneği işlediğini belirler. Örneğin, grup boyutu 20 ise model, parametreleri ayarlamadan önce 20 örneği işler.

Bir nöral ağı eğitirken tek bir yineleme aşağıdaki iki kartı içerir:

  1. Tek bir paketteki kaybı değerlendirmek için ileriye doğru geçiş.
  2. Kayba ve öğrenme hızına göre model parametrelerini ayarlamak için geriye dönük geçiş (geri yayılma).

L

L0 normalleştirmesi

#fundamentals

Bir modeldeki sıfır toplam ağırlık için ceza veren bir normalleştirme türü. Örneğin, 11 sıfır olmayan bir ağırlıka sahip bir modelin ağırlığı, 10 ağırlığı olmayan benzer bir modele göre daha fazla cezalandırılır.

L0 normalleştirmesi nadiren kullanılır.

L1 kaybı

#fundamentals

Gerçek etiket değerleri ile modelin tahmin ettiği değerler arasındaki farkın mutlak değerini hesaplayan bir kayıp işlevi. Örneğin, örnek ile ilgili beş topluluk için L1 kaybı hesaplaması aşağıda verilmiştir:

Örneğin gerçek değeri Modelin tahmini değeri Deltanın mutlak değeri
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 kayıp

L1 kayıp, L2 kayıptan daha az hassastır.

Ortalama Mutlak Hata, örnek başına ortalama L1 kaybıdır.

L1 normalleştirmesi

#fundamentals

Ağırlıkların toplam değeriyle orantılı olarak ağırlıklara ceza veren bir normalleştirme türü. L1 normalleştirmesi, alakasız veya hemen hemen hiç olmayan özelliklerin ağırlıklarını tam olarak 0'a çekmeye yardımcı olur. Ağırlığı 0 olan bir özellik modelden etkili bir şekilde kaldırılır.

L2 normalleştirmesinin aksine.

L2 kaybı

#fundamentals

Gerçek etiket değerleri ile modelin tahmin ettiği değerler arasındaki farkın karesini hesaplayan bir kayıp işlevi. Örneğin, aşağıdaki örnek için beş toplu değer olan L2 kayıp hesaplamasını aşağıda görebilirsiniz:

Örneğin gerçek değeri Modelin tahmini değeri Delta meydanı
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = L2 kaybı

Kabartma nedeniyle L2 kaybı aykırı yaratılmasının etkisini artırır. Yani L2 kaybı, kötü tahminlere L1 kaybından daha güçlü tepki verir. Örneğin, önceki grubun L1 kaybı 16 yerine 8 olur. Tek bir aykırı değer, 16'nın 9'unu dikkate alır.

regresyon modelleri genellikle kayıp işlevi olarak L2 kaybını kullanır.

Ortalama Karesel Hata, örnek başına ortalama L2 kaybıdır. Kare kaybı, L2 kaybının başka bir adıdır.

L2 normalleştirmesi

#fundamentals

Ağırlıkların karelerinin toplamına oranla ağırlıklara ceza veren bir normalleştirme türü. L2 normalleştirmesi, olağan dışı ağırlıkları (yüksek pozitif veya düşük negatif değerlere sahip olanlar) 0'a yakın tutmaya yardımcı olur ancak tam olarak 0'a eşit değildir. Değerleri 0'a çok yakın olan özellikler modelde kalır ancak modelin tahminini çok fazla etkilemez.

L2 normalleştirmesi doğrusal modellerde genelleştirmeyi her zaman iyileştirir.

L1 normalleştirmesinin aksine.

etiket

#fundamentals

Gözetimli makine öğrenimi bölümünde, bir örneğin "yanıt" veya "sonuç" kısmıdır.

Her etiketli örnek, bir veya daha fazla özellikten ve bir etiketten oluşur. Örneğin, bir spam algılama veri kümesinde etiket muhtemelen "spam" veya "spam değil" olur. Yağış veri kümesinde etiket, belirli bir süre boyunca yağan yağmur miktarı olabilir.

etiketli örnek

#fundamentals

Bir veya daha fazla özellik ve bir etiket içeren örnek. Aşağıdaki tabloda, her biri üç özellik ve bir etiket olmak üzere, bir ev değerleme modelinden üç etiketli örnek gösterilmektedir:

Yatak odası sayısı Banyo sayısı Evin yaşı Evin fiyatı (etiket)
3 2 15 345.000 ABD doları
2 1 72 179.000 ABD doları
4 2 34 392.000 ABD doları

Gözetimli makine öğreniminde, modeller etiketli örnekler üzerinde eğitir ve etiketlenmemiş örnekler hakkında tahminlerde bulunur.

Etiketlenmemiş örneklerle kontrast etiketli örnek.

Lambda

#fundamentals

Normalleştirme oranı ile eş anlamlıdır.

Lambda aşırı yüklenmiş bir terim. Burada normalleştirme teriminin tanımına odaklanıyoruz.

katman

#fundamentals

Nöral ağdaki bir nöron. Sık kullanılan üç katman türü şunlardır:

Örneğin, aşağıdaki resimde bir giriş katmanı, iki gizli katman ve bir çıkış katmanı olan bir nöral ağ gösterilmektedir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı bulunan bir nöral ağ. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

TensorFlow'da katmanlar, Tensörler ve yapılandırma seçeneklerini giriş olarak alan ve çıkış olarak diğer tensörleri üreten Python işlevleridir.

öğrenme hızı

#fundamentals

gradyan inişi algoritmasına her bir yineleme üzerinde ağırlıkları ve önyargıları ne kadar güçlü ayarlayacağını söyleyen kayan nokta numarası. Örneğin, 0,3 öğrenme oranı, ağırlıkların ve sapmaların 0,1 öğrenme hızından üç kat daha güçlü bir şekilde ayarlandığını gösterir.

Öğrenme oranı, temel bir hiperparametredir. Öğrenme oranını çok düşük bir değere ayarlarsanız eğitim çok uzun sürer. Öğrenme oranını çok yüksek yaparsanız gradyan inişi genellikle dönüşüme ulaşmada sorun yaşar.

doğrusal model

#fundamentals

Tahminler oluşturmak için özellik başına bir ağırlık atayan bir model. (Doğrusal modeller, bir önyargıya da yer verir.) Buna karşılık, özelliklerin derin modellerdeki tahminlerle ilişkisi genellikle doğrusal değildir.

Doğrusal modellerin eğitilmesi genellikle daha kolaydır ve derin modellere kıyasla yorumlanabilirdir. Ancak derin modeller özellikler arasında karmaşık ilişkiler öğrenebilir.

Doğrusal regresyon ve lojistik regresyon, iki doğrusal model türüdür.

doğrusal

#fundamentals

Yalnızca toplama ve çarpma yoluyla gösterilebilecek iki veya daha fazla değişken arasındaki ilişki.

Doğrusal ilişkinin çizgisi çizgidir.

Doğrusal olmayan kontrast.

doğrusal regresyon

#fundamentals

Aşağıdakilerin her ikisinin de geçerli olduğu bir makine öğrenimi modeli türü:

Doğrusal regresyonla oluşturulan lojistik regresyon kontrastı. Ayrıca, regresyonu sınıflandırma ile karşılaştırın.

mantıksal regresyon

#fundamentals

Olasılığı tahmin eden bir regresyon modeli türü. Lojistik regresyon modelleri aşağıdaki özelliklere sahiptir:

  • Etiket, kategoriktir. Lojistik regresyon terimi, genellikle ikili lojistik regresyon anlamına gelir. Bu, iki olası değere sahip etiketler için olasılığı hesaplayan bir modeli ifade eder. Daha seyrek kullanılan bir varyant olan çok terimli lojistik regresyon, ikiden fazla olası değere sahip etiketler için olasılığı hesaplar.
  • Eğitim sırasında kayıp fonksiyonu Log Loss'dur. (İkiden fazla olası değere sahip etiketler için paralel olarak birden fazla Log Loss birimi yerleştirilebilir.)
  • Model, derin sinir ağına değil, doğrusal mimariye sahiptir. Ancak bu tanımın geri kalanı, kategorik etiketler için olasılığı tahmin eden derin modeller için de geçerlidir.

Örneğin, bir giriş e-postasının spam olup olmadığına dair olasılığı hesaplayan lojistik regresyon modelini ele alalım. Çıkarım sırasında modelin 0, 72'yi tahmin ettiğini varsayalım. Bu nedenle, model aşağıdakileri tahmin ediyor:

  • E-postanın spam olma olasılığı% 72'dir.
  • E-postanın spam olmaması ihtimali% 28'dir.

Lojistik regresyon modeli, aşağıdaki iki adımlı mimariyi kullanır:

  1. Model, giriş özelliklerinin doğrusal bir işlevini uygulayarak ham tahmin (y') oluşturur.
  2. Model, bu işlenmemiş tahmini sigmoid işlevine giriş olarak kullanır. Bu, ham öngörüyü 0 ile 1 arasındaki bir değere (hariç) dönüştürür.

Her regresyon modelinde olduğu gibi, lojistik regresyon modeli de bir sayıyı tahmin eder. Ancak bu sayı genellikle aşağıdaki gibi bir ikili sınıflandırma modelinin bir parçası haline gelir:

  • Öngörülen sayı sınıflandırma eşiğinden büyükse ikili sınıflandırma modeli, pozitif sınıfı tahmin eder.
  • Tahmin edilen sayı, sınıflandırma eşiğinden düşükse ikili sınıflandırma modeli, negatif sınıfı tahmin eder.

Günlük Kaybı

#fundamentals

İkili lojistik regresyonda kullanılan kayıp işlevi.

günlük bahis oranları

#fundamentals

Bir etkinlik ihtimalinin logaritması.

mağlubiyet

#fundamentals

Gözetimli modelin eğitim sürecinde, bir modelin tahmini ile etiketi arasındaki mesafenin ölçümüdür.

Kaybedilen işlev, kayıpı hesaplar.

kayıp eğrisi

#fundamentals

Eğitim sayısı sayısının işlevi olarak kayıp. Aşağıdaki şemada tipik bir kayıp eğrisi gösterilmektedir:

İlk iterasyonlarda hızlı bir düşüşün, ardından kademeli düşüşün ve son iterasyonlar sırasında ortaya çıkan düz bir eğimin gösterildiği, Kartezli bir kayıp ile eğitim yinelemeleri grafiği.

Kaybedilen eğriler, modelinizin ne zaman birleştiğini veya çok uygun olduğunu belirlemenize yardımcı olabilir.

Kaybedilen eğriler, aşağıdaki tüm kayıp türlerinin grafiğini çizebilir:

Genelleme eğrisini de inceleyin.

kayıp işlev

#fundamentals

Eğitim veya test sırasında, bir toplu örnekteki kaybı hesaplayan matematiksel işlev. Kayıp işlevi, iyi tahminler yapan modeller için kötü tahminlerde bulunan modellere kıyasla daha düşük bir kayıp sağlar.

Eğitimin amacı genellikle bir kayıp işlevinin döndürdüğü kayıpı en aza indirmektir.

Birçok farklı kayıp işlevi vardır. Derlediğiniz model türü için uygun kayıp işlevini seçin. Örneğin:

A

makine öğrenimi

#fundamentals

Giriş verilerinden bir model eğitiren program veya sistem. Eğitilen model, modeli eğitmek için kullanılan dağıtımla aynı dağılımdan alınan yeni (hiç görülmemiş) verilerden faydalı tahminlerde bulunabilir.

Makine öğrenimi bu program veya sistemlerle ilgili çalışma alanını da ifade eder.

sınıf çoğu

#fundamentals

Sınıf dengesiz bir veri kümesinde daha sık kullanılan etiket. Örneğin, %99 negatif etiket ve% 1 pozitif etiket içeren bir veri kümesi göz önüne alındığında, negatif etiketler çoğunlukla sınıftır.

Azınlık sınıfı ile kontrast oluşturun.

mini toplu

#fundamentals

Bir yineleme olarak işlenen toplu küçük, rastgele seçilen bir alt küme. Mini bölmenin toplu boyutu genellikle 10 ila 1.000 örnektir.

Örneğin, tüm eğitim setinin (tüm grup) 1.000 örnekten oluştuğunu varsayalım. Daha sonra, her bir mini toplu havuzun toplu boyutunu 20 olarak ayarladığınızı varsayalım. Bu nedenle her tekrar, 1.000 örnekten rastgele 20'lik öğede kaybı belirler ve ardından ağırlıklar ile ön yargıları buna göre ayarlar.

Minimal bir gruptaki kayıpları hesaplamak, tüm gruptaki örneklerdeki kayıptan daha etkilidir.

azınlık sınıfı

#fundamentals

Sınıf dengesiz bir veri kümesi içinde daha az kullanılan etiket. Örneğin, %99 negatif ve% 1 olumlu etiket içeren bir veri kümesi göz önüne alındığında, pozitif etiketler azınlık sınıfıdır.

Üst düzey ders ile zıtlık.

model

#fundamentals

Genel olarak, giriş verilerini işleyen ve çıkış döndüren matematiksel yapılar. Farklı şekilde ifade edilen modeller, bir sistemin tahmin yapabilmesi için gereken parametre ve yapı grubudur. Gözetimli makine öğreniminde, model bir giriş olarak örnek alır ve çıktı olarak bir tahmin kullanılır. Gözetimli makine öğreniminde, modeller biraz farklılık gösterir. Örneğin:

  • Doğrusal regresyon modeli, bir ağırlıklar grubu ve ön yargıdan oluşur.
  • Nöral ağ modeli aşağıdakilerden oluşur:
    • Her biri bir veya daha fazla nöron içeren bir gizli katman grubu.
    • Her bir nöronla ilişkili ağırlıklar ve ön yargı.
  • Karar ağacı modeli şunlardan oluşur:
    • Ağacın şekli; yani koşulların ve yaprakların birbirine bağlandığı kalıptır.
    • Koşullar ve ayrılma.

Bir modeli kaydedebilir, geri yükleyebilir veya kopyalayabilirsiniz.

Gözetimsiz makine öğrenimi de modeller oluşturur. Bu işlev, bir giriş örneğini genellikle en uygun kümeyle eşleyebilir.

çok sınıflı sınıflandırma

#fundamentals

Gözetimli öğrenmede, veri kümesinin ikiden fazla sınıf öğesini içerdiği bir sınıflama sorunu. Örneğin, Iris veri kümesindeki etiketler aşağıdaki üç sınıftan biri olmalıdır:

  • Zambak
  • Virgin Adaları
  • Mercek rengi

İris veri kümesi üzerinde eğitilen bir model yeni örneklerde Iris türünü tahmin eder ve çok sınıflı sınıflandırma gerçekleştirir.

Buna karşılık, tam olarak iki sınıfı birbirinden ayıran sınıflandırma sorunları ikili sınıflandırma modelleridir. Örneğin, spam veya spam değil'i tahmin eden bir e-posta modeli, ikili sınıflandırma modelidir.

Kümeleme sorunlarında çok sınıflı sınıflandırma ikiden fazla kümeyi ifade eder.

H

negatif sınıf

#fundamentals

İkili sınıflandırma'da bir sınıf olumlu, diğeri negatif olarak adlandırılır. Pozitif sınıf, modelin test ettiği öğe veya etkinliktir. Negatif sınıf ise diğer olasılıktır. Örneğin:

  • Tıbbi testteki negatif sınıf "tümör değil" olabilir.
  • Bir e-posta sınıflandırıcıdaki negatif sınıf "spam değil" olabilir.

Pozitif sınıf ile kontrast oluşturun.

nöral ağ

#fundamentals

En az bir gizli katman içeren model. Derin nöral ağ, birden fazla gizli katman içeren bir nöral ağ türüdür. Örneğin, aşağıdaki şemada iki gizli katman içeren bir derin nöral ağ gösterilmektedir.

Giriş katmanı, iki gizli katman ve bir çıkış katmanı bulunan bir nöral ağ.

Bir nöral ağdaki her nöron bir sonraki katmandaki tüm düğümlere bağlanır. Örneğin, önceki şemada, ilk gizli katmandaki üç nöronun her birinin ikinci gizli katmandaki iki nörona ayrı ayrı bağlandığına dikkat edin.

Bilgisayarlarda uygulanan nöral ağlar bazen bunları beyin ve diğer sinir sistemlerindeki nöral ağlardan ayırt etmek için yapay nöral ağlar olarak da adlandırılır.

Bazı nöral ağlar, farklı özellikler ile etiket arasındaki son derece karmaşık doğrusal olmayan ilişkileri taklit edebilir.

Evrimsel nöral ağı ve yinelenen nöral ağı da inceleyin.

nöron

#fundamentals

Makine öğreniminde, nöral ağın gizli katmanında yer alan ayrı bir birim. Her nöron aşağıdaki iki adımı gerçekleştirir:

  1. Giriş değerlerinin ağırlıklı toplamı karşılık gelen ağırlıklarıyla çarpılmasıyla hesaplanır.
  2. Ağırlıklı toplamı bir etkinleştirme işlevine giriş olarak geçirir.

İlk gizli katmandaki bir nöron, giriş katmanındaki özellik değerlerinden girişleri kabul eder. Birinci katman dışındaki gizli katmanlardaki nöronlar, önceki gizli katmandaki nöronlardan gelen girişleri kabul eder. Örneğin, ikinci gizli katmandaki bir nöron, ilk gizli katmandaki nöronlardan gelen girişleri kabul eder.

Aşağıdaki görselde iki nöron ve bunların girişleri vurgulanmaktadır.

Giriş katmanı, iki gizli katman ve bir çıkış katmanı bulunan bir nöral ağ. İki nöron vurgulanmıştır: Biri ilk gizli katmanda, diğeri ikinci gizli katmandadır. İlk gizli katmanda vurgulanan nöron, giriş katmanındaki her iki özellikten de girişler alır. İkinci gizli katmanda vurgulanan nöron, ilk gizli katmandaki üç nöronun her birinden girişler alır.

Bir nöral ağdaki nöron, beyinlerdeki ve sinir sistemlerinin diğer bölümlerindeki nöronların davranışını taklit eder.

düğüm (nöral ağ)

#fundamentals

Gizli katmandaki bir nöron.

doğrusal olmayan

#fundamentals

İki veya daha fazla değişken arasındaki ilişki yalnızca toplama ve çarpma yoluyla temsil edilemez. Doğrusal ilişki çizgi olarak gösterilebilir. Doğrusal olmayan ilişki çizgi olarak temsil edilemez. Örneğin, her biri tek bir etiketle tek bir etiketi ilişkilendiren iki model ele alalım. Soldaki model doğrusaldır, sağdaki model ise doğrusal değildir:

İki plan. Grafik, çizgi şeklinde olduğundan doğrusal bir ilişki oluşturuyor.
          Diğeri bir eğridir. Bu nedenle, doğrusal olmayan bir ilişkidir.

durağanlık yok

#fundamentals

Değerleri genellikle bir veya daha fazla boyutta değişen bir özellik. Örneğin, aşağıdaki durağanlıksız reklam örneklerini inceleyin:

  • Belirli bir mağazada satılan mayoların sayısı mevsime göre değişir.
  • Belirli bir bölgede toplanan belirli bir meyvenin miktarı yılın büyük bir kısmında sıfırdır ancak kısa bir süreliğine büyük olur.
  • İklim değişikliği nedeniyle yıllık ortalama sıcaklıklar değişiyor.

Statüyle kontrast oluşturun.

normalleştirme

#fundamentals

Genel olarak, bir değişkenin gerçek değer aralığını standart bir değer aralığına dönüştürme işlemidir. Örneğin:

  • -1 ila +1
  • 0-1
  • normal dağılım

Örneğin, belirli bir özelliğin gerçek değer aralığının 800 ila 2.400 olduğunu varsayalım. Özellik mühendisliğinin bir parçası olarak, gerçek değerleri standart bir aralığa (-1 ila +1 gibi) göre normalleştirebilirsiniz.

Normalleştirme, özellik mühendisliğinde sık kullanılan bir görevdir. Özellik vektöründe yer alan her sayısal özellik yaklaşık olarak aynı aralığa sahip olduğunda modeller genellikle daha hızlı eğitilir (ve daha iyi tahminler oluşturur).

sayısal veriler

#fundamentals

Tam sayı veya gerçek değerli sayı olarak gösterilen özellikler. Örneğin, evin değer değerlendirme modeli, bir evin boyutunu (fit kare veya metrekare cinsinden) muhtemelen sayısal veri olarak temsil eder. Bir özelliğin sayısal veri olarak temsil edilmesi, özelliğin değerlerinin etiket ile matematik ilişkisi olduğunu gösterir. Yani bir evdeki kaç metrekarelik evin değeriyle büyük olasılıkla matematiksel bir ilişki vardır.

Tüm tam sayı verileri sayısal veri olarak temsil edilmemelidir. Örneğin, dünyanın bazı yerlerindeki posta kodları tam sayıdır. Ancak, tam sayı posta kodları, modellerde sayısal veri olarak temsil edilmemelidir. Bunun nedeni, 20000 numaralı posta kodunun 10.000 posta kodundan iki kat (veya yarı) fazla olmamasıdır. Ayrıca, farklı posta kodları farklı emlak değerleriyle ilişkili olsa da 20000 posta kodundaki emlak değerlerinin 10000 posta kodundaki gayrimenkul değerlerinden iki kat daha değerli olduğunu varsayamayız. Posta kodları bunun yerine kategorik veri olarak temsil edilmelidir.

Sayısal özellikler bazen sürekli özellikler olarak da adlandırılır.

O

çevrimdışı

#fundamentals

Statik teriminin eş anlamlısı.

çevrimdışı çıkarım

#fundamentals

Modelin bir grup tahmin oluşturma ve ardından bu tahminleri önbelleğe alma (kaydetme) işlemi. Uygulamalar, daha sonra modeli yeniden çalıştırmak yerine önbellekten istenen tahmine erişebilir.

Örneğin, her dört saatte bir yerel hava durumu tahminleri (tahminler) oluşturan bir model düşünün. Her model çalıştırıldıktan sonra sistem, tüm yerel hava durumu tahminlerini önbelleğe alır. Hava durumu uygulamaları, önbellekten tahminleri alır.

Çevrimdışı çıkarım, statik çıkarım olarak da adlandırılır.

Online çıkarım ile kontrast oluşturun.

tek sıcak kodlama

#fundamentals

Kategorik verileri aşağıdakilerde bir vektör olarak temsil etme:

  • Bir öğe 1 olarak ayarlandı.
  • Diğer tüm öğeler 0 olarak ayarlanır.

Tek sıcak kodlama genellikle sınırlı bir olası değere sahip dizeleri veya tanımlayıcıları temsil etmek için kullanılır. Örneğin, Scandinavia adlı belirli bir kategorik özelliğin beş olası değeri olduğunu varsayalım:

  • "Danimarka"
  • "İsveç"
  • "Norveç"
  • "İskoçya"
  • ""İzlanda"

Tek sıcak kodlama, beş değerin her birini aşağıdaki gibi temsil edebilir:

country Vektör
"Danimarka" 1 0 0 0 0
"İsveç" 0 1 0 0 0
"Norveç" 0 0 1 0 0
"İskoçya" 0 0 0 1 0
""İzlanda" 0 0 0 0 1

Tek bir kodlama kullanılarak model, beş ülkenin her birine bağlı olarak farklı bağlantılar öğrenebilir.

Bir özelliğin sayısal veri olarak temsil edilmesi, tek sıcak kodlamanın alternatifidir. Maalesef İskandinav ülkeleri sayısal olarak temsil etmek, iyi bir seçim değil. Örneğin, aşağıdaki sayısal temsili göz önünde bulundurun:

  • "Danimarka" 0
  • "İsveç" 1'dir
  • "Norveç" 2
  • &Finlandiya; 3
  • "İzlanda" 4

Sayısal kodlamada model, ham sayıları matematiksel olarak yorumlar ve bu sayılar üzerinden eğitmeye çalışır. Ancak İzlanda Norveç'in gerçekte iki katı (veya yarısının) iki katı olmadığından, model bazı garip sonuçlara varabilir.

hepsi bir arada

#fundamentals

N sınıfla ilgili bir sınıflandırma sorunu göz önüne alındığında, her olası sonuç için bir ikili sınıflandırıcı olan N ayrı ikili sınıflandırıcı'dan oluşan bir çözüm. Örneğin, örnekleri hayvan, sebze veya mineral olarak sınıflandıran bir model varsa teke tek çözüm çözümü aşağıdaki üç ayrı ikili sınıflandırıcıyı sağlar:

  • hayvan - hayvan değil
  • sebze ve sebze değil
  • mineral - mineral değil

online

#fundamentals

Dinamik ile eş anlamlıdır.

online çıkarım

#fundamentals

İsteğe bağlı olarak tahminler oluşturuluyor. Örneğin, bir uygulamanın girdiyi bir modele geçirdiğini ve tahmin isteğinde bulunduğunu varsayalım. Online çıkarımı kullanan bir sistem, modeli çalıştırarak (ve tahmini uygulamaya döndürerek) isteğe yanıt verir.

Çevrimdışı çıkarım ile kontrast oluşturma.

çıkış katmanı

#fundamentals

Bir nöral ağın "son" katmanı. Çıkış katmanı tahmini içerir.

Aşağıdaki resimde giriş katmanı, iki gizli katman ve bir çıkış katmanı içeren küçük bir derin nöral ağ gösterilmektedir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı bulunan bir nöral ağ. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

fazla uyumlu

#fundamentals

Modelin yeni verilerle ilgili doğru tahminlerde bulunamaması için eğitim verileriyle eşleşen bir model oluşturun.

Normalleştirme fazla baskıyı azaltabilir. Geniş ve çeşitli bir eğitim setiyle ilgili eğitimler de aşırı uyumu azaltabilir.

P

pandalar

#fundamentals

Numpy öğesinin üzerine inşa edilen sütun odaklı bir veri analizi API'si. TensorFlow gibi birçok makine öğrenimi çerçevesi, giriş olarak panda veri yapılarını destekler. Ayrıntılar için pandas dokümanlarına bakın.

parametre

#fundamentals

Bir modelin eğitim sırasında öğrendiği ağırlıklar ve ön yargılar. Örneğin, bir doğrusal regresyon modelinde, parametreler aşağıdaki formülde ağırlık (b) ve tüm ağırlıklardan (w1, w2 vb.) oluşur:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Buna karşılık, hiperparametre, modele sizin (veya bir hiperparametre dönüştürme hizmeti) tarafından sağlanan değerlerdir. Örneğin, öğrenme oranı bir hiperparametredir.

pozitif sınıf

#fundamentals

Test ettiğiniz sınıf.

Örneğin, bir kanser modelindeki pozitif sınıf "tümör" olabilir. Bir e-posta sınıflandırıcıdaki pozitif sınıf "&t;spam."

Negatif sınıfla kontrast oluşturun.

işleme sonrası

#fairness
#fundamentals

Model çalıştırıldıktan sonra bir modelin çıkışını ayarlama. İşleme sonrası, modelleri değiştirmeden kendi adalet kısıtlamalarını uygulamak için kullanılabilir.

Örneğin, bir öğe için doğru pozitif oranın aynı özelliğin tüm değerleri için aynı olduğundan emin olarak bir özellik için fırsat eşitliği sağlanacak şekilde bir sınıflandırma eşiği ayarlayarak ikili işleme sonrası işleme uygulanabilir.

tahmin

#fundamentals

Modelin çıkışı. Örneğin:

  • İkili sınıflandırma modelinin tahmini, pozitif sınıf veya negatif sınıftır.
  • Çok sınıflı sınıflandırma modelinin tahmini tek bir sınıftır.
  • Doğrusal regresyon modelinin tahmini sayıdır.

proxy etiketleri

#fundamentals

Veri kümesinde doğrudan kullanılamayan yaklaşık etiketler için kullanılan veriler.

Örneğin, çalışan stres düzeyini tahmin etmek için bir modeli eğitmeniz gerektiğini varsayalım. Veri kümeniz çok sayıda tahmin özelliği içeriyor ancak stres düzeyi adlı bir etiket içermiyor. Şahinsizce, stres seviyesi için proxy etiketi olarak "iş yeri kazaları"nı seçiyorsunuz. Sonuç olarak, stres altında olan çalışanlar sakin çalışanlara kıyasla daha fazla suça maruz kalıyor. Yoksa uygun mu? İş yeri kazaları birden fazla nedenden dolayı yükselip düşebilir.

İkinci bir örnek olarak, yağmur yağışlı mı? veri kümeniz için bir Boole etiketi olmasını istediğinizi, ancak veri kümenizde yağmur verisi bulunmadığını varsayalım. Fotoğraflar varsa yağmur yağışlı mı? için proxy etiketi olarak şemsiye taşıyan kişilerin fotoğraflarını oluşturabilirsiniz. Bu proxy için iyi bir etiket mi? Muhtemelen bazı kültürlerdeki insanların güneşe karşı korumak için yağmurdan daha çok şemsiye taşımaları olasıdır.

Proxy etiketleri genellikle kusurlu olur. Mümkün olduğunda, proxy etiketleri yerine gerçek etiketleri seçin. Bununla birlikte, gerçek bir etiket olmadığında, en az korkutucu proxy etiketi adayını seçerek proxy etiketini çok dikkatli bir şekilde seçin.

K

değerlendirici

#fundamentals

Örnekler için etiketler sağlayan bir kişi. "Noter", değerlendiricinin diğer bir adıdır.

Düzeltilmiş Doğrusal Birim (RELU)

#fundamentals

Aşağıdaki davranışa sahip bir etkinleştirme işlevi:

  • Giriş negatif veya sıfırsa çıkış 0 olur.
  • Giriş pozitifse çıkış, girişe eşittir.

Örneğin:

  • Giriş -3 ise çıkış 0 olur.
  • Giriş +3 ise çıkış 3, 0 olur.

ReLU olayını aşağıda görebilirsiniz:

İki çizgiden oluşan çizgili bir plan. İlk satırın sabit y değeri 0&#39;dır ve x ekseninde -infinity, 0, -, 0 arasında geçer.
          İkinci satır 0,0&#39;dan başlar. Bu çizginin +1&#39;in eğimi olduğu için 0,0 ile +infinity,+infinity aralığında çalışır.

ReLU çok popüler bir etkinleştirme işlevidir. ReLU, basit davranışına rağmen bir nöral ağın özellikler ile etiket arasındaki doğrusal olmayan ilişkileri öğrenmesini sağlar.

regresyon modeli

#fundamentals

Gayri resmi olarak sayısal bir tahmin oluşturan model. (Buna karşılık, sınıflandırma modeli bir sınıf tahmini oluşturur.) Örneğin, aşağıdakilerin tümü regresyon modelleridir:

  • Belirli bir evin değerini tahmin eden bir model (ör. 423.000 avro).
  • Belirli bir ağacın yaşam süresini tahmin eden bir model (23, 2 yıl gibi).
  • Önümüzdeki altı saat içinde belirli bir şehirde 0, 18 inç gibi yağacak yağmur miktarını tahmin eden bir model.

İki yaygın regresyon modeli türü:

  • Etiket değerlerini özelliklere en uygun çizgiyi bulan doğrusal regresyon.
  • Lojistik regresyonu, sistemin 0,0 ile 1,0 arasında bir olasılık üretmesine neden olur. Bunun sonucunda sistem genellikle sınıfın varsayımını eşleştirir.

Sayısal tahminler veren her model bir regresyon modeli değildir. Bazı durumlarda sayısal tahmin, yalnızca sayısal sınıf adlarına sahip olan bir sınıflandırma modelidir. Örneğin, sayısal bir posta kodunu tahmin eden bir model, regresyon modeli değil, bir sınıflandırma modelidir.

normalleştirme

#fundamentals

Fazlaya uygun kıyafetleri azaltan mekanizmalar. Sık kullanılan normalleştirme türleri şunlardır:

Normalleştirme, bir modelin karmaşıklığındaki ceza olarak da tanımlanabilir.

normalleştirme oranı

#fundamentals

Eğitim sırasında normalleştirmenin göreceli önemini belirten bir sayı. Normalleştirme hızını artırmak aşırı uyuma oranını azaltır ancak modelin tahmin gücünü azaltabilir. Buna paralel olarak, normalleştirme hızını azaltmak veya atlamak fazla uyumu artırır.

UYGUN

#fundamentals

Düzeltilmiş Doğrusal Birim'in kısaltması.

ROC (alıcı çalışma özelliği) Eğri

#fundamentals

İkili sınıflandırmadaki farklı sınıflandırma eşikleri için doğru pozitif oran ile yanlış pozitif oranın karşılaştırması.

ROC eğrisinin şekli, ikili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırma yeteneğine sahip olduğunu gösterir. Örneğin, bir ikili sınıflandırma modelinin tüm negatif sınıfları tüm pozitif sınıflardan mükemmel bir şekilde ayırdığını varsayalım:

Sağ tarafta 8 pozitif örnek, sol tarafta 7 negatif örnek içeren bir sayı satırı.

Önceki model için ROC eğrisi aşağıdaki gibi görünür:

ROC eğrisi. X ekseni, Yanlış Pozitif Oran, y ekseni ise Pozitif Orandır. Eğrisi ters çevrilmiş bir L şekline sahip. Eğri (0,0,0,0) ile başlar ve (0,0,1,0) ile yukarı doğru yükselir. Eğri (0,0,1,0) ile 1,0,1,0 arasında değişir.

Buna karşılık aşağıdaki resimde, negatif sınıfları pozitif sınıflardan hiç ayırt edilemeyen korkunç bir modelin işlenmemiş lojistik regresyon değerleri gösterilmiştir:

Pozitif örnekleri ve negatif sınıfları tamamen karıştıran bir sayı satırı.

Bu model için ROC eğrisi aşağıdaki gibi görünür:

(0,0,0,0) ile (1,0,1,0) arasındaki düz bir çizgi olan ROC eğrisi.

Bu arada gerçek dünyada çoğu ikili sınıflandırma modeli, pozitif ve negatif sınıfları bir dereceye kadar ayırır ancak genellikle kusursuz bir şekilde değil. Bu nedenle, tipik bir ROC eğrisi iki uç noktanın arasına düşer:

ROC eğrisi. X ekseni, Yanlış Pozitif Oran, y ekseni ise Pozitif Orandır. ROC eğrisi, pusulayı Batıdan kuzeye doğru hareket ettiren sallanan bir yay takar.

ROC eğrisindeki (0,0,1,0) en yakın nokta, teorik olarak ideal sınıflandırma eşiğini tanımlar. Ancak, gerçek hayatta karşılaşılan diğer bazı sorunlar, ideal sınıflandırma eşiğinin seçimini etkiler. Örneğin, yanlış negatifler yanlış pozitiflerden daha acı verici olabilir.

AUC adlı sayısal metrik, ROC eğrisini tek bir kayan nokta değeri olarak özetler.

Kök Ortalama Kare Hatası (RMSE)

#fundamentals

Ortalama Karesel Hatanın karekökü.

C

sigmoid işlevi

#fundamentals

Kısıtlanmış bir aralığa "değeri tıraş eden" matematiksel işlev. Genellikle 0 ile 1 arası veya -1 ile +1 arası bir değer. Yani herhangi bir sayıyı (iki, milyon, negatif milyar, her neyse) bir sigmoid'e aktarabilirsiniz ve çıkış sınırlı aralıkta kalır. Sigortayla ilgili etkinleştirme işlevinin şeması aşağıdaki gibidir:

x değeri + ile pozitif olanı kapsayan, y değerlerinin neredeyse 0 ile 1 arasındaki aralığı kapsayan iki boyutlu eğri grafik. X 0, y ise 0,5&#39;tir. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0, 0,5&#39;tir ve x&#39;in mutlak değeri arttıkça eğimler giderek azalıyor.

Sgmoid işlevinin, makine öğreniminde aşağıdakiler gibi çeşitli kullanımları vardır:

softmax

#fundamentals

Çok sınıflı sınıflandırma modelinde olası her sınıf için olasılıkları belirleyen bir işlev. Olasılıklar tam olarak 1,0'a ulaşır. Örneğin, aşağıdaki tabloda softmax'ın çeşitli olasılıkları nasıl dağıttığı gösterilmektedir:

Resim... Probability
köpek 0,85
Cat 0,13
at 0,02

Softmax, tam softmax olarak da adlandırılır.

Aday örnekleme ile zıtlık oluşturma.

seyrek özellik

#language
#fundamentals

Değerleri ağırlıklı olarak sıfır veya boş olan bir özellik. Örneğin, tek bir 1 değer ve bir milyon 0 değer içeren bir özellik yedeklidir. Buna karşılık, yoğun özellik çoğunlukla sıfır veya boş olmayan değerlere sahiptir.

Makine öğreniminde şaşırtıcı sayıda özellik az bulunur. Kategorik özellikler genellikle az bulunan özelliklerdir. Örneğin, ormandaki 300 ağaç türünden yalnızca tek bir örnek sadece bir akçaağaç olduğunu gösterebilir. Bir video kitaplığındaki milyonlarca olası videodan sadece biri "Kazablanka"yı tanımlayabilir.

Bir modelde genellikle seyrek özellikleri tek bir sıcak kodlamayla temsil edersiniz. Tek sıcak kodlama büyükse daha yüksek verimlilik için tek bir kodlamanın üst kısmına bir yerleştirme katmanı yerleştirebilirsiniz.

seyrek temsil

#language
#fundamentals

Az bulunan bir özellikte yalnızca sıfır olmayan öğelerin konumlarını depolama.

Örneğin, species adlı bir kategori özelliğinin belirli bir ormandaki 36 ağaç türünü tanımladığını varsayalım. Ayrıca, her bir örnekte yalnızca tek bir türün tanımlandığını varsayalım.

Her örnekte ağaç türlerini temsil eden tek bir vektör vektörü kullanabilirsiniz. Tek görüntülerden oluşan bir vektör, tek bir 1 (bu örnekteki belirli ağaç türlerini temsil eder) ve 35 0 (bu örnekte değil, 35 ağaç türünü temsil eder) içerir. Dolayısıyla, maple'in tek sıcak noktası aşağıdaki gibi görünebilir:

0 ile 23 arası konumların 0, 24 ve 1 değerlerinin olduğu, 25 ile 35 arası konumların ise 0 değerini taşıdığı bir vektör.

Alternatif olarak, seyrek semboller yalnızca belirli türlerin konumunu tanımlar. maple, 24. konumdaysa seyrek görülen maple ifadesi şu şekilde olacaktır:

24

Seyrek temsilin tek resimden çok daha kompakt olduğuna dikkat edin.

seyrek vektör

#fundamentals

Değerleri genelde sıfır olan bir vektör. Ayrıca ayırma özelliğini ve belirsizliği inceleyin.

kare kayıp

#fundamentals

L2 kayıp ile eş anlamlıdır.

statik

#fundamentals

Bir şey sürekli değil, bir kez yapıldı. Statik ve çevrimdışı terimleri eş anlamlıdır. Makine öğreniminde statik ve çevrimdışı özelliklerin yaygın kullanımları şunlardır:

  • statik model (veya çevrimdışı model) bir kez eğitilen ve bir süre kullanılan bir modeldir.
  • statik eğitim (veya çevrimdışı eğitim), statik modeli eğitme işlemidir.
  • Statik çıkarım (veya çevrimdışı çıkarım, bir modelin bir defada toplu tahmin oluşturma işlemidir).

Dinamik ile kontrast oluşturun.

statik çıkarım

#fundamentals

Çevrimdışı çıkarım ile eş anlamlıdır.

durağanlık

#fundamentals

Değerleri bir veya daha fazla boyutta değişmeyen özellik. Örneğin, değerleri 2020 ve 2022'de aynı görünen bir özellik bir durağanlık sergiler.

Gerçek dünyada çok az özellik durağanlık sergiliyor. Kararlılıkla eş anlamlı özellikler (deniz seviyesi gibi) de zamanla değişir.

İstasyon dışılık ile kontrast oluşturun.

dereceli gradyan iniş (SGD)

#fundamentals

gradyan iniş algoritmasının toplu boyutu bir olduğu bir algoritma. Diğer bir deyişle SGD, bir eğitim grubundan rastgele seçilen tek bir örnek üzerinde eğitilir.

gözetimli makine öğrenimi

#fundamentals

Özelliklerden ve ilgili etiketlerden bir model eğitin. Gözetimli makine öğrenimi, bir dizi soru ve onunla ilişkili yanıtları inceleyerek bir konuyu öğrenmekle benzer şekilde çalışır. Sorular ve yanıtlar arasındaki eşlemeyi iyice öğrendikten sonra, öğrenciler aynı konuyla ilgili yeni (daha önce görülmemiş) sorulara cevap verebilir.

Bunu gözetimsiz makine öğrenimi ile karşılaştırın.

sentetik özellik

#fundamentals

Özellik, giriş özellikleri arasında mevcut değildir ancak bir veya daha fazla özellikten oluşturulur. Sentetik özellik oluşturma yöntemleri arasında şunlar bulunur:

  • Aralık bölmelerine sürekli bir özelliği paketleme.
  • Özellik çaprazı oluşturma.
  • Bir özellik değerini diğer özellik değerleriyle veya kendi başına çarpma (veya çarpma). Örneğin, giriş özellikleri a ve b ise aşağıda sentetik özelliklere örnekler verilmiştir:
    • ab
    • a2
  • Bir özellik değerine fazlalık fonksiyonu uygulama. Örneğin, c bir giriş özelliğiyse sentetik özelliklere örnekler aşağıda verilmiştir:
    • sin(c)
    • ln(c)

Yalnızca normalleştirme veya ölçeklendirme ile oluşturulan özellikler yapay özellikler olarak kabul edilmez.

T

test kaybı

#fundamentals

Test grubu'na karşı bir modelin kayıpını temsil eden metrik. Model oluştururken genellikle test kaybını en aza indirmeye çalışırsınız. Bunun nedeni, düşük test kaybı, düşük eğitim kaybına veya düşük doğrulama kaybına göre daha güçlü bir sinyaldir.

Test kaybı ile eğitim kaybı veya doğrulama kaybı arasında büyük bir boşluk olması, bazen normalleştirme oranını artırmanız gerektiği anlamına gelir.

eğitim

#fundamentals

Modelden oluşan ideal parametreleri (ağırlıklar ve yanlar) belirleme işlemi. Eğitim sırasında bir sistem örnekleri okur ve parametreleri kademeli olarak ayarlar. Eğitim, her örneği birkaç kez ila milyarlarca kez kullanır.

eğitim kaybı

#fundamentals

Belirli bir eğitim tekrarı sırasında bir modelin kayışını temsil eden bir metrik. Örneğin, kayıp işlevinin Ortalama Karesel Hata olduğunu varsayalım. 10.iterasyon için eğitim kaybı (Ortalama Ortalama Hata) 2,2 ve 100.yineleme için eğitim kaybı 1,9 olabilir.

Kaybedilen eğri: Eğitim kaybını, iyon sayısına göre gösterir. Kayıp eğrisi, eğitimle ilgili aşağıdaki ipuçlarını sağlar:

  • Aşağıya doğru eğim, modelin iyileştiğini gösterir.
  • Eğimin yüksek olması, modelin kötüye gittiğini gösterir.
  • Düz bir eğim, modelin birleşimlere ulaştığı anlamına gelir.

Örneğin, aşağıdaki gibi optimize edilmiş aşağıdaki kayıp eğriyi gösterir:

  • İlk yinelemelerde dik bir aşağı eğim, modelin hızlı bir şekilde iyileştirileceğini ifade eder.
  • Eğitimin sonuna kadar, aşamalı olarak düzleşen (ancak hâlâ aşağı doğru giden) bir eğimdir. Bu da, ilk tekrarlarda modelin biraz daha yavaş bir hızda devam ettiği anlamına gelir.
  • Eğitimin sonuna yakın bir noktada eğim, yakınlaşma anlamına gelir.

Eğitim kaybının ve iterasyonların karşılaştırması. Bu kayıp eğrisi dik bir eğimle başlar. Eğim sıfır olana kadar kademeli olarak düzleşir.

Eğitim kaybı önemli olsa da ayrıca genelleme konusuna bakın.

eğitim ve sunma arası sapma

#fundamentals

Bir modelin eğitim sırasındaki performansı ile aynı modelin sunum arasındaki performansı arasındaki fark.

eğitim grubu

#fundamentals

Model eğitmek için kullanılan veri kümesinin alt kümesi.

Geleneksel olarak, veri kümesindeki örnekler şu üç ayrı alt kümeye bölünür:

İdeal olarak, veri kümesindeki her örnek önceki gruplardan yalnızca birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim grubuna hem de doğrulama grubuna ait olmamalıdır.

doğru negatif (TN)

#fundamentals

Modelin negatif sınıfı doğru şekilde tahmin ettiği örnek. Örneğin, model belirli bir e-posta iletisinin spam olmadığını ve e-posta iletisinin gerçekten spam olmadığını çıkarmaktadır.

true pozitif (TP)

#fundamentals

Modelin pozitif sınıfı doğru şekilde tahmin ettiği örnek. Örneğin, bu model, belirli bir e-posta iletisinin spam ve e-posta iletisinin gerçekten spam olduğunu varsayar.

gerçek pozitif oranı (TPR)

#fundamentals

Hatırlanabilirlik ile eş anlamlıdır. Yani:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

Gerçek pozitif oran, bir ROC eğrisindeki y eksenidir.

U

uygun olmayan

#fundamentals

Model, eğitim verilerinin karmaşıklığını tam olarak yakalamadığından düşük tahmin gücüne sahip bir model oluşturmak. Aşağıdakiler dahil olmak üzere pek çok sorun, boyutun uygun olmamasına neden olabilir:

etiketsiz örnek

#fundamentals

Özellik içeren ancak etiket içermeyen örnek. Aşağıdaki tabloda, bir ev değerlendirme modelindeki etiketlenmemiş üç örnek gösterilmektedir. Bu örneklerin her biri üç özelliğe sahip olup ev değeri yoktur:

Yatak odası sayısı Banyo sayısı Evin yaşı
3 2 15
2 1 72
4 2 34

Gözetimli makine öğreniminde, modeller etiketli örnekler üzerinde eğitir ve etiketlenmemiş örnekler hakkında tahminlerde bulunur.

Yarı gözetim altındaki ve gözetimsiz öğrenmede eğitim sırasında etiketlenmemiş örnekler kullanılır.

Etiketlenmemiş örneği etiketli örnek ile karşılaştırın.

gözetimsiz makine öğrenimi

#clustering
#fundamentals

Veri kümesindeki (genellikle etiketlenmemiş bir veri kümesi) kalıpları bulmak için bir model eğitilir.

Gözetimsiz makine öğreniminin en yaygın kullanımı, verileri benzer örneklerden oluşan gruplara kümelemektir. Örneğin, gözetimsiz bir makine öğrenimi algoritması, müziğin çeşitli özelliklerine göre şarkıları gruplandırabilir. Ortaya çıkan kümeler, diğer makine öğrenimi algoritmalarının (ör. müzik önerisi hizmeti) girişi haline gelebilir. Kümeleme, yararlı etiketlerin az olduğu veya olmadığı durumlarda yardımcı olabilir. Örneğin, kötüye kullanım karşıtı ve sahtekarlık gibi alanlarda kümeler, kullanıcıların verileri daha iyi anlamasına yardımcı olabilir.

Gözetimli makine öğrenimi ile zıtlık.

V

validation

#fundamentals

Bir modelin kalitesinin ilk değerlendirmesi. Doğrulama, bir modelin kalitesini doğrulama grubuna göre kontrol eder.

Doğrulama kümesi eğitim grubundan farklı olduğundan doğrulama, aşırı uyuma karşı korunmanıza yardımcı olur.

Modeli, testin ilk turu olarak, ikinci test aşaması olarak ise test grubuyla değerlendirmeyi düşünebilirsiniz.

doğrulama kaybı

#fundamentals

Eğitimin belirli bir adımı sırasında doğrulama kümesindeki bir modeli kaybetme durumunu temsil eden metrik.

Genelleme eğrisini de inceleyin.

doğrulama grubu

#fundamentals

Eğitilmiş bir modele karşı ilk değerlendirmeyi yapan veri kümesinin alt kümesi. Genellikle eğitilen modeli doğrulama grubuna test grubuna göre değerlendirmeden önce birkaç kez değerlendirirsiniz.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üç ayrı alt kümeye bölersiniz:

İdeal olarak, veri kümesindeki her örnek önceki gruplardan yalnızca birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim grubuna hem de doğrulama grubuna ait olmamalıdır.

W

ağırlık

#fundamentals

Bir modelin başka bir değerle çarpımı. Eğitim, bir modelin ideal ağırlıklarını belirleme işlemidir; çıkarım ise tahminde bulunmak için bu öğrenilen ağırlıkları kullanma işlemidir.

ağırlıklı toplam

#fundamentals

İlgili tüm giriş değerlerinin, karşılık gelen ağırlıklarıyla çarpımı. Örneğin, alakalı girişlerin aşağıdakilerden oluştuğunu varsayalım:

giriş değeri giriş ağırlığı
2 -1,3
-1 0,6
3 0,4

Ağırlıklı toplam:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

Ağırlıklı toplam, bir etkinleştirme işlevinin giriş bağımsız değişkenidir.

Z

Z puanı normalleştirme

#fundamentals

Ham bir özellik değerini, o özelliğin ortalamasından standart sapmaların sayısını temsil eden bir kayan nokta değeriyle değiştiren bir ölçeklendirme tekniği. Örneğin, ortalama değeri 800 ve standart sapması 100 olan bir özelliği ele alalım. Aşağıdaki tabloda, Z puanı normalleştirmenin ham değeri kendi Z puanıyla nasıl eşleştireceği gösterilmektedir:

İşlenmemiş değer Z-puanı
800 0
950 +1,5
575 -2,25

Makine öğrenimi modeli, ham değerler yerine bu özellik için Z puanları hakkında eğitim verir.