Makine Öğrenimi Sözlüğü: Makine Öğrenimiyle İlgili Temel Bilgiler

Bu sayfada ML Fundamentals sözlüğü terimleri bulunmaktadır. Tüm sözlük terimleri için burayı tıklayın.

A

accuracy

#fundamentals

Doğru sınıflandırma tahminlerinin toplam tahmin sayısına bölünmesiyle elde edilir. Yani:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

Örneğin, 40 doğru tahmin ve 10 yanlış tahmin yapan bir modelin doğruluğu şu şekilde olur:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

İkili sınıflandırma, farklı doğru tahminler ve yanlış tahminler kategorileri için özel isimler sağlar. İkili program sınıflandırmasının doğruluk formülü aşağıdaki gibidir:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

Bu örnekte:

Hassasiyet ve hatırlama ile doğruluk karşılaştırması yapın.

etkinleştirme işlevi

#fundamentals

Nöral ağların özellikler ve etiket arasındaki doğrusal olmayan (karmaşık) ilişkileri öğrenmesini sağlayan bir işlev.

Popüler etkinleştirme işlevleri şunlardır:

Etkinleştirme işlevlerinin grafiği her zaman tek bir düz çizgiden oluşur. Örneğin, LULU etkinleştirme işlevinin grafiği iki düz çizgiden oluşur:

İki satırdan oluşan kartela çizimi. İlk satırın x ekseni üzerinde -sonsuz, 0 ile 0 arasında sabit bir y değeri 0'dır.
          İkinci satır 0,0'dan başlar. Bu çizginin +1'i eğimi vardır. Bu nedenle 0,0 ile +infinity+infinity arasında çalışır.

Sigorta etkinleştirme işlevinin grafiği aşağıdaki gibidir:

-infinity ile + pozitif değerlerini kapsayan ve y değerlerinin yaklaşık 0 ile neredeyse 1 aralığını kapsayan, iki boyutlu eğri grafik. x 0, y ise 0,5'tir. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0, 0,5'tir ve x mutlak değeri arttıkça eğimleri kademeli olarak azaltır.

yapay zeka

#fundamentals

İleri düzey görevleri çözebilen insan harici bir program veya model. Örneğin, metinleri çevrilen bir program veya model ya da radyolojik görüntülerden hastalıkları tanımlayan bir program veya model, yapay zekayı da gösterir.

Resmi olarak makine öğrenimi, yapay zekanın bir alt alanıdır. Ancak son yıllarda bazı kuruluşlar yapay zeka ve makine öğrenimi terimlerini birbirinin yerine kullanmaya başladı.

AUC (ROC eğrisinin altındaki alan)

#fundamentals

İkili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırt edebilme becerisini temsil eden 0,0 ile 1,0 arasında bir sayıdır. AUC, 1.0'a ne kadar yakınsa modelin sınıfları birbirinden ayırma yeteneği de o kadar iyi olur.

Örneğin, aşağıdaki çizimde pozitif sınıfları (yeşil ovaller) negatif sınıflardan (mor dikdörtgenler) mükemmel şekilde ayıran bir sınıflandırıcı modeli gösterilmektedir. Gerçekçi olmayan bu modelin AUC'si 1.0'dır:

Bir tarafında 8 pozitif, diğer tarafta 9 negatif örnek içeren bir sayı satırı.

Buna karşılık, aşağıdaki çizimde rastgele sonuçlar oluşturan bir sınıflandırıcı modelinin sonuçları gösterilmektedir. Bu modelin AUC'si 0,5'tir:

6 pozitif ve 6 negatif örnek içeren bir sayı satırı.
          Örnek dizisi pozitif, negatif, pozitif, negatif, pozitif, negatif, pozitif, negatif, pozitif negatif, pozitif, negatif.

Evet, önceki modelin AUC'si 0,0 değil, 0,5'tir.

Çoğu model, iki uç nokta arasında bir yerde bulunur. Örneğin, aşağıdaki model pozitifleri negatiflerden bir şekilde ayırır ve bu nedenle 0,5 ile 1,0 arasında bir AUC'ye sahiptir:

6 pozitif ve 6 negatif örnek içeren bir sayı satırı.
          Örnek dizisi negatif, negatif, negatif, negatif, pozitif, negatif, pozitif, pozitif, negatif, pozitif, pozitif, pozitif.

AUC, sınıflandırma eşiği için ayarladığınız tüm değerleri yoksayar. Bunun yerine AUC, olası tüm sınıflandırma eşiklerini göz önünde bulundurur.

Mr

yayılım

#fundamentals

Nöral ağlarda gradyan iniş uygulayan algoritma.

Bir nöral ağı eğitmek, aşağıdaki iki geçiş döneminin birçok iterasyonunu içerir:

  1. İletim sırasında sistem, tahminler oluşturmak için örnekleri toplu olarak işler. Sistem, her bir tahmini her bir label değeriyle karşılaştırır. Tahmin ve etiket değeri arasındaki fark, bu örneğin kayıpıdır. Sistem, mevcut grubun toplam kaybını hesaplamak için tüm örneklerin kayıplarını toplar.
  2. Geriye doğru geçiş sırasında (geri sarma) sistem tüm gizli katmanlardaki tüm nöronların ağırlıklarını ayarlayarak kayıpları azaltır.

Nöral ağlar genellikle birçok gizli katmanda birçok nöron içerir. Bu nöronların her biri, genel kayıpları farklı şekillerde etkiler. Geri yayılma, belirli nöronlara uygulanan ağırlıkların artırılmasını veya azaltılmasını belirler.

Öğrenim oranı, her bir geriye dönük kullanımın her bir ağırlığı ne kadar artıracağını veya azaltacağını kontrol eden bir çarpandır. Yüksek bir öğrenme hızı, her bir ağırlığı küçük bir öğrenme oranından daha fazla artırır veya azaltır.

Hesaplama şartlarında, geri yayılma kalkerin zincir kuralını uygular. Diğer bir deyişle, geri yayılma, her bir parametreye göre hatanın kısmi türevini hesaplar. Daha ayrıntılı bilgi için bu makine öğrenimi hızlandırılmış kursu ile ilgili eğiticiye bakın.

Yıllar önce, makine öğrenimi uzmanlarının yeniden yayılmayı uygulamak için kod yazması gerekiyordu. TensorFlow gibi modern makine öğrenimi API'leri artık sizin için geri yayılma uyguluyor. Bora

grup

#fundamentals

Bir eğitim iterasyonunda kullanılan örnekler grubu. Toplu boyut, toplu örnekteki örnek sayısını belirler.

Bir paketin dönem ile ilişkisinin açıklaması için sıfır zaman bölümüne bakın.

grup boyutu

#fundamentals

Bir toplu olarak örneklerin sayısı. Örneğin, grup boyutu 100 ise model, tekrarlama başına 100 örnek işler.

Popüler toplu boyut stratejileri aşağıda verilmiştir:

  • Grup boyutunun 1 olduğu Stokta Gradyan İniş (SGD).
  • Bu örnekte toplu boyut, eğitim grubunun tamamında yer alan örnek sayısıdır. Örneğin, eğitim kümesi bir milyon örnek içeriyorsa grup boyutu bir milyon örnek olur. Tam grup genellikle verimsiz bir stratejidir.
  • Toplu boyutun genellikle 10 ile 1000 arasında olduğu mini toplu. Mini grup genellikle en verimli stratejidir.

önyargı (etik/adil)

#fairness
#fundamentals

1. Bazı şeylere, kişilere veya gruplara karşı belirli yargılar, ön yargılar ya da favorilere ekleme işlemleri. Bu sapmalar, verilerin toplanıp yorumlanmasını, bir sistemin tasarımını ve kullanıcıların bir sistemle nasıl etkileşimde bulunduğunu etkileyebilir. Bu tür ön yargılardan bazıları şunlardır:

2. Örnekleme veya raporlama prosedürüyle ortaya çıkan sistematik hata. Bu tür ön yargılardan bazıları şunlardır:

Makine öğrenimi modellerinde ön yargı terimi veya tahmin ön yargısı ile karıştırılmamalıdır.

önyargı (matematik) veya ön yargı terimi

#fundamentals

Kaynağa müdahale etme veya ofset. Ön yargı, makine öğrenimi modellerinde aşağıdaki parametrelerle temsil edilen bir parametredir:

  • w0

Örneğin, ön yargı aşağıdaki formülde b'dir:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Basit, iki boyutlu bir çizgide ön yargı yalnızca "y kesimi" anlamına gelir. Örneğin, aşağıdaki çizimde çizginin sapması 2'dir.

Eğimi 0,5 ve ön yargısı (y ekseni) 2 olan bir doğrunun grafiği.

Tüm modeller kaynaktan (0,0) başlamadığı için vardır. Örneğin, eğlence parkına girmenin 2 avro ve müşterinin konakladığı her saat için 0,5 avro ek ücret aldığını varsayalım. Bu nedenle, en düşük maliyet 2 avro olduğundan toplam maliyeti eşleyen bir modelin sapması 2'dir.

Ön yargı, etik ve adaletle ilgili ön yargı veya tahmin ön yargısı ile karıştırılmamalıdır.

ikili program sınıflandırması

#fundamentals

Birlikte kullanılamayan iki sınıftan birini tahmin eden bir sınıflandırma görevi türü:

Örneğin, aşağıdaki iki makine öğrenimi modelinin her ikisi de ikili sınıflandırma gerçekleştirir:

  • E-posta iletilerinin spam (pozitif sınıf) veya spam değil (negatif sınıf) olup olmadığını belirleyen bir model.
  • Bir kişinin belirli bir hastalığı (pozitif sınıf) olup olmadığını veya bu hastalığa (negatif sınıf) sahip olup olmadığını belirlemek için tıbbi belirtileri değerlendiren bir model.

Çok sınıflı sınıflandırmanın karşıtıdır.

Ayrıca mantıksal regresyon ve sınıflandırma eşiği bölümlerini de inceleyin.

paketleme

#fundamentals

Tek bir özelliği, genellikle bir değer aralığına göre, paketler veya binler adlı birden çok ikili özelliğe dönüştürme. Doğranmış özellik genellikle sürekli bir özelliktir.

Örneğin, sıcaklığı tek bir sürekli kayan nokta özelliği olarak göstermek yerine sıcaklık aralıklarını farklı bölümler halinde kesebilirsiniz. Örneğin:

  • <= 10 santigrat derece "soğuk" kovadır.
  • 11 - 24 santigrat derece "sıcak" bir grup olacaktır.
  • >= 25 santigrat derece "ılık" paketi olur.

Model, aynı paketteki her değeri aynı şekilde değerlendirir. Örneğin, 13 ve 22 değerlerinin her ikisi de ılıman pakette olduğundan, model iki değeri aynı şekilde işler.

C

kategorik veriler

#fundamentals

Belirli bir olası değer grubuna sahip özellikler. Örneğin, aşağıdaki üç olası değerden yalnızca birine sahip olabilecek traffic-light-state adlı bir kategori özelliği düşünün:

  • red
  • yellow
  • green

Bir modeli traffic-light-state bir kategori özelliği olarak göstererek red, green ve yellow özelliklerinin sürücü davranışı üzerindeki farklı etkilerini öğrenebilir.

Kategorik özellikler bazen ayrı özellikler olarak da adlandırılır.

Sayısal verilerle kontrast.

sınıf

#fundamentals

Bir etiketin ait olabileceği bir kategori. Örneğin:

Sınıflandırma modeli bir sınıfı tahmin eder. Regresyon modeli ise sınıf yerine bir sayı tahmin eder.

sınıflandırma modeli

#fundamentals

Tahmini bir sınıf olan model. Örneğin, aşağıdakilerin tümü sınıflandırma modelleridir:

  • Giriş cümlesinin dilini tahmin eden bir model (Fransızca mı? İspanyolca mı? İtalyanca mı?)
  • Ağaç türlerini tahmin eden bir model (Akçaağacı? Meşe? Baobab gibi mi?)
  • Belirli bir tıbbi koşul için pozitif veya negatif sınıfı tahmin eden bir model.

Regresyon modelleri ise sınıflar yerine sayıları tahmin eder.

Sık kullanılan iki sınıflandırma modeli türü:

sınıflandırma eşiği

#fundamentals

İkili sınıflandırmada 0 ile 1 arasında bir sayı, mantıksal regresyon modelinin ham çıktısını pozitif sınıf veya negatif sınıf tahminine dönüştürür. Sınıflandırma eşiğinin, model eğitimi tarafından seçilen bir değer değil, insanların seçtiği bir değer olduğunu unutmayın.

Mantıksal regresyon modeli, 0 ile 1 arasında bir ham değer üretir. Ardından:

  • Bu ham değer, sınıflandırma eşiğinden büyükse tahmini sınıf belirlenir.
  • Bu ham değer sınıflandırma eşiğinin altındaysa negatif sınıf tahmin edilir.

Örneğin, sınıflandırma eşiğinin 0,8 olduğunu varsayalım. Ham değer 0,9 ise model, pozitif sınıfı tahmin eder. Ham değer 0, 7 ise model negatif sınıfı tahmin eder.

Sınıflandırma eşiği seçimi, yanlış pozitif ve yanlış negatif sayısını özellikle etkiler.

sınıf dengesiz veri kümesi

#fundamentals

Her sınıfın toplam etiketi sayısının önemli ölçüde farklılık gösterdiği bir sınıflandırma sorunu için veri kümesi. Örneğin, iki etiketi aşağıdaki gibi bölünen bir ikili sınıflandırma veri kümesi düşünün:

  • 1.000.000 negatif etiket
  • 10 olumlu etiket

Negatif ile pozitif etiketlerin oranı 100.000'den 1'e doğrudur. Bu nedenle, bu veri sınıfsız bir veri kümesidir.

Buna karşılık, aşağıdaki veri kümesi negatif etiketlerin pozitif etiketlere oranı nispeten 1'e yakın olduğundan sınıf dengesiz değildir:

  • 517 negatif etiket
  • 483 olumlu etiket

Çok sınıflı veri kümeleri de sınıf dengesiz olabilir. Örneğin, aşağıdaki çok sınıflı sınıflandırma veri kümesi aynı zamanda bir dengeli değildir. Bunun nedeni, bir etiketin diğer ikisine göre çok daha fazla örneği olmasıdır:

  • "Yeşil" sınıfında 1.000.000 etiket
  • "mor" sınıfında 200 etiket
  • "turuncu" sınıfına sahip 350 etiket

entropi, büyük sınıf ve azınlık sınıfı konulu makaleleri de inceleyin.

kırpma

#fundamentals

Aşağıdakilerden birini veya ikisini birden yaparak aykırı değerleri ele alma tekniği:

  • Maksimum eşikten büyük olan feature değerleri bu maksimum eşiğe kadar düşürülür.
  • Bir minimum eşiğin altında olan özellik değerlerini söz konusu minimum eşiğe kadar artırma.

Örneğin, belirli bir özellik için değerlerin% 0,5'ten azının 40-60 aralığının dışında kaldığını varsayalım. Bu durumda, aşağıdakileri yapabilirsiniz:

  • 60'ın (maksimum eşik) üzerindeki tüm değerleri tam olarak 60 olacak şekilde kırpın.
  • 40'ın (minimum eşik) altındaki tüm değerleri tam olarak 40 olacak şekilde kırpın.

Aykırı değerler modellere zarar verebilir ve bu durum, bazen eğitim sırasında ağırlıkların taşmasına neden olabilir. Bazı aykırı değerler, doğruluk gibi metrikleri önemli ölçüde bozabilir. Klip, hasarı sınırlamak için yaygın olarak kullanılan bir tekniktir.

Renk geçişi kırpma, eğitim sırasında belirli bir aralıktaki gradyan değerlerini zorunlu kılar.

kafa karışıklığı matrisi

#fundamentals

Bir sınıflandırma modelinin yaptığı doğru ve yanlış tahminlerin sayısını özetleyen bir NxN tablosu. Örneğin, ikili sınıflandırma modeli için aşağıdaki karışıklık matrisini göz önünde bulundurun:

Tümör (tahmini) Bütünsel olmayan (tahmini)
Tümör (kesin referans) 18 (TPA) 1 (KZ)
Tüm İnanılmaz (kesin referans) 6 (FP) 452 (TN)

Önceki karışıklık matrisi aşağıdakileri gösterir:

  • Kesin referansın olduğu tüm 19 tahminde ise model Tumor'du. Model, 18'i doğru bir şekilde sınıflandırdı ve 1. yanlış olarak sınıflandırdı.
  • Kesin referansın Tam sayı olmayan 458 tahmin arasından 452'yi doğru bir şekilde sınıflandıran 6'sı da 6'dır.

Çok sınıflı sınıflandırma probleminin kafa karışıklığı matrisi, hata kalıplarını belirlemenize yardımcı olabilir. Örneğin, üç farklı iris türünü (Virginica, Versicolor ve Setosa) sınıflandıran 3 sınıflı çok sınıflı bir sınıflandırma modeli için aşağıdaki kafa karışıklığı matrisini göz önünde bulundurun. Asıl referans Virginica olduğunda, matris matrisi, modelin yanlışlıkla Verosa'yı tahmin etme olasılığının Setosa'dan çok daha yüksek olduğunu gösterir:

  Setosa (tahmini) Versicolor (tahmini) Virginica (tahmini)
Setosa (kesin referans) 88 12 0
Versicolor (kesin referans) 6 141 7
Virginica (kesin referans) 2 27 109

Bir başka örnek ise karışıklık matrisi, el yazısı rakamları tanımak için eğitilmiş bir modelin yanlışlıkla 4 yerine 9 veya yanlışlıkla 7 yerine 1'i tahmin ettiğini ortaya çıkarabilir.

Karışıklık matrisleri, hassaslık ve hatırlama gibi çeşitli performans metriklerini hesaplamak için yeterli bilgi içerir.

kesintisiz özellik

#fundamentals

Sıcaklık veya ağırlık gibi sonsuz bir olası değer aralığına sahip kayan nokta özelliği.

Diğer özelliklerle kontrast.

yakınlaşma

#fundamentals

Kaybedilen değerler çok az değiştiğinde veya hiç değişmediğinde ulaşılan yineleme. Örneğin, aşağıdaki kayıp eğrisi yaklaşık 700 yinelemede dönüşüm anlamına gelir:

Kartezyen olay örgüsü. X ekseni kayıptır. Y ekseni, eğitim iterasyonlarının sayısıdır. Kayıp, ilk birkaç iterasyonda çok yüksek olsa da ciddi bir düşüş göstermektedir. Yaklaşık 100 yinelemeden sonra kayıp giderek azalıyor ancak çok daha kademeli. Yaklaşık 700 tekrardan sonra kayıp sabit kalır.

Ek eğitim, modeli iyileştirmediğinde model birleşir.

Derin öğrenmede kayıp değerleri bazen azalan pek çok yineleme için sabit veya hemen hemen aynı olur. Uzun süreli sürekli kayıp değerleri sırasında geçici olarak yanlış bir yakınlık hissi oluşabilir.

Ayrıca erken durdurma konusuna da bakın.

D

DataFrame

#fundamentals

Veri kümelerini bellekte temsil eden, popüler bir pandas veri türü.

DataFrame, tablo veya e-tabloya benzer. Her DataFrame sütununun bir adı (başlık) vardır ve her satır benzersiz bir sayıyla tanımlanır.

DataFrame'deki her sütun, 2D dizi gibi yapılandırılır. Ancak, her sütun kendi veri türüne atanabilir.

Resmi pandas.DataFrame referans sayfasını da inceleyin.

veri kümesi veya veri kümesi

#fundamentals

Aşağıdaki biçimlerden birinde (genellikle değil) düzenlenen ham verilerin toplanması:

  • e-tablo
  • CSV (virgülle ayrılmış değerler) biçiminde bir dosya

derin model

#fundamentals

Birden fazla gizli katman içeren bir nöral ağ.

Derin model, derin sinir ağı olarak da adlandırılır.

Geniş model ile kontrast oluşturun.

yoğun özellik

#fundamentals

Değerlerin çoğunun veya tümünün sıfır dışında olduğu bir özellik (genellikle kayan nokta değerlerinin bir Tensörü). Örneğin, aşağıdaki 10 öğeli Tensor, değerlerinden 9'u sıfır olmadığı için yoğundur:

8 3 7 5 2 4 0 4 9 6

Spars özelliğiyle kontrast.

derinlik

#fundamentals

Bir nöral ağda aşağıdakilerin toplamı:

Örneğin, beş gizli katmanı ve bir çıkış katmanı olan nöral ağın derinliği 6'dır.

Giriş katmanının derinliği etkilemediğine dikkat edin.

ayrı özellik

#fundamentals

Son derece olası değerler içeren bir özellik. Örneğin, değerleri yalnızca hayvan, sebze veya minal olan, ayrıntılı (veya kategorik) bir özelliktir.

Sürekli özellik ile kontrasttır.

dinamik

#fundamentals

Sık veya sürekli olarak bir işlem yapılması. Dinamik ve çevrimiçi terimleri, makine öğreniminin eş anlamlılarıdır. Makine öğreniminde dinamik ve online etkinliklerinin yaygın kullanımları aşağıda belirtilmiştir:

  • Dinamik model (veya online model), sık sık veya sürekli olarak yeniden eğitilen bir modeldir.
  • Dinamik eğitim (veya online eğitim), sık veya sürekli olarak yapılan eğitim sürecidir.
  • Dinamik çıkarım (veya online çıkarım, isteğe bağlı olarak tahmin oluşturma işlemidir.

dinamik model

#fundamentals

Sık sık (hatta sürekli) yeniden eğitilen bir model. Dinamik model, sürekli olarak değişen verilere uyum sağlayan "yaşam boyu öğrenci"dir. Dinamik model, online model olarak da bilinir.

Statik model ile kontrast.

E

erken durduruluyor

#fundamentals

Eğitim kaybının azalmasından önce eğitimin sona ermesini içeren normalleştirme yöntemi. Erken durdurmada, bir doğrulama veri kümesindeki kayıp artmaya başladığında (yani genellemenin performansı kötüleştiğinde) modeli kasıtlı olarak kullanmayı durdurursunuz.

katman yerleştir

#language
#fundamentals

Kademeli olarak daha düşük boyutlu bir yerleştirme vektörü öğrenmek için yüksek boyutlu kategorik özellik hakkında eğitilen özel bir gizli katman. Yerleştirme katmanı, bir nöral ağın yalnızca yüksek boyutlu kategorik özellik üzerinde eğitim vermekten çok daha verimli bir şekilde eğitilmesini sağlar.

Örneğin, Earth şu anda yaklaşık 73.000 ağaç türünü desteklemektedir. Ağaç türlerinin modelinizde bir özellik olduğunu ve bu nedenle, modelinizin giriş katmanının 73.000 öğe uzunluğundaki tek bir sıcak vektör içerdiğini varsayalım. Örneğin, baobab şu şekilde temsil edilebilir:

73.000 öğeden oluşan bir dizi. İlk 6.232 öğe,0 değerini tutar. Sonraki öğe 1 değerini tutar. Son 66.767 öğe sıfır değerini tutar.

73.000 öğeli bir dizi çok uzundur. Modele bir yerleştirme katmanı eklemezseniz 72.999 sıfırların çarpımı nedeniyle eğitim çok zaman alır. Yerleştirme katmanını, 12 boyuttan oluşacak şekilde seçebilirsiniz. Sonuç olarak, yerleştirme katmanı kademeli olarak her ağaç türü için yeni bir yerleştirme vektörü öğrenir.

Bazı durumlarda, karma yerleştirme katmanına makul bir alternatiftir.

sıfır zaman

#fundamentals

Eğitim grubunun tamamını kapsayan, her bir örneğin bir kez işlendiği tam eğitim kartı.

Dönem, toplam örnek sayısı olan N/toplu boyutu eğitim iterasyonlarını temsil eder.N

Örneğin, aşağıdakileri varsayalım:

  • Veri kümesi 1.000 örnekten oluşur.
  • Grup boyutu 50 örnektir.

Bu nedenle, tek bir dönem 20 iterasyon gerektirir:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

Örnek

#fundamentals

Bir özellik satırı ve bir etiket değeri. Gözetimli öğrenme örnekleri iki genel kategoriye ayrılır:

  • Etiketli örnekler, bir veya daha fazla özellikten ve bir etiketten oluşur. Etiketli örnekler eğitim sırasında kullanılır.
  • Etiketlenmemiş örnek, bir veya daha fazla özellikten oluşur ancak etiket içermez. Çıkarım sırasında etiketlenmemiş örnekler kullanılır.

Örneğin, hava koşullarının öğrenci test puanları üzerindeki etkisini belirlemek için bir model eğittiğinizi varsayalım. Aşağıda, etiketlenmiş üç örnek verilmiştir:

Özellikler Etiket
Sıcaklık Nem Basınç Test puanı
15 47 998 İyi
19 34 1020 Mükemmel
18 92 1012 Yetersiz

Aşağıda, etiketlenmemiş üç örnek verilmiştir:

Sıcaklık Nem Basınç  
12 62 1014  
21 47 1017  
19 41 1021  

Veri kümesi satırı, genellikle bir örnek için ham kaynaktır. Yani bir örnek genellikle veri kümesindeki sütunların bir alt kümesinden oluşur. Buna ek olarak, bir örnekteki özellikler de özellik çarpı alanları gibi yapay özellikler içerebilir.

F

yanlış negatif (FN)

#fundamentals

Modelin yanlışlıkla negatif sınıfı tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta iletisinin spam olmadığını (negatif sınıf) tahmin ederken e-posta iletisinin gerçekten spam olduğunu tahmin eder.

yanlış pozitif (FP)

#fundamentals

Modelin pozitif sınıfı yanlışlıkla tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta iletisinin spam (pozitif sınıf) olduğunu, ancak e-posta iletisinin aslında spam olmadığını tahmin eder.

yanlış pozitif oranı (FPR)

#fundamentals

Modelin yanlışlıkla pozitif sınıfı tahmin ettiği gerçek negatif örneklerin oranı. Aşağıdaki formül yanlış pozitif oranını hesaplar:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

Yanlış pozitif oran, ROC eğrisindeki x eksenidir.

özellik

#fundamentals

Makine öğrenimi modeline giriş değişkeni. Örnek, bir veya daha fazla özellikten oluşur. Örneğin, hava koşullarının öğrenci test puanları üzerindeki etkisini belirlemek için bir model eğittiğinizi varsayalım. Aşağıdaki tabloda, her biri üç özellik ve bir etiket içeren üç örnek gösterilmektedir:

Özellikler Etiket
Sıcaklık Nem Basınç Test puanı
15 47 998 92
19 34 1020 84
18 92 1012 87

Etiket ile kontrast olmalıdır.

özellik çapraz

#fundamentals

Kategorik veya gruplanmış özelliklerin "çapraz" olarak oluşturulduğu bir yapay özellik.

Örneğin, aşağıdaki dört gruptan birinde sıcaklığı temsil eden bir "ruh hali tahmini" modelini ele alalım:

  • freezing
  • chilly
  • temperate
  • warm

Ayrıca, aşağıdaki üç gruptan birinde rüzgar hızını temsil eder:

  • still
  • light
  • windy

Özellik çarpı işaretleri olmadan, doğrusal model önceki yedi grubun her birinde bağımsız olarak eğitilir. Bu nedenle model, örneğin windy eğitiminden bağımsız olarak freezing ile eğitilir.

Alternatif olarak, bir sıcaklık ve rüzgar hızı özellikleri de oluşturabilirsiniz. Bu sentetik özelliğin olası 12 değeri olabilir:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

Model, özellik çaprazları sayesinde freezing-windy gün ile freezing-still gün arasında ruh hali farklarını öğrenebilir.

Her biri çok sayıda farklı pakete sahip olan iki özellikten sentetik bir özellik oluşturursanız ortaya çıkan özellik karşılıklı sayısının çok sayıda olası kombinasyonu olur. Örneğin, bir özelliğin değeri 1.000 paket, diğerininki 2.000 paketse ortaya çıkan özellik blokunda 2.000.000 grup olur.

Resmi olarak çapraz ürün, haç şeklinde gösterilir.

Özellik haçları çoğunlukla doğrusal modellerle kullanılır ve nöral ağlarla nadiren kullanılır.

özellik mühendisliği

#fundamentals
#TensorFlow

Aşağıdaki adımları içeren bir süreç:

  1. Bir modelin eğitilmesinde yararlı olabilecek özelliklerin belirlenmesi.
  2. Veri kümesindeki ham verileri bu özelliklerin etkili sürümlerine dönüştürme.

Örneğin, temperature özelliğinin yararlı bir özellik olabileceğini belirleyebilirsiniz. Ardından, modelin farklı temperature aralıklarından öğrenebileceklerini optimize etmek için gruplandırmayı deneyebilirsiniz.

Özellik mühendisliği bazen özellik çıkarma olarak da adlandırılır.

özellik grubu

#fundamentals

Makine öğrenimi modelinizin eğitildiği özellikler grubu. Örneğin, posta kodu, tesis boyutu ve tesis durumu, konut fiyatlarını tahmin eden bir model için basit bir özellik kümesini derleyebilir.

özellik vektörü

#fundamentals

Bir örnek içeren özellik değerleri dizisi. Özellik vektörü, eğitim ve çıkarım sırasında girilir. Örneğin, iki ayrı özelliğe sahip bir modelin özellik vektörü şöyle olabilir:

[0.92, 0.56]

Dört katman: Giriş katmanı, iki gizli katman ve bir çıkış katmanı.
          Giriş katmanı, biri 0,92 değerini, diğeri 0,56 değerini içeren iki düğüm içerir.

Her örnek, özellik vektörü için farklı değerler sağlar. Dolayısıyla bir sonraki örnek için özellik vektörü aşağıdaki gibi olabilir:

[0.73, 0.49]

Özellik mühendisliği, özellik vektöründeki özelliklerin nasıl temsil edileceğini belirler. Örneğin, beş olası değere sahip bir ikili kategori özelliği, tek bir görüntülerle kodlama ile gösterilebilir. Bu durumda, belirli bir örnek için özellik vektörünün kısmı, dört sıfır ve üçüncü konumda tek bir 1,0'dan oluşur:

[0.0, 0.0, 1.0, 0.0, 0.0]

Diğer bir örnek olarak, modelinizin üç özellikten oluştuğunu varsayalım:

  • Tek resimli kodlamayla temsil edilen beş olası değeri olan bir ikili kategori özelliği; örneğin: [0.0, 1.0, 0.0, 0.0, 0.0]
  • Tek bir sıcak kodlamayla üç olası değer içeren başka bir ikili kategori özelliği; örneğin: [0.0, 0.0, 1.0]
  • Bir kayan nokta özelliği (ör. 8.3).

Bu durumda, her örnek için özellik vektörü dokuz değerle gösterilir. Yukarıdaki listedeki örnek değerler göz önüne alındığında, özellik vektörü şöyle olur:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

geri bildirim döngüsü

#fundamentals

Makine öğreniminde, bir modelin tahminlerinin aynı model veya başka bir modelin eğitim verilerini etkilemesi. Örneğin, film öneren bir model, kullanıcıların gördüğü filmleri etkiler ve ardından, sonraki film önerisi modelleri bu durumdan etkilenir.

G

genelleştirme

#fundamentals

Modelin yeni, daha önce görülmemiş verilerle ilgili doğru tahminler yapabilmesi. Genelleştirme yapabilen model, uygun şekilde sığdıran modelin tersini yapar.

genelleştirme eğrisi

#fundamentals

İteratif sayısının bir işlevi olarak hem eğitim kaybı hem de doğrulama kaybı grafiği.

Genelleştirme eğrisi, olası aşırı değişiklikleri tespit etmenize yardımcı olabilir. Örneğin, aşağıdaki doğrulama eğrisi, eğitim kaybının nihai olarak eğitim kaybından önemli ölçüde daha yüksek olması nedeniyle fazla uyuma işaret eder.

Y ekseninin &quot;kayba&quot;, x ekseninin ise &quot;iterasyonlar&quot; olarak işaretlendiği Kartezyen grafik. İki plan görünür. Planlardan biri eğitim kaybını, diğeri ise doğrulama kaybını gösterir.
          İki örnek de benzer şekilde başlıyor ancak eğitim kaybı sonunda doğrulama kaybından çok daha düşük oluyor.

gradyan iniş

#fundamentals

Kaybı en aza indirmek için çalışan bir matematik tekniğidir. Gradyan iniş, ağırlığı ve ön yargıları tekrar tekrar ayarlayarak kayıpları en aza indirmek için en iyi kombinasyonu bulur.

Gradyan iniş, makine öğreniminden çok daha eskidir.

kesin referans

#fundamentals

Reality.

olup bitenler.

Örneğin, üniversitenin ilk yılında bir öğrencinin altı yıl içinde mezun olup olmayacağını tahmin eden bir ikili sınıflandırma modelinden yararlanabilirsiniz. Bu modelin esası, öğrencinin altı yıl içinde sınıftan mezun olup olmadığıdır.

H

gizli katman

#fundamentals

Nöral ağda giriş katmanı (özellikler) ile çıkış katmanı (tahmin) arasında bir katman. Her gizli katman bir veya daha fazla nörondan oluşur. Örneğin, aşağıdaki nöral ağ, biri üç nöron diğeri de iki nöron içeren iki gizli katman içerir.

Dört katman. İlk katman, iki özellik içeren bir giriş katmanıdır. İkinci katman, üç nöron içeren gizli bir katmandır. Üçüncü katman, iki nöron içeren gizli bir katmandır. Dördüncü katman, bir çıkış katmanıdır. Her özellik, her biri ikinci katmandaki farklı bir nörona işaret eden üç kenar içerir. İkinci katmandaki nöronların her biri, her biri üçüncü katmandaki farklı bir nörona işaret eden iki kenar içerir. Üçüncü katmandaki nöronların her biri, her biri çıkış katmanına işaret eden bir kenar içerir.

Derin sinir ağı birden fazla gizli katman içerir. Örneğin, önceki çizimde derin bir nöral ağ yer almaktadır. Çünkü modelin iki gizli katmanı vardır.

hiperparametre

#fundamentals

Sizin veya bir hiperparametre ayarlama hizmetinin ( bir modelin art arda çalıştırılması sırasında ayarlanır. Örneğin, öğrenme oranı bir hiperparametredir. Bir eğitim oturumundan önce öğrenme oranını 0,01 olarak ayarlayabilirsiniz. 0,01'in çok yüksek olduğunu belirlerseniz bir sonraki eğitim oturumu için öğrenme oranını 0,003 olarak ayarlayabilirsiniz.

Buna karşılık, parametreler modelin eğitim sırasında öğrendiği çeşitli ağırlıklar ve ön yargıdır.

I

bağımsız ve aynı şekilde dağıtılmış (ör.)

#fundamentals

Değişmeyen ve her değerin çiziminin daha önce çizilmiş değerlere dayalı olmadığı bir dağılımdan alınan veriler. Kimlik, makine öğreniminin ideal gazıdır. Yararlı bir matematiksel yapı ancak neredeyse hiçbir zaman gerçek dünyada bulunmaz. Örneğin, bir web sayfasına gelen ziyaretçilerin dağılımı kısa bir zaman aralığı içinde olabilir. Diğer bir deyişle, dağılım bu kısa zaman aralığında değişmez ve bir kullanıcının ziyareti genellikle bir başkasının ziyaretinden bağımsız olur. Ancak, bu zaman aralığını genişletirseniz web sayfasının ziyaretçilerinde sezonluk farklılıklar görünebilir.

Ayrıca istemsizlik konusuna da bakın.

çıkarım

#fundamentals

Makine öğreniminde eğitilen bir modeli etiketlenmemiş örneklere uygulayarak tahmin yapma işlemi.

Çıkarım, istatistiklerde biraz farklı bir anlama sahiptir. Ayrıntılar için istatistiksel çıkarım ile ilgili Wikipedia makalesine bakın.

giriş katmanı

#fundamentals

Özellik vektörünü tutan bir nöral ağın katmanı. Yani giriş katmanı eğitim veya çıkarım için örnekler sağlar. Örneğin, aşağıdaki nöral ağdaki giriş katmanı iki özellikten oluşur:

Dört katman: Giriş katmanı, iki gizli katman ve çıkış katmanı.

yorumlanabilirlik

#fundamentals

ML modellerinin gerekçelerini insanlar tarafından anlaşılabilir bir şekilde açıklayabilme veya gösterebilme

Örneğin doğrusal regresyon modellerinin çoğu, fazlasıyla yorumlanabilir. (Sadece her özellik için eğitilen ağırlıklara bakmanız yeterli.) Karar ormanları da yüksek ölçüde yorumlanabilir. Bununla birlikte, bazı modellerin yorumlanabilmesi için karmaşık görselleştirme gerekir.

iterasyon

#fundamentals

Eğitim sırasında modelin parametrelerinin (modelin ağırlıkları ve ön yargıları) tek bir güncellemesi. Toplu boyut, modelin tek bir iterasyonda kaç örneği işlediğini belirler. Örneğin, grup boyutu 20 ise model, parametreleri ayarlamadan önce 20 örneği işler.

Bir nöral ağ eğitilirken tek bir iterasyon aşağıdaki iki kartı içerir:

  1. Tek bir gruptaki kayıpları değerlendirmek için yönlendirme kartı.
  2. Kayba ve öğrenme hızına göre modelin parametrelerini ayarlamak için bir geriye doğru geçiş (geri yayılım).

L

L0 normalleştirmesi

#fundamentals

Bir modelde toplam sıfır ağırlık değerini cezalandıran bir normalleştirme türü. Örneğin, 11 sıfır olmayan bir ağırlığa sahip bir model, 10 sıfır olmayan bir ağırlığa sahip benzer bir modelden daha fazla cezalandırılır.

L0 normalleştirmesi bazen L0-nom normalleştirmesi olarak adlandırılır.

L1 kaybı

#fundamentals

Gerçek etiket değerleri ile bir modelin tahmin ettiği değerler arasındaki farkın mutlak değerini hesaplayan bir kayıp işlevi. Örneğin, beş toplu toplu için L1 kaybı hesaplaması aşağıda verilmiştir:

Örneğin gerçek değeri Modelin tahmini değeri Deltanın mutlak değeri
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 kaybı

L1 kaybı, karşıtlıklara L2 kaybından daha az duyarlıdır.

Ortalama Mutlak Hata, örnek başına ortalama L1 kaybıdır.

L1 normalleştirmesi

#fundamentals

Ağırlıkların mutlak değerinin toplamıyla orantılı olarak ağırlıklara ceza veren bir normalleştirme türü. L1 normalleştirmesi, alakasız veya neredeyse alakasız özelliklerin ağırlıklarını tam olarak 0'a artırmaya yardımcı olur. Ağırlığı 0 olan bir özellik modelden etkili bir şekilde kaldırılır.

L2 normalleştirmesinin aksine.

L2 kaybı

#fundamentals

Gerçek etiket değerleri ile bir modelin tahmin ettiği değerler arasındaki farkın karesini hesaplayan bir kayıp işlevi. Örneğin, beş toplu toplu için 2 değerindeki kayıp hesaplamasını burada bulabilirsiniz:

Örneğin gerçek değeri Modelin tahmini değeri Delta Meydanı
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = L2 kaybı

Çarpma nedeniyle L2 kayıplar aykırı değerlerin etkisini artırır. Yani L2 kaybı, olumsuz tahminlere L1 kaybından daha güçlü bir tepki verir. Örneğin, bir önceki grubun L1 kaybı 16 yerine 8 olur. Tek bir aykırı değerin, 16 ay arasından 9'unu oluşturduğuna dikkat edin.

Regresyon modelleri genellikle kayıp işlevi olarak L2 kaybını kullanır.

Ortalama Karesel Hata, örnek başına ortalama L2 kaybıdır. Kare kaybı, L2 kaybının başka bir adıdır.

L2 normalleştirmesi

#fundamentals

Ağırlıkların karelerinin toplamına oranla ağırlıklara ceza veren bir normalleştirme türü. L2 normalleştirmesi, olağan dışı ağırlıkların (yüksek pozitif veya düşük negatif değerlere sahip olanlar) 0'a yakın olmasına rağmen tam olarak 0'a eşit değildir. Değerleri 0'a çok yakın olan özellikler modelde kalır ancak modelin tahminini çok etkilemez.

L2 normalleştirmesi, doğrusal modellerde genelleştirmeyi her zaman iyileştirir.

L1 normalleştirmesinin aksine.

etiket

#fundamentals

Gözetimli makine öğrenimi bölümünde bir örneğin "yanıt" veya "sonuç" kısmı.

Her etiketli örnek, bir veya daha fazla özellikten ve bir etiketten oluşur. Örneğin, bir spam algılama veri kümesinde etiket muhtemelen "spam" veya "spam değil" olur. Etiket, bir yağmur veri kümesinde belirli bir dönem boyunca yağan yağmur miktarı olabilir.

etiketli örnek

#fundamentals

En az bir özellik ve bir etiket içeren örnek. Örneğin, aşağıdaki tabloda bir ev değerlendirme modelinden her biri üç özelliği ve bir etiketi olan üç etiketli örnek gösterilmektedir:

Yatak odası sayısı Banyo sayısı Evin yaşı Ev fiyatı (etiket)
3 2 15 345.000 $
2 1 72 179.000 $
4 2 34 392.000 $

Gözetimli makine öğreniminde modeller, etiketli örneklerle ilgili eğitim verir ve etiketlenmemiş örneklerle ilgili tahminlerde bulunur.

Etiketsiz örneklerle kontrast etiketli örnek.

Lambda

#fundamentals

Normalleştirme oranı ile eş anlamlıdır.

Lambda aşırı yüklü bir terim. Burada terimin, normalleştirme içindeki tanımına odaklanıyoruz.

katman

#fundamentals

Nöral ağdaki bir nöron. Sık kullanılan üç katman türü şunlardır:

Aşağıdaki çizimde bir giriş katmanı, iki gizli katman ve bir çıkış katmanı bulunan bir nöral ağ gösterilmektedir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı bulunan nöral ağ. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

TensorFlow'da katmanlar aynı zamanda Tensörler ve yapılandırma seçeneklerini giriş olarak alıp çıkış olarak diğer tensörleri üreten Python işlevleridir.

öğrenme hızı

#fundamentals

gradyan iniş algoritmasına her bir iterasyondaki ağırlıkları ve önyargıları ne kadar güçlü bir şekilde ayarlayacağını belirten bir kayan nokta numarasıdır. Örneğin, 0,3'lük bir öğrenme hızı, ağırlıkları ve sapmaları 0,1'lik bir öğrenme hızından üç kat daha güçlü şekilde ayarlar.

Öğrenme hızı önemli bir hiperparametredir. Öğrenme hızını çok düşük bir değere ayarlarsanız eğitim çok uzun sürer. Öğrenme hızını çok yüksek bir değere ayarlarsanız gradyan azalma, genellikle dönüşüme ulaşmada sorun yaşar.

doğrusal model

#fundamentals

Tahminleri yapmak için özellik başına bir ağı atayan bir model. (Doğrusal modeller, bir ön yargı da içerir.) Buna karşılık, özelliklerin derin modellerdeki tahminlerle ilişkisi genellikle doğrusal değildir.

Doğrusal modellerin eğitilmesi genellikle daha kolaydır ve derin modellere kıyasla yorumlanabilir niteliktedir. Ancak derin modeller, özellikler arasındaki karmaşık ilişkileri öğrenebilir.

Doğrusal regresyon ve mantıksal regresyon, iki tür doğrusal modeldir.

doğrusal

#fundamentals

Yalnızca toplama ve çarpma yoluyla temsil edilebilen iki veya daha fazla değişken arasındaki ilişki.

Doğrusal ilişkinin çizgisi bir çizgidir.

Doğrusal olmayan kontrast.

doğrusal regresyon

#fundamentals

Aşağıdakilerden her ikisinin de doğru olduğu bir makine öğrenimi modeli türü:

Doğrusal regresyonla mantıksal regresyon karşılaştırması. Ayrıca, regresyonun sınıflandırma özelliğiyle zıtlık kurun.

mantıksal regresyon

#fundamentals

Olasılığı tahmin eden bir regresyon modeli türüdür. Mantıksal regresyon modelleri aşağıdaki özelliklere sahiptir:

  • Etiket, kategoriz kategorisindedir. Mantıksal regresyon, genellikle ikili mantıksal regresyonu ifade eder. Diğer bir deyişle iki olası değere sahip etiketlerin olasılığını hesaplayan bir modeldir. Daha seyrek görülen bir değişken olan çoklu lojistik regresyon, ikiden fazla olası değere sahip etiketler için olasılıkları hesaplar.
  • Eğitim sırasında kayıp işlevi Günlük Kaybı'dır. (Olası değeri ikiden fazla olan etiketler için birden fazla Günlük Kaybı birimi paralel olarak yerleştirilebilir.)
  • Model, derin nöral ağ değil, doğrusal bir mimariye sahiptir. Ancak bu tanımın geri kalanı, kategorik etiketler için olasılıkları tahmin eden derin modeller için de geçerlidir.

Örneğin, bir giriş e-postasının spam olma veya spam olma olasılığını hesaplayan mantıksal regresyon modelinden yararlanabilirsiniz. Çıkarım sırasında, modelin 0,72 değerini tahmin ettiğini varsayalım. Bu nedenle, model şunları tahmin ediyor:

  • E-postanın spam olma olasılığı% 72'dir.
  • E-postanın spam olmaması olasılığı% 28'dir.

Mantıksal regresyon modelinde aşağıdaki iki adımlı mimari kullanılır:

  1. Model, giriş özelliklerinin doğrusal bir işlevini uygulayarak ham tahmin (y) oluşturur.
  2. Model, bu işlenmemiş tahmini sigmoid işlevine giriş olarak kullanır. Bu işlev, ham tahmini hariç tutarak 0 ile 1 arasında bir değere dönüştürür.

Mantıksal regresyon modeli, herhangi bir regresyon modelinde olduğu gibi bir sayıyı tahmin eder. Ancak bu sayı genellikle aşağıdaki gibi bir ikili sınıflandırma modeline dahil olur:

  • Tahmin edilen sayı sınıflama eşiğinden büyükse ikili sınıflandırma modeli, pozitif sınıfı tahmin eder.
  • Tahmin edilen sayı, sınıflandırma eşiğinden düşükse ikili program modeli, negatif sınıfı tahmin eder.

Günlük Kaybı

#fundamentals

İkili mantıksal regresyon'da kullanılan kayıp işlevi.

günlük kazanma olasılığı

#fundamentals

Bir etkinliğin olasılıklarının logaritması.

mağlubiyet

#fundamentals

Gözetimli bir modelin eğitimi sırasında bir modelin tahmininin ne kadar etiketi olduğunun ölçüsüdür.

Bir kayıp işlevi, kaybı hesaplar.

kayıp eğrisi

#fundamentals

Eğitim iterlerinin sayısı fonksiyonu olarak bir kaybın grafiği. Aşağıdaki şemada tipik bir kayıp eğrisi gösterilmektedir:

Eğitimin iterasyonlarıyla karşılaştırılan, Kartesya&#39;daki kayıp grafiği, ilk iterasyonlarda kayıpta hızlı bir düşüş, ardından kademeli bir düşüş ve son iterasyonlarda düz bir eğim gösterilir.

Kayıp eğrileri, modelinizin ne zaman birleştiğini veya uygun olduğunu belirlemenize yardımcı olabilir.

Kayıp eğrileri aşağıdaki kayıp türlerinin tümünü gösterebilir:

Genelleme eğrisini de inceleyin.

kayıp işlev

#fundamentals

Eğitim veya test sırasında bir toplu örnekteki kayıpları hesaplayan matematiksel bir işlev. Kayıp işlevi, iyi tahminler yapan modeller için, düşük tahmin yapan modellere kıyasla daha düşük kayıp döndürür.

Eğitimin amacı, genellikle bir kayıp işlevinin döndürdüğü kayıpı en aza indirmektir.

Birçok farklı kayıp işlevi türü vardır. Derlediğiniz model türü için uygun kayıp işlevini seçin. Örneğin:

M

makine öğrenimi

#fundamentals

Giriş verilerinden bir model eğiten program veya sistem. Eğitilen model, modeli eğitmek için kullanılan dağıtımın aynısından alınan yeni (daha önce görülmemiş) verilerden faydalı tahminler yapabilir.

Makine öğrenimi de bu program veya sistemlerle ilgili çalışma alanını ifade eder.

çoğunluğun dersi

#fundamentals

Sınıf dengesi olmayan veri kümesinde daha yaygın olarak kullanılan etiket. Örneğin, %99 negatif ve% 1 pozitif etiket içeren bir veri kümesi göz önüne alındığında negatif etiketler çoğu sınıftır.

Azınlık sınıfı ile kontrast.

mini toplu

#fundamentals

Bir yinelemede işlenen toplu küçük, rastgele seçilen bir alt küme. Bir mini toplu işin topluluk boyutu genellikle 10 ila 1.000 örnektir.

Örneğin, tüm eğitim grubunun (tüm grup) 1.000 örnekten oluştuğunu varsayalım. Ayrıca, her mini toplu e-tablonun topluluk boyutunu 20 olarak ayarladığınızı varsayalım. Bu nedenle her iterasyon, 1.000 örneğin rastgele 20'sinde kaybı tanımlar ve ağırlıklar ile ön yargıları buna göre ayarlar.

Tüm toplu örneklerdeki kayıpları mini toplu olarak hesaplamak kayıptan çok daha etkilidir.

azınlık sınıfı

#fundamentals

Sınıf dengesiz veri kümesinde daha seyrek kullanılan bir etikettir. Örneğin, %99 negatif ve% 1 pozitif etiket içeren bir veri kümesi göz önünde bulundurulduğunda pozitif etiketler azınlık sınıfıdır.

Üst sınıf ile kontrast.

model

#fundamentals

Genel olarak, giriş verilerini işleyen ve çıkış döndüren her matematiksel yapı. Farklı bir şekilde ifade edilen model, bir sistemin tahminlerde bulunması için gereken parametreler ve yapı kümesidir. Gözetimli makine öğreniminde model, giriş olarak bir örnek alır ve çıktı olarak bir tahmin belirler. Gözetimli makine öğreniminde modeller biraz farklılık gösterir. Örneğin:

  • Doğrusal regresyon modeli, bir ağırlıklar ve ön yargıdan oluşur.
  • Nöral ağ modeli şunları içerir:
    • Her biri bir veya daha fazla nöron içeren gizli katmanlar grubu.
    • Her nöronla ilişkili ağırlıklar ve ağırlıklandırma.
  • Karar ağacı modeli şunlardan oluşur:
    • Ağacın şekli, yani koşullarla ağaçların birbirine bağlı olduğu kalıp.
    • Koşullar ve gidişat.

Bir modeli kaydedebilir, geri yükleyebilir veya kopyalayabilirsiniz.

Gözetimsiz makine öğrenimi de modeller oluşturur. Bu işlev genellikle bir giriş örneğini en uygun küme ile eşleyebilir.

çok sınıflı sınıflandırma

#fundamentals

Gözetimli öğrenmede, veri kümesinin ikiden fazla sınıfını içerdiği bir sınıflandırma sorunu. Örneğin, Iris veri kümesindeki etiketler aşağıdaki üç sınıftan biri olmalıdır:

  • İris setosa
  • Mermer bakire
  • Mercek rengi

İris veri kümesinde eğitilen yeni örneklerde İris türünü tahmin eden bir model, çok sınıflı sınıflandırma gerçekleştiriyor.

Buna karşılık, tam olarak iki sınıfı birbirinden ayıran sınıflandırma sorunları ikili sınıflandırma modelleridir. Örneğin, spam veya spam değil'i tahmin eden bir e-posta modeli, ikili bir sınıflandırma modelidir.

Kümeleme problemlerinde çok sınıflı sınıflandırma ikiden fazla kümeyi ifade eder.

N

negatif sınıf

#fundamentals

İkili sınıflandırmada bir sınıf pozitif, diğeri ise negatif olarak adlandırılır. Olumlu sınıf, modelin test etmekte olduğu şey veya etkinliktir. Negatif sınıf ise diğer olasılıktır. Örneğin:

  • Bir tıbbi testteki negatif sınıf "tümör değil" olabilir.
  • Bir e-posta sınıflandırıcıdaki negatif sınıf "spam değil" olabilir.

Pozitif sınıf ile kontrast.

nöral ağ

#fundamentals

En az bir gizli katman içeren model. Derin sinir ağı, birden fazla gizli katman içeren bir nöral ağ türüdür. Örneğin, aşağıdaki şemada, iki gizli katman içeren derin bir nöral ağ gösterilmektedir.

Giriş katmanı, gizli iki katman ve çıkış katmanı bulunan bir nöral ağ.

Bir nöral ağdaki her nöron bir sonraki katmandaki tüm düğümlere bağlanır. Örneğin, önceki şemada, ilk gizli katmandaki üç nöronun her ikisinin de ikinci gizli katmandaki iki nöronun her birine ayrı ayrı bağlandığını görebilirsiniz.

Bilgisayarlarda kullanılan nöral ağlar bazen bunları beyin ve diğer sinir sistemlerinde bulunan nöral ağlardan ayırt etmek için yapay nöral ağlar olarak da adlandırılır.

Bazı nöral ağlar, farklı özellikler ile etiket arasındaki aşırı karmaşık olmayan doğrusal ilişkileri taklit edebilir.

Ayrıca konvolüsyonel nöral ağ ve yinelenen nöral ağ konusuna bakın.

nöron

#fundamentals

Makine öğreniminde gizli katman nöral ağının Her nöron aşağıdaki iki adımlı işlemi gerçekleştirir:

  1. Giriş değerlerinin ağırlıklı toplamını ilgili ağırlıklarıyla çarparak hesaplar.
  2. Ağırlıklı toplamı, etkinleştirme işlevine giriş olarak aktarır.

İlk gizli katmandaki bir nöron, giriş katmanındaki özellik değerlerinden gelen girişleri kabul eder. İlkinden sonraki gizli katmanlardaki bir nöron, önceki gizli katmandaki nöronlardan gelen girişleri kabul eder. Örneğin, ikinci gizli katmandaki bir nöron ilk gizli katmandaki nöronlardan gelen girişleri kabul eder.

Aşağıdaki görselde iki nöron ve bunların girişleri gösterilmiştir.

Giriş katmanı, gizli iki katman ve çıkış katmanı bulunan bir nöral ağ. Biri ilk gizli katman diğeri ikinci gizli katman olmak üzere iki nöron vurgulanmıştır. İlk gizli katmanda vurgulanan nöron, giriş katmanındaki her iki özellikten de girişler alır. İkinci gizli katmanda vurgulanan nöron, ilk gizli katmandaki üç nöronun her birinden giriş alır.

Bir sinir ağındaki nöron, beyin ve sinir sistemlerinin diğer bölümlerindeki nöronların davranışını taklit eder.

düğüm (sinir ağı)

#fundamentals

Gizli katmandaki bir nöron.

doğrusal olmayan

#fundamentals

Yalnızca toplama ve çarpma yoluyla temsil edilemeyen iki veya daha fazla değişken arasındaki ilişki. Doğrusal ilişki çizgi olarak, lineer olmayan ilişki ise çizgi olarak temsil edilemez. Örneğin, her biri tek bir etiketle tek bir özelliği ilişkilendiren iki modeli ele alalım. Soldaki model doğrusal, sağdaki model doğrusal değildir:

İki plan. Şemalardan biri çizgi olan doğrusal bir ilişki.
          Diğeri eğri. Dolayısıyla, bu doğrusal olmayan bir ilişki.

durağanlık yok

#fundamentals

Değerleri genellikle bir veya daha fazla boyutta değişen bir özellik. Örneğin, aşağıdaki sabit olmayan örneklere göz atın:

  • Belirli bir mağazada satılan mayoların sayısı mevsime göre değişir.
  • Belirli bir bölgede toplanan belirli bir meyvenin miktarı, yılın büyük bir kısmı için sıfırdır ancak kısa bir süre için fazladır.
  • İklim değişikliği nedeniyle yıllık ortalama sıcaklıklar değişiyor.

Statik ile kontrast.

normalleştirme

#fundamentals

Genel anlamda, bir değişkenin gerçek değer aralığını standart bir değer aralığına dönüştürme işlemi. Örneğin:

  • -1 - +1
  • 0-1
  • normal dağılım

Örneğin, belirli bir özelliğin gerçek değer aralığının 800 ila 2.400 olduğunu varsayalım. Özellik mühendisliği kapsamında, gerçek değerleri -1 ile +1 gibi standart bir aralıkta normalleştirebilirsiniz.

Normalleştirme, özellik mühendisliğinde genel bir görevdir. Özellik vektörünün her sayısal özelliği yaklaşık olarak aynı aralıka sahip olduğunda modeller genellikle daha hızlı eğitilir (ve daha iyi tahminler üretilir).

sayısal veri

#fundamentals

Tam sayı veya gerçek değerli sayılar olarak temsil edilen özellikler. Örneğin, ev değerlendirme modeli büyük olasılıkla bir evin boyutunu (fitkare veya metrekare cinsinden) sayısal veri olarak gösterir. Bir özelliğin sayısal veri olarak temsil edilmesi, özellik değerlerinin etiketle matematik ilişkisi olduğu anlamına gelir. Yani bir evdeki metrekare sayısının büyük olasılıkla evin değeri ile bazı matematiksel ilişkisi vardır.

Tüm tam sayı verileri sayısal veri olarak temsil edilmemelidir. Örneğin, dünyanın bazı yerlerindeki posta kodları tam sayıdır. Ancak tam sayı posta kodları, modellerde sayısal veri olarak temsil edilmemelidir. Bunun nedeni, 20000 posta kodunun 10.000 posta kodundan iki kat (veya yarı kadar) fazla olmamasıdır. Ayrıca, farklı posta kodları farklı gayrimenkul değerleriyle ilişkili olsa da 20000 posta kodundaki gayrimenkul değerlerinin 10000 posta kodundaki gayrimenkul değerlerinin iki katı değerinde olduğunu varsayamayız. Posta kodları, bunun yerine kategorik veri olarak temsil edilmelidir.

Sayısal özelliklere bazen sürekli özellikler denir.

O

çevrimdışı

#fundamentals

Statik için eş anlamlıdır.

çevrimdışı çıkarım

#fundamentals

Bir modelin tahminler oluşturma ve ardından bu tahminleri önbelleğe alma (kaydetme) işlemi. Ardından uygulamalar, modeli yeniden çalıştırmak yerine önbellekten istenilen tahmine erişebilir.

Örneğin, dört saatte bir yerel hava durumu tahminleri (tahminler) oluşturan bir model düşünün. Sistem, her model çalıştırıldıktan sonra tüm yerel hava durumu tahminlerini önbelleğe alır. Hava durumu uygulamaları, tahminleri önbellekten alır.

Çevrimdışı çıkarım, statik çıkarım olarak da adlandırılır.

Online çıkarım ile zıtlık kurun.

tek seferlik kodlama

#fundamentals

Kategorik verileri aşağıdaki gibi bir vektör olarak temsil etmek:

  • Bir öğe 1 olarak ayarlandı.
  • Diğer tüm öğeler 0 olarak ayarlanır.

Tek seferlik kodlama, genellikle belirli bir olası değer grubuna sahip dizeleri veya tanımlayıcıları göstermek için kullanılır. Örneğin, Scandinavia adlı belirli bir kategorik özelliğin beş olası değeri olduğunu varsayalım:

  • "Danimarka"
  • "İsveç"
  • "Norveç"
  • "Finlandiya"
  • "İzlanda"

Tek seferlik kodlama, beş değerin her birini aşağıdaki gibi temsil edebilir:

country Vektör
"Danimarka" 1 0 0 0 0
"İsveç" 0 1 0 0 0
"Norveç" 0 0 1 0 0
"Finlandiya" 0 0 0 1 0
"İzlanda" 0 0 0 0 1

Tek seferlik kodlama sayesinde model, beş ülkenin her birine bağlı olarak farklı bağlantılar öğrenebilir.

Bir özelliğin sayısal veri olarak temsil edilmesi, tek seferlik kodlamanın alternatifidir. Maalesef İskandinav ülkeleri sayısal olarak temsil etmek iyi bir seçim değil. Örneğin, aşağıdaki sayısal gösterimi göz önünde bulundurun:

  • "Danimarka" 0
  • "İsveç" 1'dir
  • "Norveç" 2 yaşında
  • "Finlandiya" 3'tür
  • "İzlanda" 4 numaradır

Sayısal kodlamada model, ham sayıları matematiksel olarak yorumlar ve bu sayıları eğitmeye çalışır. Ancak İzlanda aslında Norveç'in iki katı kadar (veya yarı yarıya) olmadığından bu model bazı garip sonuçlara ulaşır.

teke tek

#fundamentals

N sınıflarıyla ilgili bir sınıflandırma sorunu göz önünde bulundurulduğunda N ayrı ikili sınıflandırıcıdan oluşan bir çözüm (olası her sonuç için bir ikili sınıflandırıcı). Örneğin, örnekleri hayvan, sebze veya mineral olarak sınıflandıran bir model göz önünde bulundurulduğunda teke tek hepsi çözümü, aşağıdaki üç ayrı ikili sınıflandırıcı sağlar:

  • hayvan mı hayvan mı?
  • sebze mi sebze mi değil mi
  • mineral - mineral değil

online

#fundamentals

Dinamik ile eş anlamlı.

online çıkarım

#fundamentals

İsteğe bağlı tahminler oluşturuluyor. Örneğin, bir uygulamanın bir modele giriş ilettiğini ve tahmin isteğinde bulunduğunu varsayalım. Online çıkarımı kullanan bir sistem, modeli çalıştırarak (ve tahmini uygulamaya uygulamaya döndürerek) yanıt verir.

Çevrimdışı çıkarım ile kontrast.

çıkış katmanı

#fundamentals

Bir nöral ağın "nihai" katmanı. Çıktı katmanı tahmini içerir.

Aşağıdaki çizimde bir giriş katmanı, iki gizli katman ve bir çıkış katmanı bulunan küçük bir derin sinir ağı gösterilmektedir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı bulunan nöral ağ. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

fazla uyumlu

#fundamentals

Modelin yeni verilerle ilgili doğru tahminlerde bulunamaması için eğitim verileriyle eşleşen bir model oluşturma.

Normalleştirme, fazla uyuma oranını azaltabilir. Büyük ve farklı bir eğitim grubuyla ilgili eğitim de fazla uyumayı azaltabilir.

P

pandalar

#fundamentals

Numpy temel alınarak oluşturulmuş sütun odaklı veri analizi API'si. TensorFlow dahil birçok makine öğrenimi çerçevesi, panda veri yapılarını giriş olarak destekler. Ayrıntılar için pandas belgelerini inceleyin.

parametresi

#fundamentals

Bir modelin eğitim sırasında öğrendiği ağırlıklar ve ön yargılar. Örneğin, bir doğrusal regresyon modelinde, parametreler aşağıdaki ağırlıkta (b) ve tüm ağırlıklardan (w1, w2 vb.) oluşur:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Buna karşılık, hyperparameter, sizin (veya bir hiperparametre dönüştürme hizmetinin) modele sağladığı değerlerdir. Örneğin, öğrenme oranı bir hiperparametredir.

pozitif sınıf

#fundamentals

Test için kullandığınız sınıf.

Örneğin, bir kanser modelindeki pozitif sınıf "tümör" olabilir. Bir e-posta sınıflandırıcıdaki pozitif sınıf "spam" olabilir.

Negatif sınıf ile kontrast.

işleme sonrası

#fairness
#fundamentals

Model çalıştırıldıktan sonra modelin çıkışını ayarlama. İşleme sonrası, modelleri değiştirmeden önce adalet kısıtlamalarını uygulamak için kullanılabilir.

Örneğin, bir sınıflandırma sonrası gerçek pozitif oranı'nın bu özelliğin tüm değerleri için aynı olup olmadığını kontrol ederek fırsat eşitliği'nin korunduğu bir sınıflandırma eşiği ayarlayarak ikili sınıflandırıcıya son işleme uygulanabilir.

tahmin

#fundamentals

Bir modelin sonucu. Örneğin:

  • İkili sınıflandırma modelinin tahmini, pozitif veya negatif sınıftır.
  • Çok sınıflı sınıflandırma modelinin tahmini tek bir sınıftır.
  • Doğrusal regresyon modelinin tahmini sayıdır.

proxy etiketleri

#fundamentals

Bir veri kümesinde doğrudan bulunmayan yaklaşık etiketleri yaklaşık olarak gösteren veriler.

Örneğin, çalışan stres seviyesini tahmin etmek için bir model eğitmeniz gerektiğini varsayalım. Veri kümenizde çok sayıda tahmin özelliği var ancak stres düzeyi adlı bir etiket içermiyor. Sizi stresli bir seviye için proxy etiketi olarak "iş yeri kazaları"nı seçiyorsunuz. Sonuçta, çok stresli çalışanlar sakin çalışanlardan daha fazla kazara maruz kalır. Yoksa istemedikleri için mi? İş yeri kazaları birden çok nedenden dolayı yükselip düşebilir.

İkinci bir örnek olarak, yağmur mu? veri kümenizin Boole etiketi olmasını istediğinizi, ancak veri kümenizin yağmur verisi içermediğini varsayalım. Fotoğraflar varsa yağmur yağıyor mu? için proxy etiketi olarak şemsiye taşıyan kişilerin fotoğraflarını oluşturabilirsiniz. Bu iyi bir proxy etiketi mi? Muhtemelen ama bazı kültürlerdeki insanların güneşe karşı şemsiye taşıma olasılığı yağmura göre daha yüksektir.

Proxy etiketleri çoğu zaman kusursuz değildir. Mümkün olduğunda, proxy etiketleri yerine gerçek etiketleri seçin. Bununla birlikte, gerçek bir etiket olmadığında, en az korkutucu proxy etiketi adayını seçerek proxy etiketini çok dikkatli bir şekilde seçin.

balon

değerlendirici

#fundamentals

Örnekler için etiketler sağlayan gerçek kişi. "Açıklamacı", değerlendiricinin diğer adıdır.

Düzeltilmiş Doğrusal Birim (RELU)

#fundamentals

Aşağıdaki davranışa sahip bir etkinleştirme işlevi:

  • Giriş negatif veya sıfır ise çıkış 0 olur.
  • Giriş pozitifse çıkış, girişe eşittir.

Örneğin:

  • Giriş -3 ise çıkış 0 olur.
  • Giriş +3 ise çıkış 3, 0 olur.

ReLU'nun grafiği:

İki satırdan oluşan kartela çizimi. İlk satırın x ekseni üzerinde -sonsuz, 0 ile 0 arasında sabit bir y değeri 0&#39;dır.
          İkinci satır 0,0&#39;dan başlar. Bu çizginin +1&#39;i eğimi vardır. Bu nedenle 0,0 ile +infinity+infinity arasında çalışır.

ReLU çok popüler bir etkinleştirme işlevidir. ReLU, basit davranışına rağmen bir nöral ağın özellikler ile etiket arasındaki doğrusal olmayan ilişkileri öğrenmesini sağlar.

regresyon modeli

#fundamentals

Gayriresmi olarak sayısal bir tahmin oluşturan model. (Buna karşılık, sınıflandırma modeli bir sınıf tahmini oluşturur.) Örneğin, aşağıdakilerin tümü regresyon modelleridir:

  • 423.000 avro gibi, belirli bir evin değerini tahmin eden bir model.
  • 23, 2 yıl gibi belirli bir ağacın tahmini ömrünü tahmin eden bir model.
  • Önümüzdeki altı saat içinde belirli bir şehre düşecek yağmur miktarını (ör.0, 18 inç) tahmin eden bir model.

Sık kullanılan iki regresyon modeli türü şunlardır:

  • Doğrusal regresyon, etiket değerlerini özelliklere en uygun çizgiyi bulur.
  • Mantıksal regresyon, bir sistemin genellikle sınıf tahminini eşlediği 0,0 ile 1,0 arasında bir olasılık oluşturur.

Sayısal tahminler üreten her model bir regresyon modeli değildir. Bazı durumlarda sayısal tahmin, yalnızca sayısal sınıf adlarına sahip olan bir sınıflandırma modelidir. Örneğin, sayısal posta kodunu tahmin eden bir model bir regresyon modeli değil, sınıflandırma modelidir.

normalleştirme

#fundamentals

Fazladan korumayı azaltan mekanizmalar. Popüler normalleştirme türleri şunlardır:

Normalleştirme, bir modelin karmaşıklığına yönelik ceza olarak da tanımlanabilir.

normalleştirme oranı

#fundamentals

Eğitim sırasında normalleştirmenin göreceli önemini belirten bir sayı. Normalleştirme oranının yükseltilmesi aşırı sığınma sayısını azaltır ancak modelin tahmin gücünü azaltabilir. Buna karşılık, normalleştirme oranının azaltılması veya atlanması, fazla uyuma oranını artırır.

LUT

#fundamentals

Düzeltilmiş Doğrusal Birim'in kısaltması.

ROC (alıcı çalışma özelliği) Eğri

#fundamentals

İkili program sınıflandırmasındaki farklı sınıflandırma eşiklerinin doğru pozitif oranı ile yanlış pozitif oranı karşılaştırması grafiği.

ROC eğrisinin şekli, bir ikili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırt edebildiğini gösterir. Örneğin, bir ikili sınıflandırma modelinin tüm negatif sınıfları tüm pozitif sınıflardan mükemmel şekilde ayırdığını varsayalım:

Sağ tarafta 8 pozitif, sol tarafta 7 negatif örnek içeren bir sayı satırı.

Önceki model için ROC eğrisi aşağıdaki gibi görünür:

ROC eğrisi. X ekseni yanlış pozitif oran, y ekseni de doğru pozitif hız. Eğri, ters çevrilmiş bir L şekline sahip. Eğri (0,0,0,0) ile başlar ve doğrudan (0,0,1,0) değerine ulaşır. Ardından eğri (0.0,1.0) yerine (1.0,1.0) olur.

Buna karşılık, aşağıdaki çizimde, olumsuz sınıfları pozitif sınıflardan hiç ayırt edilemeyen kötü bir modelin ham mantıksal regresyon değerleri gösterilmektedir:

Pozitif örneklerin ve negatif sınıfların tamamen karıştırıldığı bir sayı satırı.

Bu modelin ROC eğrisi aşağıdaki gibi görünür:

(0,0,0,0) ile (1,0,1,0) arasında düz bir çizgi olan ROC eğrisi.

Diğer yandan gerçek dünyada, ikili program modellerinin çoğu pozitif ve negatif sınıfları bir dereceye kadar ayırır ancak genellikle mükemmel değildir. Tipik bir ROC eğrisi iki uç nokta arasında bir yere düşer:

ROC eğrisi. X ekseni yanlış pozitif oran, y ekseni de doğru pozitif hız. ROC eğrisi, pusulayı batıdan kuzeye götüren çarpık bir Yayla yaklaşır.

ROC eğrisindeki (0.0,1.0) en yakın nokta, teorik olarak ideal sınıflandırma eşiğini tanımlar. Ancak, gerçek hayatta karşılaşılan diğer sorunlar da ideal sınıflandırma eşiğinin seçimini etkiler. Örneğin, yanlış negatifler yanlış pozitiflerden çok daha fazla acıya neden olabilir.

AUC adlı sayısal bir metrik, ROC eğrisini tek bir kayan nokta değerinde özetler.

Kök Ortalama Kare Hatası (RMSE)

#fundamentals

Ortalama Karesel Hatanın karekökü.

C

sigmoid işlevi

#fundamentals

Giriş değerini sınırlandırılmış bir aralığa "boşalmak" için kullanılan matematiksel bir işlevdir. Genellikle 0 ila 1 veya -1 ile +1 arasında bir ifadedir. Yani, bir sigmoid'e istediğiniz sayıda (iki, bir milyon, negatif milyar) her şeyi iletebilirsiniz ve çıkış hâlâ kısıtlanmış aralıkta olacaktır. Sigorta etkinleştirme işlevinin grafiği aşağıdaki gibidir:

-infinity ile + pozitif değerlerini kapsayan ve y değerlerinin yaklaşık 0 ile neredeyse 1 aralığını kapsayan, iki boyutlu eğri grafik. x 0, y ise 0,5&#39;tir. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0, 0,5&#39;tir ve x mutlak değeri arttıkça eğimleri kademeli olarak azaltır.

Sigmoid işlevinin, makine öğreniminde aşağıdakiler gibi çeşitli kullanım alanları vardır:

softmax

#fundamentals

Çok sınıflı sınıflandırma modelinde olası her sınıf için olasılıkları belirleyen bir işlev. Olasılıklar tam olarak 1,0'a eşittir. Örneğin, aşağıdaki tabloda softmax'ın çeşitli olasılıkları nasıl dağıttığı gösterilmektedir:

Resim bir... Probability
köpek 0,85
kedi 0,13
at 0,02

Softmax, full softmax olarak da adlandırılır.

Aday örnekleme ile kontrast.

seyrek özellik

#language
#fundamentals

Değerleri ağırlıklı olarak sıfır veya boş olan bir özellik. Örneğin, tek bir 1 değer ve bir milyon 0 değeri içeren bir özellik yedeklidir. Buna karşılık, yoğun özellikler çoğunlukla ağırlıklı olarak sıfır veya boş olmayan değerler içerir.

Makine öğreniminde şaşırtıcı özellik sayısı azdır. Kategorik özellikler genellikle seyrek özelliklerdir. Örneğin, ormandaki 300 ağaç türünden yalnızca bir tanesi akçaağaç ağacı tanımlayabilir. Bir video kitaplığındaki milyonlarca olası videodan yalnızca biri "Kazablanka"yı tanımlayabilir.

Bir modelde genellikle tek seferlik kodlamayla seyrek özellikleri temsil edersiniz. Tek seferlik kodlama büyükse daha yüksek verimlilik için tek seferlik kodlamanın üst kısmına bir yerleştirme katmanı yerleştirebilirsiniz.

seyrek temsil

#language
#fundamentals

Seyrek olmayan bir özellikte yalnızca sıfır olmayan öğelerin konumlarını depolama.

Örneğin, species adlı bir kategorik özelliğin, belirli bir ormandaki 36 ağaç türünü tanımladığını varsayalım. Ayrıca her örneğin yalnızca tek bir tür tanımladığını varsayın.

Her bir örnekteki ağaç türlerini göstermek için tek bir sıcak vektör kullanabilirsiniz. Tek resimli bir vektör, tek bir 1 (bu örnekte belirli ağaç türlerini temsil eder) ve 35 0 (bu örnekte 35 tür temsil etmeyecek) içerir. Dolayısıyla, maple'ın tek seferlik gösterimi aşağıdaki gibi görünebilir:

0 ile 23 arası konumların 0, 24 ve 24 ile 25 ile 35 numaralı konumların 0,

Alternatif olarak, seyrek gösterim yalnızca belirli türlerin konumunu tespit eder. maple konumu 24 ise maple değerinin seyrek gösterimi aşağıdaki gibi olur:

24

Seyrek temsilin tek seferlik temsilden çok daha küçük olduğuna dikkat edin.

seyrek vektör

#fundamentals

Değerleri çoğunlukla sıfır olan bir vektör. Ayrıca azim özelliği ve azlık konusuna bakın.

kare kayıp

#fundamentals

L2 kaybı ile eş anlamlı.

statik

#fundamentals

Sürekli değil, bir kez yapılan işlemler. Statik ve çevrimdışı terimleri eş anlamlıdır. Makine öğreniminde statik ve çevrimdışı kullanım yaygındır:

  • statik model (veya çevrimdışı model), bir kez eğitilen ve bir süre kullanılan bir modeldir.
  • statik eğitim (veya çevrimdışı eğitim), statik modeli eğitme işlemidir.
  • Statik çıkarım (veya çevrimdışı çıkarım), bir modelin tek seferde bir grup tahmin oluşturduğu işlemdir.

Dinamik ile kontrast.

statik çıkarım

#fundamentals

Çevrimdışı çıkarım ile eş anlamlıdır.

hareketsizlik

#fundamentals

Bir veya daha fazla boyutta değerleri genellikle değişmeyen bir özellik. Örneğin, 2021 ve 2023'te değerleri benzer görünen bir özellik durağanlık sergiler.

Gerçek dünyada çok az özellik sabitlik sergiler. Kararlılıkla eş anlamlı olan özellikler (deniz seviyesi gibi) zamanla değişir.

Statik olmayan durum ile kontrast.

envanter gradyan inişi (SGD)

#fundamentals

Toplu boyutun bir olduğu gradyan iniş algoritması. Başka bir deyişle SGD, bir eğitim grubundan rastgele tek bir örnek için seçilen tek bir örnek hakkında eğitim verir.

gözetimli makine öğrenimi

#fundamentals

Özelliklerden ve ilgili etiketlerden model eğitimi. Gözetimli makine öğrenimi, bir dizi soruyu ve bunlara karşılık gelen yanıtları inceleyerek bir konuyu öğrenmeye benzer. Öğrenciler sorular ve yanıtlar arasındaki eşlemede ustalaştıktan sonra aynı konuyla ilgili yeni (daha önce görülmemiş) sorulara yanıt verebilirler.

Gözetimsiz makine öğrenimi ile karşılaştırın.

sentetik özellik

#fundamentals

Giriş özellikleri arasında bulunmayan ancak bir veya daha fazla özellikten oluşturulan özellik. Sentetik özellik oluşturma yöntemleri şunlardır:

  • Sürekli özelliği aralık kutularına gruplandırma.
  • Özellik çaprazı oluşturma.
  • Bir özellik değerini diğer özellik değerleriyle veya kendisiyle çarpma (veya bölme). Örneğin, a ve b giriş özellikleriyse aşağıda, sentetik özelliklere örnekler verilmiştir:
    • ab
    • a2
  • Bir özellik değerine transandans işlemi uygulama. Örneğin, c bir giriş özelliğiyse aşağıda, sentetik özelliklere örnekler verilmiştir:
    • sin(c)
    • ln(c)

Yalnızca normalleştirme veya ölçeklendirme ile oluşturulan özellikler sentetik özellik olarak kabul edilmez.

T

test kaybı

#fundamentals

Bir modelin test grubuna karşı kayışını temsil eden bir metrik. Model oluştururken genellikle test kaybını en aza indirmeye çalışırsınız. Bunun nedeni, düşük test kaybının eğitim kaybına veya düşük doğrulama kaybına göre daha güçlü bir sinyal olmasıdır.

Test kaybı ile eğitim kaybı veya doğrulama kaybı arasında büyük bir boşluk olması, bazen normalleştirme oranını artırmanız gerektiğini gösterir.

eğitim

#fundamentals

Bir modelden oluşan ideal parametreleri (ağırlıklar ve ön yargılar) belirleme işlemi. Eğitim sırasında sistem örneklerde okur ve parametreleri kademeli olarak ayarlar. Eğitim her örneği birkaç kez ile milyarlarca kez kullanır.

eğitim kaybı

#fundamentals

Modelin belirli bir iterasyon sırasında kayıpını temsil eden bir metrik. Örneğin, kayıp işlevinin Ortalama Karesel Hata olduğunu varsayalım. 10. iterasyon için eğitim kaybı (Ortalama Kareli Hata) muhtemelen 2,2, 100 iterasyon için de 1,9'dur.

Kaybedilen eğri, eğitim kaybını ve iter sayısını karşılaştırmalı olarak gösterir. Kayıp eğrisi, eğitimle ilgili olarak aşağıdaki ipuçlarını sağlar:

  • Aşağı yönlü eğim, modelin iyileştirildiğini gösterir.
  • Yukarı doğru eğim, modelin kötüleştiği anlamına gelir.
  • Düz bir eğim, modelin yakınlaşmaya ulaştığı anlamına gelir.

Örneğin, aşağıdaki gibi optimize edilmiş bir kayıp eğrisi gösterilir:

  • İlk iterasyon sırasında dik aşağı eğim, hızlı model iyileştirmeleri anlamına gelir.
  • Eğitimin sonlarına kadar yavaş yavaş düzelen (ancak hâlâ aşağı doğru) bir eğim vardır. Bu, ilk iterasyonlarda model hızının biraz daha yavaş olduğu anlamına gelir.
  • Eğitimin sonunda düz bir eğim anlamına gelir.

Eğitim kaybı ve iterasyonların grafiği. Bu kayıp eğrisi, dik bir aşağı doğru eğimle başlar. Eğim sıfır olana kadar kademeli olarak düzleştirilir.

Eğitim kaybı önemli olsa da ayrıca genellemeyi inceleyin.

eğitim ve sunma arası sapma

#fundamentals

Bir modelin eğitim performansı ile aynı modelin sunum performansı arasındaki fark.

eğitim seti

#fundamentals

Bir modeli eğitmek için kullanılan veri kümesinin alt kümesi.

Geleneksel olarak, veri kümesindeki örnekler aşağıdaki üç farklı alt kümeye bölünür:

İdeal olarak, veri kümesindeki her örnek yalnızca bir önceki alt kümelerden birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim grubuna hem de doğrulama kümesine ait olmamalıdır.

doğru negatif (TN)

#fundamentals

Modelin negatif sınıfı doğru şekilde tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta iletisinin spam olmadığını ve bu e-posta iletisinin gerçekten spam olmadığını varsayar.

doğru pozitif (TP)

#fundamentals

Modelin pozitif sınıfı doğru şekilde tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta iletisinin spam olduğunu ve bu e-posta iletisinin gerçekten spam olduğunu anlamaktadır.

gerçek pozitif oranı (TPR)

#fundamentals

Geri çağırma ile eş anlamlıdır. Yani:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

Gerçek pozitif oran, ROC eğrisindeki y eksenidir.

U

kıyafet

#fundamentals

Eğitim verilerinin karmaşıklığını tamamen yansıtmadığı için tahmine dayalı olarak kötü bir model oluşturma. Aşağıdakiler dahil olmak üzere birçok sorun, yetersiz uyuma neden olabilir:

etiketlenmemiş örnek

#fundamentals

Özellikler içeren ancak etiket içermeyen örnek. Örneğin, aşağıdaki tabloda bir ev değerlendirme modelindeki etiketlenmemiş üç örnek ve her birinin üç özelliği olmasına rağmen ev değeri gösterilmemektedir:

Yatak odası sayısı Banyo sayısı Evin yaşı
3 2 15
2 1 72
4 2 34

Gözetimli makine öğreniminde modeller, etiketli örneklerle ilgili eğitim verir ve etiketlenmemiş örneklerle ilgili tahminlerde bulunur.

Yarı gözetimli ve gözetimsiz öğrenmede eğitim sırasında etiketlenmemiş örnekler kullanılır.

Etiketli örnek ile etiketlenmemiş örnekle kontrast.

gözetimsiz makine öğrenimi

#clustering
#fundamentals

Bir veri kümesindeki (genellikle etiketlenmemiş bir veri kümesi) modelleri bulmak için bir model eğitme.

Gözetimsiz makine öğreniminin en yaygın kullanımı, verileri benzer örneklerden oluşan gruplara kümelemektir. Örneğin, gözetimsiz bir makine öğrenimi algoritması, müziğin çeşitli özelliklerine göre şarkıları gruplandırabilir. Oluşturulan kümeler, diğer makine öğrenimi algoritmalarının (ör. bir müzik öneri hizmeti) girişi olabilir. Kümeleme, yararlı etiketlerin çok az veya hiç olmaması durumunda yararlı olabilir. Örneğin, kötüye kullanım karşıtı ve sahtekarlık gibi alanlarda kümeler, kullanıcıların verileri daha iyi anlamasına yardımcı olabilir.

Gözetimli makine öğreniminin karşıtıdır.

V

validation

#fundamentals

Bir modelin kalitesinin ilk değerlendirmesi. Doğrulama, bir modelin tahminlerinin kalitesini doğrulama kümesine göre kontrol eder.

Doğrulama ayarı eğitim grubundan farklı olduğundan doğrulama, aşırı uyuma karşı korunmanıza yardımcı olur.

Modeli, değerlendirmenin ilk turu olarak ve ikinci test turu için test kümesi ile değerlendirmeyi düşünebilirsiniz.

doğrulama kaybı

#fundamentals

Eğitimin belirli bir iterasyonu sırasında doğrulama grubundaki bir modelin kayışını temsil eden bir metrik.

Genelleme eğrisini de inceleyin.

doğrulama grubu

#fundamentals

Eğitilmiş bir modelle ilk değerlendirme yapan veri kümesinin alt kümesi. Eğitilen modeli genellikle test grubu ile değerlendirmeden önce doğrulama grubuna birkaç kez değerlendirirsiniz.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üç farklı alt kümeye bölersiniz:

İdeal olarak, veri kümesindeki her örnek yalnızca bir önceki alt kümelerden birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim grubuna hem de doğrulama kümesine ait olmamalıdır.

W

weight

#fundamentals

Modelin başka bir değerle çarpımı. Eğitim bir modelin ideal ağırlıklarını belirleme işlemidir. Çıkarım ise tahminde bulunmak için öğrenilen bu ağırlıkları kullanma işlemidir.

ağırlıklı toplam

#fundamentals

İlgili tüm giriş değerlerinin, karşılık gelen ağırlıklarıyla çarpılmasıyla hesaplanır. Örneğin, alakalı girişlerin aşağıdakilerden oluştuğunu varsayalım:

giriş değeri giriş ağırlığı
2 -1,3
-1 0,6
3 0,4

Ağırlıklı toplam:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

Ağırlıklı toplam, etkinleştirme işlevinin giriş bağımsız değişkenidir.

Z

Z puanı normalleştirmesi

#fundamentals

Ham bir özellik değerini, bu özelliğin ortalamasından standart sapmaların sayısını gösteren bir kayan nokta değeriyle değiştiren bir ölçeklendirme tekniği. Örneğin, ortalama değeri 800 ve standart sapması 100 olan bir özelliği ele alalım. Aşağıdaki tabloda, Z puanının normalleştirilmesinin ham değeri Z puanıyla nasıl eşleştirebileceği gösterilmektedir:

İşlenmemiş değer Z-puanı
800 0
950 +1,5
575 -2,25

Ardından, makine öğrenimi modeli, ham değerler yerine söz konusu özelliğin Z puanlarına göre eğitilir.