Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.
'nı inceleyin.
Bir yemek önerisi uygulaması geliştirdiğinizi düşünün.
Kullanıcılar favori öğünlerini giriyor ve uygulama da benzer öğünler öneriyor
pek çok bilgi edindiniz. Makine öğrenimi (ML) modeli geliştirmek istiyorsanız
yiyecek benzerliğini tahmin edebilen, böylece uygulamanız yüksek kaliteli içerikler üretebilir
önerileri ("Krepleri sevdiğiniz için krep öneririz").
Modelinizi eğitmek için 5.000 popüler kullanıcı içeren bir veri kümesi
borş çorbası dahil olmak üzere yemek ürünleri,
sosisli sandviç
salata,
pizza,
ve şavurma.
Şekil 1. Gıda veri kümesine dahil edilen yemek ürünlerinin örneği.
Şunları içeren bir meal özelliği oluşturursunuz:
tek seferlik kodlama
temsili bir grafik oluşur.
Şekil 2. Borş çorbası, sosisli sandviç ve şavurmanın tek sıcak kodlamaları.
Her bir tek sıcak kodlama vektörü 5.000 uzunluğundadır (her biri için bir giriş
menü öğesine dokunun). Diyagramdaki üç nokta
4.995 giriş gösterilmiyor.
Seyrek veri temsillerinin tehlikeleri
Bu tek kullanımlık kodlamaları incelediğinizde, burada
temsil eder.
Ağırlık sayısı. Giriş vektörlerinin büyük olması,
ağırlıklarnöral ağ için kullanılabilir.
Tek seferlik kodlamanızda M girişleriyle ve N
düğümlerden sonra ağın ilk katmanında yer alıyorsa model,
MxN ağırlıklarını belirtir. Çok sayıda ağırlık başka sorunlara neden olur:
Veri noktalarının sayısı. Modelinizde ne kadar ağırlık olursa o kadar fazla veri
ihtiyacınız olacak.
İşlem miktarı. Ne kadar ağırlık olursa o kadar hesaplama gerekir
kullanmaya karar verebilir. Hesabınızın yeteneklerini aşmak çok kolaydır.
donanım.
Bellek miktarı. Modelinizde ne kadar ağırlık varsa
onu eğiten ve sunan hızlandırıcılar için gereklidir. Bunu ölçeklendirme
çok zor bir süreçtir.
Destek vermenin zorluğu
cihaz üzerinde makine öğrenimi (ODML) ile ilgili daha fazla bilgi edinin.
Makine öğrenimi modelinizi yerel cihazlarda (ör. sunucu yerine
modelinizi daha küçük yapmaya odaklanmalı ve daha küçük
ağırlık sayısını azaltmak için kullanılır.
Vektörler arasında anlamlı ilişkiler eksikliği.
tek seferlik kodlamalar, yiyecekle ilgili anlamlı bilgiler vermez.
benzerliklerini görebiliriz. Matematiksel olarak indeks 1 ("sosisli sandviç")
4999'a ("şavurma") kıyasla indeks 2'ye ("salata") daha yakındır.
köpek, salatadan çok şavurma'ya (et ve ekmek içerir) benzer.
Bu modülde, daha düşük boyutlu yerleştirmelerin nasıl oluşturulacağını öğreneceksiniz.
hem bu iki sorunu da ele alan seyrek verilerin temsilleridir.
[[["Anlaması kolay","easyToUnderstand","thumb-up"],["Sorunumu çözdü","solvedMyProblem","thumb-up"],["Diğer","otherUp","thumb-up"]],[["İhtiyacım olan bilgiler yok","missingTheInformationINeed","thumb-down"],["Çok karmaşık / çok fazla adım var","tooComplicatedTooManySteps","thumb-down"],["Güncel değil","outOfDate","thumb-down"],["Çeviri sorunu","translationIssue","thumb-down"],["Örnek veya kod sorunu","samplesCodeIssue","thumb-down"],["Diğer","otherDown","thumb-down"]],["Son güncelleme tarihi: 2024-08-13 UTC."],[[["This module explains how to create embeddings, which are lower-dimensional representations of sparse data that address the problems of large input vectors and lack of meaningful relations between vectors in one-hot encoding."],["One-hot encoding creates large input vectors, leading to a huge number of weights in a neural network, requiring more data, computation, and memory."],["One-hot encoding vectors lack meaningful relationships, failing to capture semantic similarities between items, like the example of hot dogs and shawarmas being more similar than hot dogs and salads."],["Embeddings offer a solution by providing dense vector representations that capture semantic relationships and reduce the dimensionality of data, improving efficiency and performance in machine learning models."],["This module assumes familiarity with introductory machine learning concepts like linear regression, categorical data, and neural networks."]]],[]]