تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
لنفترض أنّك تعمل على إعداد تطبيق لتوصية بالطعام، حيث
المستخدمين يُدخلون وجباتهم المفضلة، ويقترح التطبيق وجبات مماثلة
التي قد تعجبهم. كنت ترغب في تطوير نموذج تعلُّم الآلة
يتنبأ بتشابه الطعام، حتى يتمكن تطبيقك من إنشاء
التوصيات ("بما أنك تحب الفطائر المحلّاة، نوصي بمشاهدة الكريب").
لتدريب النموذج الخاص بك، فإنك تنظم مجموعة بيانات مكونة من 5000 من
أصناف الوجبات، بما في ذلك borscht،
الهوت دوغ،
سلطة،
البيتزا،
والشاورما
أنت تنشئ ميزة "meal" تحتوي على
ترميز واحد فعال
لكل عنصر من عناصر الوجبة في مجموعة البيانات.
صعوبات تمثيلات البيانات المتفرقة
وبمراجعة هذا النوع من الترميزات لمرة واحدة، ستلاحظ مشكلتين رئيسيتين في هذه
تمثيل البيانات.
عدد الأوزان: تعني متجهات الإدخال الكبيرة عددًا كبيرًا من
الأوزان
بالنسبة إلى الشبكة العصبونية.
مع إدخال M في الترميز المميّز، ثم N
في الطبقة الأولى من الشبكة بعد المدخلات، ينبغي أن يتدرب النموذج
أوزان MxN لتلك الطبقة. يؤدي العدد الكبير من الترجيحات إلى حدوث مشاكل أخرى:
عدد نقاط البيانات كلما زادت الأوزان في نموذجك، زادت البيانات
بحاجة إلى التدريب بفعالية.
مقدار العملية الحسابية: كلما زادت الأوزان، زادت العمليات الحسابية المطلوبة
تطبيق النموذج واستخدامه. من السهل تجاوز إمكانات
الأجهزة.
مساحة الذاكرة: كلما زادت الأوزان في نموذجك، زادت الذاكرة التي
إلى مسرِّعات الأعمال التي تتولى تدريبه وتقديمه. توسيع النطاق
الكفاءة أمرًا صعبًا للغاية.
صعوبة دعم
تعلُّم الآلة على الجهاز (ODML).
إذا كنت تريد تنفيذ نموذج تعلُّم الآلة على الأجهزة المحلية (بدلاً من عرض
فستحتاج إلى التركيز على تصغير النموذج، وسترغب في
لتقليل عدد الترجيحات.
نقص العلاقات المفيدة بين المتجهات: قيم الخط المتجه في
أن ترميزات الطعام لا توفر أي معلومات مفيدة عن
وتشابه أصناف الطعام. من الناحية الرياضية، الفهرس 1 ("الهوت دوغ")
أقرب إلى المؤشر 2 ("السلطة") من الفهرس 4999 ("الشاورما")، على الرغم من
الكلاب أكثر تشابهًا مع الشاورما (يحتوي كلاهما على اللحم والخبز) من السلطة.
في هذه الوحدة، ستتعرف على كيفية إنشاء تضمينات ذات أبعاد أقل
بيانات متفرقة تعالج كلتا المشكلتين.
تاريخ التعديل الأخير: 2024-08-13 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2024-08-13 (حسب التوقيت العالمي المتفَّق عليه)"],[[["This module explains how to create embeddings, which are lower-dimensional representations of sparse data that address the problems of large input vectors and lack of meaningful relations between vectors in one-hot encoding."],["One-hot encoding creates large input vectors, leading to a huge number of weights in a neural network, requiring more data, computation, and memory."],["One-hot encoding vectors lack meaningful relationships, failing to capture semantic similarities between items, like the example of hot dogs and shawarmas being more similar than hot dogs and salads."],["Embeddings offer a solution by providing dense vector representations that capture semantic relationships and reduce the dimensionality of data, improving efficiency and performance in machine learning models."],["This module assumes familiarity with introductory machine learning concepts like linear regression, categorical data, and neural networks."]]],[]]