تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
لنفترض أنّك بصدد إنشاء تطبيق يقدّم للمستخدمين أطعمة موصى بها بناءً على بيانات يدخلونها عن وجباتهم المفضلة. عليك إنشاء نموذج لتعلُّم الآلة يمكنه توقّع أوجه الشبه بين الأطعمة كي يستطيع التطبيق تقديم اقتراحات مفيدة (على سبيل المثال، "نقترح عليك تناول شاورما الدجاج بناءً على تفضيلك للشاورما").
لتدريب النموذج، يمكنك إنشاء مجموعة بيانات تحتوي على 5,000 طبق رائج من بينها حساء البرش وشطيرة هوت دوغ والسلطة والبيتزا والشاورما.
الشكل 1. عينة من الأطباق التي تشتمل عليها مجموعة بيانات الطعام.
أنت تنشئ ميزة meal تحتوي على عرض بترميز أحادي لكل طبق في مجموعة البيانات.
يشير الترميز إلى عملية اختيار تمثيل رقمي أوّلي للبيانات بهدف تدريب النموذج عليها.
الشكل 2. الترميز الأحادي لحساء البرش وشطيرة الهوت دوغ والشاورما.
يصل طول كل متجه من متجهات الترميز الأحادي إلى 5,000 إدخال (إدخال واحد لكل طبق من أطباق مجموعة البيانات). تمثل علامة الحذف (النقاط الثلاث) في الشكل البياني 4,995 إدخالاً غير ظاهرة.
عيوب التمثيل باستخدام قدر محدود من البيانات
بالاطّلاع على عمليات الترميز الأحادي السابقة، ربما تكون لاحظت عدة مشاكل في تمثيل البيانات.
عدد الأوزان: يعني توفر متجهات إدخال كبيرة توفر عدد ضخم من الأوزان
لأي شبكة عصبونية.
من خلال الإدخالات M في الترميز الأحادث، والعقد N في الطبقة الأولى للشبكة بعد الإدخال، يكون على النموذج تدريب أوزان M×N لتلك الطبقة.
عدد نقاط البيانات: كلما زادت الأوزان في النموذج، زاد حجم البيانات التي يجب التدريب عليها بشكل كفء.
حجم العمليات الحسابية: كلما زادت الأوزان، زاد حجم العمليات الحسابية المطلوبة لتدريب النموذج واستخدامه. وهذا يجعل من السهل تجاوز إمكانات الأجهزة المتوفرة.
سعة الذاكرة: كلما زادت الأوزان في النموذج، زاد حجم الذاكرة المطلوبة في المسرعات للتدريب وعرض البيانات. ومن الصعب للغاية توفير ما يلزم لتنفيذ هذه المهام بكفاءة.
صعوبة توفير تعلم الآلة على الجهاز فقط (ODML):
إذا كنت تريد تشغيل نموذج تعلّم الآلة على أجهزة محلية (مقارنة بعرض بياناته فقط)، يجب الاهتمام بأن يكون النموذج أصغر ومن ثم خفض عدد الأوزان.
يمكنك من خلال هذه الوحدة معرفة كيفية إنشاء تضمينات وخفض التمثيل البياني لفضاء السمات الضيق للتغلب على المشاكل.
تاريخ التعديل الأخير: 2025-05-20 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2025-05-20 (حسب التوقيت العالمي المتفَّق عليه)"],[[["This module explains how to create embeddings, which are lower-dimensional representations of sparse data that address the problems of large input vectors and lack of meaningful relations between vectors in one-hot encoding."],["One-hot encoding creates large input vectors, leading to a huge number of weights in a neural network, requiring more data, computation, and memory."],["One-hot encoding vectors lack meaningful relationships, failing to capture semantic similarities between items, like the example of hot dogs and shawarmas being more similar than hot dogs and salads."],["Embeddings offer a solution by providing dense vector representations that capture semantic relationships and reduce the dimensionality of data, improving efficiency and performance in machine learning models."],["This module assumes familiarity with introductory machine learning concepts like linear regression, categorical data, and neural networks."]]],[]]