با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
تصور کنید درحال توسعه یک برنامه توصیه غذا هستید که در آن، کاربران غذاهای موردعلاقه خود را وارد میکنند و برنامه غذاهای مشابهی را پیشنهاد میدهد که ممکن است دوست داشته باشند. میخواهید مدل یادگیری ماشینیای را توسعه دهید که شباهت غذاها را پیشبینی کند تا برنامه شما بتواند توصیههای با کیفیت بالا ارائه دهد («چون پنکیک دوست دارید، کرپ را به شما توصیه میکنیم»).
برای آموزش مدل خود، مجموعه دادهای متشکلاز ۵٬۰۰۰ غذای پرطرفدار را گردآوری میکنید، ازجمله برشچ ،
هات داگ،
سالاد،
پیتزا،
و شاورما.
شکل ۱. نمونه غذاهای موجود در مجموعه داده غذا.
ویژگی meal ایجاد میکنید که شامل نمایش کدبندیشده وان هات از هریک از غذاهای موجود در مجموعه داده است.
کدبندی به فرایند انتخاب نمایش عددی اولیه دادهها برای آموزش مدل اشاره دارد.
شکل ۲. کدبندیهای وان هات برشچ، هات داگ، و شاورما.
هر بردار کدبندی وان هات دارای طول ۵٬۰۰۰ است (یک ورودی برای هر گزینه منو در مجموعه داده). سهنقطه در نمودار نشاندهنده ۴٬۹۹۵ ورودی نمایش دادهنشده است.
مشکلات مربوط به ارائه دادههای پراکنده
با بررسی کردن این کدبندیهای وان هات، چندین مشکل را در این نمایش دادهها مشاهده میکنید.
تعداد وزنها. بردارهای ورودی بزرگ بهمعنای تعداد زیادی
وزن
برای شبکه عصبی است.
با M ورودی در کدبندی وان هات و N گره در اولین لایه شبکه پساز ورودی، مدل باید MxN وزن را برای آن لایه آموزش دهد.
تعداد نقاط داده. هرچه مدل شما وزنهای بیشتری داشته باشد، برای آموزش مؤثر به دادههای بیشتری نیاز خواهید داشت.
میزان محاسبات. هرچه وزنها بیشتر باشند، مقدار محاسبات لازم برای آموزش و استفاده از مدل افزایش مییابد. مدل به راحتی میتواند از تواناییهای سختافزاری فراتر برود.
مقدار حافظه. هرچه مدل شما وزنهای بیشتری داشته باشد، شتابدهندههایی که آن را آموزش میدهند و اجرا میکنند به حافظه بیشتری نیاز خواهند داشت. گسترش این فرایند بهصورت کارآمد بسیار دشوار است.
دشواری پشتیبانی از
یادگیری ماشین دروندستگاهی (ODML).
اگر میخواهید مدل یادگیری ماشینتان را روی دستگاههای محلی اجرا کنید (بهجای پیادهسازی آن در سرور)، باید روی کوچکتر کردن مدل تمرکز کنید و تعداد وزنها را کاهش دهید.
در این واحد، با نحوه ایجاد کردن جاسازی، نمایش کمبُعدتر دادههای پراکنده که این مشکلات را برطرف میکند، آشنا میشوید.
تاریخ آخرین بهروزرسانی 2025-05-20 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2025-05-20 بهوقت ساعت هماهنگ جهانی."],[[["This module explains how to create embeddings, which are lower-dimensional representations of sparse data that address the problems of large input vectors and lack of meaningful relations between vectors in one-hot encoding."],["One-hot encoding creates large input vectors, leading to a huge number of weights in a neural network, requiring more data, computation, and memory."],["One-hot encoding vectors lack meaningful relationships, failing to capture semantic similarities between items, like the example of hot dogs and shawarmas being more similar than hot dogs and salads."],["Embeddings offer a solution by providing dense vector representations that capture semantic relationships and reduce the dimensionality of data, improving efficiency and performance in machine learning models."],["This module assumes familiarity with introductory machine learning concepts like linear regression, categorical data, and neural networks."]]],[]]