واژه نامه یادگیری ماشینی: TensorFlow

این صفحه شامل اصطلاحات واژه نامه TensorFlow است. برای همه اصطلاحات واژه نامه، اینجا را کلیک کنید .

ب

استنتاج دسته ای

#TensorFlow
‎#GoogleCloud

فرآیند استنباط پیش‌بینی‌ها در چندین مثال بدون برچسب که به زیرمجموعه‌های کوچک‌تر ("مجموعه") تقسیم می‌شوند.

استنتاج دسته ای می تواند از ویژگی های موازی سازی تراشه های شتاب دهنده استفاده کند. به این معنا که شتاب‌دهنده‌های متعدد می‌توانند به طور همزمان پیش‌بینی‌هایی را بر روی دسته‌های مختلف نمونه‌های بدون برچسب استنباط کنند و تعداد استنتاج‌ها را به‌طور چشمگیری در هر ثانیه افزایش دهند.

سی

Cloud TPU

#TensorFlow
‎#GoogleCloud

یک شتاب‌دهنده سخت‌افزاری تخصصی که برای سرعت بخشیدن به بارهای کاری یادگیری ماشین در Google Cloud Platform طراحی شده است.

D

API مجموعه داده (tf.data)

#TensorFlow

یک API سطح بالا TensorFlow برای خواندن داده ها و تبدیل آن به شکلی که الگوریتم یادگیری ماشینی به آن نیاز دارد. یک شی tf.data.Dataset نشان دهنده دنباله ای از عناصر است که در آن هر عنصر حاوی یک یا چند تانسور است. یک شی tf.data.Iterator دسترسی به عناصر یک Dataset را فراهم می کند.

برای جزئیات بیشتر در مورد Dataset API، به tf.data مراجعه کنید: خطوط لوله ورودی TensorFlow را در راهنمای برنامه نویس TensorFlow ایجاد کنید.

دستگاه

#TensorFlow
‎#GoogleCloud

یک اصطلاح پربار با دو تعریف احتمالی زیر:

  1. دسته‌ای از سخت‌افزار که می‌تواند یک جلسه TensorFlow را اجرا کند، شامل CPU، GPU و TPU .
  2. هنگام آموزش یک مدل ML بر روی تراشه های شتاب دهنده (GPU یا TPU)، بخشی از سیستم که در واقع تانسورها و جاسازی ها را دستکاری می کند. دستگاه بر روی تراشه های شتاب دهنده کار می کند. در مقابل، هاست معمولا بر روی یک CPU اجرا می شود.

E

اعدام مشتاقانه

#TensorFlow

یک محیط برنامه نویسی TensorFlow که در آن عملیات بلافاصله اجرا می شود. در مقابل، عملیاتی که در اجرای گراف نامیده می شوند، تا زمانی که صریحاً ارزیابی نشوند، اجرا نمی شوند. اجرای مشتاق یک رابط ضروری است، بسیار شبیه کد در اکثر زبان های برنامه نویسی. برنامه های اجرایی مشتاق عموماً به مراتب راحت تر از برنامه های اجرای گراف اشکال زدایی می شوند.

برآوردگر

#TensorFlow

یک API منسوخ TensorFlow. به جای Estimators از tf.keras استفاده کنید.

اف

مهندسی ویژگی

#مبانی
#TensorFlow

فرآیندی که شامل مراحل زیر است:

  1. تعیین اینکه کدام ویژگی ممکن است در آموزش یک مدل مفید باشد.
  2. تبدیل داده های خام از مجموعه داده به نسخه های کارآمد آن ویژگی ها.

برای مثال، ممکن است تعیین کنید که temperature ممکن است یک ویژگی مفید باشد. سپس، می‌توانید با سطل‌سازی آزمایش کنید تا آنچه را که مدل می‌تواند از محدوده‌های temperature مختلف بیاموزد، بهینه کنید.

مهندسی ویژگی گاهی اوقات استخراج ویژگی نامیده می شود.

مشخصات ویژگی

#TensorFlow

اطلاعات مورد نیاز برای استخراج داده های ویژگی ها از بافر پروتکل tf.Example را شرح می دهد. از آنجایی که بافر پروتکل tf.Example فقط یک محفظه برای داده است، باید موارد زیر را مشخص کنید:

  • داده های استخراج شده (یعنی کلیدهای ویژگی ها)
  • نوع داده (مثلاً float یا int)
  • طول (ثابت یا متغیر)

جی

نمودار

#TensorFlow

در TensorFlow، یک مشخصات محاسباتی. گره ها در نمودار نشان دهنده عملیات هستند. یال ها جهت داده می شوند و انتقال نتیجه یک عملیات ( تنسور ) را به عنوان عملوند به عملیات دیگر نشان می دهند. از TensorBoard برای تجسم نمودار استفاده کنید.

اجرای گراف

#TensorFlow

یک محیط برنامه نویسی TensorFlow که در آن برنامه ابتدا یک نمودار می سازد و سپس تمام یا بخشی از آن گراف را اجرا می کند. اجرای نمودار حالت اجرای پیش فرض در TensorFlow 1.x است.

در مقابل اجرای مشتاقانه .

اچ

میزبان

#TensorFlow
‎#GoogleCloud

هنگام آموزش یک مدل ML بر روی تراشه های شتاب دهنده (GPU یا TPU )، بخشی از سیستم که هر دو مورد زیر را کنترل می کند:

  • جریان کلی کد.
  • استخراج و تبدیل خط لوله ورودی.

میزبان معمولا بر روی یک CPU اجرا می شود، نه بر روی یک تراشه شتاب دهنده. دستگاه تانسورهای روی تراشه های شتاب دهنده را دستکاری می کند.

L

Layers API (tf.layers)

#TensorFlow

API TensorFlow برای ساخت یک شبکه عصبی عمیق به عنوان ترکیبی از لایه‌ها. Layers API شما را قادر می سازد انواع مختلفی از لایه ها را بسازید، مانند:

Layers API از قراردادهای Keras لایه های API پیروی می کند. یعنی جدا از پیشوند متفاوت، همه توابع در لایه‌های API دارای نام‌ها و امضاهای مشابه با همتایان خود در Keras لایه‌های API هستند.

م

مش

#TensorFlow
‎#GoogleCloud

در برنامه‌نویسی موازی ML، اصطلاحی است که با تخصیص داده‌ها و مدل به تراشه‌های TPU، و تعریف چگونگی تقسیم یا تکرار این مقادیر مرتبط است.

مش یک اصطلاح بارگذاری شده است که می تواند به یکی از موارد زیر باشد:

  • طرح فیزیکی تراشه های TPU.
  • یک ساختار منطقی انتزاعی برای نگاشت داده ها و مدل به تراشه های TPU.

در هر صورت، یک مش به عنوان یک شکل مشخص می شود.

متریک

#TensorFlow

آماری که شما به آن اهمیت می دهید.

هدف معیاری است که یک سیستم یادگیری ماشینی سعی در بهینه سازی آن دارد.

ن

گره (گراف TensorFlow)

#TensorFlow

عملیات در نمودار TensorFlow.

O

عملیات (عملیات)

#TensorFlow

در TensorFlow، هر رویه‌ای که یک Tensor را ایجاد، دستکاری یا از بین می‌برد. به عنوان مثال، ضرب ماتریس عملیاتی است که دو تانسور را به عنوان ورودی می گیرد و یک تانسور را به عنوان خروجی تولید می کند.

پ

سرور پارامتر (PS)

#TensorFlow

کاری که پارامترهای مدل را در یک محیط توزیع شده پیگیری می کند.

س

صف

#TensorFlow

یک عملیات TensorFlow که یک ساختار داده صف را پیاده سازی می کند. معمولاً در I/O استفاده می شود.

آر

رتبه (تنسور)

#TensorFlow

تعداد ابعاد در یک تانسور . به عنوان مثال، یک اسکالر دارای رتبه 0، یک بردار دارای رتبه 1، و یک ماتریس دارای رتبه 2 است.

با رتبه (ترتیب) اشتباه نشود.

دایرکتوری ریشه

#TensorFlow

دایرکتوری که برای میزبانی زیرشاخه های پست بازرسی TensorFlow و فایل های رویدادهای چند مدل مشخص می کنید.

اس

SavedModel

#TensorFlow

فرمت توصیه شده برای ذخیره و بازیابی مدل های TensorFlow. SavedModel یک فرمت سریال‌سازی با زبان خنثی و قابل بازیابی است که سیستم‌ها و ابزارهای سطح بالاتر را قادر می‌سازد تا مدل‌های TensorFlow را تولید، مصرف و تغییر دهند.

برای جزئیات کامل به بخش ذخیره و بازیابی در راهنمای برنامه نویس TensorFlow مراجعه کنید.

پس انداز

#TensorFlow

یک شی TensorFlow که مسئول ذخیره نقاط بازرسی مدل است.

تکه شکسته

#TensorFlow
‎#GoogleCloud

تقسیم منطقی مجموعه آموزشی یا مدل . به طور معمول، برخی از فرآیندها با تقسیم نمونه ها یا پارامترها به قطعات (معمولاً) با اندازه مساوی، خرده هایی ایجاد می کنند. سپس هر خرده به ماشین دیگری اختصاص داده می شود.

به اشتراک گذاری یک مدل موازی سازی مدل گفته می شود. به اشتراک گذاری داده ها موازی سازی داده ها گفته می شود.

خلاصه

#TensorFlow

در TensorFlow، یک مقدار یا مجموعه ای از مقادیر محاسبه شده در یک مرحله خاص، معمولا برای ردیابی معیارهای مدل در طول آموزش استفاده می شود.

تی

تانسور

#TensorFlow

ساختار داده اولیه در برنامه های TensorFlow. تانسورها ساختارهای داده‌ای N بعدی هستند (که N می‌تواند بسیار بزرگ باشد)، معمولاً اسکالرها، بردارها یا ماتریس‌ها. عناصر یک تانسور می توانند مقادیر صحیح، ممیز شناور یا رشته ای را نگه دارند.

TensorBoard

#TensorFlow

داشبوردی که خلاصه های ذخیره شده در طول اجرای یک یا چند برنامه TensorFlow را نمایش می دهد.

TensorFlow

#TensorFlow

یک پلت فرم یادگیری ماشینی در مقیاس بزرگ، توزیع شده. این اصطلاح همچنین به لایه پایه API در پشته TensorFlow اشاره دارد که از محاسبات عمومی بر روی نمودارهای جریان داده پشتیبانی می کند.

اگرچه TensorFlow در درجه اول برای یادگیری ماشین استفاده می شود، شما همچنین می توانید از TensorFlow برای کارهای غیر ML استفاده کنید که نیاز به محاسبه عددی با استفاده از نمودارهای جریان داده دارند.

زمین بازی تنسورفلو

#TensorFlow

برنامه ای که چگونگی تأثیر فراپارامترهای مختلف بر آموزش مدل (عمدتاً شبکه عصبی) را به تصویر می کشد. برای آزمایش TensorFlow Playground به http://playground.tensorflow.org بروید.

سرویس TensorFlow

#TensorFlow

بستری برای استقرار مدل های آموزش دیده در تولید.

واحد پردازش تانسور (TPU)

#TensorFlow
‎#GoogleCloud

یک مدار مجتمع ویژه برنامه (ASIC) که عملکرد بارهای کاری یادگیری ماشین را بهینه می کند. این ASICها به صورت چند تراشه TPU بر روی یک دستگاه TPU مستقر می شوند.

رتبه تانسور

#TensorFlow

رجوع به رتبه (تنسور) شود.

شکل تانسور

#TensorFlow

تعداد عناصر موجود در یک تانسور در ابعاد مختلف. به عنوان مثال، یک تانسور [5، 10] دارای شکل 5 در یک بعد و 10 در بعد دیگر است.

اندازه تانسور

#TensorFlow

تعداد کل اسکالرهایی که یک تانسور دارد. به عنوان مثال، یک تانسور [5، 10] دارای اندازه 50 است.

tf. مثال

#TensorFlow

یک بافر پروتکل استاندارد برای توصیف داده های ورودی برای آموزش یا استنتاج مدل یادگیری ماشین.

tf.keras

#TensorFlow

اجرای Keras که در TensorFlow ادغام شده است.

TPU

#TensorFlow
‎#GoogleCloud

مخفف واحد پردازش تنسور .

تراشه TPU

#TensorFlow
‎#GoogleCloud

یک شتاب‌دهنده جبر خطی قابل برنامه‌ریزی با حافظه با پهنای باند بالا روی تراشه که برای بارهای کاری یادگیری ماشین بهینه شده است. چند تراشه TPU بر روی یک دستگاه TPU مستقر شده اند.

دستگاه TPU

#TensorFlow
‎#GoogleCloud

یک برد مدار چاپی (PCB) با چندین تراشه TPU ، رابط های شبکه با پهنای باند بالا و سخت افزار خنک کننده سیستم.

استاد TPU

#TensorFlow
‎#GoogleCloud

فرآیند هماهنگی مرکزی در حال اجرا بر روی یک ماشین میزبان که داده ها، نتایج، برنامه ها، عملکرد و اطلاعات سلامت سیستم را برای کارکنان TPU ارسال و دریافت می کند. استاد TPU همچنین راه اندازی و خاموش کردن دستگاه های TPU را مدیریت می کند.

گره TPU

#TensorFlow
‎#GoogleCloud

یک منبع TPU در Google Cloud Platform با یک نوع TPU خاص. گره TPU از یک شبکه VPC همتا به شبکه VPC شما متصل می شود. گره‌های TPU منبعی هستند که در Cloud TPU API تعریف شده‌اند.

TPU Pod

#TensorFlow
‎#GoogleCloud

پیکربندی خاصی از دستگاه های TPU در مرکز داده Google. همه دستگاه های موجود در یک TPU Pod از طریق یک شبکه اختصاصی پرسرعت به یکدیگر متصل می شوند. یک TPU Pod بزرگترین پیکربندی دستگاه های TPU موجود برای یک نسخه خاص TPU است.

منبع TPU

#TensorFlow
‎#GoogleCloud

یک موجودیت TPU در Google Cloud Platform که شما ایجاد، مدیریت یا مصرف می‌کنید. به عنوان مثال، گره های TPU و انواع TPU منابع TPU هستند.

برش TPU

#TensorFlow
‎#GoogleCloud

یک قطعه TPU بخش کسری از دستگاه های TPU در یک TPU Pod است. همه دستگاه های موجود در یک قطعه TPU از طریق یک شبکه اختصاصی پرسرعت به یکدیگر متصل می شوند.

نوع TPU

#TensorFlow
‎#GoogleCloud

پیکربندی یک یا چند دستگاه TPU با یک نسخه سخت افزاری خاص TPU. هنگامی که یک گره TPU در Google Cloud Platform ایجاد می کنید، یک نوع TPU را انتخاب می کنید. به عنوان مثال، نوع v2-8 TPU یک دستگاه TPU v2 تک با 8 هسته است. یک نوع TPU v3-2048 دارای 256 دستگاه TPU v3 تحت شبکه و در مجموع 2048 هسته است. انواع TPU منبعی هستند که در Cloud TPU API تعریف شده است.

کارگر TPU

#TensorFlow
‎#GoogleCloud

فرآیندی که روی یک ماشین میزبان اجرا می شود و برنامه های یادگیری ماشینی را روی دستگاه های TPU اجرا می کند.