مسرد مصطلحات تعلُم الآلة: أساسيات تعلّم الآلة

تحتوي هذه الصفحة على عبارات مسرد مصطلحات ML Fundamentals. للاطّلاع على كل عبارات مسرد المصطلحات، انقر هنا.

A

الدقة

#fundamentals

عدد التوقعات للتصنيف الصحيح مقسومًا على إجمالي عدد التوقعات. والمقصود:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

على سبيل المثال، يحتوي النموذج الذي أجرى 40 توقعًا صحيحًا و10 عبارات بحث غير صحيحة على دقة:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

يوفّر التصنيف الثنائي أسماء محدّدة للفئات المختلفة من التوقّعات الصحيحة وعبارات بحث مقترحة غير صحيحة. لذلك، تكون صيغة الدقة للتصنيف الثنائي على النحو التالي:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

حيث:

قارِن مستوى الدقة وقارِن بينها باستخدام الدقة و التذكُّر.

وظيفة التفعيل

#fundamentals

دالة تتيح للشبكات العصبونية إمكانية تعلّم العلاقات غير الخطية (المعقدة) بين الميزات والتصنيف.

وتشمل وظائف التفعيل الشائعة ما يلي:

لا تظهر مطلقًا رسوم تفعيل الدوال في سطر واحد. على سبيل المثال، يتكون مخطط وظيفة ReLU من سطرين مستقيمين:

قطعة كاريكاتية مكوّنة من سطرَين ويكون للسطر الأول قيمة ثابتة من 0 تساوي
          المحور س من -infinity,0 إلى 0,-0.
          يبدأ السطر الثاني بـ 0.0. يحتوي هذا الخط على منحدر +1، بحيث
          يبدأ من 0,0 إلى +إلى ما لا نهاية، +إلى ما لا نهاية.

تظهر مخطّط دالة التفعيل السيني على النحو التالي:

رسم بياني منحني مكوّن ثنائي الأبعاد بقيم x تمتد إلى النطاق
          
          -ما لا يقل عن +إيجابي، بينما تمتد القيم "ص" إلى النطاق ما بين 0 و1 تقريبًا. عندما تكون قيمة x هي 0، تكون قيمة y 0.5. يكون انحدار المنحنى دائمًا
          إيجابيًا، مع أعلى انحدار يبلغ 0.0.5 ومنحدر تدريجي
          مع زيادة القيمة المطلقة لـ x.

الذكاء الاصطناعي

#fundamentals

برنامج أو نموذج لغير البشر يمكنه حلّ المهام المعقّدة على سبيل المثال، يُظهر برنامج أو نموذج يترجم النص أو برنامجًا أو نموذجًا يحدّد الأمراض من صور إشعاعية الذكاء الاصطناعي.

رسميًا، تعلُّم الآلة هو مجال فرعي من الذكاء الاصطناعي. مع ذلك، بدأت العديد من المؤسسات في السنوات الأخيرة باستخدام مصطلحات الذكاء الاصطناعي وتعلّم الآلة بالتبادل.

AUC (المنطقة تحت منحنى ROC)

#fundamentals

رقم بين 0.0 و1.0 يمثّل قدرة نموذج التصنيف الثنائي على فصل الفئات الإيجابية عن الفئات السلبية. كلما كانت درجة AUC أقرب إلى 1.0، تحسّن قدرة النموذج على فصل الفئات عن بعضها البعض.

على سبيل المثال، يوضّح الرسم التوضيحي التالي نموذجًا لأدوات التصنيف يفصل بين الفئات الإيجابية (أشكال بيضاوية خضراء) والفئات السلبية (المستطيلات الأرجوانية) بشكل مثالي. يحتوي هذا النموذج المثالي غير الواقعي على AUC بنسبة 1.0:

سطر رقم يتضمن 8 أمثلة إيجابية على أحد الجانبين و9 أمثلة سلبية على الجانب الآخر

وفي المقابل، يعرض الرسم التوضيحي التالي نتائج نموذج المصنِّف الذي أنشأ نتائج عشوائية. يحتوي هذا النموذج على AUC بسعر 0.5:

سطر رقم يتضمن 6 أمثلة إيجابية و6 أمثلة سلبية
          تسلسل الأمثلة هو موجب، سالب، إيجابي، سالب، إيجابي، سلبي، إيجابي، سلبي، إيجابي، سلبي، إيجابي، سلبي.

نعم، يحتوي النموذج السابق على AUC بقيمة 0.5 وليس 0.0.

تقع معظم النماذج في طرفَين. على سبيل المثال، يفصل النموذج التالي بين الحالات الموجبة الإيجابية والسلبية نوعًا ما، وبالتالي يحتوي على AUC في ما بين 0.5 و1.0:

سطر رقم يتضمن 6 أمثلة إيجابية و6 أمثلة سلبية
          تسلسل الأمثلة هو سالب، سلبي، سالب، سالب، إيجابي، سالب، إيجابي، إيجابي، سالب، إيجابي، إيجابي، إيجابي.

يتجاهل AUC أي قيمة تحدّدها لحدّد التصنيف. وبدلاً من ذلك، تراعي AUC كل حدود التصنيف الممكنة.

مليار

الانتشار

#fundamentals

يعرض هذا العمود خوارزمية تنفيذ التدرّج الهرمي في الشبكات العصبونية.

يتضمّن تدريب شبكة عصبونية العديد من التكرارات لدورة الدورة التالية:

  1. خلال البطاقة المستقبلية، يعالج النظام مجموعة من الأمثلة لعرض عبارات بحث مقترحة. يقارن النظام كل عبارة بحث مقترَحة بكل قيمة label. الفرق بين التوقع وقيمة التصنيف هو الخسارة في هذا المثال. يجمّع النظام الخسائر لجميع الأمثلة بغرض احتساب إجمالي الخسارة للمجموعة الحالية.
  2. خلال الانتقال للخلف (الانتشار)، يخفّض النظام الخسارة عن طريق ضبط الأوزان لجميع الأعصاب في الطبقات المخفية.

غالبًا ما تحتوي الشبكات العصبونية على العديد من الخلايا العصبية في العديد من الطبقات المخفية. وتعزّز كل هذه الخلايا العصبية الخسائر الإجمالية بطرق مختلفة. يحدد النشر العكسي ما إذا كنت تريد زيادة أو تقليل الأوزان التي يتم تطبيقها على الخلايا العصبية المحددة.

معدّل التعلّم هو مُضاعِف يتحكّم في الدرجة التي يزيد أو ينخفض فيها كل مسار للخلف. سيزيد معدّل التعلّم الكبير أو ينخفض كلّ وزن أكثر من معدّل تعلّم صغير.

من حيث حساب التفاضل والتكامل، تنفّذ التكاثف قاعدة السلسلة لحساب التفاضل والتكامل. أي أنّ عملية الاحتساب العكسية تحسب الاشتقاق الجزئي للخطأ مع احترام كل معلّمة. لمزيد من التفاصيل، يُرجى الاطّلاع على هذا البرنامج التعليمي في الدورة التدريبية الخاصة بأعطال تعلُّم الآلة.

قبل سنوات، كان على ممارسي تعلُّم الآلة كتابة الرموز لتنفيذ عملية الانتشار. إنّ واجهات برمجة التطبيقات الحديثة التي تستخدم تعلُّم الآلة، مثل TensorFlow، تطبّق الآن عملية نشر التطبيقات نيابةً عنك. أخيرًا!

مُجَمَّع

#fundamentals

مجموعة الأمثلة المستخدَمة في تدريب واحد التكرار. يحدّد حجم المجموعة عدد الأمثلة على الدفعة.

يمكنك الاطّلاع على الحقل الحقبة للحصول على تفسير لعلاقة هذه الدفعة بالفترة.

حجم المجموعة

#fundamentals

عدد الأمثلة في مجموعة. على سبيل المثال، إذا كان حجم المجموعة 100، سيعالج النموذج 100 مثال لكل تكرار.

في ما يلي الاستراتيجيات الشائعة لحجم المجموعة:

  • Stodastic Gradient Descent (SGD)، حيث يكون حجم الدفعة 1.
  • دفعة كاملة، يكون فيها حجم المجموعة هو عدد الأمثلة في مجموعة التدريب بأكملها. على سبيل المثال، إذا كانت مجموعة التدريب تتضمّن الملايين من الأمثلة، سيكون حجم الدفعة مليون مثال. وتكون الاستراتيجية الكاملة عادةً غير فعّالة.
  • دفعة مصغّرة يكون فيها حجم المجموعة عادةً بين 10 و1000. وتكون الاستراتيجية المصغّرة عادةً هي الاستراتيجية الأكثر كفاءة.

الانحياز (الأخلاقيات/النزاهة)

#fairness
#fundamentals

1- التنميط أو الإعدام أو المحاباة مع بعض الأمور أو الأشخاص أو المجموعات مقارنة بالآخرين يمكن أن يؤثّر هذا الانحياز في جمع البيانات وتفسيرها، وتصميم نظام، وطريقة تفاعل المستخدمين مع النظام. في ما يلي أشكال هذا النوع من الانحياز:

2- خطأ نظامي بسبب إجراء أخذ العينات أو الإبلاغ. في ما يلي أشكال هذا النوع من الانحياز:

يجب عدم الخلط بينه وبين عبارة الانحياز في نماذج تعلُّم الآلة أو انحياز التنبؤ.

مصطلح (انحياز) أو انحياز

#fundamentals

اعتراض أو معادلة من المصدر الانحياز هو معلمة في نماذج تعلُّم الآلة، والتي يرمز إليها أي مما يلي:

  • ب
  • 0

على سبيل المثال، الانحياز هو b في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في خط بسيط بأبعاد ثنائية، الانحياز يعني فقط "الاعتراض على شكل ص". على سبيل المثال، انحياز السطر في الرسم التوضيحي التالي هو 2.

رسم بياني لخط فيه انحدار 0.5 وانحياز (y-y) للعدد 2

هناك انحياز لأنّ بعض النماذج لا تبدأ من المصدر (0,0). على سبيل المثال، لنفترض أنّ مدينة الملاهي تبلغ قيمتها 2 يورو للدخول، و1.5 يورو إضافية لكل ساعة يقيم فيها العميل. ولذلك، يوضّح النموذج الذي يحدد التكلفة الإجمالية انحيازًا بقيمة 2 لأن أدنى تكلفة هي 2 يورو.

يجب عدم الخلط بين الانحياز في الأخلاق والنزاهة أو الانحياز في التوقّع.

التصنيف الثنائي

#fundamentals

هو نوع من مهام التصنيف التي تتوقّع أحد فئتَين حصريتَين بشكل متبادل:

على سبيل المثال، يعمل كل من نموذجَي تعلُّم الآلة التاليَين على تصنيف برنامج ثنائي:

  • نموذج يحدّد ما إذا كانت الرسائل الإلكترونية هي رسائل غير مرغوب فيها (الفئة الإيجابية) أو ليست رسائل غير مرغوب فيها (الفئة السلبية)
  • نموذج يقيّم الأعراض الطبية لتحديد ما إذا كان الشخص يعاني من مرض معيّن (الصف الإيجابي) أو ما إذا لم يكن لديه هذا المرض (الفئة السلبية).

التباين باستخدام التصنيف المتعدد الفئات.

اطّلِع أيضًا على انحدار لوجستي والحد الأدنى لتصنيف البيانات.

مجموعة البيانات

#fundamentals

تحويل ميزة واحدة إلى ميزات ثنائية متعددة تُسمى مجموعات البيانات أو سلال، عادةً استنادًا إلى نطاق قيمة. إنّ الميزة التي تم قطعها هي عادةً ميزة مستمرة.

على سبيل المثال، بدلاً من تمثيل درجة الحرارة كميزة نقطة فردية عائمة، يمكنك تقسيم نطاقات درجات الحرارة إلى مجموعات بيانات منفصلة، مثل:

  • <= 10 درجات مئوية ستكون درجة الحرارة "الباردة".
  • ستكون درجة الحرارة "المعتدلة" بين 11 و24 درجة مئوية.
  • <= تبلغ درجة الحرارة 25 درجة مئوية عبارة عن دلو "دافئ".

سيتعامل النموذج مع كل قيمة في الحِزمة نفسها بالطريقة نفسها. على سبيل المثال، القيمتان 13 و22 كلاهما في مجموعة البيانات المُعتدلة، لذلك يتعامل النموذج مع القيمتَين بشكل متطابق.

C

البيانات الفئية

#fundamentals

الميزات التي لها مجموعة محدَّدة من القيم المحتملة. على سبيل المثال، فكِّر في ميزة تصنيفية تُسمّى traffic-light-state، ويمكن أن تتضمّن فقط إحدى القيم الثلاث التالية:

  • red
  • yellow
  • green

ومن خلال تمثيل traffic-light-state كميزة صنّاعية، يمكن أن يتعرّف النموذج على التأثيرات المختلفة red وgreen وyellow في سلوك السائق.

يُطلق على الميزات الفُرقية أحيانًا اسم الميزات المنفصلة.

التباين مع البيانات الرقمية.

صنف

#fundamentals

فئة يمكن أن تنتمي إليها التصنيف. على سبيل المثال:

  • في نموذج التصنيف الثنائي الذي يرصد المحتوى غير المرغوب فيه، قد تكون كلتا الصفتين محتوى غير مرغوب فيه وليس محتوى غير مرغوب فيه.
  • في نموذج فئات متعددة يحدّد سلالات الكلاب، قد تكون الصفوف كلب الكلاب وكلب بيغل وكلب بيوغ، وما إلى ذلك.

يتوقّع نموذج التصنيف صفًا. على الجانب المقابل، يتوقّع نموذج التراجع رقمًا بدلاً من فئة.

نموذج التصنيف

#fundamentals

نموذج يكون توقّعه هو فئة. على سبيل المثال، في ما يلي جميع نماذج التصنيف:

  • نموذج يتنبأ بلغة جملة الإدخال (الفرنسية؟ الإسبانية؟ الإيطالية؟).
  • نموذج يتوقّع أنواع الأشجار (شجرة القيقب) أوك؟ باباوب؟).
  • نموذج يتوقّع الفئة الإيجابية أو السلبية لحالة طبية معيّنة

في المقابل، تتوقع نماذج التراجع الأرقام بدلاً من الصفوف.

هناك نوعان شائعان من نماذج التصنيف:

الحد الأدنى لتصنيف البيانات

#fundamentals

في تصنيف ثنائي، رقم بين 0 و1 يحوّل الناتج الأولي لنموذج تراجع لوجستي إلى توقّع الفئة الإيجابية أو الفئة السلبية. يُرجى العِلم بأنّ الحد الأدنى لتصنيف البيانات هو قيمة يختارها المستخدمون، وليس قيمة يختارها تدريب النموذج.

يقدّم نموذج انحدار لوجستي قيمة أساسية بين 0 و1. بعد ذلك:

  • إذا كانت هذه القيمة الأولية أكبر من الحد الأدنى لتصنيف البيانات، من المتوقّع أن تكون الفئة الإيجابية.
  • وإذا كانت هذه القيمة الأوليّة أقل من الحدّ الأدنى لتصنيف التصنيف، من المتوقّع أن تكون الفئة السلبية.

على سبيل المثال، لنفترض أن الحد الأدنى للتصنيف هو 0.8. إذا كانت القيمة الأولية هي 0.9، سيتوقّع النموذج الفئة الإيجابية. إذا كانت القيمة الأولية هي 0.7، سيتوقّع النموذج الفئة السلبية.

يؤثر اختيار حدّ التصنيف بشكل كبير في عدد النتائج الإيجابية الخاطئة و النتائج السلبية الخاطئة.

مجموعة بيانات غير متوازنة

#fundamentals

مجموعة بيانات لمشكلة تصنيف تؤدي إلى اختلاف كبير في إجمالي التصنيفات لكل فئة بشكل كبير. على سبيل المثال، ضع في الاعتبار مجموعة بيانات التصنيف الثنائي التي يتم تقسيم تصنيفين لها على النحو التالي:

  • 1,000,000 تصنيف سلبي
  • 10 تصنيفات إيجابية

تتراوح نسبة العناصر السلبية إلى التصنيفات الإيجابية من 100,000 إلى 1، لذا هذه مجموعة بيانات غير متوازنة.

وفي المقابل، لا تكون مجموعة البيانات التالية متوازنة بسبب الفئة لأن نسبة التصنيفات السلبية إلى التصنيفات الإيجابية تساوي قريبًا 1:

  • 517 تصنيفًا سلبيًا
  • 483 تصنيفًا إيجابيًا

يمكن أيضًا أن تكون مجموعات البيانات المتعدّدة الفئات غير متوازنة. على سبيل المثال، مجموعة بيانات التصنيف المتعدّد الفئات غير متوازنة أيضًا لأنّ تصنيفًا واحدًا يحتوي على أمثلة أكثر من التصنيفَين الآخرَين:

  • 1,000,000 تصنيف يحمل الصف "أخضر"
  • 200 تصنيف يحمل الفئة "أرجواني"
  • 350 تصنيفًا يحمل الفئة "برتقالي"

اطّلِع أيضًا على إنتروبيا وفئة الشباب وفئة الأقليات.

اقتصاص

#fundamentals

تمثّل هذه السمة أسلوبًا للتعامل مع القيم الخارجية من خلال تنفيذ أحد الخيارين أو كليهما:

  • تقليل قيم feature التي تتجاوز الحد الأقصى المسموح به.
  • تؤدي زيادة قيم الميزات التي تقل عن الحد الأدنى إلى بلوغ هذا الحد الأدنى.

على سبيل المثال، لنفترض أنّ نسبة% 0.5 من قيم ميزة معيّنة تقع خارج النطاق بين 40 و60. وفي هذه الحالة، يمكنك إجراء ما يلي:

  • ااقتصاص جميع القيم التي تزيد عن 60 (الحد الأقصى) لتصبح 60 بالضبط.
  • اقتطع جميع القيم التي تقل عن 40 (الحد الأدنى) لتصبح 40 بالضبط.

يمكن أن تؤدي القيم الخارجية إلى تلف النماذج، ما يتسبب أحيانًا في تجاوز الأوزان أثناء التدريب. تفسّر بعض القيم الشاذّة أيضًا المقاييس بشكل كبير، مثل الدقة. يُعدّ القطع أسلوبًا شائعًا للحدّ من الضرر.

القص التدريجي القوات التدرّج خلال النطاق المحدّد خلال التدريب

مصفوفة الالتباس

#fundamentals

جدول NxN يلخّص عدد التوقّعات الصحيحة وغير الصحيحة التي أنشأها نموذج التصنيف. على سبيل المثال، ننصحك باستخدام مصفوفة الالتباس التالية لنموذج التصنيف الثنائي:

الورم (المتوقّع) غير حساء (توقع)
الورم (حقًا على الأرض) 18 (TP) 1 (FN)
غير Toror (الحقائق على الأرض) 6 (FP) 452 (TN)

تعرض مصفوفة الالتباس السابقة ما يلي:

  • من بين 19 توقعًا تم فيها تصنيف الحقيقة الأساسية في شكل سرطان، تم تصنيف النموذج بشكل صحيح على أنه 18 وتصنيفه بشكل غير صحيح.
  • من بين 458 توقعًا كانت فيه الحقيقة الأساسية غير ثورية، صنّف النموذج الخطأ 452 بشكل صحيح وصنّفها بشكل غير صحيح على 6.

يمكن أن تساعدك مصفوفة الالتباس المتعلقة بالتصنيف المتعدّد الفئات في تحديد أنماط الأخطاء. على سبيل المثال، فكّر في مصفوفة الالتباس التالية لنموذج تصنيف من عدّة فئات يصنّف ثلاثة أنواع مختلفة من قزحية الألوان (Virginica وVsisicolor وStosa). عندما كانت الحقيقة الأساسية هي "فيرجينيا"، توضّح مصفوفة الالتباس أنّ النموذج يزداد احتمال أن ينبّه "فيرسيلون" عن طريق الخطأ:

  سيتوسوسا (المتوقّع) Versicolor (متوقّع) فيرجينيا (توقع)
سيتيوسا (الحقيقة على الأرض) 88 12 0
Versicolor (الحقائق على الأرض) 6 141 7
فيرجينيا (الحقيقة على الأرض) 2 27 109

وكمثال آخر، يمكن أن تكشف مصفوفة الالتباس عن أنّ النموذج الذي تم تدريبه للتعرّف على الأرقام المكتوبة بخط اليد يميل إلى توقّع خطأ 9 بدلاً من 4، أو قد يتوقّع خطأ 1 بدلاً من 7.

تحتوي مصفوفات الالتباس على معلومات كافية لحساب مجموعة متنوعة من مقاييس الأداء، بما في ذلك الدقة والتذكُّر.

ميزة مستمرة

#fundamentals

ميزة عائمة ذات نطاق لا نهائي من القيم المحتملة، مثل درجة الحرارة أو الوزن.

التباين مع ميزة منفصلة.

تقارب

#fundamentals

الحالة التي يتم الوصول إليها عند تغيير قيم الخسارة قليلاً أو عدم ظهورها على الإطلاق مع كل تكرار. على سبيل المثال، يشير منحنى الخسارة التالي إلى التقرب من حوالي 700 تكرار:

قطعة دجاجية المحور س هو خسارة. المحور ص هو عدد تكرارات التدريب. وتكون الخسارة كبيرة جدًا خلال التكرارات القليلة الأولى، ولكنها
          تنخفض بشكل كبير. بعد 100 تكرار تقريبًا، لا تزال الانخفاضات تصاعديًا ولكن تدريجيًا أكثر. بعد حوالى 700 تكرار،
          تظل نسبة الخسارة ثابتة.

يتداخل النموذج عندما لا يساهم التدريب الإضافي في تحسين النموذج.

في التعلّم العميق، تظل قيم الخسارة ثابتة في بعض الأحيان أو إلى حد كبير كي يتم تكرارها قبل الانتقال إلى النهاية. وخلال فترة طويلة من القيم الثابتة للخسارة، قد تحصل مؤقتًا على خطأ تقارب.

يمكنك أيضًا الاطّلاع على الإيقاف المبكر.

D

إطار البيانات

#fundamentals

نوع بيانات pandas رائج لتمثيل مجموعات البيانات في الذاكرة.

إنّ تنسيق إطار iframe هو جدول أو جدول بيانات. لكل عمود في إطار Data اسم (عنوان)، ويتم تحديد كل صف برقم فريد.

يتم تنظيم كل عمود في Dataframe مثل مصفوفة ثنائية الأبعاد، باستثناء أن كل عمود يمكن تخصيص نوعه الخاص.

يمكنك أيضًا الاطّلاع على الصفحة المرجعية pandas.Dataframe الرسمية.

مجموعة بيانات

#fundamentals

مجموعة من البيانات الأولية، عادةً (وليس حصريًا) تم تنظيمها بأحد التنسيقات التالية:

  • جدول بيانات
  • ملف بتنسيق CSV (قيم مفصولة بفواصل)

نموذج لصفحة معيّنة

#fundamentals

شبكة عصبونية تحتوي على أكثر من طبقة مخفية واحدة.

يُعرف النموذج الدقيق أيضًا باسم الشبكة العصبونية العميقة.

التباين مع النموذج الواسع.

ميزة مزدحمة

#fundamentals

ميزة تكون فيها معظم القيم أو جميعها غير صفرية، وعادةً ما تكون مستشعرًا لقيم النقاط العائمة. على سبيل المثال، تتميّز خدمة Tensor المؤلّفة من 10 عناصر بالكثافة لأنّ 9 من قيمها غير صفرية:

8 3 7 5 2 4 0 4 9 6

التباين مع ميزة التحليل

عمق

#fundamentals

مجموع ما يلي في شبكة عصبونية:

على سبيل المثال، تحتوي الشبكة العصبونية التي تحتوي على خمس طبقات مخفية وطبقة ناتج واحدة على عمق 6.

ملاحظة: طبقة الإدخال لا تؤثر في العمق.

ميزة منفصلة

#fundamentals

ميزة مع مجموعة محدودة من القيم المحتملة على سبيل المثال، الميزة التي قد تكون قيمها حيوانية أو خضار أو معادن فقط هي ميزة منفصلة (أو فئوية).

التباين باستخدام ميزة مستمرة.

ديناميكي

#fundamentals

تمّت هذه العملية بشكل متكرر أو مستمر. العبارتان ديناميكية وعلى الإنترنت هي مرادفات لتعلُّم الآلة. في ما يلي الاستخدامات الشائعة الديناميكية وعلى الإنترنت في تعلُّم الآلة:

  • النموذج الديناميكي (أو النموذج على الإنترنت) هو نموذج تتم إعادة تدريبه بشكل متكرر أو مستمر.
  • التدريب الديناميكي (أو التدريب على الإنترنت)، هو عملية التدريب بشكل متكرر أو مستمر.
  • الاستنتاج الديناميكي (أو الاستنتاج على الإنترنت) هو عملية إنشاء عبارات بحث مقترحة عند الطلب.

نموذج ديناميكي

#fundamentals

نموذج يتم تجديده بشكل متكرّر (قد يكون مستمرًا). يُعد النموذج الديناميكي "متعلّمًا مدى الحياة" يتكيّف باستمرار مع البيانات المتطورة. ويُعرَف النموذج الديناميكي أيضًا باسم النموذج على الإنترنت.

التباين مع نموذج ثابت.

E

إيقاف مبكر

#fundamentals

هي طريقة للتنظيم تتضمّن إنهاء التدريب قبل فقدان التدريب. في فترة مبكرة، توقّف عن تدريب النموذج عمدًا عندما تبدأ نسبة الخسارة في مجموعة بيانات التحقّق في الزيادة، أي عندما يزداد سوء التعميم.

طبقة التضمين

#language
#fundamentals

طبقة مخفية خاصة تتدرّب على ميزة تصنيفي عالية الأبعاد لتعلّم متّجه مضمّن يتضمن سمة تدريجية. وتساعد طبقة التضمين على الشبكة العصبونية في التدريب على نحو أكثر فعالية من التدريب على الميزة التصنيفية العالية الأبعاد.

على سبيل المثال، يتوافق Earth حاليًا مع حوالي 73,000 نوع من الأشجار. لنفترض أنّ أنواع الأشجار هي ميزة في النموذج، لذا تتضمّن طبقة إدخال النموذج موجّهًا واحدًا يبلغ طوله 73,000 عنصر. على سبيل المثال، قد يتم تمثيل baobab على النحو التالي:

مصفوفة من 73,000 عنصر. تحمل أول 6,232 عنصرًا القيمة 0. يحمل العنصر التالي القيمة 1. وتحمل العناصر النهائية التي يبلغ عددها 66,767 القيمة صفر.

الصفيف 73,000 عنصر طويل جدًا. إذا لم تضِف طبقة تضمين إلى النموذج، سيستهلك التدريب وقتًا طويلاً جدًا بسبب ضرب 72,999 صفر. من المحتمل أنّك تختار طبقة التضمين التي تتألف من 12 سمة. وبالتالي، ستتعلّم طبقة التضمين تدريجيًا موجِّه تضمين جديد لكل نوع من أنواع الأشجار.

في بعض الحالات، تكون التجزئة بديلاً معقولاً لطبقة التضمين.

حقبة

#fundamentals

بطاقة تدريبية كاملة يتم إعدادها عبر مجموعة التدريب بحيث تتم معالجة كل مثال مرة واحدة.

تمثّل الحقبة N/حجم المجموعة لتدريب التكرارات، حيث يكون N إجمالي عدد الأمثلة.

على سبيل المثال، لنفترض ما يلي:

  • تتألف مجموعة البيانات من 1,000 مثال.
  • يبلغ حجم المجموعة 50 مثالاً.

لذلك، تتطلب الحقبة الواحدة 20 تكرارًا:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

على سبيل المثال

#fundamentals

قيم صف واحد من الميزات وربما تصنيف. تندرج الأمثلة في التعلّم الخاضع للإشراف ضمن فئتَين عامتَين:

  • يتضمن المثال المصنّف ميزة واحدة أو أكثر وتصنيفًا. يتم استخدام الأمثلة المصنّفة أثناء التدريب.
  • يتضمن المثال غير المصنّف ميزة واحدة أو أكثر ولكن بدون تصنيف. يتم استخدام الأمثلة غير المصنَّفة أثناء الاستنتاج.

على سبيل المثال، لنفترض أنّك تدرّب نموذجًا لتحديد مدى تأثير أحوال الطقس على نتائج اختبارات الطلاب. في ما يلي ثلاثة أمثلة مصنّفة:

الميزات التصنيف
درجة حرارة الرطوبة الضغط الجوي نتيجة الاختبار
15 47 998 جيدة
19 34 1020 ممتازة
18 92 1012 سيئ

إليك ثلاثة أمثلة غير مُصنَّفة:

درجة حرارة الرطوبة الضغط الجوي  
12 62 1014  
21 47 1017  
19 41 1021  

إنّ صف مجموعة البيانات هو عادةً المصدر الأولي للمثال. ويعني ذلك عادةً أنّ نموذجًا يتألف من مجموعة فرعية من الأعمدة في مجموعة البيانات. بالإضافة إلى ذلك، يمكن أن تشمل الميزات الواردة في المثال أيضًا الميزات الاصطناعية، مثل التوافق مع الميزات.

F

سالب سلبي (FN)

#fundamentals

مثال يتوقّع فيه النموذج عن طريق الخطأ فئة الفئة السلبية. على سبيل المثال، ينبّه النموذج أنّ رسالة إلكترونية معيّنة ليست رسالة غير مرغوب فيها (الفئة السلبية)، ولكن هذه الرسالة الإلكترونية في الواقع رسالة غير مرغوب فيها.

موجب إيجابي (FP)

#fundamentals

مثال يتوقّع فيه النموذج عن طريق الخطأ فئة الفئة الإيجابية. على سبيل المثال، يتوقّع النموذج أنّ رسالة إلكترونية معيّنة هي رسالة غير مرغوب فيها (الصف الإيجابي)، ولكن هذه الرسالة الإلكترونية ليست في الواقع رسائل غير مرغوب فيها.

معدّل النتائج الإيجابية الخاطئة

#fundamentals

نسبة الأمثلة السلبية الفعلية التي توقع فيها النموذج عن طريق الخطأ الفئة الإيجابية. تحسب الصيغة التالية النسبة الموجبة الإيجابية الخاطئة:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

معدل الموجب الخاطئ هو المحور س في منحنى ROC.

عنصر

#fundamentals

متغيّر إدخال إلى نموذج تعلُّم الآلة يتألف المثال من ميزة واحدة أو أكثر. على سبيل المثال، لنفترض أنّك تدرّب نموذجًا لتحديد مدى تأثير أحوال الطقس على نتائج اختبارات الطلاب. يعرض الجدول التالي ثلاثة أمثلة، يحتوي كل منها على ثلاث ميزات وتصنيف واحد:

الميزات التصنيف
درجة حرارة الرطوبة الضغط الجوي نتيجة الاختبار
15 47 998 92
19 34 1020 84
18 92 1012 87

التباين مع label.

ميزة متقاطعة

#fundamentals

ميزة اصطناعية تم إنشاؤها استنادًا إلى ميزات "عبور" تصنيفي أو مجمّعة.

على سبيل المثال، جرّب نموذج "توقعات الحالة المزاجية" الذي يمثل درجة الحرارة في إحدى مجموعات البيانات الأربع التالية:

  • freezing
  • chilly
  • temperate
  • warm

وتمثّل سرعة الرياح في إحدى مجموعات البيانات الثلاث التالية:

  • still
  • light
  • windy

بدون صلبان العنصر، يتم تدريب النموذج الخطي بشكل مستقل على كل من مجموعات البيانات الست السابقة. على سبيل المثال، يتدرّب النموذج على freezing، بشكل مستقل عن التدريب مثلاً windy.

بدلاً من ذلك، يمكنك إنشاء ميزة في درجة الحرارة وسرعة الرياح. تحتوي هذه الميزة الاصطناعية على القيم التالية التالية: 12 قيمة:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

باستخدام الصور المتقاطعة، يمكن للنموذج معرفة الاختلافات في الحالة المزاجية بين يوم واحد (freezing-windy) ويوم واحد (freezing-still).

إذا أنشأت ميزة اصطناعية من ميزتَين تضم كل منهما الكثير من الحِزم المختلفة، سيتضمّن صلب الميزة الناتج عددًا كبيرًا من المجموعات المحتملة. على سبيل المثال، إذا تضمّنت إحدى الميزات 1,000 مجموعة بيانات، وكانت الميزة الأخرى تتضمّن 2,000 حزمة، تتضمّن الميزة الناتجة أيضًا 2,000,000 حزمة.

رسميًا، شكل الصليب هو منتج كاريكاتير.

تُستخدم الصليب المميّز في الغالب مع النماذج الخطية ونادرًا ما يتم استخدامها مع الشبكات العصبونية.

هندسة الميزات

#fundamentals
#TensorFlow

عملية تتضمّن الخطوات التالية:

  1. تحديد الميزات التي قد تكون مفيدة في تدريب النموذج
  2. تحويل البيانات الأولية من مجموعة البيانات إلى إصدارات فعالة من تلك الميزات

على سبيل المثال، يمكنك تحديد أن temperature هي ميزة مفيدة. بعد ذلك، يمكنك تجربة مجموعات البيانات لتحسين ما يمكن أن يتعلّمه النموذج من نطاقات temperature مختلفة.

ويُطلق على ميزة "هندسة الميزات" في بعض الأحيان اسم استخراج الميزات.

مجموعة ميزات

#fundamentals

يتم تدريب مجموعة الميزات التي يستند إليها نموذج تعلُّم الآلة. على سبيل المثال، يمكن أن يتضمّن الرمز البريدي وحجم العقار وحالة الموقع مجموعة بسيطة من الميزات لتوقّع نموذج السكن.

متّجه خاص

#fundamentals

مصفوفة قيم feature تتضمّن مثال. يتم إرسال متّجه الميزة أثناء التدريب وخلال الاستنتاج. على سبيل المثال، قد يكون متّجه الميزة الخاص بطراز يتضمّن ميزتَين منفصلتين:

[0.92, 0.56]

أربع طبقات: طبقة إدخال، وطبقتان مخفيتان، وطبقة مخرجات واحدة
          تحتوي طبقة الإدخال على عُقدتَين، تحتوي إحداهما على القيمة
          0.92 والأخرى التي تحتوي على القيمة 0.56.

يوفّر كل مثال قيمًا مختلفة لمتّجه الميزة، وبالتالي يمكن أن يكون متّجه الميزة في المثال التالي مثالاً على ذلك:

[0.73, 0.49]

هندسة الميزات تحدد كيفية تمثيل الميزات في متّجه الميزة. على سبيل المثال، قد يتم تمثيل ميزة تصنيف ثنائي بخمس قيم محتملة باستخدام ترميز نقطة واحدة. في هذه الحالة، يتكون جزء موجّه الميزة لمثال محدّد من أربعة أصفار و1.0 في الموضع الثالث، على النحو التالي:

[0.0, 0.0, 1.0, 0.0, 0.0]

كمثال آخر، لنفترض أن النموذج يتكون من ثلاث ميزات:

  • هي ميزة تصنيف ثنائي فئة بـ خمس قيم محتملة يتم تمثيلها بترميز ساخن، على سبيل المثال: [0.0, 1.0, 0.0, 0.0, 0.0]
  • ميزة تصنيف ثنائي أخرى بـ ثلاث قيم محتملة يتم تمثيلها بترميز نقطة واحدة، على سبيل المثال: [0.0, 0.0, 1.0]
  • ميزة النقطة العائمة، على سبيل المثال: 8.3

في هذه الحالة، سيتم تمثيل متّجه الميزة لكل مثال من خلال تسعة قيم. نظرًا لأمثلة القيم في القائمة السابقة، سيكون متّجه الميزة هو:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

حلقة الملاحظات والآراء

#fundamentals

في تعلُّم الآلة، موقف تؤثر فيه توقعات النموذج في بيانات التدريب للنموذج نفسه أو نموذج آخر. على سبيل المثال، إنّ النموذج الذي يقترح الأفلام سيؤثر في الأفلام التي تظهر للمستخدمين، ما سيؤثّر في نماذج الأفلام المقترَحة اللاحقة.

G

تعميم

#fundamentals

إمكانية النموذج لتقديم توقعات صحيحة بشأن البيانات الجديدة وغير المرئية سابقًا والنموذج الذي يمكن أن يصبح عامًا هو عكس النموذج الذي يتجاوز نطاقه.

منحنى التعمين

#fundamentals

رسم بياني لكل من خسارة التدريب وفقدان التحقق كدالة لعدد التكرارات.

يمكن أن يساعدك منحنى التعميم في رصد تأثير زائد محتمل. على سبيل المثال، يشير منحنى التأمّل التالي إلى التراكم الزائد لأنّ فقدان التحقّق أصبح في النهاية أعلى بكثير من فقدان التدريب.

رسم بياني كاريكاتيري يُصنَّف فيه المحور &quot;ص&quot; على شكل &quot;خسارة&quot; ويتم تصنيف المحور &quot;س&quot; على أنه &quot;نسخ&quot; يظهر مخططان. تعرض إحدى المخطّطات الخسارة في التدريب والأخرى تُظهر الخسارة في عملية التحقّق.
          تبدأ المؤشّرتان بالمثل، ولكن في النهاية تنخفض نسبة التدريب أقل من نتيجة التحقق من الصحة.

هبوط متدرج

#fundamentals

يشير هذا المصطلح إلى أسلوب رياضي لتقليل الخسارة. يتم تعديل التدرّج الهرمي بشكل تدريجي بالأوزان والانحياز، ويتيح العثور على أفضل تركيبة تدريجيًا لتقليل فقدان البيانات.

يُعدّ التدرّج التدريجي الأقدم أقدم بكثير من تقنية تعلُّم الآلة.

حقيقة

#fundamentals

عالم الواقع.

ما حدث بالفعل.

على سبيل المثال، يمكنك وضع نموذج تصنيف ثنائي يتنبّه عمّا إذا كان الطالب سيتم تخرّجه من السنة الأولى في غضون ست سنوات. الغرض الأساسي من هذا النموذج هو تحديد ما إذا كان الطالب قد تخرّج خلال ست سنوات أم لا.

H

طبقة مخفية

#fundamentals

طبقة في شبكة عصبونية بين طبقة الإدخال (الميزات) وطبقة الإخراج (التوقع) تتكوّن كل طبقة مخفية من عصرة واحدة أو أكثر. على سبيل المثال، تحتوي الشبكة العصبونية التالية على طبقتين مخفيتين، الأولى تحتوي على ثلاث خلايا عصبية والأخرى بعمرين:

أربع طبقات الطبقة الأولى هي طبقة إدخال تحتوي على ميزتين. أما الطبقة الثانية، فهي طبقة مخفية تحتوي على ثلاث خلايا عصبية. الطبقة الثالثة هي طبقة مخفية تتضمّن عصبان. الطبقة الرابعة هي طبقة مخرجات. تحتوي كل ميزة
          على ثلاث حواف، تشير كل منها إلى عصبون مختلف
          في الطبقة الثانية. تحتوي كل خلية من الأعصاب في الطبقة الثانية على حافتَين، تشير كل منهما إلى عصبون مختلف في الطبقة الثالثة. تحتوي كل خلية من الخلايا العصبية في الطبقة الثالثة على حافة واحدة تشير كل منها إلى طبقة الناتج.

تحتوي الشبكة العصبونية العميقة على أكثر من طبقة مخفية واحدة. على سبيل المثال، تمثّل الصورة التوضيحية السابقة شبكة عصبونية عميقة لأنّ النموذج يحتوي على طبقتين مخفيتين.

مَعلمة فائقة

#fundamentals

تمثّل هذه السمة المتغيّرات التي تضبطها أنت أو خدمة ضبط المَعلمات الفائقة تُعدِّل هذه المتغيّرات أثناء عمليات التشغيل المتتالية لتدريب نموذج. على سبيل المثال، معدّل التعلُّم هو مَعلمة فائقة. ويمكنك ضبط المعدل التعليمي على 0.01 قبل جلسة واحدة للتدريب. إذا قرّرت أنّ القيمة 0.01 مرتفعة جدًا، يمكنك ضبط السعر التعليمي على 0.003 للجلسة التدريبية التالية.

وفي المقابل، تمثّل المَعلمات مختلف الأوزان والانحياز الذي يتعلّق به النموذج أثناء التدريب.

I

موزّعة بشكل مستقل ومتماثل (أي)

#fundamentals

البيانات المأخوذة من توزيع لا يتغير، ولا تعتمد كل قيمة مرسومة على القيم المرسومة سابقًا. يشير المصطلح I.i i إلى الغاز المثالي لتعلُّم الآلة، وهو عبارة عن بنية حسابية مفيدة ولكن لم يتم العثور عليها مطلقًا في العالم الحقيقي. على سبيل المثال، قد يكون توزيع زوّار صفحة الويب أي ضمن فترة زمنية قصيرة، أي أنّ التوزيع لا يتغيّر خلال هذه الفترة القصيرة وتكون زيارة شخص ما مستقلاً بشكل عام عن زيارة الشخص الآخر. ومع ذلك، إذا وسّعت هذه الفترة الزمنية، قد تظهر الاختلافات الموسمية في زوّار صفحة الويب.

اطّلِع أيضًا على عدم الانتظام.

استنتاج

#fundamentals

في تعلُّم الآلة، يتم إجراء عملية إجراء توقعات من خلال تطبيق نموذج مدرّب على أمثلة غير مصنّفة.

الاستنتاج له معنى مختلف إلى حدٍّ ما في الإحصاءات. لمعرفة المزيد من التفاصيل، يُرجى الاطّلاع على مقالة Wikipedia عن الاستنتاج الإحصائي.

طبقة الإدخال

#fundamentals

طبقة الشبكة العصبونية التي تتضمّن موجّه الميزة وهذا يعني أن طبقة الإدخال تقدّم أمثلة عن التدريب أو الاستنتاج. على سبيل المثال، تتألف طبقة الإدخال في الشبكة العصبونية التالية من ميزتَين:

أربع طبقات: طبقة إدخال، والطبقات المخفية، وطبقة الإخراج.

تفسيرية

#fundamentals

يشير هذا المصطلح إلى القدرة على شرح أسباب نموذج تعلُّم الآلة أو تقديم شرح لها بعبارات مفهومة.

على سبيل المثال، يمكن فهم معظم نماذج الانحدار الخطّي. (ما عليك سوى الاطّلاع على الأوزان المدرّبة لكل ميزة). ويمكن أيضًا تفسير غابات القرارات بشكل واضح. ومع ذلك، تتطلب بعض النماذج تمثيلاً بصريًا متطوّرًا حتى يمكن تفسيره.

تكرار

#fundamentals

تعديل واحد لمعلّمات النموذج، وهي أوزان وانحيازات النموذج، أثناء التدريب. يحدّد حجم المجموعة عدد الأمثلة التي يعالجها النموذج في عملية تكرار واحدة. على سبيل المثال، إذا كان حجم المجموعة 20، سيعالج النموذج 20 مثالاً قبل تعديل المعلّمات.

عند تدريب شبكة عصبونية، يتطلّب التكرار مرة واحدة بطاقتَين:

  1. تمرير للأمام لتقييم الخسارة على دفعة واحدة
  2. تمرير للخلف (نشر المعلومات) لتعديل معلمات النموذج استنادًا إلى معدّل الخسارة ومعدّل التعلّم

L

تسوية L0

#fundamentals

تمثّل هذه السمة نوعًا من التوزيع الذي يعاقب إجمالي عدد الأوزان الصفرية في نموذج. على سبيل المثال، قد يتمّ فرض عقوبات على النموذج الذي يتضمّن 11 وزنًا غير صفري، بدلاً من استخدام 10 وزنات غير صفرية.

ويُسمى أحيانًا تنظيم L0 تسوية معيار L0.

الخسارة 1

#fundamentals

دالة الخسارة التي تحسب القيمة المطلقة للفرق بين القيم label الفعلية والقيم التي يتوقّعها النموذج. على سبيل المثال، إليك احتساب الخسارة L1 في مجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقعة للنموذج القيمة المطلقة لدلتا
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  الخسارة 8 = L1

الخسارة بنسبة 1 أقل حساسية لانخفاض القيم الخارجية من الخسارة L2.

الخطأ المطلق بالخطأ هو متوسط الخسارة 1 لكل مثال.

تنظيم L1

#fundamentals

تمثّل هذه السمة نوعًا من التنظيم يعاقب الأوزان بالنسبة إلى مجموع القيمة المطلقة للأوزان. يساعد المستوى 11 في تنظيم أوزان الميزات غير الملائمة أو التي لا تكُن ذات صلة على الإطلاق. بدون ضبط. تتم إزالة ميزة بحجم 0 كحد أقصى من النموذج.

قارِن التباين مع 2 التسوية.

الخسارة L2

#fundamentals

دالة الخسارة التي تحسب مربّع الفرق بين قيم label الفعلية والقيم التي يتوقعها نموذج. على سبيل المثال، إليك احتساب الخسارة L2 في مجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقعة للنموذج دلتا ساحة
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = L2 خسارة

بسبب القرفصاء، يؤدي الخسارة L2 إلى تضخيم تأثير القيم الشاذّة. وهذا يعني أنّ الخسارة على مستوى L2 تتفاعل بشكلٍ أقوى مع عبارات البحث المقترحة غير الصالحة من L1 الخسارة. على سبيل المثال، الخسارة L1 للدفعة السابقة ستكون 8 بدلاً من 16. يُرجى العِلم أنّ حسابًا واحدًا يمثّل 9 من 16.

تستخدم نماذج التراجع عادةً الخسارة L2 كدالة الخسارة.

والخطأ التربيعي المربّع هو متوسط الخسارة L2 لكل مثال. الخسارة المربّعة هي اسم آخر للخسارة2.

تنظيم L2

#fundamentals

تمثّل هذه السمة نوعًا من الضبط يعاقب الأوزان بالنسبة إلى مجموع المربّعات للأوزان. تساعد تسوية L2 في جذب قيممختلفة (تلك التي تحتوي على قيم سلبية إيجابية أو منخفضة) أقرب إلى 0 ولكنها ليست تمامًا إلى 0. وتبقى الميزات التي تحتوي على قيم قريبة جدًا من الصفر في النموذج، ولكنها لا تؤثر في توقّع النموذج بشكل كبير.

دائمًا ما يحسّن تنظيم L2 التعميم في النماذج الخطية.

التباين مع Lbr1 التسوية

label

#fundamentals

في تعلُّم الآلة المراقَب، الجزء "الإجابة" أو "النتيجة" من مثال.

يضم كل مثال مصنّف واحدًا أو أكثر من الميزات وتصنيف. على سبيل المثال، في مجموعة بيانات لرصد المحتوى غير المرغوب فيه، من المحتمل أن يكون التصنيف "غير مرغوب فيه" أو "ليس محتوى غير مرغوب فيه". في مجموعة بيانات الأمطار، قد يكون التصنيف حجم الأمطار التي سقطت خلال فترة معيّنة.

مثال مصنّف

#fundamentals

مثال يحتوي على واحدة أو أكثر من الميزات وتصنيف. على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة مصنّفة من نموذج تقييم منزلي، يتضمّن كل منها ثلاث ميزات وتصنيفًا واحدًا:

عدد غرف النوم عدد الحمّامات عمر المنزل سعر المنزل (تصنيف)
3 2 15 345,000 دولار أمريكي
2 1 72 179,000 دولار أمريكي
4 2 34 392,000 دولار أمريكي

في تعلُّم الآلة المراقَب، تتدرّب النماذج على أمثلة مصنّفة، وتقدّم توقعات بشأن أمثلة غير مصنّفة.

تباين المثال المصنَّف مع أمثلة غير مصنّفة

lambda

#fundamentals

مرادف لمعدل التسوية.

لامبازية هي عبارة عن زيادة في التحميل. نركّز هنا على تعريف المصطلح ضمن الانتظام.

طبقة

#fundamentals

مجموعة من الخلايا العصبية في الشبكة العصبونية في ما يلي ثلاثة أنواع شائعة من الطبقات:

على سبيل المثال، يُظهر الرسم التوضيحي التالي شبكة عصبونية تحتوي على طبقة إدخال واحدة و طبقات مخفية وطبقة مخرجات واحدة:

شبكة عصبونية تحتوي على طبقة إدخال واحدة وطبقة مخفية وطبقة عرض واحدة تتألف طبقة الإدخال من ميزتين. تتألف الطبقة الأولى المخفية من ثلاث عصبية والطبقة الثانية المخفية تتكوّن من عصبين. تتألف طبقة الإخراج من عقدة واحدة.

في TensorFlow، تُعدّ الطبقات أيضًا دوال Python التي تستجيب لأجهزة Tensor وخيارات الضبط كإدخالات وتنتج عن ذلك أدوات Tenor أخرى كمخرجات.

معدّل التعلّم

#fundamentals

رقم نقطة عائمة يحدّد خوارزمية التدرّج مدى قوة تعديل الأوزان والانحياز في كل تكرار. على سبيل المثال، إنّ معدّل التعلّم 0.3 يساهم في تعديل الأوزان والانحياز بمقدار ثلاثة أضعاف أكثر فعالية من معدّل التعلّم 0.1.

يشكّل معدّل التعلّم متغيّرًا أساسيًا. في حال ضبط معدّل التعلّم على قيمة منخفضة جدًا، سيستغرق التدريب وقتًا طويلاً. إذا ضبطت معدّل التعلّم على قيمة عالية جدًا، غالبًا ما يشكّل نزولاً متدرّج صعوبة في الوصول إلى مدى الصلة بموضوع البحث.

نموذج خطي

#fundamentals

نموذج يُخصِّص وزنًا واحدًا لكل ميزة لتقديم توقّعات. (تتضمّن النماذج الخطية أيضًا انحيازًا.) في المقابل، تكون العلاقة بين الميزات وعبارات البحث المقترَحة في النماذج العميقة بشكل عام غير خطي.

عادةً ما تكون النماذج الخطية أسهل في التدريب وأكثر قابلية للتفسير من النماذج العميقة. يُرجى العِلم أنّه في حين يمكن للنماذج العميقة تعلّم العلاقات المعقّدة بين الميزات.

الانحدار الخطّي والانحدار اللوجستي هما نوعان من النماذج الخطية.

خطي

#fundamentals

يشير هذا المصطلح إلى علاقة بين متغيّرَين أو أكثر يمكن تمثيلهما فقط من خلال عملية الإضافة والضرب.

مخطّط العلاقة الخطية هو سطر.

التباين باستخدام بلا خطوط

انحدار خطي

#fundamentals

تمثّل هذه السمة نوعًا من نماذج تعلُّم الآلة وفيه ينطبق أي مما يلي:

التباين في الانحدار الخطّي مع الانحدار اللوجستي وبإمكانك أيضًا مقارنة التراجع باستخدام التصنيف.

انحدار لوجستي

#fundamentals

نوع من نموذج الانحدار الذي يتوقّع احتمالية. تتميّز نماذج التراجع اللوجستي بالخصائص التالية:

  • التصنيف تصنيفي. يشير المصطلح "الانحدار اللوجستي" عادةً إلى الانحدار اللوجستي الثنائي، أي إلى نموذج يحسب احتمالية التصنيفات التي لها قيمتان محتملتان. إنّ خيارًا أقل شيوعًا هو الانحدار اللوجستي المتعدد، ويحسب الاحتمالات للتصنيفات التي لها أكثر من قيمتَين ممكنتَين.
  • دالة الخسارة أثناء التدريب هي فقدان السجل. (يمكن وضع وحدات فقدان السجلّات المتوازية بشكل متواز مع التصنيفات التي تحتوي على أكثر من قيمتَين ممكنتَين.)
  • يتميّز النموذج ببنية خطية، وليس بشبكة عصبونية دقيقة. ومع ذلك، ينطبق الجزء المتبقي من هذا التعريف أيضًا على النماذج لصفحات معيّنة التي تتوقّع احتمالات التصنيفات التصنيفية.

على سبيل المثال، جرِّب نموذج التراجع اللوجستي الذي تحسب احتمال أن يكون البريد الإلكتروني المُدخل غير مرغوب فيه أو غير مرغوب فيه. أثناء الاستنتاج، نفترض أن النموذج يتوقّع 0.72. لذلك، يقدّر النموذج ما يلي:

  • احتمال أن يكون الرسالة الإلكترونية غير مرغوب فيها بنسبة% 72
  • احتمال أن يكون البريد الإلكتروني غير مرغوب فيه بنسبة 28%

يستخدم نموذج الانحدار اللوجستي البنية التالية المكوّنة من خطوتين:

  1. ينشئ النموذج توقعًا أوليًا (y) عن طريق تطبيق دالة خطية لميزات الإدخال.
  2. يستخدم النموذج عبارة البحث المقترَحة الأولية هذه كإدخال إلى دالة سيجودية، تحوِّل التوقّع الأولي إلى قيمة بين 0 و1، بشكلٍ حصري.

مثل أي نموذج انحدار، يتوقع نموذج انحدار لوجستي رقمًا. ومع ذلك، يصبح هذا الرقم عادةً جزءًا من نموذج التصنيف الثنائي على النحو التالي:

  • إذا كان العدد المتوقّع أكبر من الحد الأدنى لتصنيف البيانات، يتوقّع نموذج التصنيف الثنائي الفئة الإيجابية.
  • إذا كان الرقم المتوقع أقل من الحد الأدنى للتصنيف، يتنبأ نموذج التصنيف الثنائي بفئة سالبة.

فقدان اللوغاريتم

#fundamentals

دالة الخسارة المستخدَمة في الانحدار اللوجستي.

لوغاريتم

#fundamentals

لوغاريتم احتمالات بعض الأحداث

خِسَارَة

#fundamentals

خلال التدريب في نموذج خاضع للإشراف، يتم قياس مدى بُعد التوقّع الخاص بالنموذج عن تصنيفه.

تحسب دالة الخسارة الخسارة.

منحنى الخسارة

#fundamentals

مخطط الخلل كدالة لعدد تدريبات التدريبات. تعرض المخطط التالي منحنى خسارة نموذجي:

رسم بياني خاسر للخسارة مقابل تكرارات التدريب، يوضح انخفاضًا سريعًا في الخسارة في التكرارات الأولية، يليه انخفاض تدريجي، ثم منحدر مسطح خلال التكرارات النهائية.

يمكن أن تساعدك منحنيات الخسارة في تحديد الوقت الذي يطابقه أو يتطابق مع النموذج.

يمكن أن يعكس منحنيات الخسارة جميع أنواع الخسارة التالية:

يمكنك أيضًا الاطّلاع على منحنى التصوّر.

فقدان الدالة

#fundamentals

أثناء التدريب أو الاختبار، هي دالة رياضية تحسب الخسارة على مجموعة من الأمثلة. تعرض دالة الخسارة خسارة أقل للنماذج التي تقدّم توقعات جيدة مقارنةً بالنماذج التي

ويكون هدف التدريب عادةً تقليل الخسائر التي تنتج عن وظيفة الخسارة.

هناك العديد من أنواع دوال الخسارة المختلفة. اختَر دالة الخسارة المناسبة لنوع النموذج الذي تنشئه. على سبيل المثال:

M

تعلُم الآلة

#fundamentals

برنامج أو نظام يدرّب نموذجًا من بيانات الإدخال. ويمكن للنموذج المدرّب تقديم توقعات مفيدة من البيانات الجديدة (غير المعروضة سابقًا) المستخرجة من التوزيع نفسه الذي تم استخدامه لتدريب النموذج.

يشير تعلُّم الآلة أيضًا إلى مجال الدراسة المعني بهذه البرامج أو الأنظمة.

فِئَةُ الْأَغَلِّيَّة

#fundamentals

التصنيف الأكثر شيوعًا في مجموعة البيانات غير المتوازنة. على سبيل المثال، بإعطاء مجموعة بيانات تحتوي على تصنيفات سلبية بنسبة% 99 وتصنيفات إيجابية بنسبة% 1، تكون التصنيفات السلبية هي الفئة الأكبر.

التباين مع فئة الأقليات

دفعة صغيرة

#fundamentals

مجموعة فرعية صغيرة ومحدّدة بشكل عشوائي من دفعة تمت معالجتها في وقت واحد في وتيرة ويكون حجم المجموعة لأي مجموعة مصغّرة عادةً بين 10 و1,000 مثال.

على سبيل المثال، لنفترض أن مجموعة التدريب بالكامل (المجموعة الكاملة) تتألف من 1000 مثال. لنفترض أيضًا أنّك ضبطت حجم المجموعة لكل دفعة مجمّعة على 20. وبالتالي، يحدّد كل تكرار الخسارة في 20 نموذجًا عشوائيًا من بين 1,000 مثال، ثم يضبط الأوزان والانحياز وفقًا لذلك.

وهناك طريقة أكثر فعالية لاحتساب الخسارة على دفعة صغيرة مقارنةً بالخسارة في جميع الأمثلة على المجموعة الكاملة.

فئة الأقليات

#fundamentals

التصنيف الأقل شيوعًا في مجموعة البيانات غير المتوازنة. على سبيل المثال، بإعطاء مجموعة بيانات تحتوي على 99% من التصنيفات السلبية و1% من التصنيفات الإيجابية، التصنيفات الإيجابية هي فئة الأقلية.

التباين مع الفئة العمرية

نموذج

#fundamentals

بشكل عام، أي بنية حسابية تعالج بيانات الإدخال وتعرض النتائج. والصياغة المختلفة هي عبارة عن مجموعة من المعلمات والبنية المطلوبة لنظام لكي يتمكن المستخدم من وضع توقعات. في تعلُّم الآلة المراقَب، يأخذ النموذج مثال كإدخال ويستنتج التوقع كناتج. ضمن تعلُّم الآلة المراقَب، تختلف النماذج قليلاً. على سبيل المثال:

يمكنك حفظ نموذج أو استعادته أو إنشاء نُسخ منه.

تُنشئ تعلُّم الآلة غير الخاضع للإشراف أيضًا نماذج، وهي وظيفة عادةً ما يمكن ربط نموذج إدخال بـ المجموعة الأكثر ملاءمةً.

تصنيف متعدد الفئات

#fundamentals

في عملية التعلُّم الخاضع للإشراف، هناك مشكلة في التصنيف تحتوي فيها مجموعة البيانات على أكثر من صف من التصنيفات. على سبيل المثال، يجب أن تكون التصنيفات في مجموعة بيانات Iris واحدة من الفئات الثلاث التالية:

  • إيريس سيتوسا
  • زهرة السوسن
  • زهرة القزحية

هناك نموذج مُدرَّب على مجموعة بيانات Iris التي تتوقّع نوع Iris على أمثلة جديدة وهو يُجري تصنيفًا متعدد الفئات.

في المقابل، تكون مشاكل التصنيف التي تميّز بين فئتين بالضبط هي نماذج التصنيف الثنائي. على سبيل المثال، نموذج البريد الإلكتروني الذي يتوقع إما رسائل غير مرغوب فيها أو رسائل غير مرغوب فيها هو نموذج التصنيف الثنائي.

في مشاكل التجميع، يشير التصنيف المتعدد الطبقات إلى أكثر من مجموعتين.

N

فئة سلبية

#fundamentals

في التصنيف الثنائي، يُطلَق على إحدى الفئات إيجابية والأخرى سالبة. إنّ الفئة الإيجابية هي الحدث أو الحدث الذي يختبره النموذج، والفئة السلبية هي الاحتمال الآخر. على سبيل المثال:

  • قد تكون الفئة السلبية في الاختبار الطبي "ليست ورم".
  • قد لا يكون الصف السلبي في مصنِّف البريد الإلكتروني "ليس محتوى غير مرغوب فيه".

المقارنة مع فئة إيجابية.

شبكة عصبونية

#fundamentals

نموذج يحتوي على طبقة مخفية واحدة على الأقل. الشبكة العصبونية العميقة هي نوع من الشبكات العصبونية تحتوي على أكثر من طبقة مخفية واحدة. على سبيل المثال، يُظهر المخطّط التالي شبكة عصبونية عميقة تحتوي على طبقتين مخفيتين.

شبكة عصبونية تحتوي على طبقة إدخال، طبقتين مخفيّين، وطبقة مخرجات

تتصل كل عصبون في شبكة عصبونية بجميع العُقد في الطبقة التالية. على سبيل المثال، في المخطّط السابق، لاحظ أنّ كل خلية من الخلايا العصبية الثلاث في الطبقة الأولى المخفية تتصل بشكل منفصل بكلتا العصبتين في الطبقة الثانية المخفية.

يُطلق على الشبكات العصبونية أحيانًا اسم الشبكات العصبونية الاصطناعية لتمييزها عن الشبكات العصبونية التي يتم العثور عليها في الدماغ والأنظمة العصبية الأخرى.

يمكن لبعض الشبكات العصبونية تقليد العلاقات غير الخطية المعقّدة بين الميزات المختلفة والتصنيف.

يمكنك أيضًا الاطّلاع على الشبكة العصبونية الالتفافية والشبكة العصبونية المتكررة.

عصبون

#fundamentals

في تعلُّم الآلة، هي وحدة مميّزة ضمن طبقة مخفية من شبكة عصبونية. ينفّذ كل خلية عصبية الإجراء التالي الذي تم تنفيذه:

  1. تحسب المجموع المرجّح لقيم الإدخال مضروبة في قيمها المقابلة.
  2. تمرير المجموع المرجّح كإدخال إلى دالة تفعيل

هناك خلية عصبونية في الطبقة المخفية الأولى تقبل إدخالات من قيم الميزات في طبقة الإدخال. خلية عصبية في أي طبقة مخفية أولاً وتقبل الإدخالات من الخلايا العصبية في الطبقة المخفية السابقة. على سبيل المثال، تقبل خلية عصبونية في الطبقة الثانية المخفية إدخالات من الخلايا العصبية في الطبقة المخفية الأولى.

يوضّح الرسم التوضيحي التالي عصبَين ومدخلاتهما.

شبكة عصبونية تحتوي على طبقة إدخال، طبقتين مخفيّين، وطبقة مخرجات هناك عصابتان بارزتان: أحدهما في الطبقة المخفية الأولى والأخرى في الطبقة المخفية المخفية. تتلقّى الخلية العصبية المميّزة
          في الطبقة المخفية الأولى إدخالات من كلتا الميزتَين
          في طبقة الإدخال. تتلقّى الخلية العصبية المميّزة في الطبقة الثانية المخفية إدخالات من كل خلية من الخلايا العصبية الثلاث في الطبقة الأولى المخفية.

وتحاكي تقنية العصبية في الشبكة العصبونية سلوك الخلايا العصبية في الدماغ والأجزاء الأخرى من الأجهزة العصبية.

عقدة (الشبكة العصبونية)

#fundamentals

neuron في طبقة مخفية

غير خطي

#fundamentals

يشير هذا المصطلح إلى علاقة بين متغيّرَين أو أكثر لا يمكن تمثيلها فقط من خلال جمع البيانات أو ضربها. يمكن تمثيل العلاقة الخطية كخط، ولا يمكن تمثيل العلاقة غير الخطية كخط. على سبيل المثال، فكّر في نموذجَين يربط كل منهما ميزة واحدة بتصنيف واحد. النموذج على اليسار خطي والنموذج على اليمين غير خطي:

مخططان. يمثّل الرسم البياني سطرًا، وبالتالي فإنّه علاقة خطية.
          المؤامرة الأخرى هي منحنى، ولذلك هذه علاقة غير خطية.

عدم الاستقرار

#fundamentals

هي ميزة تتغيّر قيمها باستخدام سمة واحدة أو أكثر، وعادةً ما يحدث ذلك في الوقت المناسب. على سبيل المثال، ضَع في الاعتبار الأمثلة التالية لعدم التوافق:

  • يختلف عدد ملابس السباحة المُباعة في متجر معيّن حسب الموسم.
  • وتكون كمية فاكهة معيّنة تم حصادها في منطقة معيّنة صفرًا في معظم سنوات السنة، ولكن لفترة كبيرة.
  • بسبب التغيّر المناخي، تتغيّر درجات الحرارة السنوية.

التباين باستخدام تغيّر مستمر

تسوية

#fundamentals

بصفة عامة، عملية تحويل نطاق القيم الفعلي للمتغيّر إلى نطاق عادي من القيم، مثل:

  • من 1 إلى 1+
  • من 0 إلى 1
  • التوزيع العادي

على سبيل المثال، لنفترض أن النطاق الفعلي لقيم ميزة معيّنة هو 800 إلى 2400. كجزء من هندسة الميزات، يمكنك تسوية القيم الفعلية وصولاً إلى نطاق عادي، مثل -1 إلى 1+.

تتمثّل التسوية في مهمة هندسة الميزات. تتدرّب النماذج عادةً بشكل أسرع (وتنشئ توقعات أفضل) عندما يكون لكل ميزة رقمية في توجّه الميزة النطاق نفسه تقريبًا.

البيانات الرقمية

#fundamentals

الميزات ممثَّلة كأعداد صحيحة أو أرقام حقيقية. على سبيل المثال، من المرجّح أن يمثّل نموذج تقييم المنزل حجم المنزل (بالأمتار المربّعة أو بالمتر المربّع) كبيانات رقمية. إنّ تمثيل ميزة كبيانات رقمية يشير إلى أنّ قيم العنصر لها علاقة رياضية بالتصنيف. هذا يعني أنّ عدد الأمتار المربّعة في المنزل قد تكون له علاقة حسابية بقيمة المنزل.

يجب ألا يتم تمثيل جميع بيانات العدد الصحيح كبيانات رقمية. على سبيل المثال، الرموز البريدية في بعض أنحاء العالم هي أعداد صحيحة، ومع ذلك، يجب عدم تمثيل الرموز البريدية للعدد الصحيح كبيانات رقمية في النماذج. ويرجع ذلك إلى أنّ الرمز البريدي لـ 20000 لا يمثّل ضعف (أو نصف) نفسه كرمز بريدي من 10,000. علاوةً على ذلك، على الرغم من أنّ الرموز البريدية المختلفة ترتبط بقيم عقارية مختلفة، لا يمكننا أن نفترض أنّ قيم العقارات في الرمز البريدي 20,000 لها قيمة أكبر من قيم العقارات في الرمز البريدي 10000. يجب تمثيل الرموز البريدية على أنّها بيانات تصنيفيّة بدلاً من ذلك.

يُطلق على الميزات الرقمية أحيانًا اسم الميزات المستمرة.

O

بلا إنترنت

#fundamentals

مرادف لـ static.

الاستنتاج بدون اتصال بالإنترنت

#fundamentals

عملية نموذج يُنشئ مجموعة من التوقّعات ثم يخزّن (يحفظ) هذه عبارات البحث مؤقتًا (يحفظها). ويمكن للتطبيقات بعد ذلك الوصول إلى التوقّع المطلوب من ذاكرة التخزين المؤقت بدلاً من إعادة تشغيل النموذج.

على سبيل المثال، يمكنك التفكير في نموذج يُنشئ توقعات الطقس المحلية (التوقعات) مرة واحدة كل أربع ساعات. بعد تشغيل كل نموذج، يخزّن النظام جميع توقعات الطقس المحلية. تسترد تطبيقات الطقس التوقعات من ذاكرة التخزين المؤقت.

يُطلق على الاستنتاج بلا إنترنت أيضًا اسم الاستنتاج الثابت.

التباين باستخدام الاستنتاج على الإنترنت

ترميز نقطة واحدة

#fundamentals

تمثيل البيانات الفئية كمتّجه حيث:

  • تم ضبط عنصر واحد على 1.
  • ويتم ضبط جميع العناصر الأخرى على 0.

يُستخدم ترميز نقطة واحدة عادةً لتمثيل السلاسل أو المعرّفات التي تحتوي على مجموعة محدّدة من القيم المحتملة. على سبيل المثال، لنفترض أن هناك ميزة فئة معيّنة اسمها Scandinavia لها خمس قيم محتملة:

  • "الدانمارك"
  • "السويد"
  • "النرويج"
  • "فنلندا"
  • "آيسلندا"

ويمكن أن يمثّل ترميز النقطة الواحدة كل قيمة من القيم الخمس على النحو التالي:

country المتّجه
"الدانمارك" 1 0 0 0 0
"السويد" 0 1 0 0 0
"النرويج" 0 0 1 0 0
"فنلندا" 0 0 0 1 0
"آيسلندا" 0 0 0 0 1

بفضل الترميز السريع، يمكن أن يتعلّم النموذج اتصالات مختلفة استنادًا إلى كل بلد من البلدان الخمسة.

إن تمثيل ميزة بالبيانات الرقمية هو طريقة بديلة للترميز بنقرة واحدة. للأسف، لا يُعدّ تمثيل البلدان الاسكندنافية رقميًا خيارًا جيدًا. على سبيل المثال، فكِّر في التمثيل الرقمي التالي:

  • القيمة "الدانمارك" هي 0
  • "السويد" هي 1
  • "النرويج" هو رقم 2
  • "فنلندا" هي 3
  • آيسلندا هي 4

باستخدام الترميز الرقمي، قد يفسّر النموذج الأرقام الأولية بشكل رياضي وسيحاول التدريب على هذه الأرقام. ومع ذلك، لا تقع آيسلندا في كثير من الأحيان (أو نصفها) في أي شيء مثل النرويج، لذلك من المفترض أن يصل النموذج إلى بعض الاستنتاجات الغريبة.

واحد مقابل

#fundamentals

نظرًا لحدوث مشكلة في التصنيف مع فئات N، هو حل يتألف من N مصنّفات ثنائية، وهي مصنِّف ثنائي لكل نتيجة محتملة. على سبيل المثال، في حال تصنيف نموذج يصنّف أمثلة على أنها حيوانات أو خضراوات أو معادن، يوفّر الحلّ الأحادي مقابل

  • حيوان مقابل الحيوان
  • الخضراوات مقابل الخضراوات
  • مقارنة بين المعادن وغير المعادن

على الإنترنت

#fundamentals

مرادف لـ ديناميكي.

الاستنتاج على الإنترنت

#fundamentals

إنشاء عبارات بحث مقترَحة عند الطلب على سبيل المثال، لنفترض أنّ أحد التطبيقات يمرّر إدخالاً إلى نموذج ويُصدر طلبًا للتوقع. ويستجيب نظام يستخدم الاستنتاج على الإنترنت للطلب من خلال تشغيل النموذج (وعرض التوقعات على التطبيق).

التباين باستخدام الاستنتاج بلا اتصال بالإنترنت.

طبقة الناتج

#fundamentals

طبقة "الأخيرة" من الشبكة العصبونية. تحتوي طبقة الإخراج على التنبؤ.

يوضح الرسم التوضيحي التالي شبكة عصبونية صغيرة مع طبقة إدخال وطبقة مخفية وطبقة ناتج:

شبكة عصبونية تحتوي على طبقة إدخال واحدة وطبقة مخفية وطبقة عرض واحدة تتألف طبقة الإدخال من ميزتين. تتألف الطبقة الأولى المخفية من ثلاث عصبية والطبقة الثانية المخفية تتكوّن من عصبين. تتألف طبقة الإخراج من عقدة واحدة.

إفراط في الراحة

#fundamentals

إنشاء نموذج يتطابق مع بيانات التدريب بحيث يتعذّر على النموذج وضع توقعات صحيحة بشأن البيانات الجديدة

يمكن أن تقلل الانتظام من الإعداد الزائد. يمكن أن يساعد التدريب على مجموعة كبيرة ومتنوعة من التدريب في الحد من التدريب الزائد.

P

باندا

#fundamentals

واجهة برمجة تطبيقات لتحليل البيانات تركّز على الأعمدة مصمّمة في أعلى numpy. إنّ العديد من إطارات عمل تعلُّم الآلة، بما في ذلك TensorFlow، تتوافق مع بُنى بيانات الباندا كإدخالات. اطّلِع على مستندات Panda للحصول على التفاصيل.

المعلَمة

#fundamentals

الأوزان والانحياز التي يتعلّمها النموذج أثناء التدريب. على سبيل المثال، في نموذج الانحدار الخطّي، تتألف المعلّمات من الانحياز (b) وجميع الأوزان (w1 وw2) وما إلى ذلك في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في المقابل، hyper parameters هي القيم التي توفّرها أنت (أو خدمة تحويل المعلَمات الفائقة) إلى النموذج. على سبيل المثال، معدّل التعلُّم هو مَعلمة فائقة.

فئة إيجابية

#fundamentals

الصف الذي تختبره.

على سبيل المثال، قد تكون الفئة الإيجابية في نموذج السرطان هي "الورم". قد تكون الفئة الإيجابية في مصنِّف البريد الإلكتروني "محتوى غير مرغوب فيه".

التباين مع الفئة السلبية

ما بعد المعالجة

#fairness
#fundamentals

تعديل مخرجات النموذج بعد تشغيل النموذج. يمكن استخدام إجراءات ما بعد المعالجة لفرض قيود الإنصاف بدون تعديل النماذج بحد ذاتها.

على سبيل المثال، يمكن تطبيق معالجة ما بعد المعالجة على مصنِّف ثنائي من خلال ضبط حدّ تصنيف للحفاظ على تساوي الفرص لسمة معيّنة من خلال التحقّق من أنّ معدل الموجب الصحيح هو نفسه لجميع قيم هذه السمة.

التوقّع

#fundamentals

مخرجات النموذج على سبيل المثال:

  • توقع نموذج التصنيف الثنائي هو إما الفئة الإيجابية أو الفئة السلبية.
  • يُعد توقّع نموذج التصنيف المتعدد الفئات صفًا واحدًا.
  • توقعات نموذج انحدار خطي هي رقم.

تصنيفات الخادم الوكيل

#fundamentals

البيانات المستخدَمة في التصنيفات التقريبية غير المتاحة مباشرةً في مجموعة البيانات.

على سبيل المثال، لنفترض أنّه عليك تدريب نموذج لتوقّع مستوى الإجهاد الذي يعاني منه الموظفون. تحتوي مجموعة البيانات على الكثير من الميزات التنبؤية، ولكنّها لا تحتوي على تصنيف يُسمى مستوى الإجهاد. يمكنك بدون قصد اختيار "حوادث العمل" كتصنيف للخادم الوكيل لمستوى الإجهاد. ففي النهاية، يتعرّض الموظفون الذين يواجهون توترًا كبيرًا لحوادث أكثر من هدوء الموظفين. أو هل تفعل ذلك؟ وقد تحدث حوادث في مكان العمل للسقوط والسقوط لأسباب عديدة.

كمثال ثانٍ، لنفترض أنك ترغب في هل تُمطر؟ كتصنيف منطقي لمجموعة البيانات، لكن مجموعة البيانات لا تحتوي على بيانات. في حال توفّر صور، يمكنك إنشاء صور لأشخاص يحملون مظلات كتصنيف وكيل هل تمطر؟ هل هذا تصنيف خادم وكيل جيد؟ من المحتمل أن يحمل الأشخاص في بعض الثقافات مظلات للحماية من أشعة الشمس.

غالبًا ما تكون تصنيفات الخادم الوكيل غير مثالية. إن أمكن، اختَر تصنيفات فعلية بدلاً من تصنيفات الخادم الوكيل. ومع ذلك، في حال عدم توفّر تصنيف فعلي، اختَر تصنيف الخادم الوكيل بعناية تامة، واختَر المرشّح الأقل تصنيفًا للخادم الوكيل.

R

المصنِّف

#fundamentals

شخص يقدّم التصنيفات للأمثلة. "مُعلِّق" هو اسم آخر للمُصنِّف.

وحدة خطية مستطيلة (RELU)

#fundamentals

دالة تفعيل تتضمّن السلوك التالي:

  • إذا كان الإدخال سالبًا أو صفرًا، يكون الناتج 0.
  • إذا كان الإدخال موجبًا، يكون الناتج مساويًا للإدخال.

على سبيل المثال:

  • إذا كان الإدخال -3، يكون الناتج 0.
  • إذا كان الإدخال +3، سيكون الناتج 3.0.

في ما يلي أحداث ReLU:

قطعة كاريكاتية مكوّنة من سطرَين ويكون للسطر الأول قيمة ثابتة من 0 تساوي
          المحور س من -infinity,0 إلى 0,-0.
          يبدأ السطر الثاني بـ 0.0. يحتوي هذا الخط على منحدر +1، بحيث
          يبدأ من 0,0 إلى +إلى ما لا نهاية، +إلى ما لا نهاية.

ReLU هي وظيفة رائجة جدًا. على الرغم من سلوكها البسيط، تؤدي تقنية ReLU إلى تمكين الشبكة العصبونية من تعلُّم العلاقات غير الخطية بين الميزات والتصنيف.

نموذج التراجع

#fundamentals

بشكل غير رسمي، هو نموذج يُنشئ توقّعًا رقميًا. (في المقابل، ينشئ نموذج التصنيف توقّعًا للصف.) على سبيل المثال، تظهر في ما يلي جميع نماذج التراجع:

  • نموذج يتوقّع قيمة منزل معيّن، مثل 423,000 يورو
  • نموذج يتوقّع عمر شجرة معيّن، مثل 23.2 عام.
  • نموذج يتوقّع مقدار هطول الأمطار التي ستتساقط في مدينة معيّنة خلال الساعات الستّ التالية، مثل 0.18 بوصة

هناك نوعان شائعان من نماذج التراجع:

  • انحدار خطي، الذي يعثر على السطر الذي يتوافق مع قيم التصنيف على أفضل وجه.
  • الانحدار اللوجستي، الذي ينشئ احتمالية بين 0.0 و1.0 يحدّده النظام عادةً لتوقّع الصف.

وليس كل نموذج يُنتج عبارات بحث مقترحة رقمية هو نموذج انحدار. في بعض الحالات، تكون عبارة البحث المقترَحة نموذجية للغاية، وتقع ضمن أسماء الفئات الرقمية. على سبيل المثال، النموذج الذي يتوقّع رمزًا بريديًا رقميًا هو نموذج تصنيف، وليس نموذج انحدار.

تسوية

#fundamentals

أي آلية تحدّ من التوافق تشمل الأنواع الشائعة من التسوية ما يلي:

ويمكن أيضًا تحديد عملية التنظيم كعقوبة على تعقيد النموذج.

معدّل التسوية

#fundamentals

رقم يحدد الأهمية النسبية للتنظيم أثناء التدريب. يؤدي رفع معدّل التسوية إلى الحدّ من التوفير الزائد، ولكنه قد يخفّض من قوة التوقّع الخاصة بالنموذج. وفي المقابل، يؤدي تقليل معدل الحذف أو حذفه إلى زيادة زائد عن الحد.

ReLU

#fundamentals

اختصار الوحدة الخطيّة

ROC (خصائص تشغيل المُستلِم)

#fundamentals

رسم بياني لمعدل موجب صحيح في مقابل معدل موجب خاطئ لـ حدود التصنيف المختلفة في التصنيف الثنائي.

يشير شكل منحنى ROC إلى قدرة نموذج التصنيف الثنائي على فصل الفئات الإيجابية عن الفئات السلبية. على سبيل المثال، لنفترض أنّ نموذج التصنيف الثنائي يفصل جميع الفئات السلبية تمامًا عن جميع الفئات الإيجابية:

سطر من رقم و8 أمثلة موجبة على الجانب الأيمن و7 أمثلة سلبية على اليسار.

وينحني منحنى ROC الخاص بالنموذج السابق ما يلي:

منحنى ROC المحور س هو معدّل موجب خاطئ والمحور ص هو معدّل موجب صحيح. منحنى الشكل الذي تم عكسه على شكل حرف L. يبدأ المنحنى عند (0.0,0.0) ويصل مباشرةً إلى (0.0,1.0). ينتقل المنحنى
          من (0.0,1.0) إلى (1.0,1.0)

في المقابل، يعرض الرسم التوضيحي التالي القيم الانحدارية للشعارات في نموذج مروّع لا يمكنه الفصل بين الفئات السلبية والفئات الإيجابية على الإطلاق:

سطر أرقام يتضمّن أمثلة إيجابية وفئات سلبية يتم خلطها تمامًا

يبدو منحنى ROC لهذا النموذج على النحو التالي:

منحنى ROC، وهو خط مستقيم في الواقع من (0.0,0.0) إلى (1.0,1.0)

في الوقت نفسه، غالبًا ما تفصل معظم نماذج التصنيف الثنائي الفئات الإيجابية والسلبية إلى حدٍّ ما، ولكن عادةً لا تكون مثالية. وبالتالي، فإنّ منحنى ROC النموذجي يقع بين طرفَين.

منحنى ROC المحور س هو معدّل موجب خاطئ والمحور ص هو معدّل موجب صحيح. يقترب منحنى ROC من قوس هشّ يعبر نقاط البوصلة من الغرب إلى الشمال.

تشير النقطة على منحنى ROC إلى أقرب قيمة (0.0,1.0) نظريًا إلى الحد الأدنى للتصنيف المثالي. ومع ذلك، هناك العديد من المشاكل الحقيقية التي تؤثر في اختيار الحد الأدنى لتصنيف المحتوى. على سبيل المثال، قد تؤدي النتائج السلبية الخاطئة إلى ألم أكثر بكثير من النتائج الموجبة الخاطئة.

يبيّن المقياس الرقمي الذي يُسمّى AUC منحنى ROC إلى قيمة نقطة عائمة واحدة.

خطأ تربيعي الجذر التربيعي (RMSE)

#fundamentals

الجذر التربيعي لخطأ التربيع المربّع

S

الدالّة الإسية

#fundamentals

دالة حسابية "تسحق" قيمة إدخال في نطاق محدود، ويكون عادةً من 0 إلى 1 أو من -1 إلى +1. هذا يعني أنّه يمكنك تمرير أي عدد (رقمان أو مليون أو مليار سالب، أيًا كانا) إلى قيمة مظلة، ستظل قيمة الإخراج في النطاق المحدود. تظهر مخطّط دالة التفعيل السيني على النحو التالي:

رسم بياني منحني مكوّن ثنائي الأبعاد بقيم x تمتد إلى النطاق
          
          -ما لا يقل عن +إيجابي، بينما تمتد القيم &quot;ص&quot; إلى النطاق ما بين 0 و1 تقريبًا. عندما تكون قيمة x هي 0، تكون قيمة y 0.5. يكون انحدار المنحنى دائمًا
          إيجابيًا، مع أعلى انحدار يبلغ 0.0.5 ومنحدر تدريجي
          مع زيادة القيمة المطلقة لـ x.

تتّبع الدالة إذًا عدة استخدامات لتعلُّم الآلة، من بينها:

softmax

#fundamentals

دالة تحدّد الاحتمالات لكل فئة محتملة في نموذج تصنيف متعدّد الفئات. وتزيد الاحتمالات عن 1.0 بالضبط. على سبيل المثال، يوضّح الجدول التالي كيفية توزيع softmax الاحتمالات المختلفة:

الصورة هي... الاحتمالية
كلب .85
هرّ .13
حصان .02

تُعرف Softmax أيضًا باسم soft maxmax.

التباين مع إنشاء عيّنات من المرشّحين

ميزة متفرقة

#language
#fundamentals

ميزة تكون قيمها صفرًا أو فارغة على سبيل المثال، إنّ الميزة التي تتضمّن قيمة واحدة وعدد مليون قيمة ناجحة. في المقابل، تحتوي ميزة كثيفة على قيم تكون في الغالب صفرًا أو فارغة.

في تعلُّم الآلة، ثمة عدد مدهش من الميزات وهي ميزات ضئيلة. وعادةً ما تكون الميزات الفُرقية ميزات قليلة. على سبيل المثال، من بين 300 نوع من الأشجار المحتملة في الغابة، يمكن أن يشير مثال واحد إلى شجرة قيقب فقط. أو من بين ملايين الفيديوهات المحتملة في مكتبة فيديو، قد يحدّد مثال واحد فقط "الدار البيضاء".

أمّا في النموذج، فهو يمثّل عادةً الميزات المتفرّقة باستخدام ترميز مهم واحد. وإذا كان ترميز الخطوة الواحدة كبيرًا، يمكنك وضع طبقة تضمين في أعلى ترميز نقطة واحدة لتحقيق كفاءة أكبر.

تمثيل قليل جدًا

#language
#fundamentals

تخزين مواضع العناصر غير الصفراء فقط في ميزة ضئيلة.

على سبيل المثال، لنفترض أنّ إحدى الميزات التصنيفية species تُحدّد أنواع الأشجار التي يبلغ عددها 36 شجرة في غابة معيّنة. بالإضافة إلى ذلك، لنفترض أنّ كل مثال يحدّد نوعًا واحدًا فقط.

يمكنك استخدام متّجه واحد للإشارة إلى أنواع الأشجار في كل مثال. يجب أن يحتوي المتّجه الوحيد على 1 واحد على شكل (<br>200) 0(يُمثّل 35 نوعًا من الأشجار (وليس في هذا المثال). وبالتالي، قد يمثّل تمثيل maple الأكثر رواجًا ما يلي:

متّجه يحمل القيمة من 0 إلى 23 القيمة 0، ويحتفظ الموضع 24 بالقيمة 1، وتشغل الموضع 25 إلى الرقم 25 القيمة 0.

وبدلاً من ذلك، فإن التمثيل البسيط سيحدِّد ببساطة موضع الأنواع المحدّدة. إذا كان maple في الموضع 24، ستكون تمثيل maple البسيط هو:

24

ملاحظة: إنّ التمثيل الأقل بُعدًا هو أصغر بكثير من التمثيل المهم.

متّجه قليل

#fundamentals

متّجه تكون قيمته صفرًا في الغالب اطّلِع أيضًا على ميزة التحليل والفهم.

خسارة تربيعية

#fundamentals

مرادف لخسارة L2.

ثابت

#fundamentals

تم اتخاذ هذا الإجراء مرة واحدة بدلاً من الاستمرار. العبارتان ثابتة وبلا إنترنت هما مرادفات. في ما يلي الاستخدامات الشائعة للتعلّم الثابت وبلا إنترنت في تعلُّم الآلة:

  • النموذج الثابت (أو النموذج بلا اتصال بالإنترنت) هو نموذج يتم تدريبه مرة واحدة ثم يتم استخدامه لفترة من الوقت.
  • التدريب الثابت (أو التدريب بلا اتصال بالإنترنت) هو عملية تدريب نموذج ثابت.
  • الاستنتاج الثابت (أو الاستنتاج بدون اتصال بالإنترنت) هو عملية يُنشئ فيها النموذج مجموعة من عبارات البحث المقترَحة في كل مرة.

التباين باستخدام ديناميكي.

الاستنتاج الثابت

#fundamentals

مرادف للاستنتاج بلا إنترنت.

عدم الثبات

#fundamentals

هي ميزة لا تتغيّر قيمها بالنسبة إلى سمة واحدة أو أكثر، وعادةً ما يحدث ذلك في الوقت المناسب. على سبيل المثال، ميزة تعرض قيمًا متشابهة في سنتَي 2021 و2023.

في الواقع، هناك عدد قليل جدًا من الميزات التي تُثبت وجود ثابت. وحتى الميزات المرادفة للثبات (مثل مستوى البحر) تتغير بمرور الوقت.

التباين مع عدم التوافق

النزول المتدرج التدريجي (SGD)

#fundamentals

خوارزمية التدرّج التي يكون فيها حجم المجموعة واحدًا. وبعبارة أخرى، تتدرّب شركة SGD على مثال واحد يتم اختياره بشكل موحّد في ترتيب عشوائي من مجموعة تدريب.

تعلُّم الآلة المراقَب

#fundamentals

تدريب نموذج من ميزات وتصنيفات المقابلة لها. إنّ تعلُّم الآلة المراقَب هو نفسه تعلُّم موضوع من خلال دراسة مجموعة من الأسئلة وإجاباتها المقابلة لها. بعد إتقان عملية الربط بين الأسئلة والأجوبة، يمكن للطالب عندئذٍ تقديم إجابات عن الأسئلة الجديدة (في السابق)

المقارنة مع تعلُّم الآلة غير الخاضع للإشراف.

ميزة اصطناعية

#fundamentals

هذه الميزة غير متوفّرة بين ميزات الإدخال، ولكن تم تجميعها من واحدة أو أكثر من الميزات. تتضمن طرق إنشاء الميزات الاصطناعية ما يلي:

  • التجميع ميزة مستمرة في سلال النطاقات.
  • إنشاء صليب بين الميزات.
  • ضرب (أو قسمة) قيمة ميزة واحدة حسب قيم ميزات أخرى أو نفسها على سبيل المثال، إذا كان a وb هما ميزتا إدخال، فيما يلي أمثلة على الميزات الاصطناعية:
    • أ
    • a2
  • تطبيق دالة تجاوزية على قيمة ميزة على سبيل المثال، إذا كانت c هي ميزة إدخال، فيما يلي أمثلة على الميزات الاصطناعية:
    • جيب(c)
    • ln(c)

لا تُعتبر الميزات التي يتم إنشاؤها من خلال دمج أو تحجيم الميزات الاصطناعية وحدها.

T

اختبار خسائر

#fundamentals

مقياس يمثّل خسارة النموذج مقارنةً بمجموعة الاختبار. عند إنشاء نموذج، ستحاول عادةً تقليل فقدان الاختبار. ويرجع ذلك إلى أنّ الخسارة المنخفضة في الاختبار تُعدّ إشارة أفضل للجودة من انخفاض في التدريب أو انخفاض في التحقق من الصحة.

في بعض الأحيان، تشير فجوة كبيرة بين فقدان الاختبار وخسارة التدريب أو فقدان التحقق إلى الحاجة إلى زيادة معدل التوزيع.

تدريب

#fundamentals

عملية تحديد المعلّمات المثالية (الأوزان والانحيازات) التي تتضمّن نموذجًا. أثناء التدريب، يقرأ النظام في الأمثلة ويضبط المعلّمات تدريجيًا. تستخدم التدريب كل مثال في أي مكان بين بضع مرات والمليارات.

خسارة التدريب

#fundamentals

مقياس يمثّل خسارة النموذج أثناء تكرار تدريب معيّن. على سبيل المثال، لنفترض أن دالة الخسارة هي خطأ تربيعي. ربما يكون خسارة التدريب (الخطأ المربّع للمعدل العاشر) للتكرار العاشر هو 2.2، وخسارة التدريب للتكرار العاشر هو 1.9.

يوضّح منحنى الخسارة معدّل الخسارة من التدريب مقارنةً بعدد التكرارات. يوفر منحنى الخسارة التلميحات التالية حول التدريب:

  • والانحدار لأسفل يعني ضمنًا تحسُّن النموذج.
  • أما الانحدار المتّجه للأعلى، فيشير إلى أنّ النموذج يزداد سوءًا.
  • الانحدار الثابت الذي يشير إلى أنّ النموذج قد وصل إلى التقريب.

على سبيل المثال، يظهر منحنى الخسارة المثالي التالي:

  • منحدر حاد أثناء الانحدارات الأولية، ما يشير إلى تحسّن سريع للنموذج
  • الانحدار التدريجي (ولكن لا يزال لأسفل) حتى يقترب من نهاية التدريب، ما يعني استمرار تحسين النموذج بمعدل أبطأ إلى حد ما ثم خلال التكرارات الأولية.
  • منحدر مسطّح نحو نهاية التدريب، ما يشير إلى التقارب

هدف فقدان التدريب مقابل التكرارات يبدأ منحنى الخسارة هذا
 بمنحدر حاد. ويشكّل الانحدار تدريجيًا إلى أن
     يصبح الانحدار صفرًا.

على الرغم من أهمية فقدان التدريب، يُرجى الاطّلاع أيضًا على التعميم.

انحراف تقديم الخدمة

#fundamentals

الفرق بين أداء النموذج أثناء التدريب وأداء النموذج نفسه أثناء العرض.

مجموعة تدريب

#fundamentals

مجموعة فرعية من مجموعة البيانات تُستخدم لتدريب نموذج.

تنقسم الأمثلة في مجموعة البيانات عادةً إلى المجموعات الفرعية الثلاث التالية والمختلفة:

من المفترض أن ينتمي كل مثال في مجموعة البيانات إلى واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، يجب ألا ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقق.

صحيح سلبي (TN)

#fundamentals

مثال يتوقّع فيه النموذج بشكل صحيح الفئة السلبية. على سبيل المثال، يستنتج النموذج أن رسالة إلكترونية معيّنة ليست رسالة غير مرغوب فيها، وأن هذه الرسالة الإلكترونية ليست رسائل غير مرغوب فيها حقًا.

صحيح موجب (TP)

#fundamentals

مثال يتوقّع فيه النموذج بشكل صحيح الفئة الإيجابية. على سبيل المثال، يستنتج النموذج أن رسالة إلكترونية معينة هي رسالة غير مرغوب فيها، وأن هذه الرسالة الإلكترونية هي رسالة غير مرغوب فيها بالفعل.

نسبة موجبة صحيحة (TPR)

#fundamentals

مرادف لـ التذكُّر. والمقصود:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

معدل الموجب الصحيح هو المحور ص في منحنى ROC.

U

ملائم جدًا

#fundamentals

إنتاج نموذج مع إمكانية توقّع ضعيفة، لأنّ النموذج لم يلتقط تعقيد بيانات التدريب بشكل كامل هناك العديد من المشاكل التي قد تؤدي إلى عدم كفاءة كافية، بما في ذلك:

مثال غير مصنّف

#fundamentals

مثال يحتوي على ميزات ولكن بدون تصنيف. على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة غير مصنّفة من نموذج تقييم منزل، يتضمّن كل منها ثلاث ميزات ولكن بدون قيمة منزلية:

عدد غرف النوم عدد الحمّامات عمر المنزل
3 2 15
2 1 72
4 2 34

في تعلُّم الآلة المراقَب، تتدرّب النماذج على أمثلة مصنّفة، وتقدّم توقعات بشأن أمثلة غير مصنّفة.

في التعلُّم شبه الخاضع للإشراف و غير الخاضع للإشراف، يتم استخدام أمثلة غير مصنّفة أثناء التدريب.

قارِن المثال غير المصنَّف مع مثال المصنَّف.

تعلُّم الآلة غير الخاضع للإشراف

#clustering
#fundamentals

تدريب نموذج للعثور على أنماط في مجموعة بيانات، وعادةً ما تكون مجموعة بيانات غير مُصنَّفة.

الاستخدام الأكثر شيوعًا لتعلُّم الآلة غير الخاضع للإشراف هو تجميع البيانات في مجموعات من الأمثلة المشابهة. على سبيل المثال، يمكن لخوارزمية تعلُّم الآلة غير الخاضعة للإشراف تجميع الأغاني استنادًا إلى خصائص الموسيقى المختلفة. يمكن أن تصبح المجموعات الناتجة إدخالاً إلى خوارزميات أخرى لتعلُّم الآلة (على سبيل المثال، في خدمة لتقديم اقتراحات المحتوى الموسيقي). يمكن أن يكون التجميع مفيدًا عندما تكون التصنيفات المفيدة غير متوفرة أو غير متوفّرة. على سبيل المثال، في النطاقات، مثل مكافحة إساءة الاستخدام والاحتيال، يمكن أن تساعد المجموعات الإنسان في فهم البيانات بشكل أفضل.

التباين مع تعلُّم الآلة الخاضع للإشراف

V

التحقّق

#fundamentals

التقييم الأولي لجودة النموذج. تتحقّق عملية التحقّق من جودة توقّعات النموذج من خلال مجموعة التحقّق.

نظرًا لأنّ مجموعة التحقّق تختلف عن مجموعة التدريب، تساعد عملية التحقق على الحماية من الضبط.

ويمكنك تقييم النموذج وفقًا لمجموعة التحقق من الصحة باعتباره الجولة الأولى من الاختبارات وتقييم النموذج مقارنةً بمجموعة الاختبار على أنها الجولة الثانية من الاختبار.

فقدان التحقق

#fundamentals

مقياس يمثّل خسارة النموذج في مجموعة التحقّق خلال تكرار محدّد للتدريب.

يمكنك أيضًا الاطّلاع على منحنى التصوّر.

ضبط التحقق

#fundamentals

مجموعة فرعية من مجموعة البيانات تُجري تقييمًا أوليًا مقابل نموذج مدرَّب. وعادةً ما تقيّم النموذج المدرّب على مجموعة التحقّق عدة مرات قبل تقييم النموذج مقارنةً بمجموعة الاختبار.

عادةً ما تقسّم الأمثلة في مجموعة البيانات إلى ثلاث مجموعات فرعية مختلفة:

من المفترض أن ينتمي كل مثال في مجموعة البيانات إلى واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، يجب ألا ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقق.

واط

الوزن

#fundamentals

قيمة يُضربها النموذج في قيمة أخرى. التدريب هي عملية تحديد الأوزان المثالية للنموذج، والاستنتاج هو عملية استخدام هذه الأوزان التي تم تعلُّمها لتقديم توقعات.

المجموع المرجّح

#fundamentals

مجموع جميع قيم الإدخال ذات الصلة مضروبًا في أوزانها المقابلة. على سبيل المثال، لنفترض أن المُدخلات ذات الصلة تتألف من ما يلي:

قيمة الإدخال وزن الإدخال
2 -1.3
-1 0.6
3 0.4

وبالتالي فإن المجموع المرجّح هو:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

المجموع المُرجَّح هو وسيطة الإدخال إلى دالة التفعيل.

Z

تسوية نقاط Z

#fundamentals

أسلوب تحجيم يحل محل قيمة الميزة الأولية بقيمة عائمة تمثّل عدد الانحرافات العادية عن متوسط هذه الميزة. على سبيل المثال، فكّر في ميزة يبلغ طولها 800 وانحرافها العادي هو 100. يوضّح الجدول التالي كيف يمكن لتسويات نقاط Z ربط القيمة الأولية بنتيجة Z:

قيمة أساسية درجة Z
800 0
950 أكثر من 1.5
575 -2.25

بعد ذلك، يتدرّب نموذج تعلُّم الآلة على درجات Z لهذه الميزة بدلاً من القيم الأولية.