مسرد مصطلحات التعلم الآلي: أساسيات تعلّم الآلة

تحتوي هذه الصفحة على مصطلحات مسرد مصطلحات "أساسيات تعلّم الآلة". للاطّلاع على جميع مصطلحات مسرد المصطلحات، انقر هنا.

جيم

الدقة

#fundamentals

عدد التوقّعات للتصنيف الصحيح مقسومًا على إجمالي عدد عبارات البحث المقترحة. والمقصود:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

على سبيل المثال، أي نموذج يقدم 40 توقعًا صحيحًا و10 تنبؤات غير صحيحة سيكون له دقة:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

التصنيف الثنائي: يوفّر أسماء محددة للفئات المختلفة من عبارات البحث المقترحة الصحيحة والتوقّعات غير الصحيحة. إذًا، تكون معادلة الدقة للتصنيف الثنائي على النحو التالي:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

المكان:

المقارنة بين الدقة والتباين من خلال الدقة والتذكُّر:

دالّة التفعيل

#fundamentals

يشير ذلك المصطلح إلى دالة تتيح للشبكات العصبية تعلُّم العلاقات غير الخطية (المعقدة) بين السمات والتصنيف.

تشمل وظائف التفعيل الشائعة ما يلي:

لا تكون مخططات دوال التنشيط خطوطًا مستقيمة فردية أبدًا. على سبيل المثال، يتكون مخطط دالة تنشيط ReLU من خطين مستقيمين:

مخطط الديكارتي من سطرين. يحتوي السطر الأول على قيمة ص ثابتة تساوي 0، ويمتد على المحور س من -ما لا نهاية، 0 إلى 0، -0.
          ويبدأ السطر الثاني من 0,0. انحدار هذا الخط بنسبة +1، ولذلك فهو يمتد من 0,0 إلى +اللانهاية,+اللانهاية.

ويبدو مخطط دالة التفعيل السيني على النحو التالي:

رسم بياني منحني ثنائي الأبعاد يتضمّن قيم س تمتد من اللانهاية إلى +الموجب، في حين تمتد قيم ص من 0 إلى 1 تقريبًا عندما تكون x تساوي 0، تكون y تساوي 0.5. يكون الانحدار في المنحنى إيجابيًا دائمًا، مع ملاحظة أعلى انحدار عند 0,0.5، مع انخفاض تدريجي
 مع زيادة القيمة المطلقة لـ x.

الذكاء الاصطناعي

#fundamentals

هي برامج أو model غير بشري يمكنه حلّ المهام المعقدة. على سبيل المثال، برنامج أو نموذج يترجم نصًا أو برنامجًا أو نموذجًا لتحديد الأمراض من خلال الصور الإشعاعية يُظهر كلاهما الذكاء الاصطناعي.

يُعدّ التعلّم الآلي رسميًا مجالاً فرعيًا للذكاء الاصطناعي. في السنوات الأخيرة، بدأت بعض المؤسسات في استخدام مصطلحَي الذكاء الاصطناعي والتعلّم الآلي بالتبادل.

المساحة تحت منحنى ROC (AUC)

#fundamentals

رقم بين 0.0 و1.0 يمثّل قدرة نموذج التصنيف الثنائي على فصل الفئات الإيجابية عن الفئات السلبية كلما اقتربت AUC من 1.0، زادت قدرة النموذج على فصل الفئات عن بعضها البعض.

يُظهر الرسم التوضيحي التالي مثلاً نموذج مصنِّف يفصل بشكل مثالي بين الفئات الإيجابية (الأشكال البيضاوية الخضراء) والفئات السالبة (مستطيلات أرجوانية). يحتوي هذا النموذج المثالي بشكل غير واقعي على AUC تساوي 1.0:

سطر أرقام يضم 8 أمثلة موجبة على جانب واحد و9 أمثلة سلبية على الجانب الآخر.

وفي المقابل، يعرض الرسم التوضيحي التالي نتائج نموذج المصنِّف الذي نتج عنه نتائج عشوائية. تساوي قيمة AUC لهذا النموذج 0.5:

سطر أرقام يضم 6 أمثلة إيجابية و6 أمثلة سلبية.
          تسلسل الأمثلة هو إيجابي، سالب، إيجابي، سالب، إيجابي، سالب، إيجابي، سالب، موجبة، إيجابي، سالب.

نعم، يحتوي النموذج السابق على AUC تساوي 0.5 وليس 0.0.

تقع معظم النماذج في مكان ما بين الطرفين. على سبيل المثال، يفصل النموذج التالي الإيجابيات عن السلبيات إلى حد ما، وبالتالي لديه AUC في مكان ما بين 0.5 و1.0:

سطر أرقام يضم 6 أمثلة إيجابية و6 أمثلة سلبية.
          تسلسل الأمثلة هو سالب، وسالب، وسالب، وسالب، وإيجابي، وسالب، وإيجابي، وإيجابي، وسالب، وإيجابي، وإيجابي، وإيجابي.

تتجاهل AUC أي قيمة تضبطها في الحد الأدنى للتصنيف. وبدلاً من ذلك، تراعي AUC جميع عتبات التصنيف الممكنة.

B

الانتشار العكسي

#fundamentals

يشير ذلك المصطلح إلى الخوارزمية التي تنفّذ خوارزمية انحدار التدرج في الشبكات العصبونية.

يتضمن تدريب الشبكة العصبية العديد من التكرارات للدورة التالية ذات الممرين:

  1. خلال البداية والنهاية المبكرة، يعالج النظام مجموعة من الأمثلة لعرض عبارات البحث المقترحة. يقارن النظام كل توقع بكل قيمة label. الفرق بين التنبؤ وقيمة التصنيف هو loss لهذا المثال. ويجمع النظام الخسائر لجميع الأمثلة لحساب الخسارة الإجمالية للدفعة الحالية.
  2. خلال الانتشار العكسي (الانتشار العكسي)، يقلل النظام من فقدان كل الخلايا العصبية في كل الطبقات المخفية.

تحتوي الشبكات العصبية غالبًا على العديد من الخلايا العصبية عبر العديد من الطبقات الخفية. وتساهم كل خلية من هذه الخلايا العصبية في الخسارة الكلية بطرق مختلفة. يحدد الانتشار الخلفي ما إذا كان يجب زيادة أو خفض الأوزان المطبقة على خلايا عصبية معينة.

معدّل التعلّم هو مُضاعِف يتحكّم في الدرجة التي يزيد بها أو يقلل كل تمرير خلفي. يؤدي معدل التعلم الكبير إلى زيادة أو خفض كل وزن أكثر من معدل التعلم الصغير.

بعبارات التفاضل والتكامل، ينفذ الانتشار العكسي قاعدة سلسلة حساب التفاضل والتكامل. ويعني ذلك أنّ الانتشار العكسي يحتسب المشتق الجزئي للخطأ مع مراعاة كل مَعلمة. للحصول على مزيد من التفاصيل، يُرجى الاطّلاع على هذا البرنامج التعليمي ضمن الدورة التدريبية المخصصة لتعلُّم الآلة.

منذ سنوات، كان على ممارسي تعلُّم الآلة كتابة تعليمات برمجية لتنفيذ الانتشار العكسي. إنّ واجهات برمجة تطبيقات تعلُّم الآلة الحديثة، مثل TensorFlow، تنفّذ الآن عملية الانتشار العكسي نيابةً عنك. أخيرًا!

دفعة

#fundamentals

يشير ذلك المصطلح إلى مجموعة الأمثلة المستخدَمة في تكرار تدريب واحد. يحدّد حجم المجموعة عدد الأمثلة في الدفعة.

يمكنك الاطّلاع على الحقبة للحصول على شرح حول كيفية ارتباط الدفعة بحقبة ما.

حجم الدفعة

#fundamentals

تمثّل هذه السمة عدد الأمثلة في مجموعة. على سبيل المثال، إذا كان حجم الدفعة 100، يعالج النموذج 100 مثال لكل تكرار.

في ما يلي بعض الاستراتيجيات الشائعة لحجم الدفعة:

  • انحدار التدرج العشوائي (SGD)، الذي يكون فيه حجم الدفعة 1.
  • الدفعة الكاملة، حيث يمثل حجم الدفعة عدد الأمثلة في مجموعة التدريب بالكامل. على سبيل المثال، إذا كانت مجموعة التدريب تحتوي على مليون مثال، فإن حجم الدفعة سيكون مليون مثال. وعادةً ما تكون الدفعة الكاملة استراتيجية غير فعّالة.
  • دفعة مصغَّرة يكون فيها حجم الدفعة عادةً بين 10 و1,000. فعادةً ما يكون استخدام الدفعة الصغيرة هو الإستراتيجية الأكثر فعالية.

التحيز (الأخلاق/الإنصاف)

#fairness
#fundamentals

1- الصور النمطية أو التحيزية أو المحسوبة تجاه بعض الأشياء أو الأشخاص أو المجموعات على الآخرين. يمكن أن تؤثر هذه التحيزات على جمع وتفسير البيانات وتصميم النظام وكيفية تفاعل المستخدمين مع النظام. تشمل أشكال هذا النوع من التحيز ما يلي:

2. خطأ نظامي ناتج عن إجراء أخذ العينات أو الإبلاغ. تشمل أشكال هذا النوع من التحيز ما يلي:

يجب عدم الخلط بينه وبين مصطلح الانحياز في نماذج تعلُّم الآلة أو انحياز التوقّعات.

التحيز (الرياضيات) أو مصطلح التحيز

#fundamentals

تقاطع أو إزاحة من مصدر. التحيز هو معلمة في نماذج التعلم الآلي، والتي يرمز إليها بأي مما يلي:

  • b
  • 0

على سبيل المثال، الانحياز هو الحرف b في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في خط ثنائي الأبعاد بسيط، يعني التحيز "تقاطع ص". على سبيل المثال، تحيز الخط في الرسم التوضيحي التالي هو 2.

يشير ذلك المصطلح إلى مخطط خط مائل مقداره 0.5 وانحياز (تقاطع ص) بقيمة 2.

هناك انحياز لأنّ جميع النماذج لا تبدأ من الأصل (0,0). على سبيل المثال، افترض أن تكلفة مدينة الملاهي تساوي 2 يورو للدخول و0.5 يورو إضافي لكل ساعة يقيم فيها العميل. وبالتالي، فإن أي نموذج لتعيين التكلفة الإجمالية له تحيز بقيمة 2 لأن أقل تكلفة هي 2 يورو.

لا يجب الخلط بين التحيز والتحيز في الأخلاق والإنصاف أو تحيز التنبؤ.

التصنيف الثنائي

#fundamentals

نوع من مهام التصنيف يتنبأ بواحدة من فئتين متنافيتين:

على سبيل المثال، يُنفِّذ نموذجا التعلم الآلي التاليان التصنيف الثنائي:

  • نموذج يحدد ما إذا كانت الرسائل الإلكترونية رسائل غير مرغوب فيها (الفئة الإيجابية) أم ليست رسائل غير مرغوب فيها (الفئة السلبية).
  • نموذج يقيّم الأعراض الطبية لتحديد ما إذا كان الشخص يعاني من مرض معين (الفئة الموجب) أو لا يعاني من هذا المرض (الفئة السالبة).

تباينها مع التصنيف متعدد الفئات.

ويمكنك أيضًا الاطّلاع على الانحدار اللوجستي و الحدّ الأدنى للتصنيف.

تجميع البيانات

#fundamentals

تحويل ميزة واحدة إلى ميزات ثنائية متعددة تُعرف باسم الحزم أو السلال، والتي تستند عادةً إلى نطاق قيم. وتكون الميزة المقتطعة عادةً ميزة مستمرة.

على سبيل المثال، بدلاً من تمثيل درجة الحرارة كميزة نقطة عائمة واحدة مستمرة، يمكنك تقسيم نطاقات درجات الحرارة إلى مجموعات منفصلة، مثل:

  • يجب أن تكون درجة الحرارة أقل من 10 درجات مئوية "باردة".
  • يجب أن تكون درجة الحرارة من 11 إلى 24 درجة مئوية "المعتدلة".
  • >= 25 درجة مئوية سيكون الدلو "دافئًا".

سيتعامل النموذج مع كل قيمة في مجموعة البيانات نفسها بشكل متطابق. على سبيل المثال، القيمتان 13 و22 كلاهما في مجموعة البيانات المعتدلة، لذلك يتعامل النموذج مع القيمتين بشكل متطابق.

C

بيانات فئوية

#fundamentals

الميزات التي تتضمن مجموعة محددة من القيم المحتملة. على سبيل المثال، ضع في اعتبارك ميزة فئوية باسم traffic-light-state، والتي يمكن أن تتضمن فقط قيمة من القيم الثلاث التالية:

  • red
  • yellow
  • green

ومن خلال تمثيل traffic-light-state كميزة فئوية، يمكن لأي نموذج الاطّلاع على التأثيرات المختلفة لكل من red وgreen وyellow في سلوك السائق.

تسمى الميزات الفئوية أحيانًا بميزات منفصلة.

وللتباين مع البيانات الرقمية.

صنف

#fundamentals

الفئة التي يمكن أن تنتمي إليها التصنيف. مثلاً:

  • في نموذج التصنيف الثنائي الذي يكتشف المحتوى غير المرغوب فيه، قد تكون الفئتان محتوى غير مرغوب فيه وليسا محتوى غير مرغوب فيه.
  • في نموذج التصنيف متعدد الفئات الذي يحدد سلالات الكلاب، قد تكون الفئات هي بودل وبيغل وباك وما إلى ذلك.

يتوقّع نموذج التصنيف فئة معيّنة. في المقابل، يتوقّع نموذج الانحدار رقمًا بدلاً من فئة.

نموذج التصنيف

#fundamentals

model الذي يمثّل توقّعه model. فعلى سبيل المثال، في ما يلي جميع نماذج التصنيف:

  • نموذج يتنبأ بلغة جملة إدخال (الفرنسية؟ هل الإسبانية؟ الإيطالية؟).
  • نموذج يتنبأ بأنواع الأشجار (القيقب؟ Oak? باباوب؟).
  • يشير ذلك المصطلح إلى نموذج يتنبأ بالفئة الموجبة أو السالبة لحالة طبية معينة.

في المقابل، تتنبأ نماذج الانحدار بالأرقام بدلاً من الفئات.

هناك نوعان شائعان من نماذج التصنيف هما:

الحد الأدنى للتصنيف

#fundamentals

في التصنيف الثنائي، يكون الرقم بين 0 و1 يحوِّل المخرجات الأولية لنموذج الانحدار اللوجستي إلى توقّع للفئة الموجبة أو الفئة السالبة. تجدر الإشارة إلى أنّ حدّ التصنيف هو قيمة يختارها الإنسان، وليست قيمة يختارها تدريب النموذج.

ينتج عن نموذج الانحدار اللوجستي قيمة أولية بين 0 و1. بعد ذلك:

  • وإذا كانت هذه القيمة الأولية أكبر من حد التصنيف، يتم التنبؤ بالفئة الموجبة.
  • وإذا كانت هذه القيمة الأولية أقل من حد التصنيف، يتم التنبؤ بالفئة السالبة.

لنفترض، على سبيل المثال، أن حد التصنيف هو 0.8. إذا كانت القيمة الأولية هي 0.9، فسيتنبأ النموذج بالفئة الموجبة. وإذا كانت القيمة الأولية تساوي 0.7، يتنبأ النموذج بالفئة السالبة.

يؤثّر اختيار حدّ التصنيف بشكل كبير في عدد الحالات الموجبة الخاطئة والقيم السالبة الخاطئة.

مجموعة بيانات غير متوازنة الفئة

#fundamentals

يشير ذلك المصطلح إلى مجموعة بيانات تتعلق بمشكلة تصنيف يختلف فيها إجمالي عدد التصنيفات لكل فئة بشكل كبير. على سبيل المثال، ضع في الاعتبار مجموعة بيانات التصنيف الثنائي التي يتم تقسيم تسميتين لها على النحو التالي:

  • 1,000,000 تصنيف سلبي
  • 10 تصنيفات إيجابية

إن نسبة التصنيفات السالبة إلى الموجبة هي 100000 إلى 1، لذا فهذه مجموعة بيانات غير متوازنة الفئة.

في المقابل، ليست مجموعة البيانات التالية غير متوازنة الفئات لأن نسبة التصنيفات السالبة إلى التصنيفات الموجبة قريبة نسبيًا من 1:

  • 517 تصنيفًا سلبيًا
  • 483 تصنيفًا إيجابيًا

ويمكن أيضًا أن تكون مجموعات البيانات متعددة الفئات غير متوازنة الفئات. على سبيل المثال، تعتبر مجموعة البيانات التالية للتصنيف متعدد الفئات غير متوازنة حسب الفئات لأن إحدى العلامات لديها أمثلة أكثر بكثير من السمتين الأخريين:

  • 1,000,000 تصنيف بالفئة "أخضر"
  • 200 تصنيف بفئة "أرجواني"
  • 350 تصنيفًا بالفئة "برتقالي"

ويمكنك أيضًا الاطّلاع على القصور وفئة الغالبية وفئة الأقليات.

اقتصاص

#fundamentals

أسلوب لمعالجة القيم الخارجية من خلال تنفيذ أحد الإجراءات التالية أو كليهما:

  • يجب تخفيض قيم feature التي تزيد عن الحدّ الأقصى ليصل إلى هذا الحدّ الأقصى.
  • زيادة قيم الميزات التي تقل عن الحد الأدنى حتى هذا الحد الأدنى

على سبيل المثال، لنفترض أن <0.5٪ من قيم ميزة معينة تقع خارج النطاق 40-60. وفي هذه الحالة، يمكنك إجراء ما يلي:

  • قم بقص جميع القيم التي تزيد عن 60 (الحد الأقصى) لتكون 60 بالضبط.
  • قم بقص جميع القيم التي تقل عن 40 (الحد الأدنى) لتكون 40 بالضبط.

يمكن أن تتلف القيم الاستثنائية النماذج، ما يؤدي أحيانًا إلى تجاوز الأوزان أثناء التدريب. يمكن أيضًا أن تفسر بعض القيم الاستثنائية المقاييس بشكل كبير، مثل الدقة. يُعد الاقتصاص أسلوبًا شائعًا للحد من الضرر.

يفرض الاقتصاص المتدرج قيم التدرج ضمن نطاق محدد أثناء التدريب.

مصفوفة التشويش

#fundamentals

جدول NxN يلخّص عدد عبارات البحث المقترحة الصحيحة وغير الصحيحة التي قدّمها نموذج التصنيف على سبيل المثال، ضع في الاعتبار مصفوفة الالتباس التالية لنموذج التصنيف الثنائي:

ورم (متوقّع) غير ورم (متوقع)
الورم (الحقيقة الواقعية) 18 (TP) 1 (FN)
غير ورم (حقيقة واقعية) 6 (FP) 452 (TN)

توضح مصفوفة الالتباس السابقة ما يلي:

  • من بين 19 توقعًا كان الحقيقة الواقعية فيه ورم، تم تصنيف النموذج بشكل صحيح 18 وتصنيفه 1 بشكل غير صحيح.
  • من بين 458 توقعًا كانت فيه الحقيقة الواقعية غير ورم، صنف النموذج بشكل صحيح 452 وصنف بشكل غير صحيح 6.

يمكن أن تساعدك مصفوفة الالتباس لمشكلة التصنيف متعدد الفئات في تحديد أنماط الأخطاء. على سبيل المثال، ضع في الاعتبار مصفوفة الالتباس التالية لنموذج تصنيف متعدد الفئات يصنف ثلاثة أنواع مختلفة من القزحية (فيرجينيكا، فيرسيلون، سيتوزا). عندما كانت الحقيقة الأساسية في فيرجينيا، تُظهر مصفوفة التشويش أن النموذج كان أكثر احتمالاً أن يتوقع عن طريق الخطأ Versicolor من سيتوزا:

  سيتوزا (متوقع) Versicolor (متوقع) فيرجينيا (متوقعة)
سيتوزا (حقيقة واقعية) 88 12 0
Versicolor (الحقيقة الأساسية) 6 141 7
فيرجينيا (الحقيقة الواقعية) 2 27 109

كمثال آخر، يمكن أن تكشف مصفوفة التشويش عن أن النموذج المدرَّب على التعرف على الأرقام المكتوبة بخط اليد يميل إلى التنبؤ عن طريق الخطأ بـ 9 بدلًا من 4، أو التنبؤ عن طريق الخطأ بـ 1 بدلاً من 7.

تحتوي مصفوفات التشويش على معلومات كافية لحساب مجموعة متنوعة من مقاييس الأداء، بما في ذلك الدقة والتذكر.

خاصية مستمرة

#fundamentals

ميزة نقطة عائمة تضم نطاقًا غير محدود من القيم المحتمَلة، مثل درجة الحرارة أو الوزن.

تباينها مع ميزة منفصلة.

التقارب

#fundamentals

حالة يتم الوصول إليها عندما تتغير قيم الخسارة قليلاً جدًا أو لا تتغير على الإطلاق مع كل تكرار. على سبيل المثال، يشير منحنى الخسارة التالي إلى تقارب عند حوالي 700 تكرار:

المخطط الديكارتي. المحور س هو الخسارة. المحور ص هو عدد تكرارات التطبيق. تكون نسبة الخسارة مرتفعة جدًا خلال التكرارات القليلة الأولى، ولكنها
          تنخفض بشكل كبير. وبعد حوالي 100 تكرار، تظل الخسارة
          تنازليًا ولكن بشكل تدريجي للغاية. بعد حوالي 700 تكرار،
          تظل الخسارة ثابتة.

يتقارب النموذج عندما لا يؤدي التدريب الإضافي إلى تحسين النموذج.

في التعلم المتعمق، تظل قيم الخسارة ثابتة أحيانًا أو تقريبًا في العديد من التكرارات قبل الترتيب التنازلي في نهاية المطاف. خلال فترة طويلة من قيم الخسارة الثابتة، قد تحصل مؤقتًا على فكرة خاطئة عن التقارب.

يمكنك أيضًا الاطّلاع على الإيقاف المبكر.

D

DataFrame

#fundamentals

نوع بيانات pandas شائع لتمثيل مجموعات البيانات في الذاكرة.

يعد إطار البيانات مشابهًا للجدول أو جدول البيانات. كل عمود في DataFrame له اسم (عنوان)، ويتم تحديد كل صف برقم فريد.

يتم تنظيم كل عمود في DataFrame كصفيف ثنائي الأبعاد، باستثناء أنه يمكن تعيين نوع بيانات خاص لكل عمود.

يمكنك أيضًا الاطّلاع على الصفحة المرجعية لـ pandas.DataFrame الرسمية.

مجموعة بيانات أو مجموعة بيانات

#fundamentals

يشير ذلك المصطلح إلى مجموعة من البيانات الأولية التي يتم تنظيمها عادةً (ولكن ليس حصريًا) بأحد التنسيقات التالية:

  • جدول بيانات
  • ملف بتنسيق CSV (قيم مفصولة بفواصل)

نموذج عميق

#fundamentals

شبكة عصبية تحتوي على أكثر من طبقة مخفية واحدة.

يُعرف النموذج العميق أيضًا باسم الشبكة العصبية العميقة.

تباينه مع النموذج العريض

خاصية كثيفة

#fundamentals

يشير ذلك المصطلح إلى ميزة تكون فيها معظم القيم أو جميعها غير صفرية، وتكون عادةً Tensor لقيم النقاط العائمة. على سبيل المثال، تكون Tensor التالية المكونة من 10 عناصر كثيفة لأن 9 من قيمها غير صفرية:

8 3 7 5 2 4 0 4 9 6

تباينها مع ميزة تناقص الكثافة.

العمق

#fundamentals

مجموع ما يلي في شبكة عصبية:

على سبيل المثال، يبلغ عمق الشبكة العصبية التي تحتوي على خمس طبقات مخفية وطبقة إخراج واحدة عمق 6 طبقات.

لاحظ أن طبقة الإدخال لا تؤثر في العمق.

خاصية المنفصلة

#fundamentals

ميزة تضم مجموعة محدودة من القيم المحتملة. على سبيل المثال، تُعد الميزة التي قد تكون قيمها حيوانًا أو نباتًا أو معدن فقط، وهي ميزة منفصلة (أو فئوية).

تباينها مع الميزة المستمرة.

ديناميكي

#fundamentals

شيء ما تم بشكل متكرر أو مستمر. المصطلحان ديناميكية وعلى الإنترنت مرادفان في تعلُّم الآلة. في ما يلي الاستخدامات الشائعة للتعلُّم الديناميكي وعلى الإنترنت في تعلُّم الآلة:

  • النموذج الديناميكي (أو النموذج على الإنترنت) هو نموذج تتم إعادة تدريبه بشكل متكرر أو مستمر.
  • التدريب الديناميكي (أو التدريب على الإنترنت) هو عملية التدريب بشكل متكرر أو مستمر.
  • الاستنتاج الديناميكي (أو الاستنتاج على الإنترنت) هو عملية إنشاء توقّعات عند الطلب.

نموذج ديناميكي

#fundamentals

model تتم إعادة تدريبه بشكل متكرر (ربما حتى بشكل مستمر). النموذج الديناميكي هو "متعلم مدى الحياة" يتكيف باستمرار مع البيانات المتطورة. يُعرف النموذج الديناميكي أيضًا باسم النموذج على الإنترنت.

تباينها مع نموذج ثابت.

E

إيقاف مبكر

#fundamentals

طريقة للانتظام تتضمّن إنهاء التدريب قبل انخفاض مستوى فقدان التدريب. عند الإيقاف المبكر، تعمد إلى إيقاف تدريب النموذج عندما تبدأ نسبة الخسارة في مجموعة بيانات التحقّق في الازدياد، أي عندما يصبح أداء التعميم أسوأ.

طبقة التضمين

#language
#fundamentals

يشير ذلك المصطلح إلى طبقة مخفية خاصة يتم تدريبها على ميزة فئوية ذات أبعاد عالية. وتُمكّن طبقة التضمين الشبكة العصبية من التدرّب بكفاءة أكبر من التدريب فقط على ميزة التصنيف ذات الأبعاد العالية.

على سبيل المثال، يدعم Earth حاليًا حوالي 73,000 نوع من الأشجار. لنفترض أنّ أنواع الأشجار هي ميزة في نموذجك، وبالتالي تتضمّن طبقة الإدخال لنموذجك متجهًا واحدًا ساخنًا يبلغ طوله 73,000 عنصر. على سبيل المثال، يمكن أن يتم تمثيل السمة baobab على النحو التالي:

صفيف من 73000 عنصر. ويحتوي أول 6,232 عنصرًا على القيمة 0. يحتوي العنصر التالي على القيمة 1. ويحتوي آخر 66,767 عنصرًا
 على القيمة صفر.

الصفيفة المكونة من 73000 عنصر طويلة جدًا. إذا لم تضف طبقة تضمين إلى النموذج، فسيستغرق التدريب وقتًا طويلاً بسبب ضرب 72999 صفراً. ربما تختار طبقة التضمين لتكون من 12 بُعدًا. وبالتالي، ستتعلم طبقة التضمين تدريجيًا متجهات تضمين جديدة لكل نوع من أنواع الأشجار.

في بعض الحالات، يكون التجزئة بديلاً معقولاً لطبقة التضمين.

حقبة

#fundamentals

تصريح تدريب كامل لمجموعة التدريب بالكامل، بحيث تتم معالجة كل مثال مرة واحدة.

تمثل الفترة N/حجم المجموعة لتدريب التكرارات، حيث N هو إجمالي عدد الأمثلة.

على سبيل المثال، افترض ما يلي:

  • تتكون مجموعة البيانات من 1000 مثال.
  • يبلغ حجم الدفعة 50 مثالاً.

لذلك، تتطلب حقبة واحدة 20 تكرارًا:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

على سبيل المثال

#fundamentals

قيم صف واحد من الميزات وربما تصنيف. تندرج الأمثلة في التعلّم المُوجّه ضمن فئتَين عامتَين:

  • يتكون المثال المصنف من ميزة واحدة أو أكثر وتسمية. يتم استخدام الأمثلة المصنَّفة أثناء التدريب.
  • يتكون المثال غير المصنف من ميزة واحدة أو أكثر ولكن بدون تصنيف. يتم استخدام الأمثلة غير المصنفة أثناء الاستنتاج.

على سبيل المثال، لنفترض أنك تتدرب على نموذج لتحديد تأثير ظروف الطقس على درجات اختبار الطالب. في ما يلي ثلاثة أمثلة مصنّفة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط الجوي نتيجة الاختبار
15 47 998 جيد
19 34 1020 ممتاز
18 92 1012 سيئ

فيما يلي ثلاثة أمثلة غير مصنفة:

درجة الحرارة الرطوبة الضغط الجوي  
12 62 1014  
21 47 1017  
19 41 1021  

عادةً ما يكون صف مجموعة البيانات هو المصدر الأولي للمثال. بمعنى آخر، يتكون المثال عادة من مجموعة فرعية من الأعمدة في مجموعة البيانات. بالإضافة إلى ذلك، يمكن أن تشمل الميزات في المثال أيضًا ميزات اصطناعية، مثل مواد عرض متقاطعة من الميزات.

F

سالب خاطئ (FN)

#fundamentals

مثال يتوقّع فيه النموذج عن طريق الخطأ الفئة السالبة. على سبيل المثال، يتوقع النموذج أن رسالة إلكترونية معيّنة ليست رسالة غير مرغوب فيها (الفئة السلبية)، ولكن هذه الرسالة الإلكترونية هي في الواقع رسالة غير مرغوب فيها.

موجب خاطئ (FP)

#fundamentals

مثال يتوقّع فيه النموذج عن طريق الخطأ الفئة الإيجابية. على سبيل المثال، يتوقّع النموذج أنّ رسالة إلكترونية معيّنة هي رسالة غير مرغوب فيها (الفئة الإيجابية)، إلا أنّ هذه الرسالة الإلكترونية ليست رسالة غير مرغوب فيها.

معدل الموجب الخاطئ (FPR)

#fundamentals

يشير ذلك المصطلح إلى نسبة الأمثلة السلبية الفعلية التي توقّع النموذج لها عن طريق الخطأ الفئة الموجبة. تحسب المعادلة التالية المعدل الإيجابي الخاطئ:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

المعدل الموجب الخاطئ هو المحور س في منحنى خاصية تشغيل جهاز الاستقبال.

عنصر

#fundamentals

متغيّر إدخال لنموذج تعلُّم الآلة يتكون المثال من ميزة واحدة أو أكثر. على سبيل المثال، لنفترض أنك تتدرب على نموذج لتحديد تأثير ظروف الطقس على درجات اختبار الطالب. يوضح الجدول التالي ثلاثة أمثلة، يحتوي كل منها على ثلاث ميزات وتسمية واحدة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط الجوي نتيجة الاختبار
15 47 998 92
19 34 1020 84
18 92 1012 87

التباين مع label.

تقاطع الخصائص

#fundamentals

ميزة اصطناعية تم إنشاؤها من خلال ميزات "متقاطعة" فئوية أو مجمّعة.

على سبيل المثال، ضع في اعتبارك نموذج "التنبؤ بالمزاج" الذي يمثل درجة الحرارة في إحدى المجموعات الأربع التالية:

  • freezing
  • chilly
  • temperate
  • warm

ويمثّل سرعة الرياح في إحدى المجموعات الثلاثة التالية:

  • still
  • light
  • windy

بدون تقاطع الخصائص، يتدرب النموذج الخطي بشكل مستقل على كل مجموعة من المجموعات السبع المختلفة السابقة. إذًا، يتدرب النموذج على freezing مثلاً بشكل مستقل عن التدريب على windy مثلاً.

بدلاً من ذلك، يمكنك إنشاء خاصية تقاطع درجة الحرارة وسرعة الرياح. قد يكون لهذه الميزة التركيبية 12 قيمة محتملة التالية:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

بفضل ميزة المتقاطعات، يمكن للنموذج التعرّف على الاختلافات في المزاج بين يوم واحد (freezing-windy) ويوم واحد (freezing-still).

إذا أنشأت ميزة اصطناعية من ميزتين يحتوي كل منهما على العديد من مجموعات البيانات المختلفة، سيحصل تقاطع الميزة الناتج على عدد كبير من المجموعات الممكنة. على سبيل المثال، إذا كانت إحدى الميزات تحتوي على 1,000 مجموعة، وكانت الميزة الأخرى تحتوي على 2,000 مجموعة، فإن الخصائص المتقاطعة الناتجة تحتوي على 2,000,000 مجموعة.

رسميًا، الصليب هو منتج ديكرتي.

غالبًا ما يتم استخدام تقاطعات الخصائص مع النماذج الخطية ونادرًا ما تُستخدم مع الشبكات العصبية.

هندسة الخصائص

#fundamentals
#TensorFlow

عملية تتضمن الخطوات التالية:

  1. تحديد الميزات التي قد تكون مفيدة في تدريب نموذج.
  2. تحويل البيانات الأولية من مجموعة البيانات إلى إصدارات فعالة من تلك الميزات.

على سبيل المثال، قد تكون ميزة temperature مفيدة. بعد ذلك، يمكنك تجربة التجميع لتحسين ما يمكن أن يتعلّمه النموذج من نطاقات temperature المختلفة.

يُطلق على هندسة الميزات أحيانًا اسم استخراج الميزات.

مجموعة الخصائص

#fundamentals

يتم تدريب مجموعة ميزات التعلم الآلي على النموذج عليها. على سبيل المثال، قد يتألف الرمز البريدي وحجم العقار وحالة العقار من مجموعة ميزات بسيطة لنموذج يتنبأ بأسعار المساكن.

متجه الخصائص

#fundamentals

مصفوفة من قيم feature تتألف من مثال. يتم إدخال متجه الميزة أثناء التدريب وأثناء الاستنتاج. على سبيل المثال، قد يكون الخط المتجه الخصائص لنموذج به خاصيتين منفصلتين كما يلي:

[0.92, 0.56]

أربع طبقات: طبقة إدخال وطبقتان مخفيتان وطبقة إخراج واحدة.
          تحتوي طبقة الإدخال على عُقدتَين، إحداهما تحتوي على القيمة 0.92 والأخرى تحتوي على القيمة 0.56.

يوفر كل مثال قيمًا مختلفة لمتجه الميزة، لذا يمكن أن يكون متجه الميزة للمثال التالي شيئًا مثل:

[0.73, 0.49]

هندسة الميزات تحدد كيفية تمثيل الميزات في متجه الخصائص. على سبيل المثال، يمكن تمثيل ميزة فئوية ثنائية تضم خمس قيم محتملة بترميز واحد فعال. في هذه الحالة، سيتكوّن جزء من متجه الميزة لمثال معين من أربعة أصفار و1.0 واحد في الموضع الثالث، على النحو التالي:

[0.0, 0.0, 1.0, 0.0, 0.0]

وكمثال آخر، لنفترض أن نموذجك يتألف من ثلاث ميزات:

  • ميزة فئوية ثنائية تتضمن خمس قيم محتملة ممثلة بترميز واحد فعال، على سبيل المثال: [0.0, 1.0, 0.0, 0.0, 0.0]
  • ميزة فئوية ثنائية أخرى تتضمّن ثلاث قيم محتمَلة ممثلة بترميز واحد فعال، على سبيل المثال: [0.0, 0.0, 1.0]
  • ميزة النقطة العائمة، مثل: 8.3.

في هذه الحالة، سيتم تمثيل الخط المتجه الخصائص لكل مثال في تسع قيم. بالنظر إلى أمثلة القيم في القائمة السابقة، سيكون المتجه الميزة على النحو التالي:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

تقرير الملاحظات والآراء

#fundamentals

في التعلم الآلي، يشير ذلك المصطلح إلى موقف تؤثر فيه تنبؤات النموذج على بيانات التدريب للنموذج نفسه أو نموذج آخر. على سبيل المثال، سيؤثر النموذج الذي يقترح الأفلام في الأفلام التي يشاهدها الأشخاص، مما سيؤثر بعد ذلك على النماذج اللاحقة لاقتراحات الأفلام.

G

تعميم

#fundamentals

يشير ذلك المصطلح إلى قدرة النموذج على إجراء توقّعات صحيحة حول البيانات الجديدة التي لم يسبق لك الاطّلاع عليها. نقيض النموذج الذي يمكن تعميمه أي نموذج فرط التخصيص.

منحنى التعميم

#fundamentals

مخطط لكل من فقدان التدريب و فقدان التحقق كدالة لعدد التكرارات.

يمكن أن يساعدك منحنى التعميم في اكتشاف فرط التخصيص المحتملة. على سبيل المثال، يشير منحنى التعميم التالي إلى فرط التخصيص لأن فقدان التحقق من الصحة يصبح في النهاية أعلى بكثير من فقدان التدريب.

رسم بياني الديكارتي يُسمّى المحور ص فيه &quot;خسارة&quot; ويسمّى المحور س
          &quot;التكرارات&quot;. يظهر مخططان. يعرض أحد الرسمين مقدار فقدان التدريب، والآخر يعرض مقدار الخسارة في عملية التحقق.
          يبدأ المخططان بالطريقة نفسها، لكنّ مقدار خسارة التدريب ينخفض في النهاية أقل بكثير من نقطة الخسارة في عملية التحقق من الصحة.

انحدار التدرج

#fundamentals

أسلوب رياضي لتقليل الخسارة. يضبط خورازمية انحدار التدرج على الوزن والانحيازات التكرارية، ما يؤدي إلى العثور تدريجيًا على أفضل تركيبة للحدّ من الخسارة.

خورازمية انحدار التدرج هي أقدم بكثير من التعلم الآلي.

حقيقة واقعية

#fundamentals

الواقع:

الشيء الذي حدث بالفعل.

على سبيل المثال، ضع في الاعتبار نموذج التصنيف الثنائي الذي يتنبأ بما إذا كان الطالب في السنة الأولى من دراسته الجامعية سيتخرج خلال ست سنوات. والحقيقة الأساسية لهذا النموذج هي ما إذا كان هذا الطالب تخرج بالفعل في غضون ست سنوات أم لا.

H

الطبقة المخفية

#fundamentals

طبقة في شبكة عصبية بين طبقة الإدخال (الميزات) و طبقة الناتج (التوقع). وتتكون كل طبقة مخفية من خلية عصبية واحدة أو أكثر. على سبيل المثال، تحتوي الشبكة العصبية التالية على طبقتين مخفيتين، الأولى تحتوي على ثلاث خلايا عصبية والثانية مع خليتين عصبيتين:

أربع طبقات والطبقة الأولى هي طبقة إدخال تحتوي على خاصيتين. والطبقة الثانية هي طبقة مخفية تحتوي على ثلاث خلايا عصبية. والطبقة الثالثة هي طبقة مخفية تحتوي على خليتين عصبيتين. الطبقة الرابعة هي طبقة إخراج. وتحتوي كل ميزة على ثلاث حواف، تشير كل منها إلى خلية عصبية مختلفة في الطبقة الثانية. وتحتوي كل خلية عصبية في الطبقة الثانية على حافتين، حيث تشير كل خلية إلى خلية عصبية مختلفة في الطبقة الثالثة. وتحتوي كل خلية عصبية في الطبقة الثالثة على حافة واحدة تشير كل منها إلى الطبقة الناتجة.

تحتوي الشبكة العصبية العميقة على أكثر من طبقة مخفية. على سبيل المثال، الرسم التوضيحي السابق عبارة عن شبكة عصبية عميقة لأن النموذج يحتوي على طبقتين مخفيّة.

معلَمة فائقة

#fundamentals

المتغيّرات التي تضبطها أنت أو خدمة ضبط المعلَمة الفائقة يتم ضبطها أثناء التشغيل المتتالي لتدريب أحد النماذج. على سبيل المثال، معدّل التعلّم هو معلَمة فائقة. يمكنك ضبط معدل التعلم على 0.01 قبل جلسة تدريبية واحدة. إذا حددت أن 0.01 مرتفع جدًا، فيمكنك ربما ضبط معدل التعلم على 0.003 لجلسة التدريب التالية.

في المقابل، المَعلمات هي مختلف القيم التقديرية والانحياز التي يتعلّمها النموذج أثناء التدريب.

I

موزّعة بشكل مستقل ومتشابه (i.d)

#fundamentals

البيانات المستخرجة من توزيع لا تتغير وحيث لا تعتمد كل قيمة مرسومة على القيم التي تم رسمها مسبقًا. فالمفهوم الرياضي هو الغاز المثالي للتعلم الآلي، وهو تركيبة رياضية مفيدة ولكن في أغلب الأحيان لا يمكن العثور عليه في العالم الحقيقي. على سبيل المثال، قد يكون توزيع الزوار إلى صفحة ويب على مدى فترة زمنية قصيرة، وهذا يعني أن التوزيع لا يتغير خلال تلك الفترة الوجيزة، وتكون زيارة شخص ما بشكل عام مستقلة عن زيارة شخص آخر. ومع ذلك، إذا وسّعت تلك الفترة الزمنية، قد تظهر اختلافات موسمية في زوّار صفحة الويب.

يمكنك أيضًا الاطّلاع على الأجهزة غير الثابتة.

استنتاج

#fundamentals

في تعلُّم الآلة، عملية إجراء توقّعات من خلال تطبيق نموذج مدرَّب على أمثلة غير مصنَّفة.

للاستنتاج معنى مختلف إلى حد ما في الإحصاء. للحصول على مزيد من التفاصيل، يمكنك الاطّلاع على مقالة ويكيبيديا حول الاستنتاج الإحصائي.

طبقة الإدخال

#fundamentals

طبقة شبكة عصبية تحمل خط متجه الميزة. وهذا يعني أن طبقة الإدخال توفر أمثلة للتدريب أو الاستنتاج. على سبيل المثال، تتكون طبقة الإدخال في الشبكة العصبية التالية من خاصيتين:

أربع طبقات: طبقة إدخال وطبقتان مخفيتان وطبقة إخراج.

القابلية للتفسير

#fundamentals

يشير ذلك المصطلح إلى القدرة على شرح أسباب نموذج تعلُّم الآلة أو تقديمها بعبارات مفهومة للمستخدم.

على سبيل المثال، معظم نماذج الانحدار الخطي قابلة للتفسير بشكل كبير. (ما عليك سوى إلقاء نظرة على الأوزان المدربة لكل ميزة). كما يمكن تفسير غابات القرارات إلى حد كبير. ومع ذلك، تتطلب بعض النماذج تصورًا متطورًا لتصبح قابلة للتفسير.

يمكنك استخدام أداة قابلية التفسير (LIT) لتفسير نماذج تعلُّم الآلة.

التكرار

#fundamentals

يشير ذلك المصطلح إلى تعديل واحد لمَعلمات النموذج، وهي: مقاييس الأداء والانحيازات الخاصة بالنموذج، أثناء التدريب. يحدد حجم المجموعة عدد الأمثلة التي يعالجها النموذج في تكرار واحد. على سبيل المثال، إذا كان حجم الدفعة 20، فإن النموذج يعالج 20 مثالاً قبل ضبط المعاملات.

عند تدريب شبكة عصبية، يتضمن التكرار الواحد الطريقتين التاليتين:

  1. تمريرة للأمام لتقييم الخسارة في دفعة واحدة.
  2. ممر خلفي (الانتشار العكسي) لضبط معلَمات النموذج بناءً على الخسارة ومعدّل التعلّم.

L

تسوية 0

#fundamentals

يشير ذلك المصطلح إلى نوع من التنظيم الذي يتم فيه فرض عقوبة على إجمالي عدد القيم القيمية غير الصفرية في أحد النماذج. على سبيل المثال، سيتم فرض عقوبة على النموذج الذي يتضمن 11 قيمة ترجيح غير صفرية أكثر من النموذج الذي يتضمن 10 أوزان غير صفرية.

يُطلق على تسوية مستوى 0 أحيانًا اسم تسوية قاعدة L0.

الخسارة 1

#fundamentals

دالة الخسارة التي تحسب القيمة المطلقة للفرق بين قيم label والقيم التي يتوقّعها model. على سبيل المثال، إليك العملية الحسابية للخسارة 1 في مجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقعة للنموذج القيمة المطلقة لدلتا
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = الخسارة 1

إنّ الخسارة في المستوى 1 أقل حساسية للقيم الاستثنائية مقارنةً بخسارة الخسارة 2.

متوسط الخطأ المطلق هو متوسط الخسارة L1 لكل مثال.

ضبط الإعدادات 1

#fundamentals

يشير ذلك المصطلح إلى نوع من التنظيم الذي يعاقب الأوزان بما يتناسب مع مجموع القيمة المطلقة للأوزان. يساعد الترتيب 1 في زيادة قيمة الميزات غير ذات الصلة أو التي بالكاد صلة بها إلى 0 بالضبط. تمت إزالة ميزة بوزن 0 بشكل فعال من النموذج.

تتعارض مع L2 التسوية.

الخسارة 2

#fundamentals

دالة الخسارة التي تحسب مربع الفرق بين قيم label الفعلية والقيم التي يتوقّعها model. على سبيل المثال، إليك العملية الحسابية للخسارة 2 في مجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقعة للنموذج مربع دلتا
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = الخسارة 2

وبسبب القياس، تعزّز الخسارة L2 تأثير القيم الشاذّة. وهذا يعني أنّ الخسارة في المستوى 2 تكون أقوى من التفاعل مع التوقّعات السيئة مقارنةً باستجابة الخسارة في المستوى 1. على سبيل المثال، ستكون الخسارة L1 للدفعة السابقة 8 بدلاً من 16. لاحظ أن قيمة خارجية واحدة تمثل 9 من أصل 16.

عادةً ما تستخدم نماذج الانحدار مستوى الخسارة 2 كدالة الخسارة.

الخطأ التربيعي المتوسّط هو متوسط الخسارة L2 لكل مثال. الخسارة التربيعية هي اسم آخر للخسارة 2.

التسوية 2

#fundamentals

يشير ذلك المصطلح إلى نوع من التنظيم الذي يعاقب الأوزان بما يتناسب مع مجموع المربّعات للأوزان. يساعد الترتيب 2 على تقريب القيم الاستثنائية (التي لها قيم سلبية عالية أو منخفضة) من 0 ولكن ليس تمامًا إلى 0. أما الميزات التي لها قيم قريبة جدًا من 0 فتبقى في النموذج ولكنها لا تؤثر في تنبؤ النموذج بشكل كبير.

يؤدي التسوية 2 دائمًا إلى تحسين التعميم في النماذج الخطية.

تتعارض مع L1 التسوية.

label

#fundamentals

في تعلّم الآلة المراقَب، هو جزء "الإجابة" أو "النتيجة" من مثال.

يتكون كل مثال مصنّف من ميزة واحدة أو أكثر من الميزات وتصنيف. على سبيل المثال، في مجموعة بيانات الكشف عن المحتوى غير المرغوب فيه، من المحتمل أن يكون التصنيف إما "محتوى غير مرغوب فيه" أو "ليس محتوى غير مرغوب فيه". في مجموعة بيانات هطول الأمطار، قد يكون التسمية هو كمية المطر التي سقطت خلال فترة معينة.

مثال مصنَّف

#fundamentals

مثال يحتوي على واحدة أو أكثر من الميزات و تصنيف. على سبيل المثال، يوضح الجدول التالي ثلاثة أمثلة مسماة من نموذج تقييم منزل، لكل منها ثلاث ميزات وتسمية واحدة:

عدد غرف النوم عدد الحمّامات عمر المنزل سعر المنزل (التصنيف)
3 2 15 345000 دولار
2 1 72 179000 دولار أمريكي
4 2 34 392000 دولار

في تعلُّم الآلة المراقَب، تتدرب النماذج على الأمثلة المصنّفة وتضع توقّعات على أمثلة غير مُصنَّفة.

تباين بين المثال المُصنف والأمثلة غير المصنَّفة.

لمدا

#fundamentals

مرادف معدّل التكرار

لامدا هو مصطلح مفرط في التحميل. ونركّز هنا على تعريف المصطلح ضمن regularization.

طبقة

#fundamentals

مجموعة من الخلايا العصبية في شبكة عصبية. هناك ثلاثة أنواع شائعة من الطبقات وهي كما يلي:

على سبيل المثال، يُظهر الرسم التوضيحي التالي شبكة عصبية مع طبقة إدخال واحدة وطبقتين مخفيتَين وطبقة إخراج واحدة:

يشير ذلك المصطلح إلى شبكة عصبية مكوّنة من طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة إخراج واحدة. تتكون طبقة الإدخال من خاصيتين. وتتكون الطبقة الأولى المخفية من ثلاث خلايا عصبية، والطبقة الثانية المخفية تتكوّن من خليتين عصبيتين. تتكون طبقة الإخراج من عقدة واحدة.

في TensorFlow، تكون الطبقات أيضًا دوال Python تأخذ خيارات Tensors والتكوين كمدخلات وتنشئ وحدات وصل أخرى كمخرجات.

معدّل التعلّم

#fundamentals

رقم نقطة عائمة يوضِّح لخوارزمية انحدار التدرج مدى قوة ضبط الترجيح والانحيازات في كل تكرار. على سبيل المثال، يضبط معدل التعلم 0.3 الأوزان والتحيزات بشكل أقوى بثلاث مرات من معدل التعلم 0.1.

معدّل التعلّم هو أحد المَعلمات الفائقة الأساسية. إذا قمت بتعيين معدل التعلم منخفضًا جدًا، فسيستغرق التدريب وقتًا طويلاً. وإذا كانت معدّل التعلّم مرتفعًا جدًا، غالبًا ما تواجه خوارزمية انحدار التدرج مشكلة في الوصول إلى التقارب.

خطي

#fundamentals

يشير ذلك المصطلح إلى علاقة بين متغيرين أو أكثر يمكن تمثيلها فقط من خلال الجمع والضرب.

مخطط العلاقة الخطية عبارة عن خط.

تتعارض مع غير الخطية.

نموذج خطي

#fundamentals

model يعيّن model واحدًا لكل model من أجل إجراء model. (تتضمّن النماذج الخطية أيضًا التحيز.) وفي المقابل، إنّ علاقة الميزات بالتوقّعات في النماذج العميقة هي علاقة غير خطية بوجهٍ عام.

يسهل عادةً تدريب النماذج الخطية وقابلية التفسير لها أكثر من النماذج العميقة. ومع ذلك، يمكن للنماذج العميقة معرفة العلاقات المعقدة بين الميزات.

الانحدار الخطي والانحدار اللوجستي هما نوعان من النماذج الخطية.

الانحدار الخطّي

#fundamentals

يشير ذلك المصطلح إلى نوع من نماذج تعلُّم الآلة يكون فيه كلٌّ من الشرطَين التاليَين صحيحًا:

  • النموذج هو نموذج خطي.
  • التوقع هو قيمة النقطة العائمة. (هذا هو جزء الانحدار في الانحدار الخطي).

قارِن بين الانحدار الخطّي والانحدار اللوجستي. بالإضافة إلى ذلك، تباين الانحدار مع التصنيف.

الانحدار اللوجستي

#fundamentals

يشير ذلك المصطلح إلى نوع من نموذج الانحدار للتنبؤ باحتمالية. تتسم نماذج الانحدار اللوجستي بالخصائص التالية:

  • التصنيف فئوي. يشير مصطلح الانحدار اللوجستي عادةً إلى الانحدار اللوجستي، أي إلى نموذج يحسب الاحتمالات للتصنيفات ذات القيمتين المحتملتين. هناك متغير أقل شيوعًا، وهو الانحدار اللوجستي متعدد الحدود، ويحسب احتمالات التصنيفات التي لها أكثر من قيمتين محتملتين.
  • وظيفة فقدان البيانات أثناء التدريب هي فقدان السجل. (يمكن وضع وحدات الخسارة اللوغاريتمية المتعددة بشكل متواز للتصنيفات التي تحتوي على أكثر من قيمتين محتملتين).
  • يتميز هذا النموذج ببنية خطية، وليس شبكة عصبية عميقة. ومع ذلك، ينطبق بقية هذا التعريف أيضًا على النماذج العميقة التي تتوقّع الاحتمالات للتصنيفات الفئوية.

على سبيل المثال، يمكن استخدام نموذج انحدار لوجستي يحسب احتمالية أن يكون أي بريد إلكتروني تم إدخاله غير مرغوب فيه أو ليس غير مرغوب فيه. أثناء الاستنتاج، لنفترض أن النموذج يتنبأ بـ 0.72. لذلك، فإن النموذج يقدر:

  • احتمال بنسبة 72% أن تكون الرسالة الإلكترونية غير مرغوب فيها.
  • احتمال بنسبة 28% ألا تكون الرسالة الإلكترونية غير مرغوب فيها.

يستخدم نموذج الانحدار اللوجستي البنية التالية المكونة من خطوتين:

  1. وينشئ النموذج تنبؤًا أوليًا (y) عن طريق تطبيق دالة خطية لميزات الإدخال.
  2. يستخدم النموذج ذلك التوقّع الأوّلي كمدخل إلى دالة سينية التي تحوِّل التوقّع الأوّلي إلى قيمة تتراوح بين 0 و1، باستثناء تلك الدالة.

مثل أي نموذج انحدار، يتنبأ نموذج الانحدار اللوجستي برقم. ومع ذلك، يصبح هذا الرقم عادةً جزءًا من نموذج التصنيف الثنائي على النحو التالي:

  • إذا كان العدد المتوقَّع أكبر من حدّ التصنيف، يتوقّع نموذج التصنيف الثنائي الفئة الموجبة.
  • إذا كان العدد المتوقّع أقل من حدّ التصنيف، يتنبأ نموذج التصنيف الثنائي بالفئة السالبة.

مقياس انخفاض القصور

#fundamentals

دالة الخسارة المستخدمة في الانحدار اللوجستي الثنائي.

لوغاريتم احتمالات الفوز والخسارة

#fundamentals

يشير ذلك المصطلح إلى لوغاريتم يوضِّح معدّل احتمالية وقوع حدث معيّن.

الخسارة

#fundamentals

أثناء تدريب نموذج خاضع للإشراف، يتم قياس مدى بُعد توقّعات النموذج عن علامته التجارية.

تحسب دالة الخسارة مقدار الخسارة.

منحنى الخسارة

#fundamentals

مخطط loss كدالة لعدد تكرارات للتدريب. يوضح المخطط التالي منحنى خسارة نموذجي:

رسم بياني الديكارتي للخسارة مقابل التدريبات، يوضح انخفاضًا سريعًا في الخسارة في التكرارات الأولية، يليه انخفاض تدريجي، ثم انحدار مستقيم خلال التكرارات النهائية.

يمكن أن تساعدك منحنيات الخسارة في تحديد متى يكون النموذج متداخلاً أو فرط التخصيص.

ويمكن أن توضح منحنيات الخسارة جميع أنواع الخسارة التالية:

راجِع أيضًا منحنى التعميم.

دالة الخسارة

#fundamentals

أثناء التدريب أو الاختبار، هي دالة رياضية تحسب الخسارة في مجموعة من الأمثلة. تعرض دالة الخسارة قيمة خسارة أقل للنماذج التي تقدّم تنبؤات جيدة مقارنةً بالنماذج التي تقدّم تنبؤات سيئة.

عادةً ما يكون الهدف من التدريب هو تقليل الخسارة التي تنتجها دالة الخسارة.

هناك العديد من الأنواع المختلفة لدوال الفقدان. اختر دالة الخسارة المناسبة لنوع النموذج الذي تقوم بإنشائه. مثلاً:

ن

تعلُم الآلة

#fundamentals

يشير ذلك المصطلح إلى برنامج أو نظام يدرّب نموذجًا من البيانات التي يتم إدخالها. يمكن للنموذج المدرب تقديم تنبؤات مفيدة من بيانات جديدة (لم يتم رؤيتها من قبل) مأخوذة من نفس التوزيع كالذي تم استخدامه لتدريب النموذج.

يشير التعلم الآلي أيضًا إلى مجال الدراسة المعني بهذه البرامج أو الأنظمة.

طبقة الأغلبية

#fundamentals

التسمية الأكثر شيوعًا في مجموعة البيانات غير المتوازنة الفئوية. على سبيل المثال، بالنظر إلى مجموعة بيانات تحتوي على تسميات سالبة بنسبة 99٪ وتسميات إيجابية 1٪، فإن التسميات السلبية هي الفئة الأغلبية.

تباينها مع فئة الأقليات.

دفعة صغيرة

#fundamentals

مجموعة فرعية صغيرة يتم اختيارها عشوائيًا من مجموعة تتم معالجتها في تكرار واحد. ويتراوح حجم المجموعة عادةً بين 10 و1,000 مثال.

على سبيل المثال، لنفترض أن مجموعة التدريب بالكامل (المجموعة الكاملة) تتكون من 1000 مثال. لنفترض أيضًا أنّك ضبطت حجم الدفعة لكل دفعة صغيرة على 20. وبالتالي، يُحدِّد كل تكرار الخسارة في 20 مثالاً عشوائيًا من إجمالي 1,000 مثال، ثم يضبط القيم التقديرية والانحيازات وفقًا لذلك.

إن حساب الخسارة في دفعة صغيرة أكثر فاعلية من الخسارة في جميع الأمثلة في الدفعة الكاملة.

فئة الأقليات

#fundamentals

التصنيف الأقل شيوعًا في مجموعة البيانات غير المتوازنة الفئوية. على سبيل المثال، بالنظر إلى مجموعة بيانات تحتوي على تسميات سالبة بنسبة 99٪ وتسميات إيجابية 1٪، فإن التسميات الإيجابية هي فئة الأقلية.

الاختلاف مع فئة الغالبية.

model

#fundamentals

وبشكل عام، هو أي بنية رياضية تعالج بيانات الإدخال وتعرض المخرجات. بصياغة مختلفة، فإن النموذج هو مجموعة المعلمات والبنية اللازمة للنظام لعمل التنبؤات. في التعلّم الآلي المُوجّه، يأخذ النموذج مثالاً كمدخل ويستنتج منه توقعًا. ضمن التعلم الآلي الخاضع للإشراف، تختلف النماذج إلى حد ما. مثلاً:

يمكنك حفظ نموذج أو استعادته أو إنشاء نُسخ منه.

ينشئ التعلُّم الآلي غير المُوجّه أيضًا نماذج، عادةً ما تكون وظيفة يمكنها ربط مثال إدخال في المجموعة الأكثر ملاءمةً.

التصنيف المتعدّد الفئات

#fundamentals

في التعلم المُوجّه، يشير ذلك المصطلح إلى مشكلة التصنيف التي تحتوي فيها مجموعة البيانات على أكثر من فئتين من التصنيفات. على سبيل المثال، يجب أن تكون التسميات الموجودة في مجموعة بيانات Iris واحدة من الفئات الثلاث التالية:

  • قزحية سيتوزا
  • زهرة السوسن فيرجينيكا
  • قزحية ملونة

هناك نموذج مدرَّب على مجموعة بيانات Iris الذي يتنبأ بنوع Iris على أمثلة جديدة هو إجراء التصنيف متعدد الفئات.

في المقابل، مشاكل التصنيف التي تميز بين فئتين تحديدًا هي نماذج التصنيف الثنائي. على سبيل المثال، نموذج البريد الإلكتروني الذي يتوقّع الرسائل غير المرغوب فيها أو ليس رسائل غير مرغوب فيها هو نموذج تصنيف ثنائي.

يشير التصنيف متعدد الفئات في مشكلات التجميع العنقودي إلى أكثر من مجموعتين.

N

فئة سلبية

#fundamentals

في التصنيف الثنائي، تعني إحدى الفئات إيجابية والأخرى سلبية. الفئة الموجبة هي الشيء أو الحدث الذي يختبر النموذج من أجله والفئة السالبة هي الاحتمال الآخر. مثلاً:

  • قد تكون الفئة السلبية في الفحص الطبي "ليست ورمًا".
  • قد تكون الفئة السلبية في مصنِّف البريد الإلكتروني "ليست رسائل غير مرغوب فيها".

على عكس الفئة الإيجابية.

شبكة عصبية

#fundamentals

model يحتوي على model واحدة على الأقل. الشبكة العصبية العميقة هي نوع من الشبكات العصبية التي تحتوي على أكثر من طبقة مخفية. على سبيل المثال، يوضح الرسم التخطيطي التالي شبكة عصبية عميقة تحتوي على طبقتين مخفيتين.

يشير ذلك المصطلح إلى شبكة عصبية مكوّنة من طبقة إدخال وطبقتَين مخفيتَين وطبقة إخراج.

تتصل كل خلية عصبية في الشبكة العصبية بجميع العقد في الطبقة التالية. على سبيل المثال، نلاحظ في الرسم التخطيطي السابق أن كل خلية من الخلايا العصبية الثلاث في الطبقة المخفية الأولى تتصل بشكل منفصل بكل من الخليتين العصبيتين في الطبقة المخفية الثانية.

تُعرف الشبكات العصبية المنفَّذة على أجهزة الكمبيوتر أحيانًا باسم الشبكات العصبية الاصطناعية لتمييزها عن الشبكات العصبية الموجودة في الدماغ والأنظمة العصبية الأخرى.

قد تحاكي بعض الشبكات العصبية العلاقات غير الخطية المعقدة للغاية بين الخصائص المختلفة والتسمية.

يمكنك أيضًا الاطّلاع على الشبكة العصبية الالتفافية والشبكة العصبية المتكررة.

عصبون

#fundamentals

في التعلم الآلي، وحدة مميزة داخل طبقة مخفية من الشبكة العصبية. تقوم كل خلية عصبية بتنفيذ الإجراء المكون من خطوتين التالي:

  1. لحساب المجموع المرجح لقيم الإدخال مضروبة في الأوزان المقابلة لها.
  2. تمرير المجموع المرجّح كإدخال إلى دالة تفعيل

تقبل الخلية العصبية في أول طبقة مخفية مدخلات من قيم الخصائص في طبقة الإدخال. خلية عصبية في أي طبقة مخفية غير الأولى تقبل المدخلات من الخلايا العصبية في الطبقة المخفية السابقة. على سبيل المثال، تقبل خلية عصبية في الطبقة المخفية الثانية مدخلات من الخلايا العصبية في الطبقة المخفية الأولى.

يسلط الرسم التوضيحي التالي الضوء على خليتين عصبيتين وإدخالاتهما.

يشير ذلك المصطلح إلى شبكة عصبية مكوّنة من طبقة إدخال وطبقتَين مخفيتَين وطبقة إخراج. يتم تمييز خليتين عصبيتين: واحدة في الطبقة المخفية الأولى والأخرى في الطبقة المخفية الثانية. وتتلقى الخلية العصبية المميزة في أول طبقة مخفية مدخلات من كلا الميزتين في طبقة الإدخال. الخلية العصبية المحددة في الطبقة المخفية الثانية تتلقى مدخلات من كل خلية عصبية ثلاث في الطبقة المخفية الأولى.

تحاكي خلية عصبية في الشبكة العصبية سلوك الخلايا العصبية في الدماغ وأجزاء أخرى من الأجهزة العصبية.

العقدة (الشبكة العصبية)

#fundamentals

خلية عصبية في طبقة مخفية.

غير خطي

#fundamentals

يشير ذلك المصطلح إلى علاقة بين متغيرين أو أكثر لا يمكن تمثيلها فقط من خلال الجمع والضرب. يمكن تمثيل العلاقة الخطية كخط، ولا يمكن تمثيل العلاقة غير الخطية كخط. على سبيل المثال، ضع في اعتبارك نموذجين يربط كل منهما ميزة واحدة بتسمية واحدة. النموذج على اليسار خطي والنموذج على اليمين غير خطي:

مخططان. ويمثل المخطط الواحد خطيًا، وبالتالي فهذه علاقة خطية.
          أما المخطط الآخر فهو منحنى، ولذلك فهي علاقة غير خطية.

غير الثابتة

#fundamentals

يشير ذلك المصطلح إلى ميزة تتغير قيمها عبر سمة واحدة أو أكثر، وعادةً ما تكون مستندة إلى الوقت. فعلى سبيل المثال، ضع في الاعتبار الأمثلة التالية لأجهزة غير ثابتة:

  • يختلف عدد ملابس السباحة التي تُباع في متجر معيّن باختلاف الموسم.
  • كمية معينة من الفاكهة التي تم حصادها في منطقة معينة تساوي صفر لفترة طويلة من الزمن ولكنها كبيرة لفترة قصيرة.
  • بسبب تغيُّر المناخ، يتغير متوسط درجات الحرارة السنوي.

اختَر تباينًا مع الثابتة.

تسوية

#fundamentals

بشكل عام، عملية تحويل النطاق الفعلي للمتغير إلى نطاق قياسي من القيم، مثل:

  • -1 إلى 1+
  • 0 إلى 1
  • التوزيع الطبيعي

على سبيل المثال، لنفترض أن النطاق الفعلي للقيم لميزة معينة هو 800 إلى 2400. كجزء من هندسة الميزات، يمكنك تسوية القيم الفعلية وصولاً إلى نطاق قياسي، مثل 1- إلى 1+.

التسوية مهمة شائعة في هندسة الميزات. عادةً ما يتم تدريب النماذج بشكل أسرع (وتنتج عن ذلك توقعات أفضل) عندما يكون لكل ميزة عددية في متّجه الميزة النطاق نفسه تقريبًا.

بيانات عددية

#fundamentals

الميزات التي يتم تمثيلها كأعداد صحيحة أو أرقام ذات قيمة حقيقية. على سبيل المثال، من المحتمل أن يمثل نموذج تقييم المنزل حجم المنزل (بالقدم المربع أو بالمتر المربع) كبيانات رقمية. يشير تمثيل ميزة كبيانات عددية إلى أن قيم الميزة لها علاقة رياضية بالتسمية. أي أن عدد الأمتار المربعة في المنزل ربما تكون له علاقة رياضية بقيمة المنزل.

لا يجب تمثيل كل بيانات الأعداد الصحيحة كبيانات رقمية. على سبيل المثال، الرموز البريدية في بعض أجزاء العالم هي أعداد صحيحة، ولكن ينبغي عدم تمثيل الرموز البريدية الصحيحة كبيانات رقمية في النماذج. ويرجع ذلك إلى أنّ الرمز البريدي لـ 20000 ليس ضعف (أو نصف) فعالية الرمز البريدي 10000. علاوة على ذلك، على الرغم من أن الرموز البريدية المختلفة ترتبط بقيم عقارات مختلفة، لا يمكننا افتراض أن قيم العقارات في الرمز البريدي 20000 لها ضعف قيمة قيم العقارات للرمز البريدي 10000. ويجب تمثيل الرموز البريدية على أنّها بيانات فئوية بدلاً من ذلك.

تسمى الميزات الرقمية أحيانًا بالميزات المستمرة.

O

بلا إنترنت

#fundamentals

مرادف للدالة static.

الاستنتاج بلا اتصال بالإنترنت

#fundamentals

يشير ذلك المصطلح إلى عملية إنشاء نموذج لمجموعة من التوقّعات ثم تخزين هذه التوقّعات (حفظها) مؤقتًا. يمكن للتطبيقات بعد ذلك الوصول إلى التوقع المطلوب من ذاكرة التخزين المؤقت بدلاً من إعادة تشغيل النموذج.

على سبيل المثال، ضع في الاعتبار نموذجًا يُنشئ توقّعات الطقس المحلية (التوقعات) مرة كل أربع ساعات. بعد تشغيل كل نموذج، يخزّن النظام جميع توقعات الطقس المحلية مؤقتًا. وتسترد تطبيقات الطقس التوقعات من ذاكرة التخزين المؤقت.

يُسمى الاستنتاج بلا إنترنت أيضًا الاستنتاج الثابت.

تتعارض مع الاستنتاج على الإنترنت.

ترميز واحد فعال

#fundamentals

يمثل تمثيل البيانات الفئوية كمتجه حيث:

  • تم ضبط عنصر واحد على 1.
  • يتم ضبط جميع العناصر الأخرى على 0.

يُستخدم الترميز الأحادي بشكل شائع لتمثيل السلاسل أو المعرّفات التي تحتوي على مجموعة محدودة من القيم المحتملة. على سبيل المثال، لنفترض أنّ ميزة فئوية معيّنة تسمى Scandinavia، تشتمل على خمس قيم محتملة:

  • "الدانمرك"
  • "السويد"
  • "النرويج"
  • "فنلندا"
  • "آيسلندا"

يمكن أن يمثل الترميز الأحادي جميع القيم الخمس على النحو التالي:

بلد المتجه
"الدانمرك" 1 0 0 0 0
"السويد" 0 1 0 0 0
"النرويج" 0 0 1 0 0
"فنلندا" 0 0 0 1 0
"آيسلندا" 0 0 0 0 1

فبفضل الترميز الأحادي، يستطيع النموذج أن يتعلم روابط مختلفة بناءً على كل بلد من البلدان الخمسة.

تمثِّل الميزة على شكل بيانات رقمية بديلاً للترميز الأحادي. لسوء الحظ، لا يعد تمثيل البلدان الاسكندنافية رقميًا اختيارًا جيدًا. على سبيل المثال، ضع في اعتبارك التمثيل الرقمي التالي:

  • "الدانمرك" هي 0
  • "السويد" 1
  • "النرويج" هي 2
  • "فنلندا" هي 3
  • عيد "آيسلندا" هو 4

باستخدام الترميز الرقمي، يمكن أن يفسر النموذج الأرقام الأولية رياضيًا ويحاول التطبيق عليها. ومع ذلك، فإن أيسلندا ليست في الواقع ضعف (أو نصف ما) بقدر النرويج، لذلك كان النموذج يتوصل إلى بعض الاستنتاجات الغريبة.

واحد-مقابل-الكل

#fundamentals

بافتراض حدوث مشكلة تصنيف في الفئات N، يكون هذا الحل عبارة عن حل يتكون من مصنِّفات ثنائية منفصلة على N، أي مصنِّف ثنائي لكل نتيجة محتملة. على سبيل المثال، إذا كان هناك نموذج يصنف الأمثلة على أنها حيوان أو نباتي أو معدني، سيوفر الحل "واحد مقابل الكل" المصنِّفات الثنائية الثلاثة المنفصلة التالية:

  • حيوان في مقابل ليس حيوانًا
  • خضار مقابل غير نباتي
  • معدني في مقابل غير معدنية

على الإنترنت

#fundamentals

مرادف لكلمة dynamic.

الاستنتاج على الإنترنت

#fundamentals

إنشاء توقّعات عند الطلب على سبيل المثال، افترض أن التطبيق يمرر المدخلات إلى نموذج ويصدر طلبًا للتنبؤ. يستجيب النظام الذي يستخدم الاستنتاج عبر الإنترنت للطلب من خلال تشغيل النموذج (وعرض التوقع إلى التطبيق).

تباينها مع الاستنتاج بلا اتصال بالإنترنت

الطبقة النهائية

#fundamentals

الطبقة "النهائية" للشبكة العصبية. تحتوي طبقة الإخراج على التنبؤ.

يُظهر الرسم التوضيحي التالي شبكة عصبية صغيرة عميقة تحتوي على طبقة إدخال وطبقتَين مخفيّتَين وطبقة إخراج:

يشير ذلك المصطلح إلى شبكة عصبية مكوّنة من طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة إخراج واحدة. تتكون طبقة الإدخال من خاصيتين. وتتكون الطبقة الأولى المخفية من ثلاث خلايا عصبية، والطبقة الثانية المخفية تتكوّن من خليتين عصبيتين. تتكون طبقة الإخراج من عقدة واحدة.

فرط التخصيص

#fundamentals

إنشاء model يتطابق مع model إلى حد كبير بحيث يتعذّر على النموذج تقديم توقّعات صحيحة بشأن البيانات الجديدة

يمكن أن تؤدي التسوية إلى تقليل فرط التخصيص. يمكن أيضًا أن يقلل التدريب على مجموعة تدريب كبيرة ومتنوعة من فرط التخصيص.

P

باندا

#fundamentals

واجهة برمجة تطبيقات لتحليل البيانات المستندة إلى الأعمدة تم إنشاؤها في numpy. تدعم العديد من أطر عمل التعلم الآلي، بما في ذلك TensorFlow، هياكل بيانات الباندا كمدخلات. راجع وثائق pandas للحصول على تفاصيل.

معلَمة

#fundamentals

القيم التقديرية والانحيازات التي يتعلّمها النموذج أثناء التدريب. على سبيل المثال، في نموذج الانحدار الخطي، تتكون المعلَمات من الانحياز (b) وجميع القيم التقديرية (w1 وw2، وما إلى ذلك) في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

وفي المقابل، hyperparameter هي القيم التي توفِّرها أنت (أو خدمة تحويل المعلَمة الفائقة) إلى النموذج. على سبيل المثال، معدّل التعلّم هو معلَمة فائقة.

الفئة الموجبة

#fundamentals

الصف الذي تختبره.

على سبيل المثال، الفئة الموجبة في نموذج السرطان قد تكون "ورم". وقد تكون الفئة الإيجابية في مصنف البريد الإلكتروني هي "رسائل غير مرغوب فيها".

وتكون مختلفة عن الفئة السلبية.

مرحلة ما بعد المعالجة

#fairness
#fundamentals

ضبط مخرجات النموذج بعد تشغيل النموذج. يمكن استخدام مرحلة ما بعد المعالجة لفرض قيود الإنصاف بدون تعديل النماذج نفسها.

على سبيل المثال، يمكن تطبيق مرحلة ما بعد المعالجة على مصنِّف ثنائي من خلال ضبط حدّ تصنيف يتم فيه الحفاظ على مساواة الفرص لبعض السمات، وذلك عن طريق التحقق من أنّ المعدل الموجبة الصحيح هو نفسه لجميع قيم هذه السمة.

التوقّع

#fundamentals

ناتج النموذج. مثلاً:

  • التنبؤ بنموذج التصنيف الثنائي هو إما الفئة الموجبة أو الفئة السالبة.
  • التنبؤ بنموذج التصنيف متعدد الفئات هو فئة واحدة.
  • التنبؤ بأي نموذج انحدار خطّي هو رقم.

تصنيفات الخادم الوكيل

#fundamentals

لا تتوفر البيانات المستخدمة لتقريب التصنيفات بشكل مباشر في مجموعة بيانات.

على سبيل المثال، افترض أنه يجب عليك تدريب نموذج للتنبؤ بمستوى ضغط الموظف. تحتوي مجموعة البيانات على الكثير من الميزات القائمة على التوقّعات ولكنها لا تحتوي على تصنيف باسم مستوى الإجهاد. بدون شجاعة، يمكنك اختيار "حوادث مكان العمل" كتسمية وكيل لمستوى الإجهاد. بعد كل شيء، يتعرض الموظفون الذين يعانون من ضغط شديد للحوادث أكثر من الموظفين الهادئين. أم هو؟ ربما ترتفع حوادث مكان العمل وتنخفض بالفعل لأسباب متعددة.

كمثال ثانٍ، لنفترض أنك تريد هل تمطر؟ تصنيفًا منطقيًا لمجموعة البيانات، لكن مجموعة البيانات لا تحتوي على بيانات أمطار. وفي حال توفُّر الصور، يمكنك إنشاء صور لأشخاص يحملون مظلات كتسمية وكيل لـ هل تمطر؟ هل هذه تسمية وكيل جيدة؟ ربما، لكن الأشخاص في بعض الثقافات قد يكونون أكثر احتمالًا لحمل مظلات للحماية من الشمس أكثر من المطر.

غالبًا ما تكون تصنيفات الوكيل غير كاملة. إذا أمكن، اختر تسميات فعلية بدلاً من تسميات الوكيل. ومع ذلك، في حال عدم توفّر تصنيف فعلي، اختَر تصنيف الخادم الوكيل بعناية شديدًا، مع اختيار تصنيف الوكيل الأقل فظيعًا.

R

المصنِّف

#fundamentals

يشير ذلك المصطلح إلى شخص يقدّم تصنيفات لتقديم أمثلة. "المُعلِّق" هو اسم آخر للمصنِّف.

وحدة خطية مصحَّحة (ReLU)

#fundamentals

دالة تفعيل بالسلوك التالي:

  • إذا كان الإدخال سالبًا أو صفرًا، يكون الناتج 0.
  • إذا كان المُدخل موجبة، يكون المُخرج يساوي المُدخل.

مثلاً:

  • إذا كان المُدخل -3، يكون المُخرج 0.
  • إذا كان المدخل +3، يكون الناتج 3.0.

إليك مخطط ReLU:

مخطط الديكارتي من سطرين. يحتوي السطر الأول على قيمة ص ثابتة تساوي 0، ويمتد على المحور س من -ما لا نهاية، 0 إلى 0، -0.
          ويبدأ السطر الثاني من 0,0. انحدار هذا الخط بنسبة +1، ولذلك فهو يمتد من 0,0 إلى +اللانهاية,+اللانهاية.

تُعد ReLU دالة تنشيط شائعة للغاية. وعلى الرغم من أنّ سلوك ReLU بسيط، لا يزال بإمكان الشبكة العصبية تعلُّم العلاقات غير الخطية بين الميزات والتصنيف.

نموذج انحدار

#fundamentals

بشكل غير رسمي، النموذج الذي ينشئ توقعًا رقميًا. (على طرف النقيض، ينشئ نموذج التصنيف توقعًا للفئة). فعلى سبيل المثال، في ما يلي جميع نماذج الانحدار:

  • يشير ذلك المصطلح إلى نموذج يتنبأ بقيمة منزل معين، مثل 423000 يورو.
  • يشير ذلك المصطلح إلى نموذج يتنبأ بمتوسط العمر المتوقّع لشجرة معيّنة، مثل 23.2 عامًا.
  • نموذج للتنبؤ بكمية الأمطار التي ستتساقط في مدينة معينة خلال الساعات الست القادمة، مثل 0.18 بوصة.

هناك نوعان شائعان من نماذج الانحدار هما:

ليس كل نموذج ينتج تنبؤات رقمية هو نموذج انحدار. في بعض الحالات، يكون التنبؤ الرقمي مجرد نموذج تصنيف يتكوّن من أسماء فئات رقمية. على سبيل المثال، النموذج الذي يتنبأ برمز بريدي رقمي هو نموذج تصنيف وليس نموذج انحدار.

تسوية

#fundamentals

أي آلية تقلّل من فرط التخصيص وتشمل الأنواع الشائعة للتسوية ما يلي:

ويمكن أيضًا تعريف التسوية على أنها عقوبة على مدى تعقيد النموذج.

معدل التسوية

#fundamentals

رقم يحدد الأهمية النسبية للانتظام أثناء التدريب. تؤدي زيادة معدّل التنظيم إلى تقليل فرط التخصيص، ولكن قد يؤدي إلى تقليل القدرة التنبؤية للنموذج. وعلى العكس من ذلك، يؤدي تقليل معدل التسوية أو إغفاله إلى زيادة فرط التخصيص.

ReLU

#fundamentals

يشير الاختصار إلى وحدة خطية يتم تنقيحها.

الجيل المعزز باسترداد البيانات

#fundamentals

يشير ذلك المصطلح إلى بنية برمجية يشيع استخدامها في تطبيقات نموذج اللغات الكبيرة (LLM). تشمل الدوافع الشائعة لاستخدام الإنشاء المعزز باسترداد البيانات ما يلي:

  • زيادة الدقة الواقعية للاستجابات التي ينشئها النموذج
  • منح النموذج إمكانية الوصول إلى المعرفة التي لم يتم التدريب عليها
  • تغيير المعرفة التي يستخدمها النموذج
  • تمكين النموذج من الاستشهاد بالمصادر

على سبيل المثال، لنفترض أنّ تطبيقًا للكيمياء يستخدم PaLM API لإنشاء ملخّصات ذات صلة بطلبات بحث المستخدمين. عندما تتلقّى الخلفية الخاصة بالتطبيق استعلامًا، تبحث الخلفية أولاً عن بيانات ("استرداد") ذات صلة بطلب البحث الخاص بالمستخدم، وتُلحق البيانات الكيميائية ذات الصلة باستعلام المستخدم، وتوجه النموذج اللغوي الكبير (LLM) لإنشاء ملخص بناءً على البيانات الملحقة.

منحنى ROC (خصائص تشغيل جهاز الاستقبال)

#fundamentals

رسم بياني للمعدّل الموجبة الصحيح مقابل معدّل الموجب الخاطئ لحدود التصنيف المختلفة في التصنيف الثنائي.

يشير شكل منحنى خاصية تشغيل جهاز الاستقبال إلى قدرة نموذج التصنيف الثنائي على فصل الفئات الموجبة عن الفئات السالبة. لنفترض، على سبيل المثال، أن نموذج التصنيف الثنائي يفصل تمامًا جميع الفئات السالبة عن جميع الفئات الإيجابية:

سطر أرقام يضم 8 أمثلة موجبة على الجانب الأيمن و7 أمثلة سلبية على اليسار.

يبدو منحنى خاصية تشغيل جهاز الاستقبال للنموذج السابق على النحو التالي:

منحنى خاصية تشغيل جهاز الاستقبال. المحور س هو معدل موجب خاطئ والمحور ص هو معدل موجب صائب. يحتوي المنحنى على شكل حرف L مقلوب. يبدأ المنحنى عند (0.0,0.0) ثم يصل مباشرةً إلى (0.0,1.0). ثم ينتقل المنحنى من (0.0,1.0) إلى (1.0,1.0).

في المقابل، يرسم الرسم التوضيحي التالي قيم الانحدار اللوجستي الأولية لنموذج سيئ لا يمكنه فصل الفئات السالبة عن الفئات الإيجابية على الإطلاق:

سطر أرقام يضم أمثلة إيجابية وفئات سلبية
          مختلطة تمامًا.

يبدو منحنى خاصية تشغيل جهاز الاستقبال لهذا النموذج على النحو التالي:

منحنى خاصية تشغيل جهاز الاستقبال، وهو في الواقع خط مستقيم من (0.0,0.0)
          إلى (1.0,1.0).

وفي الوقت نفسه، في العالم الواقعي، تفصل معظم نماذج التصنيف الثنائي الفئات الإيجابية والسلبية إلى حد ما، ولكن ليس بشكل مثالي عادةً. لذلك، يقع منحنى ROC النموذجي في مكان ما بين الطرفين:

منحنى خاصية تشغيل جهاز الاستقبال. المحور س هو معدل موجب خاطئ والمحور ص هو معدل موجب صائب. يقترب منحنى خاصية تشغيل جهاز الاستقبال من قوس مهتز
          يعبر نقاط البوصلة من الغرب إلى الشمال.

تعتبر النقطة الموجودة على منحنى خاصية تشغيل جهاز الاستقبال الأقرب إلى (0.0,1.0) تحدد نظريًا حد التصنيف المثالي. ومع ذلك، تؤثر العديد من مشكلات العالم الحقيقي على اختيار حد التصنيف المثالي. على سبيل المثال، ربما تسبب النتائج السالبة الخاطئة ألمًا أكبر بكثير من النتائج الموجبة الخاطئة.

يلخص مقياس عددي يسمى AUC منحنى ROC في قيمة نقطة عائمة واحدة.

جذر الخطأ التربيعي المتوسّط (RMSE)

#fundamentals

الجذر التربيعي للخطأ التربيعي المتوسّط.

S

الدالّة الإسية

#fundamentals

دالة رياضية "تضغط" على قيمة الإدخال في نطاق ضيق، عادةً من 0 إلى 1 أو من -1 إلى +1. وهذا يعني أنه يمكنك تمرير أي رقم (اثنان، مليون، مليار سالب، أو أي شيء) إلى الدالة السينية، وسيظل الناتج في النطاق المقيد. ويبدو مخطط دالة التفعيل السيني على النحو التالي:

رسم بياني منحني ثنائي الأبعاد يتضمّن قيم س تمتد من اللانهاية إلى +الموجب، في حين تمتد قيم ص من 0 إلى 1 تقريبًا عندما تكون x تساوي 0، تكون y تساوي 0.5. يكون الانحدار في المنحنى إيجابيًا دائمًا، مع ملاحظة أعلى انحدار عند 0,0.5، مع انخفاض تدريجي
 مع زيادة القيمة المطلقة لـ x.

هناك استخدامات متعددة للدالة السينية في التعلم الآلي، ومنها:

softmax

#fundamentals

يشير ذلك المصطلح إلى دالة تحدِّد الاحتمالات لكل فئة محتملة في نموذج التصنيف المتعدّد الفئات. يصل مجموع الاحتمالات إلى 1.0 بالضبط. على سبيل المثال، يوضح الجدول التالي كيف يوزع softmax الاحتمالات المختلفة:

الصورة هي... الاحتمالية
كلب .85
هرّ .13
حصان .02

يُطلق على Softmax أيضًا اسم full softmax.

تتعارض مع عيّنات المرشحين.

خاصية متنافية

#language
#fundamentals

ميزة تكون قيمها في الغالب صفر أو فارغة. فعلى سبيل المثال، تكون إحدى الخصائص التي تحتوي على قيمة 1 واحدة ومليون قيمة 0 ضئيلة. في المقابل، تتضمّن الميزة الكثيفة قيمًا لا تكون صفرًا أو فارغة في الغالب.

في التعلم الآلي، هناك عدد مفاجئ من الميزات يتسم بندرة ضئيلة. عادةً ما تكون الخصائص الفئوية ميزات قليلة. على سبيل المثال، من بين 300 نوع محتمل من الأشجار في الغابة، قد يحدد مثال واحد شجرة قيقب فقط. أو من بين الملايين من مقاطع الفيديو المحتملة في مكتبة الفيديو، قد يحدد مثال واحد "الدار البيضاء" فقط.

في النموذج، تمثل عادةً ميزات قليلة باستخدام ترميز واحد فعال. إذا كان الترميز الأحادي كبيرًا، يمكنك وضع طبقة تضمين فوق الترميز الأحادي اللون لزيادة الكفاءة.

تمثيل متناثر

#language
#fundamentals

تخزين مواضع العناصر غير الصفرية فقط في عنصر قليل.

على سبيل المثال، لنفترض أنّ ميزة فئوية تُسمى species تحدد 36 نوعًا من أنواع الأشجار في غابة معيّنة. وافترض أيضًا أنّ كل مثال يحدّد نوعًا واحدًا فقط.

يمكنك استخدام متجه حار واحد لتمثيل أنواع الأشجار في كل مثال. سيحتوي المتجه أحادي الاتجاه على 1 واحد (لتمثيل أنواع الأشجار المعيّنة في هذا المثال) و35 خطأ 0 (لتمثيل أنواع الأشجار الـ 35 وليس في هذا المثال). لذلك، قد يبدو التمثيل الحاد لـ maple على النحو التالي:

متجه تكون فيه المواضع من 0 إلى 23 يتم فيها تثبيت القيمة 0، ويحتفظ الموضع
          24 بالقيمة 1، ويحمل الموضع من 25 إلى 35 القيمة 0.

بدلاً من ذلك، سيحدد التمثيل المحدود ببساطة موضع أنواع معينة. إذا كان maple في الموضع 24، سيكون تمثيل maple البسيط على النحو التالي:

24

لاحظ أن التمثيل المحدود هو أكثر إحكاما بكثير من التمثيل الساخن الواحد.

متّجه متناثر

#fundamentals

يشير ذلك المصطلح إلى متّجه تكون قيمه في الغالب أصفار. راجع أيضًا الميزة قليلاً والندرة.

الخسارة التربيعية

#fundamentals

مرادف لكلمة L2 فقدان.

ثابت

#fundamentals

شيء ما فعل مرة واحدة وليس بشكل مستمر. العبارتان ثابتة وبلا إنترنت هما مرادفات. في ما يلي الاستخدامات الشائعة للغات الثابتة وبلا اتصال بالإنترنت في تعلُّم الآلة:

  • نموذج ثابت (أو نموذج بلا اتصال بالإنترنت) هو نموذج تم تدريبه مرة واحدة ثم يُستخدم لفترة من الوقت.
  • التدريب الثابت (أو التدريب بلا إنترنت) هو عملية تدريب نموذج ثابت.
  • الاستنتاج الثابت (أو الاستنتاج بلا إنترنت) هو عملية ينشئ من خلالها النموذج مجموعة من عبارات البحث المقترحة في كل مرّة.

التباين مع ديناميكية.

استنتاج ثابت

#fundamentals

مرادف للاستنتاج بلا اتصال بالإنترنت.

استقرارية

#fundamentals

يشير ذلك المصطلح إلى ميزة لا تتغيّر قيمها في سمة واحدة أو أكثر، وعادةً ما تكون وقتًا. على سبيل المثال، هناك ميزة تبدو قيمها كما هي في 2021 و2023 تعرض الاتساقية.

في العالم الحقيقي، هناك عدد قليل جدًا من الميزات التي تعرض ثباتًا. حتى الميزات المرادفة للثبات (مثل مستوى سطح البحر) تتغير بمرور الوقت.

تباينها مع عدم الحركة

انحدار التدرج العشوائي (SGD)

#fundamentals

خوارزمية انحدار التدرج التي يكون فيها حجم الدفعة واحدًا. بعبارة أخرى، تتدرب SGD على مثال واحد يتم اختياره بشكل عشوائي من مجموعة تدريب.

تعلُّم الآلة المراقَب

#fundamentals

يمكنك تدريب model باستخدام model وmodel المقابلة لها. تشبه تعلم الآلة المراقَب تعلم موضوع ما من خلال دراسة مجموعة من الأسئلة وإجاباتها المقابلة. بعد إتقان الربط بين الأسئلة والإجابات، يمكن للطالب بعد ذلك تقديم إجابات للأسئلة الجديدة (التي لم تتم رؤيتها من قبل) حول نفس الموضوع.

المقارنة مع تعلُّم الآلة غير المُوجّه

ميزة اصطناعية

#fundamentals

هي ميزة غير متوفّرة بين ميزات الإدخال، ولكنها مجمّعة من ميزة واحدة أو أكثر منها. تشمل طرق إنشاء الميزات الاصطناعية ما يلي:

  • تجميع ميزة مستمرة في سلال النطاق.
  • إنشاء حملة بين الميزات
  • ضرب (أو قسمة) قيمة ميزة واحدة في قيمة(قيم) ميزة أخرى أو في نفسها. على سبيل المثال، إذا كان a وb هما ميزتا الإدخال، إليك أمثلة على الميزات الاصطناعية:
    • ab
    • a2
  • تطبيق دالة متتابعة على قيمة ميزة. على سبيل المثال، إذا كانت c ميزة إدخال، في ما يلي أمثلة على الميزات الاصطناعية:
    • sin(c)
    • ln(c)

إنّ الميزات التي يتم إنشاؤها من خلال تسوية القيم أو التحجيم فقط لا تُعتبر ميزات اصطناعية.

T

اختبار فقدان البيانات

#fundamentals

مقياس يمثِّل خسارة نموذج مقابل مجموعة الاختبار. عند إنشاء model، عادةً ما تحاول تقليل فقدان الاختبار. ويرجع ذلك إلى أنّ الخسارة المنخفضة في الاختبار تمثّل إشارة جودة أقوى من فقدان التدريب أو انخفاض فقدان التحقق.

بسبب وجود فجوة كبيرة بين فقدان الاختبار وفقدان التدريب أو فقدان التحقق من الصحة، تشير أحيانًا إلى أنك بحاجة إلى زيادة معدل المراجعة.

تدريب

#fundamentals

يشير ذلك المصطلح إلى عملية تحديد المَعلمات (القيم التقديرية والانحيازية) التي تتألف من نموذج. أثناء التدريب، يقرأ النظام الأمثلة ويعدّل المَعلمات تدريجيًا. يستخدم التدريب كل مثال في أي مكان من بضع مرات إلى مليارات المرات.

فقدان التدريب

#fundamentals

مقياس يمثّل خسارة النموذج أثناء تكرار تدريبي مُعيَّن. على سبيل المثال، لنفترض أن دالة الخسارة هي متوسط الخطأ المربع. ربما تكون خسارة التدريب (متوسط الخطأ المربع) للتكرار العاشر هي 2.2، وخسارة التدريب للتكرار رقم 100 هي 1.9.

يوضِّح منحنى الخسارة مقدار خسارة التدريب مقابل عدد التكرارات. يقدم منحنى الخسارة التلميحات التالية حول التدريب:

  • يعني الانحدار لأسفل أن النموذج يتحسن.
  • يعني الانحدار لأعلى أن النموذج يزداد سوءًا.
  • يعني الانحدار المستوي أن النموذج قد وصل إلى تقارب.

على سبيل المثال، يوضّح منحنى الخسارة التالي المثالي إلى حد ما:

  • انحدار حاد إلى أسفل خلال التكرارات الأولية، مما يشير إلى تحسين سريع للنموذج.
  • يشير هذا الانحدار إلى انحدار تدريجي (ولكنه لا يزال للأسفل) حتى اقتراب نهاية التدريب، ما يشير إلى مواصلة تحسين النموذج بوتيرة أبطأ نوعًا ما عن التكرارات الأولية.
  • انحدار مسطح نحو نهاية التدريب، مما يشير إلى التقارب.

مخطط خسارة التدريب مقابل التكرارات. ويبدأ منحنى الخسارة هذا بمنحدر شديد الانحدار. يستقر الميل تدريجيًا إلى أن
     يصبح الميل صفرًا.

على الرغم من أهمية فقدان التدريب، يمكنك الاطّلاع أيضًا على التعميم.

الانحراف في خدمة التدريب

#fundamentals

الفرق بين أداء النموذج أثناء التدريب وأداء النموذج نفسه أثناء عرض الإعلانات.

مجموعة التدريب

#fundamentals

المجموعة الفرعية من مجموعة البيانات المستخدَمة لتدريب نموذج.

تقليديًا، يتم تقسيم الأمثلة في مجموعة البيانات إلى المجموعات الفرعية الثلاث التالية المختلفة:

من الناحية المثالية، يجب أن ينتمي كل مثال في مجموعة البيانات إلى مجموعة فرعية واحدة سابقة فقط. على سبيل المثال، يجب ألا ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقق من الصحة.

سالب صحيح (TN)

#fundamentals

مثال يتوقّع فيه النموذج بشكل صحيح الفئة السلبية: على سبيل المثال، يستنتج النموذج أنّ رسالة إلكترونية معيّنة ليست رسالة غير مرغوب فيها، وأنّ هذه الرسالة الإلكترونية هي في الواقع ليست رسالة غير مرغوب فيها.

موجب صحيح (TP)

#fundamentals

مثال يتوقّع فيه النموذج بشكل صحيح الفئة الإيجابية. على سبيل المثال، يستنتج النموذج أن رسالة بريد إلكتروني معينة هي رسالة غير مرغوب فيها، وأن هذه الرسالة الإلكترونية هي حقًا محتوى غير مرغوب فيه.

معدل الموجب الصحيح (TPR)

#fundamentals

مرادف لعبارة recall والمقصود:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

المعدل الموجب الصحيح هو المحور ص في منحنى خاصية تشغيل جهاز الاستقبال.

U

فرط التعميم

#fundamentals

إنتاج model ذي قدرة تنبؤية ضعيفة لأنّ النموذج لم يستوعب مدى تعقيد بيانات التدريب بالكامل. يمكن أن تتسبب العديد من المشكلات في فرط التخصيص، بما في ذلك:

مثال غير مصنّف

#fundamentals

مثال يحتوي على ميزات ولكن بدون تصنيف. على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة غير مصنفة من نموذج تقييم منزل، لكل منها ثلاث ميزات ولكن بدون قيمة منزل:

عدد غرف النوم عدد الحمّامات عمر المنزل
3 2 15
2 1 72
4 2 34

في تعلُّم الآلة المراقَب، تتدرب النماذج على الأمثلة المصنّفة وتضع توقّعات على أمثلة غير مُصنَّفة.

في مرحلة التعلّم شبه الخاضعة للإشراف و غير الخاضعة للإشراف، يتم استخدام أمثلة غير مصنّفة أثناء التدريب.

تباين بين المثال غير المصنّف مع مثال مصنَّف.

تعلُّم الآلة غير المُوجّه

#clustering
#fundamentals

تدريب model للعثور على أنماط في مجموعة بيانات تكون عادةً مجموعة بيانات غير مصنَّفة.

إنّ الاستخدام الأكثر شيوعًا للتعلُّم الآلي غير المُوجّه هو تجميع البيانات في مجموعات من أمثلة متشابهة. على سبيل المثال، يمكن لخوارزمية التعلم الآلي غير المُوجّه تجميع الأغاني بناءً على خصائصها المختلفة. ويمكن أن تصبح المجموعات الناتجة مدخلاً لخوارزميات التعلّم الآلي الأخرى (على سبيل المثال، لخدمة اقتراح الموسيقى). يمكن أن يساعد التجميع العنقودي عندما تكون التسميات المفيدة نادرة أو غير موجودة. على سبيل المثال، في مجالات مثل مكافحة إساءة الاستخدام والاحتيال، يمكن أن تساعد المجموعات المستخدمين على فهم البيانات بشكل أفضل.

تتعارض مع تعلُّم الآلة المراقَب.

V

التحقق من الصحة

#fundamentals

تمثّل هذه السمة التقييم الأولي لجودة النموذج. تتحقّق عملية التحقق من جودة عبارات البحث المقترحة من خلال مقارنتها بمجموعة عمليات التحقق.

بما أنّ مجموعة التحقق تختلف عن مجموعة التدريب، تساعد عملية التحقق في الحماية من فرط التخصيص.

قد تفكر في تقييم النموذج مقابل التحقق الذي تم تحديده على أنه الجولة الأولى من الاختبار وتقييم النموذج في مقابل مجموعة الاختبار باعتبارها الجولة الثانية من الاختبار.

فقدان التحقق من الصحة

#fundamentals

مقياس يمثّل خسارة النموذج في مجموعة التحقّق أثناء تكرار معيّن للتدريب.

راجِع أيضًا منحنى التعميم.

مجموعة التحقّق

#fundamentals

هي مجموعة فرعية من مجموعة البيانات التي تُجري تقييمًا أوّليًا مقارنةً بنموذج مدرَّب. عادةً ما يتم تقييم النموذج الذي تم تدريبه بناءً على مجموعة التحقق عدة مرات قبل تقييم النموذج وفقًا لمجموعة الاختبار.

تقليديا، تقوم بتقسيم الأمثلة في مجموعة البيانات إلى المجموعات الفرعية الثلاث المميزة التالية:

من الناحية المثالية، يجب أن ينتمي كل مثال في مجموعة البيانات إلى مجموعة فرعية واحدة سابقة فقط. على سبيل المثال، يجب ألا ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقق من الصحة.

واط

الوزن

#fundamentals

يشير ذلك المصطلح إلى قيمة يضربها النموذج في قيمة أخرى. التدريب هو عملية تحديد الأوزان المثالية للنموذج، الاستنتاج هو عملية استخدام الأوزان التي تم تعلُّمها لتقديم توقّعات.

المجموع المرجح

#fundamentals

مجموع جميع قيم الإدخال ذات الصلة مضروبة في الأحجام المقابلة لها. على سبيل المثال، لنفترض أن المدخلات ذات الصلة تتكون مما يلي:

قيمة الإدخال الوزن الذي يمكن إدخاله
2 -1.3
-1 0.6
3 0.4

وبالتالي يكون المجموع المرجح هو:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

المجموع المرجح هو وسيطة الإدخال إلى دالة تفعيل.

Z

تسوية الدرجة المعيارية

#fundamentals

أسلوب scaling يتم استبدال قيمة feature الأولية بقيمة نقطة عائمة تمثل عدد الانحرافات المعيارية عن متوسّط هذه الميزة. على سبيل المثال، ضع في الاعتبار ميزة يكون متوسطها 800 وانحرافها المعياري 100. يوضح الجدول التالي كيف يمكن لتسوية الدرجة المعيارية تعيين القيمة الأولية إلى الدرجة Z:

قيمة أساسية الدرجة المعيارية
800 0
950 +1.5
575 -2.25

يتدرب نموذج التعلم الآلي بعد ذلك على الدرجات Z لهذه الميزة بدلاً من القيم الأولية.