مسرد مصطلحات تعلُم الآلة

يحدّد هذا المسرد مصطلحات الذكاء الاصطناعي.

A

الاستئصال

أسلوب لتقييم أهمية ميزة أو مكوّن من خلال إزالته مؤقتًا من نموذج بعد ذلك، يمكنك إعادة تدريب النموذج بدون تلك الميزة أو المكوّن، وإذا كان أداء النموذج الذي تمت إعادة تدريبه أسوأ بكثير، فمن المحتمل أنّ الميزة أو المكوّن الذي تمت إزالته كان مهمًا.

على سبيل المثال، لنفترض أنّك درّبت نموذج تصنيف على 10 ميزات وحقّقت دقة بنسبة% 88 على مجموعة الاختبار. للتحقّق من أهمية الميزة الأولى، يمكنك إعادة تدريب النموذج باستخدام الميزات التسع الأخرى فقط. إذا كان أداء النموذج الذي تمّت إعادة تدريبه أسوأ بكثير (على سبيل المثال، دقة أقل من% 55)، من المحتمل أنّ الميزة التي تمت إزالتها كانت مهمة. في المقابل، إذا كان النموذج الذي تمّت إعادة تدريبه يؤدي بشكل جيد بنفس القدر، فمن المحتمل أنّ هذه الميزة لم تكن مهمة.

يمكن أن تساعد عملية الاستئصال أيضًا في تحديد أهمية ما يلي:

  • المكونات الأكبر، مثل نظام فرعي كامل لنظام تعلم آلي أكبر
  • العمليات أو الأساليب، مثل خطوة المعالجة المُسبقة للبيانات

في كلتا الحالتين، ستلاحظ كيف يتغير أداء النظام (أو لا يتغير) بعد إزالة المكون.

اختبار A/B

طريقة إحصائية لمقارنة أسلوبَين (أو أكثر)، وهما أ وب. عادةً، يكون أ أسلوبًا حاليًا، وب أسلوبًا جديدًا. لا يحدّد اختبار A/B الأسلوب الأفضل أداءً فحسب، بل يحدّد أيضًا ما إذا كان الفرق ذا دلالة إحصائية.

عادةً ما تقارن اختبارات أ/ب مقياسًا واحدًا بين أسلوبَين، مثل مقارنة دقة النموذج بين أسلوبَين. في المقابل، يمكن أن تقارن اختبارات A/B أي عدد محدود من المقاييس.

شريحة تسريع

#GoogleCloud

فئة من مكونات الأجهزة المتخصصة المصممة لإجراء العمليات الحسابية الرئيسية اللازمة لخوارزميات التعلم العميق.

يمكن أن تؤدي شرائح المعالجة السريعة (أو المعالجات السريعة باختصار) إلى زيادة سرعة وكفاءة مهام التدريب والاستدلال بشكل كبير مقارنةً بوحدة المعالجة المركزية للأغراض العامة. وهي مثالية لتدريب الشبكات العصبية والمهام المشابهة التي تتطلّب قدرة حاسوبية عالية.

تشمل أمثلة شرائح المعالجة السريعة ما يلي:

  • وحدات معالجة الموتّرات (TPU) من Google مع أجهزة مخصّصة للتعليم المعمّق
  • وحدات معالجة الرسومات من NVIDIA، والتي تم تصميمها في البداية لمعالجة الرسومات، تم تصميمها لتمكين المعالجة المتوازية، ما يمكن أن يؤدي إلى زيادة كبيرة في سرعة المعالجة.

الدقة

#fundamentals
#Metric

عدد التوقّعات الصحيحة للتصنيف مقسومًا على إجمالي عدد التوقّعات والمقصود:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

على سبيل المثال، إذا قدّم نموذج 40 توقّعًا صحيحًا و10 توقّعات خاطئة، ستكون دقة النموذج كما يلي:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

يقدّم التصنيف الثنائي أسماء محدّدة لمختلف فئات التوقعات الصحيحة والتوقعات غير الصحيحة. إذًا، صيغة الدقة للتصنيف الثنائي هي كما يلي:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

where:

تحديد أوجه التشابه والاختلاف بين الدقة والضبط والاسترجاع

يمكنك الاطّلاع على التصنيف: الدقة والاسترجاع والضبط والمقاييس ذات الصلة في "دورة تدريبية مكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

إجراء

في التعلّم التعزيزي، تُعدّ الحالة هي الآلية التي ينتقل من خلالها الوكيل بين حالات البيئة. يختار الوكيل الإجراء باستخدام سياسة.

وظيفة التنشيط

#fundamentals

هي دالة تتيح للشبكات العصبونية التعرّف على العلاقات غير الخطية (المعقّدة) بين الميزات والتصنيف.

تتضمن وظائف التنشيط الشائعة ما يلي:

لا تكون مخططات وظائف التنشيط خطوطًا مستقيمة مفردة أبدًا. على سبيل المثال، يتكون رسم دالة تنشيط ReLU من خطين مستقيمين:

مخطط ديكارتي لخطين يحتوي السطر الأول على قيمة ثابتة y تساوي 0، تمتد على طول المحور x من -infinity,0 إلى 0,-0.
          يبدأ السطر الثاني عند النقطة 0,0. هذا الخط له ميل +1، لذا فهو يمتد من 0,0 إلى + ما لا نهاية، + ما لا نهاية.

يبدو الرسم البياني لدالة التنشيط السينية كما يلي:

رسم بياني منحني ثنائي الأبعاد حيث تمتد قيم x في النطاق من -اللانهاية إلى +الموجب، في حين تمتد قيم y في النطاق من 0 تقريبًا إلى 1 تقريبًا. عندما x يساوي 0، y يساوي 0.5. يكون ميل المنحنى دائمًا موجبًا، حيث يكون أعلى ميل عند 0,0.5 ويتناقص الميل تدريجيًا مع زيادة القيمة المطلقة لـ x.

لمزيد من المعلومات، يُرجى الاطّلاع على الشبكات العصبية: دوال التنشيط في "الدورة التدريبية المكثّفة حول تعلُّم الآلة".

التعلّم النشط

أتمرين النهج الذي تستخدم فيه الخوارزميةيختار بعض البيانات التي يتعلم منها. التعلم النشط له قيمة خاصة عندماأمثلة مُصنَّفة نادرة أو باهظة الثمن للحصول عليها. بدلاً من البحث بشكل أعمى عن مجموعة متنوعة من الأمثلة المصنفة، فإن خوارزمية التعلم النشط تسعى بشكل انتقائي إلى مجموعة معينة من الأمثلة التي تحتاجها للتعلم.

AdaGrad

خوارزمية متطورة لانحدار التدرّج اللوني تعيد قياس تدرّجات كل مَعلمة، ما يمنح كل مَعلمة معدّل تعلّم مستقلاً. للحصول على شرح كامل، يُرجى الاطّلاع على Adaptive Subgradient Methods for Online Learning and Stochastic Optimization.

التكيّف

#generativeAI

مرادف لعملية الضبط أو الضبط الدقيق

وكيل

#generativeAI

برنامج يمكنه تحليل مدخلات المستخدم المتعددة الوسائط من أجل التخطيط وتنفيذ الإجراءات نيابةً عن المستخدم.

في التعلّم التعزيزي، الوكيل هو الكيان الذي يستخدم سياسة لتحقيق أقصى عائد متوقّع من الانتقال بين الحالات الخاصة بالبيئة.

يستند إلى الذكاء الاصطناعي الوكيل

#generativeAI

تمثّل هذه السمة الشكل الصفة من وكيل. تشير كلمة "تفاعلي" إلى الصفات التي تتسم بها البرامج الآلية (مثل الاستقلالية).

سير العمل المستند إلى الذكاء الاصطناعي الوكيل

#generativeAI

هي عملية ديناميكية يخطّط فيها الوكيل وينفّذ الإجراءات بشكل مستقل لتحقيق هدف. قد تتضمّن العملية الاستدلال واستخدام أدوات خارجية وتصحيح الخطة ذاتيًا.

التجميع من الأسفل إلى الأعلى

#clustering

راجِع مقالة التجميع الهرمي.

فوضى الذكاء الاصطناعي

#generativeAI

محتوى من إنشاء نظام ذكاء اصطناعي توليدي يركّز على الكمية أكثر من الجودة على سبيل المثال، صفحة ويب مليئة بمحتوى منخفض الجودة تم إنشاؤه باستخدام الذكاء الاصطناعي وبطريقة غير مكلفة.

اكتشاف الشذوذ

عملية تحديد القيم الشاذة على سبيل المثال، إذا كان المتوسط لـ ميزة معيّنة هو 100 مع انحراف معياري يبلغ 10، يجب أن تحدّد ميزة "رصد القيم الشاذة" القيمة 200 على أنّها مشبوهة.

الواقع المعزّز

اختصار الواقع المعزّز

المساحة تحت منحنى الدقة والاستدعاء

#Metric

اطّلِع على المساحة تحت منحنى الدقة والاستدعاء.

المساحة تحت منحنى ROC

#Metric

اطّلِع على المساحة تحت منحنى ROC.

الذكاء الاصطناعي العام

آلية غير بشرية تُظهر مجموعة واسعة من القدرات على حل المشاكل والإبداع والتكيّف. على سبيل المثال، يمكن لبرنامج يوضّح الذكاء الاصطناعي العام ترجمة النصوص وتأليف السيمفونيات والتفوق في الألعاب التي لم يتم ابتكارها بعد.

الذكاء الاصطناعي

#fundamentals

برنامج أو نموذج غير بشري يمكنه حلّ مهام معقّدة على سبيل المثال، يندرج ضمن الذكاء الاصطناعي برنامج أو نموذج يترجم النصوص أو برنامج أو نموذج يحدّد الأمراض من صور الأشعة.

تعلُّم الآلة هو حقل فرعي من الذكاء الاصطناعي. ومع ذلك، في السنوات الأخيرة، بدأت بعض المؤسسات في استخدام مصطلحي الذكاء الاصطناعي والتعلم الآلي بالتبادل.

تنبيه

آلية مستخدَمة في شبكة عصبية تشير إلى أهمية كلمة معيّنة أو جزء من كلمة. تؤدي آلية الانتباه إلى تقليل كمية المعلومات التي يحتاج إليها النموذج لتوقّع الرمز المميز/الكلمة التالية. قد تتألف آلية الانتباه النموذجية من مجموع مرجّح على مجموعة من المدخلات، حيث يتم احتساب الوزن لكل مدخل من خلال جزء آخر من الشبكة العصبية.

يُرجى الرجوع أيضًا إلى الاهتمام الذاتي والاهتمام الذاتي المتعدد الرؤوس، وهما اللبنات الأساسية في المحوّلات.

يمكنك الاطّلاع على النماذج اللغوية الكبيرة: ما هو النموذج اللغوي الكبير؟ في "الدورة التدريبية المكثّفة حول تعلُّم الآلة" لمزيد من المعلومات حول الانتباه الذاتي.

يصف

#responsible

مرادف ميزة

في مجال عدالة التعلم الآلي، تشير السمات غالبًا إلى الخصائص المتعلقة بالأفراد.

أخذ عيّنات من السمات

#df

تكتيك لتدريب غابة القرار حيث كل واحد شجرة القرار يأخذ في الاعتبار فقط مجموعة فرعية عشوائية من الاحتمالات سمات عند تعلم حالة. بشكل عام، يتم أخذ عيّنة من مجموعة فرعية مختلفة من الميزات لكل عقدة. في المقابل، عند تدريب شجرة قرارات بدون أخذ عيّنات من السمات، يتم أخذ جميع الميزات المحتملة في الاعتبار لكل عقدة.

المساحة تحت منحنى ROC

#fundamentals
#متري

رقم يتراوح بين 0.0 و1.0 يمثّل قدرة نموذج التصنيف الثنائي على فصل الفئات الإيجابية عن الفئات السلبية. كلما اقتربت قيمة AUC من 1.0، تحسّنت قدرة النموذج على فصل الفئات عن بعضها.

على سبيل المثال، يوضّح الرسم التوضيحي التالي نموذج تصنيف يفصل تمامًا بين الفئات الإيجابية (الدوائر الخضراء) والفئات السلبية (المستطيلات الأرجوانية). يحتوي هذا النموذج المثالي غير الواقعي على قيمة AUC تبلغ 1.0:

خط أعداد يتضمّن 8 أمثلة موجبة على أحد الجانبين و9 أمثلة سالبة على الجانب الآخر

في المقابل، يوضّح الرسم التوضيحي التالي نتائج نموذج تصنيف أنشأ نتائج عشوائية. يحتوي هذا النموذج على قيمة AUC تبلغ 0.5:

خط أعداد يتضمّن 6 أمثلة موجبة و6 أمثلة سالبة
          تسلسل الأمثلة هو إيجابي، سلبي، إيجابي، سلبي، إيجابي، سلبي، إيجابي، سلبي، إيجابي، سلبي، إيجابي، سلبي.

نعم، النموذج السابق لديه قيمة AUC تبلغ 0.5، وليس 0.0.

وتقع معظم النماذج في مكان ما بين هذين الحدّين. على سبيل المثال، يفصل النموذج التالي بين القيم الإيجابية والسلبية إلى حد ما، وبالتالي يكون لديه قيمة AUC تتراوح بين 0.5 و1.0:

خط أعداد يتضمّن 6 أمثلة موجبة و6 أمثلة سالبة
          تسلسل الأمثلة هو سلبي، سلبي، سلبي، سلبي، إيجابي، سلبي، إيجابي، إيجابي، سلبي، إيجابي، إيجابي، إيجابي.

تتجاهل مقياس AUC أي قيمة تحدّدها لحدّ التصنيف. بدلاً من ذلك، تأخذ المساحة تحت منحنى ROC في الاعتبار جميع عتبات التصنيف الممكنة.

يمكنك الاطّلاع على التصنيف: منحنى ROC ومقياس AUC في "دورة مكثّفة عن تعلّم الآلة" للحصول على مزيد من المعلومات.

الواقع المعزّز

هي تكنولوجيا تفرض صورة من إنشاء الكمبيوتر على رؤية المستخدم للعالم الحقيقي، ما يوفّر بالتالي عرضًا مركّبًا.

autoencoder

نظام يتعلم كيفية استخراج المعلومات الأكثر أهمية من المدخلات. تعتبر أجهزة التشفير التلقائي عبارة عن مزيج من مُشفِّر و فك التشفير. تعتمد أجهزة التشفير التلقائي على العملية المكونة من خطوتين التالية:

  1. يقوم المشفر بتعيين الإدخال إلى تنسيق متوسط الأبعاد (عادةً) مع فقدان البيانات.
  2. يقوم جهاز فك التشفير ببناء نسخة ضائعة من الإدخال الأصلي عن طريق تعيين تنسيق الأبعاد المنخفضة إلى تنسيق الإدخال الأبعاد الأعلى الأصلي.

يتم تدريب المشفرات التلقائية من البداية إلى النهاية عن طريق جعل جهاز فك التشفير يحاول إعادة بناء الإدخال الأصلي من التنسيق الوسيط لجهاز التشفير بأكبر قدر ممكن من الدقة. بما أنّ التنسيق الوسيط أصغر (أقل أبعادًا) من التنسيق الأصلي، يتم إجبار الترميز التلقائي على التعرّف على المعلومات الأساسية في الإدخال، ولن يكون الإخراج مطابقًا تمامًا للإدخال.

على سبيل المثال:

  • إذا كانت بيانات الإدخال عبارة عن رسم، سيكون النسخ غير المطابق مشابهاً للرسم الأصلي، ولكن مع بعض التعديلات. ربما تزيل النسخة غير المطابقة تمامًا التشويش من الرسم الأصلي أو تملأ بعض وحدات البكسل الناقصة.
  • إذا كانت بيانات الإدخال نصًا، سينشئ الترميز التلقائي نصًا جديدًا يحاكي النص الأصلي (ولكنه ليس مطابقًا له).

راجِع أيضًا المشفّرات التلقائية المتغيرة.

التقييم التلقائي

#الذكاء الاصطناعي التوليدي

استخدام البرمجيات للحكم على جودة مخرجات النموذج.

عندما يكون ناتج النموذج بسيطًا نسبيًا، يمكن لنص برمجي أو برنامج مقارنة ناتج النموذج بالردّ المثالي. يُطلق على هذا النوع من التقييم التلقائي أحيانًا اسم التقييم البرمجي. غالبًا ما تكون مقاييس مثل ROUGE أو BLEU مفيدة للتقييم الآلي.

عندما تكون نتائج النموذج معقّدة أو لا تتضمّن إجابة صحيحة واحدة، ينفّذ برنامج منفصل للتعلم الآلي يُعرف باسم المقيّم التلقائي عملية التقييم التلقائي في بعض الأحيان.

يختلف ذلك عن التقييم من جانب المستخدمين.

الانحياز للاقتراحات الآلية

#responsible

عندما يفضل صانع القرار البشري التوصيات المقدمة بواسطة نظام صنع القرار الآلي على المعلومات المقدمة بدون أتمتة، حتى عندما يرتكب نظام صنع القرار الآلي أخطاء.

راجع العدالة: أنواع التحيز في الدورة التدريبية المكثفة حول التعلم الآلي للحصول على مزيد من المعلومات.

AutoML

أي عملية مبرمَجة لإنشاء نماذج تعلُّم الآلة يمكن لـ AutoML تنفيذ مهام مثل المهام التالية تلقائيًا:

يعد AutoML مفيدًا لعلماء البيانات لأنه يمكن أن يوفر لهم الوقت والجهد في تطوير خطوط أنابيب التعلم الآلي وتحسين دقة التنبؤ. وهو مفيد أيضًا لغير المتخصصين، لأنه يجعل مهام التعلم الآلي المعقدة في متناولهم بشكل أكبر.

راجع التعلم الآلي الآلي (AutoML) في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

تقييم autorater

#الذكاء الاصطناعي التوليدي
آلية هجينة للحكم على جودة الذكاء الاصطناعي التوليدي مخرجات النموذج التي تجمع التقييم البشري مع التقييم التلقائي. المُقيِّم التلقائي هو نموذج تعلُّم آلي مُدرَّب على البيانات التي تم إنشاؤها بواسطةالتقييم البشري. من الناحية المثالية، يتعلم المُقيِّم التلقائي كيفية تقليد المُقيِّم البشري.

تتوفر أدوات تقييم تلقائي جاهزة، ولكن أفضل أدوات التقييم التلقائي هي تلك التي يتم ضبطها خصيصًا للمهمة التي تقوم بتقييمها.

نموذج الانحدار التلقائي

#الذكاء الاصطناعي التوليدي

أنموذج الذي يستنتج تنبؤًا بناءً على تنبؤاته السابقة. على سبيل المثال، تتنبأ نماذج اللغة الانحدارية التلقائية بالحدث التاليالرمز المميز بناءً على الرموز المتوقعة مسبقًا. الجميع محول -قائم على نماذج لغوية كبيرة هي انحدارية تلقائية.

في المقابل،شبكة GAN عادةً ما لا تكون نماذج الصور المستندة إلى البيانات انحدارية تلقائيًا لأنها تولد صورة في تمريرة أمامية واحدة وليس بشكل تكراري في خطوات. ومع ذلك، فإن بعض نماذج إنشاء الصور تعتبر انحدارية تلقائيًا لأنها تولد صورة على خطوات.

الخسارة المساعدة

دالة الخسارة: تُستخدَم مع دالة الخسارة الرئيسية للنموذج للشبكة العصبية، وتساعد في تسريع عملية التدريب أثناء التكرارات الأولى عندما يتم ضبط الأوزان عشوائيًا.

وظائف الخسارة المساعدة تدفع فعالة التدرجات إلى السابق طبقات. وهذا يسهل التقارب خلال تمرين من خلال مكافحة مشكلة التدرج المتلاشي.

متوسط الدقة عند k

#متري

مقياس لتلخيص أداء نموذج بشأن طلب واحد يؤدي إلى إنشاء نتائج مرتبة، مثل قائمة مرقّمة باقتراحات كتب متوسط الدقة في ك هو، حسنًا، متوسطالدقة عند k القيم لكل منها مناسب نتيجة. وبالتالي، فإنّ صيغة متوسط الدقة عند k هي:

\[{\text{average precision at k}} = \frac{1}{n} \sum_{i=1}^n {\text{precision at k for each relevant item} } \]

where:

  • تمثّل السمة\(n\) عدد العناصر ذات الصلة في القائمة.

يختلف عن الاسترجاع عند k.

حالة محاذاة المحور

#df

في شجرة القرار ، أ حالة التي تنطوي على واحد فقط ميزة. على سبيل المثال، إذا كانت area ميزة، فإن ما يلي هو شرط محاذاة المحور:

area > 200

تتبايَن مع الشرط المائل.

B

الانتشار العكسي

#fundamentals

الخوارزمية التي تنفّذ خوارزمية انحدار التدرّج في الشبكات العصبية

يتضمّن تدريب الشبكة العصبونية العديد من التكرارات للدورة التالية المكوّنة من خطوتَين:

  1. خلال تمريرة أمامية ، يقوم النظام بمعالجة حزمة ل أمثلة لإنتاج التنبؤات. يقوم النظام بمقارنة كل توقع بكل قيمة label. الفرق بين التنبؤ وقيمة التسمية هوخسارة على سبيل المثال. يقوم النظام بتجميع الخسائر لجميع الأمثلة لحساب الخسارة الإجمالية للدفعة الحالية.
  2. أثناء التمرير الخلفي (الانتشار الخلفي)، يقلّل النظام من الفقد من خلال تعديل أوزان جميع الخلايا العصبية في جميع الطبقات المخفية.

غالبًا ما تحتوي الشبكات العصبية على العديد من الخلايا العصبية عبر العديد من الطبقات المخفية. يساهم كل عصبون من هذه العصبونات في الخسارة الإجمالية بطرق مختلفة. يحدد الانتشار الخلفي ما إذا كان يجب زيادة أو تقليل الأوزان المطبقة على الخلايا العصبية المعينة.

المعدل التعلم هو مضاعف يتحكم في الدرجة التي تزيد بها كل تمريرة خلفية أو تقلل بها كل وزن. سيؤدي معدل التعلم الكبير إلى زيادة أو تقليل كل وزن أكثر من معدل التعلم الصغير.

في مصطلحات حساب التفاضل والتكامل، تنفذ عملية الانتشار العكسيقاعدة السلسلة . من حساب التفاضل والتكامل. أي أنّ عملية الانتشار العكسي تحسب المشتق الجزئي للخطأ بالنسبة إلى كل مَعلمة.

منذ سنوات مضت، كان على ممارسي التعلم الآلي كتابة التعليمات البرمجية لتنفيذ الانتشار الخلفي. تنفذ الآن واجهات برمجة تطبيقات التعلم الآلي الحديثة مثل Keras الانتشار العكسي لك. أخيرًا!

لمزيد من المعلومات، يُرجى الاطّلاع على الشبكات العصبونية في "دورة مكثّفة عن تعلّم الآلة".

التجميع

#df

يشير ذلك المصطلح إلى طريقة تدريب مجموعة موحّدة يتم فيها تدريب كل نموذج مكوِّن على مجموعة فرعية عشوائية من أمثلة التدريب يتم جمع عيّناتها مع الاستبدال. على سبيل المثال، الغابة العشوائية هي مجموعة من أشجار القرارات التي يتم تدريبها باستخدام أسلوب التجميع.

مصطلح التجميع هو اختصار لعبارة تجميع التمهيد.

راجع الغابات العشوائية في دورة غابات القرار للحصول على مزيد من المعلومات.

حقيبة الكلمات

تمثيل الكلمات في عبارة أو مقطع، بغض النظر عن الترتيب. على سبيل المثال، تمثّل حقيبة الكلمات العبارات الثلاث التالية بشكل مطابق:

  • الكلب يقفز
  • قفز الكلب
  • كلب يقفز

يتم تعيين كل كلمة إلى فهرس فيمتجه متفرق حيث يحتوي المتجه على فهرس لكل كلمة في المفردات. على سبيل المثال، يتم ربط العبارة الكلب يقفز بمتجه سمات يتضمّن قيمًا غير صفرية في الفهارس الثلاثة التي تتوافق مع الكلمات الكلب ويقفز والـ. يمكن أن تكون القيمة غير الصفرية أيًا من القيم التالية:

  • 1 للإشارة إلى وجود كلمة.
  • عدد المرات التي تظهر فيها الكلمة في الحقيبة. على سبيل المثال، إذا كانت العبارة الكلب الكستنائي هو كلب ذو فراء كستنائي اللون، فسيتم تمثيل كل من الكلب الكستنائي والكلب على أنهما 2، بينما سيتم تمثيل الكلمات الأخرى على أنهما 1.
  • قيمة أخرى، مثل اللوغاريتم الخاص بعدد مرات ظهور كلمة في الحزمة

خط الأساس

#متري

أنموذج يتم استخدامها كنقطة مرجعية لمقارنة مدى أداء نموذج آخر (عادةً ما يكون أكثر تعقيدًا). على سبيل المثال، يمكن أن يكون نموذج الانحدار اللوجستي أساسًا جيدًا للنموذج العميق.

بالنسبة لمشكلة معينة، يساعد خط الأساس مطوري النماذج على تحديد الحد الأدنى للأداء المتوقع الذي يجب أن يحققه النموذج الجديد حتى يكون النموذج الجديد مفيدًا.

النموذج الأساسي

#generativeAI

نموذج مدرَّب مسبقًا يمكن استخدامه كنقطة بداية للتحسين من أجل معالجة مهام أو تطبيقات محدّدة.

اطّلِع أيضًا على النموذج المدرَّب مسبقًا والنموذج الأساسي.

حزمة

#fundamentals

مجموعة الأمثلة المستخدَمة في إحدى التكرارات التدريبية. يحدّد حجم الدفعة عدد الأمثلة في الدفعة.

راجِع مقالة الفترة للحصول على شرح حول كيفية ارتباط الدفعة بالفترة.

يمكنك الاطّلاع على الانحدار الخطي: المَعلمات الفائقة في "دورة مكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

الاستدلال المجمّع

#GoogleCloud

عملية استنتاج التوقعات بشأن عدة أمثلة غير مصنّفة مقسّمة إلى مجموعات فرعية أصغر ("دفعات").

يمكن أن يستفيد الاستدلال الدفعي من ميزات التوازي فيرقائق التسريع. أي أنّ أدوات تسريع متعدّدة يمكنها في الوقت نفسه استنتاج التوقعات بشأن مجموعات مختلفة من الأمثلة غير المصنّفة، ما يؤدي إلى زيادة كبيرة في عدد الاستنتاجات في الثانية.

يمكنك الاطّلاع على أنظمة تعلُّم الآلة في مرحلة الإنتاج: الاستنتاج الثابت مقابل الاستنتاج الديناميكي في "دورة تدريبية مكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

التسوية على دفعات

تسوية الإدخال أو الإخراج لدوال التنشيط في طبقة مخفية يمكن أن يوفّر التسوية على مستوى المجموعة المزايا التالية:

حجم الدفعة

#fundamentals

عدد الأمثلة في دفعة على سبيل المثال، إذا كان حجم الدفعة 100، فإن النموذج يعالج 100 مثال لكلالتكرار.

وفيما يلي استراتيجيات حجم الدفعة الشائعة:

  • النزول المتدرّج العشوائي (SGD)، حيث يكون حجم الدفعة 1
  • المجموعة الكاملة، حيث يكون حجم المجموعة هو عدد الأمثلة في مجموعة التدريب بأكملها. على سبيل المثال، إذا كانت مجموعة التدريب تحتوي على مليون مثال، فسيكون حجم الدفعة مليون مثال. عادةً ما تكون الدفعة الكاملة استراتيجية غير فعّالة.
  • دفعة صغيرة حيث يكون حجم الدفعة عادةً ما بين 10 و1000. عادةً ما تكون الدفعة الصغيرة هي الاستراتيجية الأكثر فعالية.

انظر ما يلي لمزيد من المعلومات:

شبكة عصبية بايزية

شبكة عصبية احتمالية تأخذ في الاعتبار عدم اليقين في الأوزان والنتائج. عادةً ما يتوقّع نموذج الانحدار المستند إلى الشبكة العصبية القياسية قيمة عددية، فعلى سبيل المثال، يتوقّع النموذج القياسي سعر منزل يبلغ 853,000 ريال سعودي. في المقابل، تتنبّأ الشبكة العصبية البايزية بتوزيع القيم، فعلى سبيل المثال، يتنبّأ نموذج بايزي بسعر منزل يبلغ 853,000 دولار أمريكي بانحراف معياري يبلغ 67,200 دولار أمريكي.

تعتمد الشبكة العصبية البايزية على نظرية بايز لحساب عدم اليقين في الأوزان والتنبؤات. يمكن أن تكون الشبكة العصبية البايزية مفيدة عندما يكون من المهم تحديد كمية عدم اليقين، كما هو الحال في النماذج المتعلقة بالأدوية. يمكن أن تساعد الشبكات العصبونية البايزية أيضًا في منع التطابق الزائد.

التحسين البايزي

أسلوب نموذج الانحدار الاحتمالي لتحسين دوال الهدف المكلفة حسابيًا، وذلك من خلال تحسين بديل يحدّد عدم اليقين باستخدام أسلوب التعلّم "بايزي". بما أنّ عملية التحسين المستندة إلى الإحصاء البايزي مكلفة للغاية، يتم استخدامها عادةً لتحسين المهام التي يصعب تقييمها والتي تتضمّن عددًا صغيرًا من المَعلمات، مثل اختيار المَعلمات الفائقة.

معادلة بيلمان

في التعلم التعزيزي، يتم تحقيق الهوية التالية من خلال التطابق الأمثل:دالة Q :

\[Q(s, a) = r(s, a) + \gamma \mathbb{E}_{s'|s,a} \max_{a'} Q(s', a')\]

تطبّق خوارزميات التعلّم المعزّز هذه الهوية لإنشاء تعلّم Q باستخدام قاعدة التعديل التالية:

\[Q(s,a) \gets Q(s,a) + \alpha \left[r(s,a) + \gamma \displaystyle\max_{\substack{a_1}} Q(s',a') - Q(s,a) \right] \]

بالإضافة إلى التعلّم المعزّز، يمكن تطبيق معادلة بيلمان في البرمجة الديناميكية. راجع مدخل ويكيبيديا لمعادلة بيلمان.

‫BERT (تمثيلات الترميز الثنائية الاتجاه من المحولات)

نموذج معماري للنصالتمثيل. يمكن أن يعمل نموذج BERT المدرب كجزء من نموذج أكبر لتصنيف النص أو مهام التعلم الآلي الأخرى.

يتمتع BERT بالخصائص التالية:

تتضمن متغيرات BERT ما يلي:

  • ALBERT، وهو اختصار لـ A Light BERT.
  • LaBSE.

يمكنك الاطّلاع على Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing للحصول على نظرة عامة حول BERT.

التحيز (الأخلاق/العدالة)

#responsible
#fundamentals

1. النمطية أو التحيز أو المحاباة تجاه بعض الأشياء أو الأشخاص أو المجموعات على حساب الآخرين. يمكن أن تؤثر هذه التحيزات على جمع البيانات وتفسيرها، وتصميم النظام، وكيفية تفاعل المستخدمين مع النظام. وتشمل أشكال هذا النوع من التحيز ما يلي:

2. خطأ منهجي ناتج عن إجراء أخذ العينات أو الإبلاغ. وتشمل أشكال هذا النوع من التحيز ما يلي:

لا ينبغي الخلط بينه وبين مصطلح التحيز في نماذج التعلم الآلي أو تحيز التنبؤ.

راجع العدالة: أنواع التحيز في الدورة التدريبية المكثفة حول التعلم الآلي للحصول على مزيد من المعلومات.

الانحياز (رياضيات) أو مصطلح الانحياز

#fundamentals

اعتراض أو إزاحة من الأصل. التحيز هو أحد المعلمات في نماذج التعلم الآلي، والذي يرمز إليه بأحد الشكلين التاليين:

  • b
  • w0

على سبيل المثال، التحيز هو b في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في خط ثنائي الأبعاد بسيط، يعني التحيز ببساطة "نقطة التقاطع مع المحور y". على سبيل المثال، تحيز الخط في الرسم التوضيحي التالي هو 2.

رسم بياني لخط مستقيم بميل 0.5 وانحياز (نقطة التقاطع مع المحور الصادي) 2

يحدث التحيز لأنّ بعض النماذج لا تبدأ من نقطة الأصل (0,0). على سبيل المثال، لنفترض أنّ تكلفة الدخول إلى مدينة ملاهٍ هي 2 يورو، بالإضافة إلى 0.5 يورو لكل ساعة يقضيها العميل. لذلك، فإنّ نموذجًا يربط التكلفة الإجمالية بانحياز قدره 2 لأنّ أدنى تكلفة هي 2 يورو.

يجب عدم الخلط بين التحيز والتحيز في الأخلاقيات والعدالة أو التحيز في التوقعات.

يمكنك الاطّلاع على الانحدار الخطي في "دورة مكثّفة عن تعلّم الآلة" للحصول على مزيد من المعلومات.

ثنائي الاتجاه

مصطلح يستخدم لوصف نظام يقوم بتقييم النص الذي يسبق ويتبع قسمًا مستهدفًا من النص. في المقابل، لا يقيّم النظام أحادي الاتجاه سوى النص الذي يسبق القسم المستهدف من النص.

على سبيل المثال، فكِّر في نموذج لغة مخفي يجب أن يحدّد احتمالات الكلمة أو الكلمات التي تمثّل الخط السفلي في السؤال التالي:

ما هو _____ معك؟

يجب أن يستند النموذج اللغوي أحادي الاتجاه إلى الاحتمالات التي يوفّرها السياق فقط من خلال الكلمات "ما" و"هو" و "ال". في المقابل، يمكن لنموذج لغة ثنائي الاتجاه أن يستمد السياق أيضًا من الكلمتين "مع" و "أنت"، ما قد يساعد النموذج في إنشاء توقّعات أفضل.

نموذج اللغة ثنائي الاتجاه

نموذج لغوي يحدّد احتمال ظهور رمز مميّز معيّن في موضع معيّن ضمن مقتطف من النص استنادًا إلى النص السابق والنص التالي.

bigram

ثنائي الحروف، حيث N=2

التصنيف الثنائي

#fundamentals

نوع من مهام التصنيف التي تتوقّع إحدى الفئتين المتنافيتين:

على سبيل المثال، يؤدي نموذجا تعلُّم الآلة التاليان التصنيف الثنائي:

  • نموذج يحدّد ما إذا كانت الرسائل الإلكترونية غير مرغوب فيها (الفئة الإيجابية) أو مرغوب فيها (الفئة السلبية).
  • نموذج يقوم بتقييم الأعراض الطبية لتحديد ما إذا كان الشخص مصابًا بمرض معين (الفئة الإيجابية) أو لا يعاني من هذا المرض (الفئة السلبية).

يختلف عن التصنيف المتعدّد الفئات.

راجِع أيضًا الانحدار اللوجستي وحد التصنيف.

يمكنك الاطّلاع على التصنيف في "دورة مكثّفة عن تعلّم الآلة" للحصول على مزيد من المعلومات.

شرط ثنائي

#df

في شجرة القرار ، أ حالة الذي له نتيجتان محتملتان فقط، عادةً نعم أو لا على سبيل المثال، ما يلي هو حالة ثنائية:

temperature >= 100

التباين معحالة غير ثنائية.

اطّلِع على أنواع الشروط في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

وضع في سلة المهملات

مرادف لتحويل القيم

نموذج الصندوق الأسود

نموذج يستحيل أو يصعب على البشر فهم "طريقة تفكيره". وهذا يعني أنه على الرغم من أن البشر يستطيعون رؤية كيف المطالبات يؤثر الاستجابات لا يستطيع البشر تحديد كيفية تحديد نموذج الصندوق الأسود للاستجابة على وجه التحديد. بعبارة أخرى، يفتقر نموذج الصندوق الأسود إلى القابلية على التفسير.

معظم النماذج العميقة والنماذج اللغوية الكبيرة هي صناديق سوداء.

‫BLEU (التقييم الثنائي للترجمة الآلية)

مقياس يتراوح بين 0.0 و1.0 لتقييم الترجمات الآلية، مثلاً من الإسبانية إلى اليابانية

لحساب النتيجة، تقارن مقاييس BLEU عادةً ترجمة نموذج تعلُّم الآلة (النص الذي تم إنشاؤه) بترجمة خبير بشري (النص المرجعي). تُحدّد درجة تطابق N-grams في النص الذي تم إنشاؤه مع النص المرجعي درجة BLEU.

الورقة البحثية الأصلية حول هذا المقياس هي BLEU: a Method for Automatic Evaluation of Machine Translation.

يمكنك الاطّلاع أيضًا على BLEURT.

‫BLEURT (التقييم الثنائي اللغة باستخدام أدوات تحويل)

مقياس للتقييمالترجمات الآلية من لغة إلى أخرى، وخاصة من وإلى اللغة الإنجليزية.

بالنسبة للترجمات من وإلى اللغة الإنجليزية، يتوافق BLEURT بشكل أوثق مع التصنيفات البشرية منبلو. على عكس BLEU، يركز BLEURT على التشابه الدلالي (المعنى) ويمكنه استيعاب إعادة الصياغة.

تعتمد BLEURT على مدرب مسبقًا نموذج اللغة الكبير ( بيرت (بالضبط) هذا هو الحال إذن مُضبوط بدقة على نص من مترجمين بشريين.

الورقة الأصلية حول هذا المقياس هي BLEURT: تعلم المقاييس القوية لتوليد النصوص.

تعزيز

إحدى تقنيات تعلُّم الآلة التي تجمع بشكل متكرّر مجموعة من نماذج التصنيف البسيطة وغير الدقيقة جدًا (المعروفة باسم "المصنّفات الضعيفة") في نموذج تصنيف عالي الدقة (يُعرف باسم "المصنّف القوي") من خلال زيادة وزن الأمثلة التي يصنّفها النموذج حاليًا بشكل خاطئ.

يمكنك الاطّلاع على أشجار القرارات المعزّزة بالتدرّج في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

مربّع الحدود

في الصورة، إحداثيات (x، y) لمستطيل حول منطقة ذات أهمية، مثل الكلب في الصورة أدناه.

صورة فوتوغرافية لكلب يجلس على أريكة مربع حدودي أخضر بإحداثيات أعلى اليسار (275، 1271) وإحداثيات أسفل اليمين (2954، 2761) يحيط بجسم الكلب

البث

توسيع شكل المتعامل في عملية رياضيات المصفوفة إلىأبعاد متوافق مع هذه العملية. على سبيل المثال، يتطلب الجبر الخطي أن يكون للمتعاملين في عملية جمع المصفوفة نفس الأبعاد. وبالتالي، لا يمكنك إضافة مصفوفة ذات شكل (m, n) إلى متجه بطول n. تتيح عملية البث هذه العملية من خلال توسيع المتّجه الذي يبلغ طوله n إلى مصفوفة ذات شكل (m, n) عن طريق تكرار القيم نفسها في كل عمود.

راجع الوصف التالي لـ البث في NumPy للحصول على مزيد من التفاصيل.

تقسيم البيانات إلى مجموعات

#fundamentals

تحويل واحد ميزة إلى ميزات ثنائية متعددة تسمى دلاء أو صناديق القمامة ، عادةً بناءً على نطاق القيمة. الميزة المقطوعة هي عادةميزة مستمرة.

على سبيل المثال، بدلاً من تمثيل درجة الحرارة كميزة فاصلة عائمة واحدة مستمرة، يمكنك تقسيم نطاقات درجات الحرارة إلى مجموعات منفصلة، مثل:

  • <= 10 درجات مئوية سيكون الدلو "البارد".
  • 11 - 24 درجة مئوية ستكون الدلو "المعتدل".
  • >= 25 درجة مئوية ستكون الدلو "الدافئ".

سوف يتعامل النموذج مع كل قيمة في نفس الدلو بنفس الطريقة. على سبيل المثال، تندرج القيمتان 13 و22 ضمن الفئة المعتدلة، وبالتالي يتعامل النموذج مع القيمتين بشكل مماثل.

راجع البيانات الرقمية: التجميع في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

C

طبقة المعايرة

تعديل ما بعد التنبؤ، عادةً ما يكون من أجل تفسيرتحيز التنبؤ. يجب أن تتطابق التوقعات والاحتمالات المعدلة مع توزيع مجموعة العلامات المرصودة.

جيل المرشحين

المجموعة الأولية من الاقتراحات التي يختارها نظام الاقتراحات على سبيل المثال، لنفترض أنّ هناك مكتبة تبيع 100,000 عنوان. تنشئ مرحلة إنشاء المرشّحين قائمة أصغر بكثير من الكتب المناسبة لمستخدم معيّن، ولنفترض أنّها تضم 500 كتاب. ولكن حتى 500 كتاب هو عدد كبير جدًا لاقتراحه على المستخدم. تؤدي المراحل اللاحقة والأكثر تكلفة في نظام التوصية (مثل التسجيل وإعادة الترتيب) إلى تقليل عدد هذه النتائج البالغ 500 إلى مجموعة أصغر بكثير وأكثر فائدة من التوصيات.

راجع نظرة عامة على إنشاء المرشحين في دورة أنظمة التوصية للحصول على مزيد من المعلومات.

أخذ العينات المرشحة

تحسين وقت التدريب الذي يحسب الاحتمالية لجميع إيجابي العلامات، باستخدام، على سبيل المثال، سوفت ماكس ، ولكن فقط لعينة عشوائية من العلامات السلبية. على سبيل المثال، بالنظر إلى مثال يحمل علامة beagle (بيجل) وdog (كلب)، تحسب العينة المرشحة الاحتمالات المتوقعة وشروط الخسارة المقابلة لـ:

  • بيجل
  • كلبًا
  • مجموعة فرعية عشوائية من الفئات السلبية المتبقية (على سبيل المثال، cat، lollipop، fence).

الفكرة هي أنّ الفئات السلبية يمكن أن تستفيد من التعزيز السلبي الأقل تكرارًا طالما أنّ الفئات الإيجابية تتلقّى دائمًا التعزيز الإيجابي المناسب، وقد تم رصد ذلك تجريبيًا بالفعل.

تُعد عملية أخذ العينات من المرشحين أكثر كفاءة من الناحية الحسابية من خوارزميات التدريب التي تحسب التوقعات لـ جميع الفئات السلبية، خاصةً عندما يكون عدد الفئات السلبية كبيرًا جدًا.

البيانات التصنيفية

#fundamentals

سمات وجود مجموعة محددة من القيم الممكنة. على سبيل المثال، ضع في اعتبارك ميزة تصنيفية تسمى traffic-light-state، والتي لا يمكن أن تحتوي إلا على واحدة من القيم الثلاث التالية:

  • red
  • yellow
  • green

من خلال تمثيل traffic-light-state كميزة تصنيفية، يمكن للنموذج أن يتعلم التأثيرات المختلفة لـ red وgreen وyellow على سلوك السائق.

تُسمى الميزات التصنيفية أحيانًاميزات منفصلة.

التباين مع البيانات الرقمية.

راجع العمل مع البيانات التصنيفية في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

نموذج لغوي سببي

مرادف لـنموذج اللغة أحادي الاتجاه.

يرىنموذج اللغة ثنائي الاتجاه لمقارنة المناهج الاتجاهية المختلفة في نمذجة اللغة.

مركز الثقل

#clustering

مركز المجموعة كما تحدده خوارزمية k-means أو خوارزمية k-median على سبيل المثال، إذا كانت قيمة k هي 3، ستعثر الخوارزمية التصنيفية أو خوارزمية تحليل المجموعات على 3 نقاط مركزية.

راجع خوارزميات التجميع في دورة التجميع للحصول على مزيد من المعلومات.

التجميع القائم على مركز الثقل

#clustering

فئة من التجميع خوارزميات تنظم البيانات في مجموعات غير هرمية. k-means هي خوارزمية التجميع المعتمدة على مركز الثقل الأكثر استخدامًا.

التباين مع خوارزميات التجميع الهرمي.

راجع خوارزميات التجميع في دورة التجميع للحصول على مزيد من المعلومات.

تحفيز سلسلة الأفكار

#الذكاء الاصطناعي التوليدي

أ الهندسة السريعة تقنية تشجع على نموذج اللغة الكبير (LLM) لشرح أسبابها خطوة بخطوة. على سبيل المثال، ضع في اعتبارك المطلب التالي، مع إيلاء اهتمام خاص للجملة الثانية:

ما عدد قوى الجاذبية التي سيتعرض لها السائق في سيارة تنتقل من 0 إلى 60 ميلاً في الساعة في 7 ثوانٍ؟ في الإجابة، أظهر جميع الحسابات ذات الصلة.

من المرجّح أن يتضمّن رد النموذج اللغوي الكبير ما يلي:

  • عرض سلسلة من صيغ الفيزياء، مع إدخال القيم 0 و60 و7 في الأماكن المناسبة
  • اشرح لماذا تم اختيار هذه الصيغ وما معنى المتغيرات المختلفة.

يفرض الطلب المستند إلى سلسلة الأفكار على النموذج اللغوي الكبير إجراء جميع العمليات الحسابية، ما قد يؤدي إلى تقديم إجابة أكثر صحة. بالإضافة إلى ذلك، يتيح أسلوب &quot;سلسلة الأفكار&quot; للمستخدم فحص خطوات النموذج اللغوي الكبير لتحديد ما إذا كانت الإجابة منطقية أم لا.

حرف N-gram F-score (ChrF)

#Metric

مقياس للتقييمالترجمة الآلية نماذج. تحدد درجة F للحرف N-gram الدرجة التي ن-جرام في نص مرجعي تداخل N-grams في نموذج التعلم الآلي النص المُولَّد.

يشبه مقياس F-score الخاص بـ N-gram للأحرف المقاييس في عائلتَي ROUGE وBLEU، باستثناء ما يلي:

  • تعمل نتيجة F-score لـ N-gram الأحرف على N-gram الأحرف.
  • ROUGE وBLEU يعملان علىكلمة N-جرام أوالرموز.

محادثة

#generativeAI

محتوى حوار ذهابًا وإيابًا مع نظام تعلُّم آلي، ويكون عادةً نموذجًا لغويًا كبيرًا يصبح التفاعل السابق في الدردشة (ما كتبته وكيف استجاب نموذج اللغة الكبير) هو السياق للأجزاء اللاحقة من الدردشة.

روبوت المحادثة هو تطبيق لنموذج لغوي كبير.

نقطة تفتيش

البيانات التي تسجّل حالة المَعلمات الخاصة بالنموذج، سواء أثناء التدريب أو بعد اكتماله على سبيل المثال، أثناء التدريب، يمكنك إجراء ما يلي:

  1. توقف عن التدريب، ربما عمدًا أو ربما نتيجة لأخطاء معينة.
  2. احفظ النقطة المرجعية.
  3. في وقت لاحق، قم بإعادة تحميل نقطة التفتيش، ربما على أجهزة مختلفة.
  4. إعادة بدء التدريب

صنف

#fundamentals

فئة يمكن أن تنتمي إليها التسمية. على سبيل المثال:

  • في نموذج التصنيف الثنائي الذي يرصد الرسائل غير المرغوب فيها، قد تكون الفئتان رسائل غير مرغوب فيها وليست رسائل غير مرغوب فيها.
  • في نموذج التصنيف المتعدّد الفئات الذي يحدّد سلالات الكلاب، قد تكون الفئات بودل وبيغل وبَغ وما إلى ذلك.

يتنبأ نموذج التصنيف بفئة. في المقابل، يتنبأ نموذج الانحدار برقم بدلاً من فئة.

يمكنك الاطّلاع على التصنيف في "دورة مكثّفة عن تعلّم الآلة" للحصول على مزيد من المعلومات.

مجموعة بيانات متوازنة الفئات

مجموعة بيانات تحتوي على تصنيفات فئوية يكون فيها عدد مثيلات كل فئة متساويًا تقريبًا. على سبيل المثال، لنفترض مجموعة بيانات نباتية يمكن أن يكون تصنيفها الثنائي إما نباتًا محليًا أو نباتًا غير محلي:

  • مجموعة البيانات التي تتضمّن 515 نباتًا أصليًا و485 نباتًا غير أصلي هي مجموعة بيانات متوازنة الفئات.
  • مجموعة البيانات التي تتضمّن 875 نباتًا أصليًا و125 نباتًا غير أصلي هي مجموعة بيانات غير متوازنة الفئات.

لا يوجد خط فاصل رسمي بين مجموعات البيانات المتوازنة الفئات ومجموعات البيانات غير المتوازنة الفئات. لا يصبح التمييز مهمًا إلا عندما يتعذّر تقارب نموذج تم تدريبه على مجموعة بيانات غير متوازنة بشكل كبير. راجِع مجموعات البيانات: مجموعات البيانات غير المتوازنة في "دورة مكثّفة عن تعلّم الآلة" للحصول على التفاصيل.

نموذج التصنيف

#fundamentals

أ نموذج الذي تنبؤه هو فصل. على سبيل المثال، فيما يلي جميع نماذج التصنيف:

  • نموذج يتنبأ بلغة الجملة المدخلة (الفرنسية؟ الأسبانية؟ (إيطالية؟).
  • نموذج يتوقّع أنواع الأشجار (قيقب؟ سنديان؟ Baobab?).
  • نموذج يتنبأ بالفئة الإيجابية أو السلبية لحالة طبية معيّنة.

في المقابل، تتنبأ نماذج الانحدار بالأرقام بدلاً من الفئات.

في ما يلي نوعان شائعان من نماذج التصنيف:

عتبة التصنيف

#fundamentals

في التصنيف الثنائي، يكون العدد بين 0 و1 الذي يحوّل الناتج الأولي لنموذج الانحدار اللوجستي إلى توقع إما الفئة الإيجابية أو الفئة السلبية. يُرجى العِلم أنّ حدّ التصنيف هو قيمة يختارها الإنسان، وليس قيمة يختارها تدريب النموذج.

يقوم نموذج الانحدار اللوجستي بإخراج قيمة خام بين 0 و 1. بعد ذلك:

  • إذا كانت هذه القيمة الأولية أكبر من حد التصنيف، يتم توقّع الفئة الموجبة.
  • إذا كانت هذه القيمة الأولية أقل من حد التصنيف، يتم التنبؤ بالفئة السلبية.

على سبيل المثال، لنفترض أنّ حد التصنيف هو 0.8. إذا كانت القيمة الأولية 0.9، سيتوقّع النموذج الفئة الموجبة. إذا كانت القيمة الأولية 0.7، يتوقّع النموذج الفئة السلبية.

يؤثر اختيار عتبة التصنيف بشكل كبير على عدد نتائج إيجابية كاذبة و نتائج سلبية خاطئة.

لمزيد من المعلومات، يمكنك الاطّلاع على الحدود ومصفوفة الالتباس في "دورة مكثّفة عن تعلّم الآلة".

مصنِّف

#fundamentals

مصطلح عام يشير إلى نموذج التصنيف.

مجموعة بيانات غير متوازنة الفئات

#fundamentals

مجموعة بيانات خاصة بالتصنيف يختلف فيها إجمالي عدد التصنيفات لكل فئة بشكل كبير. على سبيل المثال، ضع في اعتباركالتصنيف الثنائي مجموعة البيانات التي تم تقسيم تسميتيها على النحو التالي:

  • مليون علامة سلبية
  • ‫10 تصنيفات إيجابية

نسبة التصنيفات السلبية إلى الإيجابية هي 100,000 إلى 1، لذا هذه مجموعة بيانات غير متوازنة الفئات.

على النقيض من ذلك، مجموعة البيانات التالية هيمتوازنة الطبقة لأن نسبة العلامات السلبية إلى العلامات الإيجابية قريبة نسبيًا من 1:

  • 517 علامة سلبية
  • ‫483 تصنيفًا إيجابيًا

يمكن أن تكون مجموعات البيانات المتعددة الفئات غير متوازنة الفئات أيضًا. على سبيل المثال، مجموعة بيانات التصنيف المتعدد الفئات التالية غير متوازنة الفئات أيضًا لأنّ إحدى التصنيفات تتضمّن أمثلة أكثر بكثير من التصنيفين الآخرين:

  • مليون تصنيف من الفئة "أخضر"
  • 200 ملصقًا بفئة "أرجواني"
  • 350 ملصقًا بفئة "برتقالي"

قد يشكل تدريب مجموعات البيانات غير المتوازنة بين الفئات تحديات خاصة. راجِع مجموعات البيانات غير المتوازنة في &quot;دورة مكثّفة عن تعلّم الآلة&quot; للحصول على التفاصيل.

راجِع أيضًا الإنتروبيا وفئة الأغلبية وفئة الأقلية.

قص

#fundamentals

أسلوب للتعامل مع القيم الشاذة من خلال تنفيذ أحد الإجراءَين التاليَين أو كليهما:

  • تقليلميزة القيم التي تكون أكبر من الحد الأقصى وصولاً إلى ذلك الحد الأقصى.
  • زيادة قيم الميزات التي تقل عن الحد الأدنى إلى هذا الحد الأدنى

على سبيل المثال، افترض أن <0.5% من قيم ميزة معينة تقع خارج النطاق 40–60. في هذه الحالة، يمكنك القيام بما يلي:

  • قم بقص جميع القيم التي تزيد عن 60 (الحد الأقصى) لتصبح 60 بالضبط.
  • قم بقص جميع القيم التي تقل عن 40 (الحد الأدنى) بحيث تكون 40 بالضبط.

يمكن أن تؤدي القيم المتطرفة إلى إتلاف النماذج، مما يتسبب في بعض الأحيانالأوزان لتفيض أثناء التدريب. يمكن أن تؤدي بعض القيم الشاذة أيضًا إلى إفساد مقاييس مثل الدقة بشكل كبير. يعتبر التقليم تقنية شائعة للحد من الضرر.

قص التدرج القوات التدرج القيم ضمن نطاق محدد أثناء التدريب.

يمكنك الاطّلاع على البيانات الرقمية: التسوية في "الدورة التدريبية المكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

Cloud TPU

#TensorFlow
#جوجل كلاود

مسرع أجهزة متخصص مصمم لتسريع أحمال عمل التعلم الآلي على Google Cloud.

التجميع

#clustering

تجميع الأمثلة ذات الصلة، خاصةً أثناء التعلّم غير الموجَّه بعد تجميع كل الأمثلة، يمكن للمستخدم أن يقدّم بشكل اختياري معنى لكل مجموعة.

هناك العديد من خوارزميات التجميع. على سبيل المثال، k-means أمثلة على مجموعات الخوارزميات بناءً على قربها من مركز الثقل كما هو موضح في الرسم التخطيطي التالي:

رسم بياني ثنائي الأبعاد يتم فيه تصنيف المحور x على أنّه عرض الشجرة،
          وتصنيف المحور y على أنّه ارتفاع الشجرة. يحتوي الرسم البياني على نقطتَين مركزيتَين وعشرات من نقاط البيانات. يتم تصنيف نقاط البيانات استنادًا إلى مدى تقاربها. أي أنّ نقاط البيانات الأقرب إلى إحدى النقاط المركزية يتم تصنيفها ضمن المجموعة 1، بينما يتم تصنيف نقاط البيانات الأقرب إلى النقطة المركزية الأخرى ضمن المجموعة 2.

يمكن بعد ذلك أن يراجع باحث بشري المجموعات، وأن يصنّف مثلاً المجموعة 1 على أنّها "أشجار قزمة" والمجموعة 2 على أنّها "أشجار كاملة الحجم".

كمثال آخر، لنفترض أنّ هناك خوارزمية تجميع عنقودي تستند إلى المسافة بين مثال ونقطة مركزية، كما هو موضّح أدناه:

يتم ترتيب عشرات نقاط البيانات في دوائر متحدة المركز،
          مثل الثقوب حول مركز لوحة رمي السهام. يتم تصنيف حلقة نقاط البيانات الأقرب إلى المركز على أنّها المجموعة 1، ويتم تصنيف الحلقة الوسطى على أنّها المجموعة 2، ويتم تصنيف الحلقة الأبعد عن المركز على أنّها المجموعة 3.

راجع دورة التجميع للحصول على مزيد من المعلومات.

التكيّف المشترك

هي سلوك غير مرغوب فيه يحدث عندما تتوقّع الخلايا العصبية أنماطًا في بيانات التدريب من خلال الاعتماد بشكل حصري تقريبًا على نواتج خلايا عصبية أخرى معيّنة بدلاً من الاعتماد على سلوك الشبكة ككل. عندما لا تتوفّر الأنماط التي تؤدي إلى التكيّف المشترك في بيانات التحقّق، يؤدي التكيّف المشترك إلى الإفراط في التكيّف. تؤدي التسوية باستخدام التسرب إلى الحد من التكيّف المشترك، لأنّ التسرب يضمن عدم اعتماد الخلايا العصبية على خلايا عصبية أخرى معيّنة فقط.

الفلترة حسب الاهتمامات الجماعية

تحضيرالتوقعات حول اهتمامات مستخدم واحد بناءً على اهتمامات العديد من المستخدمين الآخرين. يتم استخدام التصفية التعاونية غالبًا في أنظمة التوصية.

يمكنك الاطّلاع على الترشيح التعاوني في دورة "أنظمة الاقتراحات" للحصول على مزيد من المعلومات.

نموذج مضغوط

أي نموذج صغير مصمم للتشغيل على أجهزة صغيرة ذات موارد حسابية محدودة. على سبيل المثال، يمكن تشغيل النماذج المدمجة على الهواتف المحمولة، أو الأجهزة اللوحية، أو الأنظمة المضمنة.

الحوسبة

(الاسم) الموارد الحسابية التي يستخدمها نموذج أو نظام، مثل قوة المعالجة والذاكرة والتخزين.

اطّلِع على شرائح تسريع الأداء.

تغيُّر المفهوم

تحول في العلاقة بين الميزات والعلامة. بمرور الوقت، يؤدي انحراف المفهوم إلى تقليل جودة النموذج.

أثناء التدريب، يتعلم النموذج العلاقة بين الميزات وعلاماتها في مجموعة التدريب. إذا كانت التصنيفات في مجموعة التدريب تمثّل العالم الحقيقي بشكل جيد، من المفترض أن يقدّم النموذج توقّعات جيدة في العالم الحقيقي. ومع ذلك، بسبب تغيُّر المفهوم، تميل توقّعات النموذج إلى التدهور بمرور الوقت.

على سبيل المثال، لنفترض أنّ هناك نموذج تصنيف ثنائي يتنبأ بما إذا كان طراز سيارة معيّن "موفرًا للوقود" أم لا. وهذا يعني أن الميزات يمكن أن تكون:

  • وزن السيارة
  • ضغط المحرك
  • نوع آليات نقل الطاقة

بينما يكون التصنيف إما:

  • موفر للوقود
  • غير فعّالة في استهلاك الوقود

ومع ذلك، يتغيّر مفهوم &quot;السيارة الموفّرة للوقود&quot; باستمرار. من المؤكد تقريبًا أن طراز السيارة الذي يحمل علامة كفاءة في استهلاك الوقود في عام 1994 سيتم تصنيفه على أنه غير كفء في استهلاك الوقود في عام 2024. النموذج الذي يعاني من تغيُّر المفهوم يميل إلى تقديم توقّعات أقل فائدة بمرور الوقت.

قارِن بينها وبين عدم الثبات.

الشرط

#df
في شجرة القرار ، أي العقدة الذي يقوم بإجراء الاختبار. على سبيل المثال، تحتوي شجرة القرار التالية على شرطين:

شجرة قرار تتكون من شرطين: (x > 0) و (y > 0).

يُطلق على الشرط أيضًا اسم تقسيم أو اختبار.

حالة التباين معورقة.

انظر أيضًا:

اطّلِع على أنواع الشروط في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

تسامر

مرادف لكلمة هلوسة

ربما يكون مصطلح "التخيل" أكثر دقة من الناحية الفنية من مصطلح "الهلوسة". ومع ذلك، أصبحت الهلوسة شائعة أولاً.

الإعدادات

عملية تحديد قيم السمات الأولية المستخدَمة لتدريب نموذج، بما في ذلك:

في مشاريع تعلُّم الآلة، يمكن إجراء عملية الإعداد من خلال ملف إعداد خاص أو باستخدام مكتبات الإعداد، مثل ما يلي:

التحيز التأكيدي

#responsible

الميل إلى البحث عن المعلومات وتفسيرها وتفضيلها واسترجاعها بطريقة تؤكد معتقدات الفرد أو فرضياته السابقة. قد يقوم مطورو التعلم الآلي عن غير قصد بجمع البيانات أو تصنيفها بطرق تؤثر على النتيجة التي تدعم معتقداتهم الحالية. التحيز التأكيدي هو شكل من أشكالالتحيز الضمني.

تحيز المُجرِّب هو أحد أشكال تحيز التأكيد حيث يستمر المُجرِّب في تدريب النماذج حتى يتم تأكيد الفرضية الموجودة مسبقًا.

مصفوفة الارتباك

#fundamentals

جدول NxN يلخّص عدد التوقّعات الصحيحة والخاطئة التي قدّمها نموذج التصنيف. على سبيل المثال، ضع في اعتبارك مصفوفة الارتباك التالية لـالتصنيف الثنائي نموذج:

الورم (المتوقع) غير ورمي (متوقع)
الورم (المعلومات الفعلية) ‫18 (TP) 1 (FN)
غير ورم (معلومات فعلية) ‫6 (FP) ‫452 (TN)

تعرض مصفوفة الالتباس السابقة ما يلي:

  • من بين 19 توقّعًا كانت فيها الحقيقة الأساسية هي "ورم"، صنّف النموذج 18 منها بشكل صحيح وصنّف 1 بشكل غير صحيح.
  • من بين 458 توقّعًا كانت الحقيقة الأساسية فيها هي "غير ورمي"، صنّف النموذج 452 منها بشكل صحيح و6 منها بشكل غير صحيح.

يمكن أن تساعدك مصفوفة الالتباس في تصنيف متعدد الفئات في تحديد أنماط الأخطاء. على سبيل المثال، لنفترض مصفوفة الالتباس التالية لنموذج تصنيف متعدّد الفئات يتضمّن 3 فئات ويصنّف ثلاثة أنواع مختلفة من زهور السوسن (Virginica وVersicolor وSetosa). عندما كانت الحقيقة الأساسية هي Virginica، توضّح مصفوفة الالتباس أنّ النموذج كان أكثر عرضة للتنبؤ بشكل خاطئ بأنّها Versicolor بدلاً من Setosa:

  Setosa (القيمة المتوقّعة) Versicolor (متوقّعة) Virginica (القيمة المتوقّعة)
Setosa (المعلومات الفعلية) 88 12 0
Versicolor (المعلومات الفعلية) 6 141 7
Virginica (المعلومات الفعلية) 2 27 109

كمثال آخر، يمكن أن تكشف مصفوفة الالتباس أنّ نموذجًا تم تدريبه على التعرّف على الأرقام المكتوبة بخط اليد يميل إلى توقّع الرقم 9 بدلاً من 4، أو توقّع الرقم 1 بدلاً من 7.

تحتوي مصفوفات الالتباس على معلومات كافية لحساب مجموعة متنوعة من مقاييس الأداء، بما في ذلك الدقة والاستدعاء.

تحليل الدوائر الانتخابية

تقسيم الجملة إلى بنى نحوية أصغر ("مكوّنات") جزء لاحق من نظام التعلم الآلي، مثلفهم اللغة الطبيعية النموذج، يمكنه تحليل المكونات بسهولة أكبر من الجملة الأصلية. على سبيل المثال، فكِّر في الجملة التالية:

تبنّى صديقي قطتين.

يمكن أن يقسّم محلّل البنية هذه الجملة إلى المكوّنين التاليين:

  • صديقي هي عبارة اسمية.
  • تبني قطتين عبارة فعلية.

يمكن تقسيم هذه المكونات إلى مكونات أصغر. على سبيل المثال، عبارة الفعل

تبنّيتُ قطتين

يمكن تقسيمها إلى:

  • adopted هي فعل.
  • قطتان هي عبارة اسمية أخرى.

تضمين اللغة السياقية

#generativeAI

أنالتضمين الذي يقترب من "فهم" الكلمات والعبارات بطرق يستطيعها المتحدثون البشريون بطلاقة. يمكن أن تفهم عمليات التضمين المستندة إلى السياق التركيب النحوي والدلالات والسياق المعقّد.

على سبيل المثال، ضع في اعتبارك تضمينات الكلمة الإنجليزية cow. التضمينات القديمة مثلword2vec يمكن أن تمثل الكلمات الإنجليزية بحيث تكون المسافة فيمساحة التضمين من بقرة ل ثور مماثل للمسافة من نعجة (أنثى الخروف) إلى كبش (الخروف الذكر) أو من أنثى ل ذكر. يمكن أن تذهب تضمينات اللغة السياقية إلى خطوة أبعد من خلال الاعتراف بأن المتحدثين باللغة الإنجليزية يستخدمون أحيانًا كلمة بقرة بشكل عرضي لتعني إما بقرة أو ثور.

نافذة السياق

#generativeAI

عدد الرموز يمكن للنموذج أن يعالج في وقت معين اِسْتَدْعَى. كلما كانت نافذة السياق أكبر، زادت المعلومات التي يمكن للنموذج استخدامها لتوفير معلومات متماسكة ومتسقةالاستجابات إلى المطالبة.

خاصية مستمرة

#fundamentals

ميزة ذات فاصلة عشرية ونطاق لا نهائي من القيم المحتملة، مثل درجة الحرارة أو الوزن

يجب التمييز بينها وبين الخاصية المحدّدة القيم.

عينة عشوائية

استخدام مجموعة بيانات لم يتم جمعها بشكل علمي لإجراء تجارب سريعة في وقت لاحق، من الضروري التبديل إلى مجموعة بيانات تم جمعها بشكل علمي.

التقارب

#fundamentals

حالة وصلت إليها عندما خسارة تتغير القيم قليلاً أو لا تتغير على الإطلاق مع كل التكرار. على سبيل المثال، يشير منحنى الخسارة التالي إلى التقارب عند حوالي 700 تكرار:

مخطط ديكارتي المحور X هو الخسارة. يمثّل المحور الصادي عدد تكرارات التدريب. يكون معدّل الفقدان مرتفعًا جدًا خلال التكرارات القليلة الأولى، ثم ينخفض بشكل حاد. بعد حوالي 100 تكرار، لا يزال الخسارة تتناقص ولكن بشكل تدريجي أكثر. بعد حوالي 700 تكرار،
          يظل معدل الخطأ ثابتًا.

نموذجيتقارب عندما لا يؤدي التدريب الإضافي إلى تحسين النموذج.

في التعلم العميق، تبقى قيم الخسارة ثابتة أحيانًا أو قريبة من ذلك في العديد من التكرارات قبل أن تنخفض أخيرًا. خلال فترة طويلة من قيم الخسارة الثابتة، قد تشعر مؤقتًا بأنّ هناك تقاربًا.

اطّلِع أيضًا على الإيقاف المبكر.

يمكنك الاطّلاع على تقارب النماذج ومنحنيات الخسارة في &quot;دورة تدريبية مكثّفة حول تعلُّم الآلة&quot; للحصول على مزيد من المعلومات.

الترميز الحواري

#generativeAI

محادثة متكررة بينك وبين نموذج ذكاء اصطناعي توليدي بغرض إنشاء برامج تُصدر طلبًا يصف بعض البرامج. بعد ذلك، يستخدم النموذج هذا الوصف لإنشاء الرمز. بعد ذلك، تقدّم طلبًا جديدًا لمعالجة العيوب في الطلب السابق أو في الرمز البرمجي الذي تم إنشاؤه، وينشئ النموذج رمزًا برمجيًا معدَّلاً. ويستمرّ تبادل الرسائل بينكما إلى أن يصبح البرنامج الذي تم إنشاؤه جيدًا بما يكفي.

إن ترميز المحادثة هو في الأساس المعنى الأصلي لـترميز الاهتزاز.

التباين معالترميز المواصفاتي.

دالّة محدّبة

الدالة التي تكون فيها المنطقة الواقعة فوق الرسم البياني للدالة مجموعة محدّبة تتخذ الدالة المحدبة النموذجية شكلًا يشبه الحرف U. على سبيل المثال، ما يلي هو عبارة عن وظائف محدبة:

منحنيات على شكل حرف U، كل منها بنقطة دنيا واحدة.

على النقيض من ذلك، فإن الوظيفة التالية ليست محدبة. لاحظ كيف أن المنطقة الموجودة فوق الرسم البياني ليست مجموعة محدبة:

منحنى على شكل حرف W مع نقطتين دنيا محليتين مختلفتين.

الدالة المحدّبة تمامًا لها نقطة حد أدنى محلية واحدة فقط، وهي أيضًا نقطة الحد الأدنى العام. الدوال الكلاسيكية على شكل حرف U هي دوال محدبة تمامًا. ومع ذلك، فإن بعض الدوال المحدبة (على سبيل المثال، الخطوط المستقيمة) ليست على شكل حرف U.

يمكنك الاطّلاع على التقارب والدوال المحدّبة في &quot;الدورة التدريبية المكثّفة حول تعلُّم الآلة&quot; للحصول على مزيد من المعلومات.

تحسين الدالّة المحدّبة

عملية استخدام تقنيات رياضية، مثل النزول التدريجي، للعثور على الحد الأدنى لدالة محدّبة تركّز الكثير من الأبحاث في مجال تعلّم الآلة على صياغة مشاكل مختلفة على أنّها مشاكل تحسين محدّبة وعلى حلّ هذه المشاكل بشكل أكثر فعالية.

للاطّلاع على التفاصيل الكاملة، يُرجى الرجوع إلى كتاب Boyd and Vandenberghe، Convex Optimization.

مجموعة محدّبة

مجموعة فرعية من الفضاء الإقليدي، بحيث يظل الخط المرسوم بين أي نقطتين في المجموعة الفرعية ضمن المجموعة الفرعية تمامًا. على سبيل المثال، الشكلان التاليان هما مجموعتان محدّبتان:

صورة توضيحية لمستطيل صورة توضيحية أخرى لشكل بيضاوي

على النقيض من ذلك، فإن الشكلين التاليين ليسا مجموعات محدبة:

صورة توضيحية واحدة لرسم بياني دائري ينقصه جزء
          رسم توضيحي آخر لمضلّع غير منتظم بشكل كبير

الالتفاف

في الرياضيات، وبشكل عام، هي مزيج من دالتين. في تعلُّم الآلة، يجمع الالتفاف بين فلتر الالتفاف ومصفوفة الإدخال من أجل تدريب الأوزان.

في سياق تعلُّم الآلة، يشير مصطلح "الالتفاف" غالبًا إلى عملية الالتفاف أو طبقة الالتفاف.

بدون الالتفافات، يجب أن تتعلّم خوارزمية تعلُّم الآلة وزنًا منفصلاً لكل خلية في موتر كبير. على سبيل المثال، إذا تم تدريب خوارزمية تعلُّم آلي على صور بدقة 2000 × 2000، سيتم إجبارها على العثور على 4 ملايين وزن منفصل. بفضل الالتفافات، لا يحتاج خوارزمية تعلُّم الآلة سوى إلى العثور على أوزان لكل خلية في فلتر الالتفاف، ما يقلّل بشكل كبير من الذاكرة اللازمة لتدريب النموذج. عند تطبيق فلتر التفافي، يتم ببساطة تكراره على مستوى الخلايا بحيث يتم ضرب كل خلية في الفلتر.

يمكنك الاطّلاع على مقدمة عن الشبكات العصبية الالتفافية في دورة تصنيف الصور التدريبية للحصول على مزيد من المعلومات.

مرشح التفافي

أحد الممثلين فيعملية التفافية. (المتغير الآخر هو جزء من مصفوفة إدخال). الفلتر التلافيفي هو مصفوفة لها الترتيب نفسه مثل مصفوفة الإدخال، ولكن بشكل أصغر. على سبيل المثال، إذا كانت مصفوفة الإدخال 28x28، فيمكن أن يكون المرشح أي مصفوفة ثنائية الأبعاد أصغر من 28x28.

في معالجة الصور، يتم عادةً ضبط جميع الخلايا في فلتر التفاف على نمط ثابت من الآحاد والأصفار. في تعلُّم الآلة، يتم عادةً إدخال أرقام عشوائية إلى فلاتر الالتفاف، ثم تدريب الشبكة على القيم المثالية.

راجع الالتفاف في دورة تصنيف الصور للحصول على مزيد من المعلومات.

الطبقة الالتفافية

طبقة من الشبكة العصبية العميقة حيث أ مرشح التفافي يمر عبر مصفوفة الإدخال. على سبيل المثال، إليك فلتر التفاف بحجم 3x3:

مصفوفة 3x3 بالقيم التالية: [[0,1,0], [1,0,1], [0,1,0]]

يُظهر الرسم المتحرك التالي طبقة ملتوية تتكون من 9 عمليات ملتوية تتضمن مصفوفة الإدخال 5 × 5. لاحظ أن كل عملية التفافية تعمل على شريحة مختلفة 3x3 من مصفوفة الإدخال. تتألف مصفوفة 3x3 الناتجة (على اليسار) من نتائج عمليات الالتفاف التسع:

صورة متحرّكة تعرض مصفوفتَين. المصفوفة الأولى هي مصفوفة 5x5: [[128,97,53,201,198], [35,22,25,200,195], [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]].
          المصفوفة الثانية هي مصفوفة 3x3: [[181,303,618], [115,338,605], [169,351,560]].
          يتم حساب المصفوفة الثانية عن طريق تطبيق المرشح التلافيفي [[0, 1, 0], [1, 0, 1], [0, 1, 0]] عبر مجموعات فرعية مختلفة 3x3 من مصفوفة 5x5.

راجع الطبقات المتصلة بالكامل في دورة تصنيف الصور للحصول على مزيد من المعلومات.

شبكة عصبونية التفافية

أ الشبكة العصبية حيث تكون هناك طبقة واحدة على الأقل طبقة ملتوية. تتكون الشبكة العصبية التلافيفية النموذجية من مزيج من الطبقات التالية:

حققت الشبكات العصبونية الالتفافية نجاحًا كبيرًا في أنواع معيّنة من المشاكل، مثل التعرّف على الصور.

عملية الالتفاف

العملية الرياضية التالية المكوَّنة من خطوتَين:

  1. الضرب حسب العناصر لفلتر الالتفاف وشريحة من مصفوفة الإدخال (يحتوي جزء مصفوفة الإدخال على الترتيب والحجم نفسيهما كفلتر الالتفاف).
  2. مجموع كل القيم في مصفوفة المنتجات الناتجة

على سبيل المثال، ضع في اعتبارك مصفوفة الإدخال التالية بحجم 5x5:

المصفوفة 5x5: [[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]].

لنفترض الآن فلتر التفافي 2x2 التالي:

المصفوفة 2x2: [[1, 0], [0, 1]]

تتضمّن كل عملية التفاف شريحة واحدة بحجم 2×2 من مصفوفة الإدخال. على سبيل المثال، لنفترض أنّنا نستخدم شريحة 2x2 في أعلى يسار مصفوفة الإدخال. وبالتالي، تبدو عملية الالتفاف على هذه الشريحة كما يلي:

تطبيق فلتر التفاف [[1, 0], [0, 1]] على القسم 2x2 في أعلى يمين مصفوفة الإدخال، وهو [[128,97], [35,22]].
          يترك الفلتر التفافي القيمتين 128 و22 كما هما، لكنه يضبط القيمتين 97 و35 على صفر. وبالتالي، تؤدي عملية الالتفاف إلى القيمة 150 (128+22).

تتألف الطبقة الالتفافية من سلسلة من العمليات الالتفافية، وتعمل كل عملية على شريحة مختلفة من مصفوفة الإدخال.

التكلفة

#Metric

مرادف لـخسارة.

التدريب المشترك

أسلوب التعلّم شبه الموجّه مفيد بشكل خاص عندما تكون جميع الشروط التالية صحيحة:

يعمل التدريب المشترك بشكل أساسي على تضخيم الإشارات المستقلة وتحويلها إلى إشارة أقوى. على سبيل المثال، ضع في اعتباركنموذج التصنيف التي تصنف السيارات المستعملة الفردية على أنها إما جيد أو سيء. قد تركّز إحدى مجموعات الميزات التنبؤية على الخصائص المجمّعة، مثل سنة تصنيع السيارة وعلامتها التجارية وطرازها، وقد تركّز مجموعة أخرى من الميزات التنبؤية على سجل قيادة المالك السابق وسجل صيانة السيارة.

إنّ الورقة البحثية الأساسية حول التدريب المشترك هي الجمع بين البيانات المصنَّفة وغير المصنَّفة باستخدام التدريب المشترك من تأليف "بلوم" و"ميتشل".

العدالة الشرطية

#responsible
#Metric

مقياس العدالة الذي يتحقّق مما إذا كان نموذج التصنيف يعرض النتيجة نفسها لشخص ما كما يعرضها لشخص آخر مطابق للأول، باستثناء ما يتعلق بواحدة أو أكثر من السمات الحسّاسة. تقييم أنموذج التصنيف إن العدالة المضادة للواقع هي إحدى الطرق لإظهار المصادر المحتملة للتحيز في نموذج ما.

يمكنك الاطّلاع على أيّ مما يلي لمزيد من المعلومات:

انحياز في التغطية

#responsible

يرىتحيز الاختيار.

crash blossom

جملة أو عبارة ذات معنى غامض. تشكل أزهار الانهيار مشكلة كبيرة فيفهم اللغة الطبيعية. على سبيل المثال، فإن العنوان الروتين الأحمر يعيق بناء ناطحة سحاب هو عنوان فاشل لأن نموذج فهم اللغة الطبيعية كان قادرًا على تفسير العنوان حرفيًا أو مجازيًا.

الناقد

مرادف شبكة Q العميقة

الانتروبيا المتقاطعة

#Metric

تعميم فقدان اللوغاريتم على مشاكل التصنيف المتعدد الفئات يقيس مقياس الإنتروبيا المتقاطعة الفرق بين توزيعَين للاحتمالات. يمكنك الاطّلاع أيضًا على الارتباك.

التحقّق المتقاطع

آلية لتقدير مدى جودة نموذج سيتم تعميم البيانات الجديدة عن طريق اختبار النموذج على مجموعة أو أكثر من مجموعات البيانات غير المتداخلة التي تم حجبها من مجموعة التدريب.

دالة التوزيع التراكمي (CDF)

#Metric

دالة تحدّد عدد المرّات التي تكون فيها العيّنات أقل من قيمة مستهدَفة أو مساوية لها. على سبيل المثال، لنفترض أنّ هناك توزيعًا طبيعيًا للقيم المستمرة. يخبرك CDF أن حوالي 50% من العينات يجب أن تكون أقل من أو تساوي المتوسط وأن حوالي 84% من العينات يجب أن تكون أقل من أو تساوي انحراف معياري واحد فوق المتوسط.

D

تحليل البيانات

فهم البيانات من خلال النظر في العيّنات والقياس والعرض المرئي يمكن أن يكون تحليل البيانات مفيدًا بشكل خاص عند تلقّي مجموعة بيانات لأول مرة، قبل إنشاء النموذج الأول. وهي ضرورية أيضًا لفهم التجارب وتصحيح الأخطاء في النظام.

توسيع نطاق البيانات

زيادة نطاق وعدد أمثلة التدريب بشكل مصطنع من خلال تحويل الأمثلة الحالية لإنشاء أمثلة إضافية على سبيل المثال، لنفترض أنّ الصور هي إحدى الميزات، ولكن مجموعة البيانات لا تحتوي على أمثلة كافية من الصور ليتعلّم النموذج الارتباطات المفيدة. من الناحية المثالية، عليك أن تضيف ما يكفيمُصنَّف أضف الصور إلى مجموعة البيانات الخاصة بك لتمكين نموذجك من التدريب بشكل صحيح. إذا لم يكن ذلك ممكنًا، يمكن أن تؤدي عملية زيادة البيانات إلى تدوير كل صورة وتمديدها وعكسها لإنتاج العديد من الصيغ من الصورة الأصلية، ما قد يؤدي إلى توفير بيانات مصنّفة كافية لإجراء تدريب ممتاز.

DataFrame

#fundamentals

نوع بيانات pandas شائع لتمثيل مجموعات البيانات في الذاكرة

يشبه DataFrame الجدول أو جدول البيانات. يحتوي كل عمود في DataFrame على اسم (عنوان)، ويتم تحديد كل صف برقم فريد.

يتم تنظيم كل عمود في إطار البيانات مثل مصفوفة ثنائية الأبعاد، باستثناء أنه يمكن تعيين نوع البيانات الخاص بكل عمود.

يمكنك أيضًا الاطّلاع على صفحة مرجع pandas.DataFrame الرسمية.

التوازي على مستوى البيانات

طريقة لتوسيع نطاق التدريب أو الاستدلال عن طريق تكرار نموذج كامل على أجهزة متعددة، ثم تمرير مجموعة فرعية من البيانات المدخلة إلى كل جهاز. يمكن أن يتيح التوازي في البيانات التدريب والاستدلال على بيانات كبيرة جدًاأحجام الدفعات ومع ذلك، تتطلب التوازي في البيانات أن يكون النموذج صغيرًا بما يكفي ليناسب جميع الأجهزة.

عادةً ما تعمل التوازي في البيانات على تسريع التدريب والاستدلال.

يمكنك أيضًا الاطّلاع على التوازي بين النماذج.

Dataset API (tf.data)

#TensorFlow

واجهة برمجة تطبيقات TensorFlow عالية المستوى لقراءة البيانات وتحويلها إلى شكل تتطلّبه خوارزمية تعلُّم الآلة أtf.data.Dataset يمثل الكائن سلسلة من العناصر، حيث يحتوي كل عنصر على عنصر واحد أو أكثرالموترات. يوفر كائن tf.data.Iterator إمكانية الوصول إلى عناصر Dataset.

مجموعة البيانات

#fundamentals

مجموعة من البيانات الأولية، يتم تنظيمها عادةً (وليس حصريًا) بأحد التنسيقات التالية:

  • جدول بيانات
  • ملف بتنسيق CSV (قيم مفصولة بفاصلة)

فاصل بين الفئات

الفاصل بين الفصول الدراسية تعلمت من قبل نموذج في فئة ثنائية أو مشاكل التصنيف متعدد الفئات. على سبيل المثال، في الصورة التالية التي تمثل مشكلة تصنيف ثنائية، تكون حدود القرار هي الحدود بين الفئة البرتقالية والفئة الزرقاء:

حدود محددة جيدًا بين فئة وأخرى.

غابة القرار

#df

نموذج تم إنشاؤه من عدةأشجار القرار. تقوم غابة القرار بإجراء تنبؤ عن طريق تجميع تنبؤات أشجار القرار الخاصة بها. تشمل الأنواع الشائعة من غابات القرار ما يلي: الغابات العشوائية و الأشجار المعززة بالتدرج.

يمكنك الاطّلاع على قسم أشجار القرارات العشوائية في دورة "أشجار القرارات العشوائية" للحصول على مزيد من المعلومات.

حدّ اتّخاذ القرار

مرادف لـعتبة التصنيف.

شجرة القرار

#df

نموذج تعلّم بإشراف يتألف من مجموعة من الشروط والعُقد الطرفية منظَّمة بشكل هرمي. على سبيل المثال، ما يلي هو شجرة قرارات:

شجرة قرار تتكون من أربعة شروط مرتبة بشكل هرمي، والتي تؤدي إلى خمس أوراق.

برنامج فك الترميز

بشكل عام، أي نظام تعلُّم آلي يحوّل من تمثيل معالَج أو كثيف أو داخلي إلى تمثيل أكثر أولية أو تفرّقًا أو خارجية.

غالبًا ما تكون أجهزة فك التشفير مكونًا من نموذج أكبر، حيث يتم إقرانها بشكل متكرر معمُشفِّر.

فيمهام متسلسلة إلى متسلسلة يبدأ جهاز فك التشفير بالحالة الداخلية التي يولدها جهاز التشفير للتنبؤ بالتسلسل التالي.

راجع إلىمحول لتحديد جهاز فك التشفير داخل بنية المحول.

راجع نماذج اللغة الكبيرة في الدورة التدريبية المكثفة حول التعلم الآلي للحصول على مزيد من المعلومات.

نموذج عميق

#fundamentals

أ الشبكة العصبية تحتوي على أكثر من واحد طبقة مخفية.

يُطلق على النموذج العميق أيضًا اسم شبكة عصبية عميقة.

التباين معنموذج واسع.

شبكة عصبية عميقة

مرادف لـنموذج عميق.

شبكة Q العميقة (DQN)

في تعلُّم Q، يتم استخدام شبكة عصبية عميقة لتوقُّع دالات Q.

الناقد هو مرادف لشبكة Deep Q-Network.

التكافؤ بين الجنسين

#responsible
#Metric

مقياس العدالة الذي يتم استيفاؤه إذا كانت نتائج تصنيف النموذج لا تعتمد على سمة حساسة معيّنة.

على سبيل المثال، إذا كان كل من سكان ليليبوت وبروبدينغناغ يتقدّمون بطلبات إلى جامعة غلوبدوبدريب، يتم تحقيق التكافؤ الديموغرافي إذا كانت النسبة المئوية للطلاب المقبولين من ليليبوت هي نفسها النسبة المئوية للطلاب المقبولين من بروبدينغناغ، بغض النظر عمّا إذا كانت إحدى المجموعتين أكثر تأهيلاً من الأخرى في المتوسط.

يختلف هذا المقياس عن التكافؤ في الاحتمالات وتكافؤ الفرص، اللذين يسمحان بأن تعتمد نتائج التصنيف بشكل إجمالي على السمات الحسّاسة، ولكنّهما لا يسمحان بأن تعتمد نتائج التصنيف لبعض تصنيفات الحقيقة الأساسية المحدّدة على السمات الحسّاسة. يمكنك الاطّلاع على "مكافحة التمييز من خلال تعلُّم الآلة الأذكى" للحصول على عرض مرئي يستكشف المفاضلة عند التحسين لتحقيق التكافؤ الديمغرافي.

يمكنك الاطّلاع على الإنصاف: التكافؤ الديمغرافي في "دورة مكثّفة عن تعلّم الآلة" للحصول على مزيد من المعلومات.

إزالة التشويش

أسلوب شائع في التعلّم الذاتي يتم فيه:

  1. يتم إضافة الضوضاء بشكل مصطنع إلى مجموعة البيانات.
  2. يحاول النموذج إزالة الضوضاء.

تتيح إزالة التشويش التعلّم من أمثلة غير مصنَّفة. تعمل مجموعة البيانات الأصلية كهدف أو تصنيف، وتعمل البيانات المشوّشة كمدخل.

تستخدم بعض نماذج اللغة المقنّعة أسلوب إزالة التشويش على النحو التالي:

  1. تتم إضافة تشويش بشكل اصطناعي إلى جملة غير مصنّفة من خلال إخفاء بعض الرموز المميزة.
  2. يحاول النموذج التنبؤ بالرموز الأصلية.

خاصية كثيفة

#fundamentals

أ ميزة حيث تكون معظم القيم أو كلها غير صفرية، عادةً الموتر من القيم العائمة. على سبيل المثال، يكون Tensor التالي المكوّن من 10 عناصر كثيفًا لأنّ 9 من قيمه غير صفرية:

8 3 7 5 2 4 0 4 9 6

التباين مع الميزة المتفرقة.

طبقة كثيفة

مرادف طبقة مكتملة الاتصال

العمق

#fundamentals

مجموع ما يلي في شبكة عصبونية:

على سبيل المثال، تبلغ عمق الشبكة العصبية التي تتضمّن خمس طبقات مخفية وطبقة إخراج واحدة 6 طبقات.

يُرجى العِلم أنّ طبقة الإدخال لا تؤثر في العمق.

شبكة عصبونية التفافية قابلة للفصل حسب العمق (sepCNN)

بنية شبكة عصبية التفافية تستند إلى Inception، ولكن يتم فيها استبدال وحدات Inception بعمليات التفاف منفصلة حسب العمق. يُعرف أيضًا باسم Xception.

تقوم عملية التفاف قابلة للفصل بعمق (وتختصر أيضًا باسم التفاف قابل للفصل) بتحليل التفاف ثلاثي الأبعاد قياسي إلى عمليتي التفاف منفصلتين أكثر كفاءة من الناحية الحسابية: أولاً، التفاف بعمق، بعمق 1 (n ✕ n ✕ 1)، ثم ثانيًا، التفاف نقطي، بطول وعرض 1 (1 ✕ 1 ✕ n).

لمعرفة المزيد، راجع Xception: التعلم العميق باستخدام التفافات منفصلة بعمق.

التصنيف المشتق

مرادف للتصنيف التقريبي

جهاز

#TensorFlow
#GoogleCloud

مصطلح محمل بشكل زائد مع تعريفَين محتملَين:

  1. فئة من الأجهزة يمكنها تشغيل جلسة TensorFlow، بما في ذلك وحدات المعالجة المركزية ووحدات معالجة الرسومات ووحدات معالجة الموتّرات.
  2. عند تدريب نموذج تعلُّم آلي على شرائح تسريع (وحدات معالجة الرسومات أو وحدات معالجة الموتّرات)، يكون هذا الجزء من النظام هو المسؤول عن معالجة الموتّرات وعمليات التضمين. يعتمد الجهاز على شرائح تسريع. في المقابل، يعمل المضيف عادةً على وحدة معالجة مركزية.

الخصوصية التفاضلية

في التعلم الآلي، نهج إخفاء الهوية لحماية أي بيانات حساسة (على سبيل المثال، معلومات شخصية خاصة بشخص ما) مدرجة في نموذجمجموعة التدريب من التعرض. يضمن هذا النهج ألا يتعلّم النموذج أو يتذكّر الكثير من المعلومات حول فرد معيّن. ويتم ذلك من خلال أخذ عيّنات وإضافة تشويش أثناء تدريب النموذج لإخفاء نقاط البيانات الفردية، ما يقلّل من خطر الكشف عن بيانات التدريب الحسّاسة.

يتم استخدام الخصوصية التفاضلية أيضًا خارج نطاق تعلُّم الآلة. على سبيل المثال، يستخدم علماء البيانات في بعض الأحيان الخصوصية التفاضلية لحماية الخصوصية الفردية عند حساب إحصائيات استخدام المنتج لفئات سكانية مختلفة.

تخفيض عدد السمات

تقليل عدد الأبعاد المستخدمة لتمثيل ميزة معينة في متجه الميزة، عادةً عن طريق التحويل إلىناقل التضمين.

الأبعاد

مصطلح محمل زائد يحتوي على أي من التعريفات التالية:

  • عدد مستويات الإحداثيات فيTensor. على سبيل المثال:

    • المقدار العددي له صفر من الأبعاد، على سبيل المثال، ["Hello"].
    • يتضمّن المتّجه سمة واحدة، مثل [3, 5, 7, 11].
    • تحتوي المصفوفة على بُعدَين، مثل [[2, 4, 18], [5, 7, 14]]. يمكنك تحديد خلية معيّنة بشكل فريد في متّجه أحادي البُعد باستخدام إحداثي واحد، ولكنك تحتاج إلى إحداثيَين لتحديد خلية معيّنة بشكل فريد في مصفوفة ثنائية الأبعاد.
  • عدد الإدخالات في متّجه الميزات

  • عدد العناصر في طبقة التضمين

توجيه الطلبات مباشرةً

#generativeAI

مرادف للتلقين بلا أمثلة

ميزة منفصلة

#fundamentals

أميزة مع مجموعة محدودة من القيم الممكنة. على سبيل المثال، السمة التي لا يمكن أن تتضمّن قيمًا سوى حيوان أو نبات أو معدن هي سمة منفصلة (أو فئوية).

التباين مع الميزة المستمرة.

نموذج تمييزي

أ نموذج الذي يتنبأ ملصقات من مجموعة مكونة من واحد أو أكثر سمات. بشكل أكثر رسمية، تحدّد النماذج التمييزية الاحتمالية الشرطية للناتج بالنظر إلى الميزات والأوزان، أي:

p(output | features, weights)

على سبيل المثال، النموذج الذي يتنبأ بما إذا كانت الرسالة الإلكترونية غير مرغوب فيها من الميزات والأوزان هو نموذج تمييزي.

إنّ الغالبية العظمى من نماذج التعلّم الخاضع للإشراف، بما في ذلك نماذج التصنيف والانحدار، هي نماذج تمييزية.

يُرجى الرجوع إلى النموذج التوليدي.

المميز

نظام يحدّد ما إذا كانت الأمثلة حقيقية أو مزيفة.

أو، هي النظام الفرعي ضمن شبكة معادية توليدية يحدّد ما إذا كانت الأمثلة التي أنشأها المولّد حقيقية أو مزيفة.

راجِع المميّز في دورة GAN التدريبية للحصول على مزيد من المعلومات.

التأثير غير المتكافئ

#responsible

اتّخاذ قرارات بشأن أشخاص تؤثّر بشكل غير متناسب في مجموعات فرعية مختلفة من السكان ويشير ذلك عادةً إلى الحالات التي تؤدي فيها عملية اتخاذ القرارات المستندة إلى الخوارزميات إلى إلحاق الضرر ببعض المجموعات الفرعية أو تحقيق فائدة لها أكثر من غيرها.

على سبيل المثال، لنفترض أن الخوارزمية التي تحدد أهلية أحد سكان ليليبوت للحصول على قرض لشراء منزل صغير من المرجح أن تصنفه على أنه "غير مؤهل" إذا كان عنوانه البريدي يحتوي على رمز بريدي معين. إذا كان من المرجّح أن يكون لدى سكان ليليبوت الذين يستخدمون تنسيق Big-Endian عناوين بريدية تتضمّن هذا الرمز البريدي أكثر من سكان ليليبوت الذين يستخدمون تنسيق Little-Endian، قد تؤدي هذه الخوارزمية إلى تأثير متفاوت.

يختلف ذلك عن المعاملة غير المتكافئة، التي تركّز على التفاوتات الناتجة عندما تكون خصائص المجموعة الفرعية مدخلات صريحة في عملية اتخاذ القرار المستندة إلى الخوارزميات.

المعاملة غير المتكافئة

#responsible

إدخال السمات الحسّاسة الخاصة بالأشخاص في عملية اتخاذ القرار المستندة إلى الخوارزميات، ما يؤدي إلى معاملة المجموعات الفرعية المختلفة من الأشخاص بشكل مختلف

على سبيل المثال، لنفترض أنّ هناك خوارزمية تحدّد أهلية سكان ليليبوت للحصول على قرض لشراء منزل صغير استنادًا إلى البيانات التي يقدّمونها في طلب القرض. إذا كانت الخوارزمية تستخدم انتماء شخص من ليليبوت إلى فريق Big-Endian أو Little-Endian كإدخال، فإنّها تمارس معاملة مختلفة على هذا الأساس.

يختلف ذلك عن التأثير غير المتكافئ الذي يركّز على التفاوتات في التأثيرات المجتمعية للقرارات الخوارزمية على المجموعات الفرعية، بغض النظر عمّا إذا كانت هذه المجموعات الفرعية مدخلات للنموذج.

التقطير

#generativeAI

عملية تقليل حجم نموذج واحد (يُعرف باسم النموذج الأساسي) إلى نموذج أصغر (يُعرف باسم النموذج الثانوي) يحاكي توقّعات النموذج الأصلي بأكبر قدر ممكن من الدقة. إن التقطير مفيد لأن النموذج الأصغر له فائدتان رئيسيتان مقارنة بالنموذج الأكبر (المعلم):

  • وقت استنتاج أسرع
  • تقليل استخدام الذاكرة والطاقة

ومع ذلك، لا تكون توقعات الطالب جيدة عادةً مثل توقعات المعلّم.

تدرّب عملية التقطير نموذج الطالب على تقليل دالة الخسارة استنادًا إلى الفرق بين نواتج التوقعات التي يقدّمها نموذج الطالب ونموذج المعلّم.

قارن بين التقطير والمصطلحات التالية:

لمزيد من المعلومات، يمكنك الاطّلاع على النماذج اللغوية الكبيرة: الضبط الدقيق والتقطير وهندسة الطلبات في "دورة مكثّفة عن تعلّم الآلة".

distribution

تمثّل هذه السمة معدّل تكرار ونطاق القيم المختلفة لميزة أو تصنيف معيّن. يعرض التوزيع مدى احتمالية ظهور قيمة معيّنة.

تعرض الصورة التالية المدرّجات التكرارية لتوزيعَين مختلفَين:

  • على اليمين، يظهر توزيع قانون القوة للثروة مقابل عدد الأشخاص الذين يملكون هذه الثروة.
  • على اليسار، يظهر التوزيع الطبيعي للطول مقابل عدد الأشخاص الذين يبلغ طولهم هذا المقدار.

اثنين من الهستوجرامات. يعرض أحد المدرّجات التكرارية توزيع قانون القوة، حيث يظهر الثراء على المحور الأفقي وعدد الأشخاص الذين يملكون هذا الثراء على المحور العمودي. يمتلك معظم الأشخاص ثروة قليلة جدًا، بينما يمتلك عدد قليل منهم ثروة كبيرة. يعرض المدرّج التكراري الآخر توزيعًا طبيعيًا، حيث يمثّل المحور السيني الطول، ويمثّل المحور الصادي عدد الأشخاص الذين لديهم هذا الطول. تتجمّع معظم القيم بالقرب من المتوسط.

إن فهم توزيع كل ميزة وعلامة يمكن أن يساعدك في تحديد كيفية تطبيع القيم والكشف القيم المتطرفة.

تشير عبارة خارج التوزيع إلى قيمة لا تظهر في مجموعة البيانات أو تظهر بشكل نادر جدًا. على سبيل المثال، ستعتبر صورة كوكب زحل خارج التوزيع لمجموعة بيانات تتكون من صور القطط.

التجميع التقسيمي

#clustering

راجِع مقالة التجميع الهرمي.

تصغير نطاق العيّنات

مصطلح عام يمكن أن يشير إلى أحد المعنيَين التاليَين:

  • تقليل كمية المعلومات في ميزة بغرض يدرب نموذج أكثر كفاءة. على سبيل المثال، قبل تدريب نموذج للتعرّف على الصور، يتم تقليل دقة الصور العالية الدقة إلى تنسيق أقل دقة.
  • التدريب على نسبة منخفضة بشكل غير متناسب من الأشخاص الذين يتم تمثيلهم بشكل زائدفصل أمثلة من أجل تحسين التدريب النموذجي على الفئات الأقل تمثيلا. على سبيل المثال، في مجموعة بيانات غير متوازنة حسب الفئة ، تميل النماذج إلى تعلم الكثير عن الطبقة الأغلبية وليس هناك ما يكفي عن الطبقة الأقلية. يساعد تقليل معدّل أخذ العيّنات في تحقيق التوازن بين مقدار التدريب على الفئات الأغلبية والأقلية.

لمزيد من المعلومات، راجِع مجموعات البيانات: مجموعات البيانات غير المتوازنة في "دورة مكثّفة عن تعلّم الآلة".

DQN

اختصار لـشبكة Q العميقة.

تسوية التسرب الدراسي

شكل من أشكال التنظيم مفيدة في التدريب الشبكات العصبية. تؤدي عملية تسوية التسرب إلى إزالة التحديد العشوائي لعدد ثابت من الوحدات في طبقة الشبكة لخطوة تدرج واحدة. كلما زاد عدد الوحدات المتسربة، كلما كانت عملية التنظيم أقوى. وهذا يشبه تدريب الشبكة لمحاكاة حجم كبير بشكل كبيرفرقة موسيقية من الشبكات الأصغر. للحصول على التفاصيل الكاملة، راجع الانقطاع: طريقة بسيطة لمنع الشبكات العصبية من الإفراط في التجهيز.

ديناميكي

#fundamentals

شيء يتم إجراؤه بشكل متكرر أو مستمر المصطلحان ديناميكي ومتصل بالإنترنت هما مرادفان في التعلم الآلي. في ما يلي الاستخدامات الشائعة للديناميكية والإنترنت في تعلّم الآلة:

  • أ نموذج ديناميكي (أو نموذج على الإنترنت ) هو نموذج يتم إعادة تدريبه بشكل متكرر أو مستمر.
  • التدريب الديناميكي (أو التدريب على الإنترنت) هو عملية التدريب بشكل متكرر أو مستمر.
  • الاستدلال الديناميكي (أو الاستدلال المباشر) هو عملية إنشاء توقعات عند الطلب.

نموذج ديناميكي

#fundamentals

نموذج يتم إعادة تدريبه بشكل متكرر (ربما بشكل مستمر). النموذج الديناميكي هو "متعلم مدى الحياة" يتكيف باستمرار مع البيانات المتطورة. يُعرف النموذج الديناميكي أيضًا باسم النموذج عبر الإنترنت.

يختلف عن النموذج الثابت.

E

تنفيذ حريص

#تينسورفلو

بيئة برمجة في TensorFlow يتم فيها تنفيذ العمليات على الفور. في المقابل، لا يتم تنفيذ العمليات التي يتم استدعاؤها في تنفيذ الرسم البياني إلا بعد تقييمها بشكل صريح. التنفيذ الفوري هو واجهة أمرية، تشبه إلى حد كبير الرموز البرمجية في معظم لغات البرمجة. بشكل عام، يكون تصحيح أخطاء برامج التنفيذ الفوري أسهل بكثير من تصحيح أخطاء برامج التنفيذ البياني.

التوقف المبكر

#fundamentals

طريقة ل التنظيم وهذا يتضمن إنهاء تمرين قبل انخفاض خسائر التدريب. في عملية الإيقاف المبكر، يتم إيقاف تدريب النموذج عمدًا عندما يبدأ معدل الخطأ في مجموعة بيانات التحقّق من الصحة في الارتفاع، أي عندما يتدهور أداء التعميم.

يختلف ذلك عن الخروج المبكر.

مسافة محرك الأرض (EMD)

#متري

مقياس للتشابه النسبي بين توزيعَين. كلّما كانت مسافة نقل التراب أقل، تشابهت التوزيعات أكثر.

تعديل المسافة

#متري

مقياس لمدى تشابه سلسلتَي نص مع بعضهما البعض. في التعلم الآلي، تكون مسافة التحرير مفيدة للأسباب التالية:

  • يسهل احتساب مسافة التعديل.
  • يمكن أن تقارن مسافة التعديل بين سلسلتَين معروفتَين بأنّهما متشابهتان.
  • يمكن أن تحدّد مسافة التعديل درجة التشابه بين السلاسل المختلفة وسلسلة معيّنة.

تتوفّر عدة تعريفات لمسافة التعديل، ويستخدم كل منها عمليات مختلفة على السلاسل. يرىمسافة ليفينشتاين على سبيل المثال.

تدوين أينسوم

تدوين فعال لوصف كيفية تفاعل اثنينالموترات يجب أن يتم دمجها. يتم دمج الموترات عن طريق ضرب عناصر أحد الموترات في عناصر الموتر الآخر ثم جمع النواتج. تستخدم طريقة كتابة Einsum رموزًا لتحديد محاور كل موتر، ويتم إعادة ترتيب هذه الرموز نفسها لتحديد شكل الموتر الناتج الجديد.

توفّر حزمة NumPy عملية تنفيذ شائعة للدالة Einsum.

طبقة التضمين

#fundamentals

طبقة مخفية خاصة يتم تدريبها على سمة فئوية ذات أبعاد عالية، وذلك بهدف التعلّم تدريجيًا لمتجه تضمين ذي أبعاد أقل. تتيح طبقة التضمين للشبكة العصبية التدريب بكفاءة أكبر بكثير من التدريب على الميزة الفئوية العالية الأبعاد فقط.

على سبيل المثال، يتيح Earth حاليًا حوالي 73,000 نوع من الأشجار. افترض أن أنواع الأشجار هي ميزة في نموذجك، لذا تتضمن طبقة الإدخال في نموذجك متجه واحد ساخن يبلغ طوله 73000 عنصر. على سبيل المثال، قد يتم تمثيل baobab على النحو التالي:

مصفوفة من 73,000 عنصر تحتوي العناصر الـ 6,232 الأولى على القيمة 0. يحتوي العنصر التالي على القيمة 1. تحتوي العناصر الـ 66,767 النهائية على القيمة صفر.

تعتبر المصفوفة المكونة من 73000 عنصر طويلة جدًا. إذا لم تضِف طبقة تضمين إلى النموذج، سيستغرق التدريب وقتًا طويلاً جدًا بسبب ضرب 72,999 صفرًا. ربما تختار طبقة التضمين لتتكون من 12 بُعدًا. وبالتالي، ستتعلم طبقة التضمين تدريجيًا متجه تضمين جديدًا لكل نوع من أنواع الأشجار.

في بعض الحالات، يكون التجزئة بديلاً مناسبًا لطبقة التضمين.

راجع التضمينات في الدورة التدريبية المكثفة حول التعلم الآلي للحصول على مزيد من المعلومات.

مساحة التضمين

مساحة المتجهات ذات الأبعاد d التي يتم ربط الميزات من مساحة المتجهات ذات الأبعاد الأعلى بها يتم تدريب مساحة التضمين لالتقاط البنية ذات الصلة بالتطبيق المقصود.

الضرب النقطي بين تضمينَين هو مقياس لتشابههما.

متّجه التضمين

بشكل عام، هي مجموعة من الأرقام ذات الفاصلة العائمة مأخوذة من أي طبقة مخفية تصف المدخلات إلى تلك الطبقة المخفية. في كثير من الأحيان، يكون متجه التضمين عبارة عن مجموعة من الأرقام العائمة المدربة في طبقة التضمين. على سبيل المثال، افترض أن طبقة التضمين يجب أن تتعلم متجه التضمين لكل نوع من أنواع الأشجار البالغ عددها 73000 نوع على الأرض. ربما تكون المصفوفة التالية هي متّجه التضمين لشجرة باوباب:

مصفوفة تتضمّن 12 عنصرًا، يحتوي كل منها على رقم نقطة عائمة يتراوح بين 0.0 و1.0.

متجه التضمين ليس مجموعة من الأرقام العشوائية. تحدّد طبقة التضمين هذه القيم من خلال التدريب، بطريقة مشابهة للطريقة التي تتعلّم بها الشبكة العصبية الأوزان الأخرى أثناء التدريب. كل عنصر من عناصر المصفوفة هو تقييم وفقًا لبعض خصائص أنواع الأشجار. أي عنصر يمثّل سمة أي نوع من الأشجار؟ ويصعب على البشر تحديد ذلك.

الجزء المذهل من الناحية الرياضية في متجه التضمين هو أن العناصر المتشابهة تحتوي على مجموعات متشابهة من الأرقام العائمة. على سبيل المثال، تتضمّن أنواع الأشجار المتشابهة مجموعة أكثر تشابهًا من الأرقام العشرية مقارنةً بأنواع الأشجار غير المتشابهة. أشجار الخشب الأحمر وأشجار السكويا هي أنواع أشجار مرتبطة ببعضها، لذا سيكون لديها مجموعة أكثر تشابهًا من الأرقام ذات الفاصلة العائمة مقارنةً بأشجار الخشب الأحمر وأشجار جوز الهند. ستتغيّر الأرقام في متجه التضمين في كل مرة تعيد فيها تدريب النموذج، حتى إذا أعدت تدريبه باستخدام الإدخال نفسه.

دالة التوزيع التراكمي التجريبية (eCDF أو EDF)

#متري

دالة التوزيع التراكمي استنادًا إلى القياسات التجريبية من مجموعة بيانات حقيقية قيمة الدالة عند أي نقطة على طول المحور x هي جزء الملاحظات في مجموعة البيانات التي تكون أقل من القيمة المحددة أو تساويها.

تقليص المخاطر التجريبية (ERM)

اختيار الوظيفة التي تقلل الخسارة في مجموعة التدريب. التباين معتقليل المخاطر الهيكلية.

برنامج تشفير

بشكل عام، أي نظام تعلّم آلي يحوّل البيانات من تمثيل أولي أو متفرّق أو خارجي إلى تمثيل أكثر معالجة أو كثافة أو داخلية.

غالبًا ما تكون أجهزة الترميز جزءًا من نموذج أكبر، حيث يتم دمجها بشكل متكرر مع جهاز فك ترميز. بعضمحولات تقوم المحولات بإقران المشفرات مع أجهزة فك التشفير، على الرغم من أن المحولات الأخرى تستخدم المشفر فقط أو جهاز فك التشفير فقط.

تستخدم بعض الأنظمة مخرجات المبرمج كمدخل لشبكة التصنيف أو الانحدار.

في مهام التسلسل إلى التسلسل، يأخذ برنامج الترميز تسلسلاً من الإدخالات ويعرض حالة داخلية (متجه). بعد ذلك، يستخدم برنامج الترميز هذه الحالة الداخلية للتنبؤ بالتسلسل التالي.

راجِع المحوّل للتعرّف على تعريف برنامج الترميز في بنية المحوّل.

راجع LLMs: ما هو نموذج اللغة الكبير؟ في دورة التعلم الآلي المكثفة للحصول على مزيد من المعلومات.

نقاط النهاية

موقع قابل للوصول إلى الشبكة (عادةً عنوان URL) حيث يمكن الوصول إلى الخدمة.

فرقة موسيقية

مجموعة مننماذج تم تدريبهم بشكل مستقل وتم حساب متوسط توقعاتهم أو تجميعها. في كثير من الحالات، تنتج المجموعة تنبؤات أفضل من نموذج واحد. على سبيل المثال، الغابة العشوائية هي مجموعة نماذج تم إنشاؤها من عدة أشجار قرارات. لاحظ أنه ليس كلغابات القرار هي مجموعات.

راجع الغابة العشوائية في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

الإنتروبيا

#df
#متري

في نظرية المعلومات، هو وصف لمدى صعوبة توقّع توزيع الاحتمالات. ويمكن تعريف القصور أيضًا بأنه مقدار المعلومات التي يحتوي عليها كل مثال. يتمتع التوزيع بأعلى قدر ممكن من الإنتروبيا عندما تكون جميع قيم المتغير العشوائي متساوية الاحتمال.

إنّ إنتروبيا مجموعة تتضمّن قيمتَين محتملتَين هما "0" و "1" (على سبيل المثال، التصنيفات في مسألة تصنيف ثنائي) لها الصيغة التالية:

  H = -p log p - q log q = -p log p - (1-p) * log (1-p)

where:

  • H هو القصور.
  • p هو جزء من "1" مثال.
  • q هو نسبة الأمثلة التي تكون فيها القيمة "0". لاحظ أن q = (1 - p)
  • log هو عادةً log2. في هذه الحالة، وحدة الإنتروبيا هي البت.

على سبيل المثال، افترض ما يلي:

  • 100 مثال تحتوي على القيمة "1"
  • 300 مثال تحتوي على القيمة "0"

وبالتالي، تكون قيمة القصور كما يلي:

  • p = 0.25
  • س = 0.75
  • H = (-0.25)log2(0.25) - (0.75)log2(0.75) = 0.81 بت لكل مثال

المجموعة التي تكون متوازنة تمامًا (على سبيل المثال، 200 "0" و 200 "1") سيكون لها إنتروبيا 1.0 بت لكل مثال. عندما تصبح المجموعة أكثرغير متوازن ، تتحرك إنتروبيتها نحو 0.0.

في أشجار القرار ، تساعد الإنتروبيا في صياغة اكتساب المعلومات للمساعدة الفاصل حدد شروط أثناء نمو شجرة قرار التصنيف.

قارن الإنتروبيا مع:

يُطلق على القصور غالبًا اسم قصور شانون.

لمزيد من المعلومات، راجِع Exact splitter for binary classification with numerical features في دورة &quot;أشجار القرار&quot;.

بيئة

في التعلّم المعزّز، يشير مصطلح "البيئة" إلى العالم الذي يتضمّن الوكيل ويسمح له بمراقبة حالته. على سبيل المثال، يمكن أن يكون العالم الممثَّل لعبة مثل الشطرنج أو عالمًا ماديًا مثل المتاهة. عندما ينفّذ الوكيل إجراءً على البيئة، تنتقل البيئة بين الحالات.

حلقة

في التعلّم التعزيزي، كل محاولة متكررة يجريها الوكيل لتعلّم بيئة.

حقبة

#fundamentals

تمريرة تدريبية كاملة على كامل مجموعة التدريب بحيث يكون كل واحد مثال تمت معالجتها مرة واحدة.

تمثّل الحقبة N/حجم الدفعة تكرارات التدريب، حيث N هو إجمالي عدد الأمثلة.

على سبيل المثال، لنفترض ما يلي:

  • تتألف مجموعة البيانات من 1,000 مثال.
  • يبلغ حجم الدفعة 50 مثالاً.

لذلك، تتطلّب الحقبة الواحدة 20 تكرارًا:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

يمكنك الاطّلاع على الانحدار الخطي: المَعلمات الفائقة في "دورة مكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

سياسة إبسيلون الجشعة

في التعلّم المعزّز، السياسة التي تتّبع إما سياسة عشوائية باحتمالية إبسيلون أو سياسة جشعة في الحالات الأخرى. على سبيل المثال، إذا كان epsilon يساوي 0.9، فإن السياسة تتبع سياسة عشوائية بنسبة 90% من الوقت وسياسة جشعة بنسبة 10% من الوقت.

على مدار حلقات متتالية، تقلّل الخوارزمية قيمة إبسيلون من أجل الانتقال من اتّباع سياسة عشوائية إلى اتّباع سياسة جشعة. من خلال تغيير السياسة، يستكشف الوكيل البيئة أولاً بشكل عشوائي ثم يستغل بشكل جشع نتائج الاستكشاف العشوائي.

تكافؤ الفرص

#responsible
#Metric

مقياس الإنصاف لتقييم ما إذا كان النموذج يتوقّع النتيجة المطلوبة بشكل جيد وبالمقدار نفسه لجميع قيم السمة الحسّاسة بعبارة أخرى، إذا كانت النتيجة المرغوبة لنموذج هي الفئة الإيجابية، سيكون الهدف هو أن يكون معدّل الإيجابية الحقيقية هو نفسه لجميع المجموعات.

يرتبط تكافؤ الفرص بتكافؤ الاحتمالات، الذي يتطلّب أن يكون كلّ من معدلات الموجب الصائب ومعدلات الموجب الخاطئ متطابقًا لجميع المجموعات.

لنفترض أن جامعة جلوب دوبدريب تقبل سكان ليليبوت وسكان بروبدينغناغيين في برنامج رياضيات صارم. تقدم المدارس الثانوية في ليليبوتيان منهجًا قويًا لفصول الرياضيات، والغالبية العظمى من الطلاب مؤهلون لبرنامج الجامعة. لا تقدم المدارس الثانوية في بروبدينغناغيان دروسًا في الرياضيات على الإطلاق، ونتيجة لذلك، فإن عددًا أقل بكثير من طلابها مؤهلون. يتم تحقيق تكافؤ الفرص بالنسبة للتصنيف المفضل "للقبول" فيما يتعلق بالجنسية (ليليبوتيان أو بروبدنجانجيان) إذا كان من المرجح على قدم المساواة قبول الطلاب المؤهلين بغض النظر عما إذا كانوا ليليبوتيان أو بروبدنجانجيان.

على سبيل المثال، لنفترض أن 100 من سكان ليليبوت و100 من سكان بروبدينغناغي يتقدمون بطلبات إلى جامعة جلوب دوبدريب، ويتم اتخاذ قرارات القبول على النحو التالي:

الجدول 1. المتقدمون من ليليبوتيان (90٪ مؤهلون)

  مؤهَّل غير معرَّف
تم قبول الطلب 45 3
تم الرفض 45 7
المجموع 90 10
النسبة المئوية للطلاب المؤهّلين المقبولين: 45/90 =%50
النسبة المئوية للطلاب غير المؤهّلين المرفوضين: 7/10 =%70
النسبة المئوية الإجمالية للطلاب المقبولين من Lilliputian: (45+3)/100 = %48

 

الجدول 2. مقدّمو الطلبات من Brobdingnagian (10% مؤهَّلون):

  مؤهَّل غير معرَّف
تم قبوله 5 9
تم الرفض 5 81
المجموع 10 90
نسبة الطلاب المؤهّلين المقبولين: 5/10 =%50
نسبة الطلاب غير المؤهّلين المرفوضين: 81/90 =%90
النسبة الإجمالية للطلاب المقبولين من Brobdingnagian: (5+9)/100 = %14

إن الأمثلة السابقة تلبي مبدأ تكافؤ الفرص في قبول الطلاب المؤهلين لأن سكان ليليبوت وبربدينغناغيين المؤهلين لديهم فرصة 50% للقبول.

في حين تم استيفاء مبدأ تكافؤ الفرص، إلا أنه لم يتم استيفاء معياري العدالة التاليين:

  • التكافؤ الديمغرافي: يتم قبول سكان ليليبوت وبروبدينغناغ في الجامعة بمعدلات مختلفة، إذ يتم قبول% 48 من الطلاب من ليليبوت، ولكن يتم قبول% 14 فقط من الطلاب من بروبدينغناغ.
  • تكافؤ الفرص: على الرغم من أنّ الطلاب المؤهّلين من ليليبوت وبروبدينغناغ لديهم فرصة متساوية للقبول، لا يتم استيفاء الشرط الإضافي الذي ينص على أنّ الطلاب غير المؤهّلين من ليليبوت وبروبدينغناغ لديهم فرصة متساوية للرفض. يبلغ معدّل الرفض لدى Lilliputians غير المؤهّلين% 70، بينما يبلغ معدّل الرفض لدى Brobdingnagians غير المؤهّلين% 90.

يمكنك الاطّلاع على الإنصاف: تكافؤ الفرص في &quot;دورة مكثّفة عن تعلّم الآلة&quot; للحصول على مزيد من المعلومات.

الاحتمالات المتساوية

#responsible
#Metric

مقياس عدالة لتقييم ما إذا كان النموذج يتنبأ بالنتائج بشكل جيد وبالمقدار نفسه لجميع قيم السمة الحسّاسة فيما يتعلق بكل من الفئة الإيجابية والفئة السلبية، وليس فئة واحدة أو الأخرى حصريًا. وبعبارة أخرى، كلا منهما معدل إيجابي حقيقي و معدل النتائج السلبية الكاذبة ينبغي أن يكون الأمر نفسه لجميع المجموعات.

ترتبط تكافؤ الفرص بتكافؤ الفرص، الذي يركّز فقط على معدّلات الخطأ لفئة واحدة (موجبة أو سالبة).

على سبيل المثال، لنفترض أن جامعة جلوب دوبدريب تقبل سكان ليليبوت وسكان بروبدينغناغي في برنامج رياضيات صارم. تقدم المدارس الثانوية في ليليبوتيان منهجًا قويًا لفصول الرياضيات، والغالبية العظمى من الطلاب مؤهلون لبرنامج الجامعة. لا تقدم المدارس الثانوية في بروبدينغناغيان دروسًا في الرياضيات على الإطلاق، ونتيجة لذلك، فإن عددًا أقل بكثير من طلابها مؤهلون. يتم استيفاء الاحتمالات المتساوية بشرط أن يكون المتقدم، بغض النظر عما إذا كان من أهل ليليبوت أو من أهل بروبدينغناجي، إذا كان مؤهلاً، فمن المرجح أن يتم قبوله في البرنامج، وإذا لم يكن مؤهلاً، فمن المرجح أن يتم رفضه.

لنفترض أنّ 100 شخص من ليليبوت و100 شخص من بروبدينغناغ يقدّمون طلبات إلى جامعة غلوبدوبدريب، ويتم اتخاذ قرارات القبول على النحو التالي:

الجدول 3. المتقدمون من ليليبوتيان (90٪ مؤهلون)

  مؤهَّل غير معرَّف
تم قبول الطلب 45 2
تم الرفض 45 8
المجموع 90 10
نسبة الطلاب المؤهّلين المقبولين: 45/90 =%50
نسبة الطلاب غير المؤهّلين المرفوضين: 8/10 =%80
النسبة الإجمالية للطلاب المقبولين من Lilliputian: (45+2)/100 = %47

 

الجدول 4. مقدّمو الطلبات من Brobdingnagian (10% مؤهَّلون):

  مؤهَّل غير معرَّف
تم قبوله 5 18
تم الرفض 5 72
المجموع 10 90
نسبة الطلاب المؤهلين المقبولين: 5/10 = 50%
نسبة الطلاب غير المؤهلين المرفوضين: 72/90 = 80%
النسبة المئوية الإجمالية للطلاب المقبولين: (5+18)/100 = 23%

يتم تحقيق تكافؤ الفرص لأن الطلاب المؤهلين من ليليبوتيان وبروبدنجناجيان لديهم فرصة بنسبة 50% للقبول، بينما الطلاب غير المؤهلين من ليليبوتيان وبروبدنجناجيان لديهم فرصة بنسبة 80% للرفض.

يتم تعريف الاحتمالات المتساوية رسميًا في "تكافؤ الفرص في التعلم الخاضع للإشراف" على النحو التالي: "يلبي المتنبئ Ŷ الاحتمالات المتساوية فيما يتعلق بالسمة المحمية A والنتيجة Y إذا كان Ŷ وA مستقلين، مشروطين بـ Y."

مقدر

#تينسورفلو

واجهة برمجة تطبيقات TensorFlow قديمة. استخدِم tf.keras بدلاً من Estimators.

التقييمات

#generativeAI
#Metric

تُستخدَم في المقام الأول كاختصار لتقييمات النماذج اللغوية الكبيرة. بشكل عام، التقييمات هي اختصار لأي شكل من أشكال التقييم.

التقييم

#generativeAI
#Metric

تشير هذه العملية إلى قياس جودة نموذج أو مقارنة نماذج مختلفة ببعضها.

لتقييم نموذج تعلُّم الآلة المُوجّه، يتم عادةً مقارنته بمجموعة التحقّق ومجموعة الاختبار. يتضمّن تقييم النماذج اللغوية الكبيرة عادةً تقييمات أوسع للجودة والأمان.

مطابقة تامة

#Metric

مقياس شامل لا يسمح إلا بنتيجتَين: إمّا أن تتطابق نتيجة النموذج مع الحقيقة الأساسية أو النص المرجعي تمامًا، أو لا تتطابق. على سبيل المثال، إذا كانت الحقيقة الأساسية هي برتقالي، فإنّ ناتج النموذج الوحيد الذي يحقّق المطابقة التامة هو برتقالي.

يمكن أن تقيّم المطابقة التامة أيضًا النماذج التي يكون ناتجها تسلسلاً (قائمة مرتبة من العناصر). بشكل عام، تتطلّب المطابقة التامة أن تتطابق القائمة المرتبة التي تم إنشاؤها مع البيانات الأساسية، أي يجب أن يكون ترتيب كل عنصر في القائمتين هو نفسه. مع ذلك، إذا كانت البيانات الأساسية تتضمّن تسلسلات صحيحة متعددة، فإنّ المطابقة التامة تتطلّب فقط أن تتطابق نتائج النموذج مع أحد التسلسلات الصحيحة.

على سبيل المثال

#fundamentals

قيم صف واحد من سمات وربما ملصق. تندرج الأمثلة في التعلم المُوجّه ضمن فئتَين عامتَين:

  • يتألف المثال المصنّف من ميزة واحدة أو أكثر وتصنيف. يتم استخدام الأمثلة المصنَّفة أثناء التدريب.
  • يتألف مثال غير مصنّف من ميزة واحدة أو أكثر بدون تصنيف. يتم استخدام الأمثلة غير المصنّفة أثناء الاستدلال.

على سبيل المثال، لنفترض أنّك تدرب نموذجًا لتحديد تأثير الظروف الجوية على درجات اختبار الطلاب. في ما يلي ثلاثة أمثلة مصنّفة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 جيدة
19 34 1020 ممتاز
18 92 1012 سيئة

في ما يلي ثلاثة أمثلة غير مصنّفة:

درجة الحرارة الرطوبة الضغط  
12 62 1014  
21 47 1017  
19 41 1021  

عادةً ما يكون صف مجموعة البيانات هو المصدر الأولي للمثال. وهذا يعني أن المثال يتكون عادةً من مجموعة فرعية من الأعمدة الموجودة في مجموعة البيانات. علاوةً على ذلك، يمكن أن تتضمّن الميزات في أحد الأمثلة أيضًا ميزات اصطناعية، مثل تقاطع الميزات.

يمكنك الاطّلاع على التعلم الموجَّه في دورة &quot;مقدمة عن تعلُّم الآلة&quot; التدريبية للحصول على مزيد من المعلومات.

إعادة تجربة

في التعلّم المعزّز، DQN هي تقنية تُستخدَم للحدّ من الارتباطات الزمنية في بيانات التدريب. يخزّن الوكيل عمليات نقل الحالة في مخزن مؤقت لإعادة التشغيل، ثم يأخذ عيّنات من عمليات النقل من المخزن المؤقت لإعادة التشغيل لإنشاء بيانات التدريب.

انحياز المُختبِر

#responsible

يرىالتحيز التأكيدي.

مشكلة التدرّج المتفجّر

ميل التدرجات في الشبكات العصبية العميقة (خاصةً الشبكات العصبية المتكررة) إلى أن تصبح شديدة الانحدار (عالية) بشكل مفاجئ. تتسبّب التدرّجات الحادة غالبًا في إجراء تعديلات كبيرة جدًا على الأوزان الخاصة بكل عقدة في شبكة عصبونية عميقة.

تصبح النماذج التي تعاني من مشكلة التدرّج المتفجّر صعبة التدريب أو مستحيلة التدريب. يمكن أن يساعد اقتطاع التدرج في الحدّ من هذه المشكلة.

قارِن ذلك بمشكلة التدرّج المتلاشي.

F

ف1

#Metric

"لفة" التصنيف الثنائي مقياس يعتمد على كليهما دقة و يتذكر. وهنا الصيغة:

$$F{_1} = \frac{\text{2 * precision * recall}} {\text{precision + recall}}$$

الواقعية

#generativeAI

في مجال تعلُّم الآلة، تشير هذه السمة إلى نموذج يستند في نتائجه إلى بيانات واقعية. الحقيقة هي مفهوم وليست مقياسًا. على سبيل المثال، افترض أنك أرسلت ما يلي اِسْتَدْعَى الى نموذج اللغة الكبير:

ما هي الصيغة الكيميائية لملح الطعام؟

النموذج الذي يهدف إلى تحسين الواقعية سوف يستجيب لما يلي:

NaCl

ومن المغري أن نفترض أن جميع النماذج ينبغي أن تكون مبنية على الحقائق. ومع ذلك، ينبغي لبعض المطالبات، مثل المطالبات التالية، أن تؤدي إلى قيام نموذج الذكاء الاصطناعي التوليدي بتحسين الإبداع بدلاً من الواقعية.

أخبرني بقصيدة ليمريك عن رائد فضاء ويرقة.

ومن غير المرجح أن تكون القصيدة الهزلية الناتجة مستندة إلى الواقع.

التباين معالثبات.

قيد الإنصاف

#responsible
تطبيق قيد على خوارزمية لضمان استيفاء تعريف واحد أو أكثر للإنصاف تشمل أمثلة قيود العدالة ما يلي:

مقياس العدالة

#responsible
#Metric

تعريف رياضي "للإنصاف" يمكن قياسه تشمل بعض مقاييس العدالة الشائعة الاستخدام ما يلي:

تستبعد العديد من مقاييس العدالة بعضها البعض، راجِع عدم توافق مقاييس العدالة.

سالب خاطئ

#fundamentals
#Metric

مثال يخطئ فيه النموذج في التنبؤ بالفئة السلبية. على سبيل المثال، يتوقّع النموذج أنّ رسالة إلكترونية معيّنة ليست رسالة غير مرغوب فيها (الفئة السلبية)، ولكنّ هذه الرسالة الإلكترونية هي في الواقع رسالة غير مرغوب فيها.

معدل النتائج السلبية الكاذبة

#متري

يشير ذلك المصطلح إلى نسبة الأمثلة الإيجابية الفعلية التي توقّع النموذج بشكل خاطئ أنّها تنتمي إلى الفئة السلبية. تحتسب الصيغة التالية معدّل النتائج السلبية الخاطئة:

$$\text{false negative rate} = \frac{\text{false negatives}}{\text{false negatives} + \text{true positives}}$$

لمزيد من المعلومات، يمكنك الاطّلاع على الحدود ومصفوفة الالتباس في "دورة مكثّفة عن تعلّم الآلة".

موجب خاطئ

#fundamentals
#متري

مثال حيث يتنبأ النموذج بشكل خاطئفئة إيجابية. على سبيل المثال، يتنبأ النموذج بأن رسالة بريد إلكتروني معينة هي بريد عشوائي (الفئة الإيجابية)، ولكن هذه الرسالة الإلكترونية ليست بريدًا عشوائيًا في الواقع.

راجع العتبات ومصفوفة الارتباك في الدورة التدريبية المكثفة حول التعلم الآلي للحصول على مزيد من المعلومات.

معدّل الموجب الخاطئ

#fundamentals
#Metric

يشير ذلك المصطلح إلى نسبة الأمثلة السلبية الفعلية التي توقّع النموذج بشكل خاطئ أنّها تنتمي إلى الفئة الإيجابية. تحتسب الصيغة التالية معدّل الإيجابية الخاطئة:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

معدل الموجب الخاطئ هو المحور السيني في منحنى خاصية تشغيل جهاز الاستقبال.

يمكنك الاطّلاع على التصنيف: منحنى ROC ومقياس AUC في &quot;دورة مكثّفة عن تعلّم الآلة&quot; للحصول على مزيد من المعلومات.

التدهور السريع

#generativeAI

التدريب هو أسلوب لتحسين أداء نماذج اللغات الكبيرة. يتضمّن التدهور السريع خفض معدّل التعلّم بسرعة أثناء التدريب. تساعد هذه الاستراتيجية في منع النموذج من المبالغة في التكيّف مع بيانات التدريب، كما تحسّن التعميم.

ميزة

#fundamentals

متغيّر إدخال في نموذج تعلُّم الآلة يتألف المثال من ميزة واحدة أو أكثر. على سبيل المثال، لنفترض أنّك تدرب نموذجًا لتحديد تأثير الظروف الجوية على درجات اختبار الطلاب. يعرض الجدول التالي ثلاثة أمثلة، يحتوي كل منها على ثلاث ميزات وتصنيف واحد:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 92
19 34 1020 84
18 92 1012 87

التباين مع label.

يمكنك الاطّلاع على التعلم الخاضع للإشراف في دورة "مقدمة عن تعلُّم الآلة" للحصول على مزيد من المعلومات.

مضروب مجموعات الخصائص

#fundamentals

الخاصية الاصطناعية هي خاصية يتم إنشاؤها من خلال "دمج" الخصائص الفئوية أو المقسَّمة إلى مجموعات.

على سبيل المثال، ضع في اعتبارك نموذج "التنبؤ بالمزاج" الذي يمثل درجة الحرارة في أحد المجموعات الأربع التالية:

  • freezing
  • chilly
  • temperate
  • warm

ويمثل سرعة الرياح في أحد الدلاء الثلاثة التالية:

  • still
  • light
  • windy

بدون تقاطعات الميزة، يتم تدريب النموذج الخطي بشكل مستقل على كل من الدلاء السبعة المختلفة السابقة. لذا، يتم تدريب النموذج على freezing بشكل مستقل عن التدريب على windy.

يمكنك بدلاً من ذلك إنشاء تقاطع ميزات لدرجة الحرارة وسرعة الرياح. ستتضمّن هذه السمة الاصطناعية 12 قيمة محتملة على النحو التالي:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

بفضل عمليات الربط بين الميزات، يمكن للنموذج التعرّف على الاختلافات في الحالة المزاجية بين يوم freezing-windy ويوم freezing-still.

إذا أنشأت ميزة اصطناعية من ميزتَين يتضمّن كلّ منهما الكثير من التصنيفات المختلفة، سيحتوي تقاطع الميزتَين الناتج على عدد كبير من المجموعات المحتملة. على سبيل المثال، إذا كانت إحدى السمات تتضمّن 1,000 مجموعة والأخرى تتضمّن 2,000 مجموعة، سيتضمّن تقاطع السمات الناتج 2,000,000 مجموعة.

رياضيًا، يكون التقاطع ناتجًا ديكارتيًا.

تُستخدم عمليات التقاطع المميزة في الغالب مع النماذج الخطية ونادرًا ما تُستخدم مع الشبكات العصبية.

لمزيد من المعلومات، راجِع البيانات الفئوية: التقاطعات بين الميزات في "دورة مكثّفة عن تعلُّم الآلة".

هندسة الميزات

#fundamentals
#تينسورفلو

عملية تتضمّن الخطوات التالية:

  1. تحديد الميزات التي قد تكون مفيدة في تدريب نموذج
  2. تحويل البيانات الأولية من مجموعة البيانات إلى إصدارات فعّالة من هذه الميزات

على سبيل المثال، قد ترى أنّ temperature ميزة مفيدة. بعد ذلك، يمكنك تجربة التجميع في فئات لتحسين ما يمكن أن يتعلّمه النموذج من نطاقات temperature مختلفة.

يُطلق على عملية تصميم الميزات أحيانًا اسم استخراج الميزات أو تحويل البيانات إلى ميزات.

راجِع البيانات الرقمية: كيف يستوعب النموذج البيانات باستخدام متجهات الميزات في &quot;دورة تدريبية مكثّفة حول تعلُّم الآلة&quot; للحصول على مزيد من المعلومات.

استخراج الميزات

مصطلح محمل بشكل زائد له أحد التعريفين التاليين:

أهمية الميزات

#df
#Metric

مرادف أهمية المتغيرات

مجموعة الميزات

#fundamentals

مجموعة الميزات التي يتم تدريب نموذج تعلُّم الآلة عليها. على سبيل المثال، قد تتألف مجموعة بسيطة من السمات لنموذج يتنبأ بأسعار المساكن من الرمز البريدي ومساحة العقار وحالته.

مواصفات الميزة

#TensorFlow

يصف المعلومات المطلوبة لاستخراجها سمات البيانات من مثال tf مخزن البروتوكول. بما أنّ tf.Example protocol buffer هي مجرد حاوية للبيانات، عليك تحديد ما يلي:

  • البيانات التي يجب استخراجها (أي مفاتيح الميزات)
  • نوع البيانات (على سبيل المثال، عدد عشري أو عدد صحيح)
  • الطول (ثابت أو متغير)

متجه الميزة

#fundamentals

مصفوفة قيم الميزة التي تتضمّن مثالاً. يتم إدخال متجه الميزات أثناء التدريب وأثناء الاستدلال. على سبيل المثال، قد يكون متجه الميزة لنموذج يحتوي على ميزتين منفصلتين على النحو التالي:

[0.92, 0.56]

أربع طبقات: طبقة إدخال وطبقتان مخفيتان وطبقة إخراج
          تحتوي الطبقة الأولى على عقدتَين، إحداهما تحتوي على القيمة 0.92 والأخرى على القيمة 0.56.

يوفر كل مثال قيمًا مختلفة لمتجه الميزة، لذا يمكن لمتجه الميزة للمثال التالي أن يكون شيئًا مثل:

[0.73, 0.49]

تحدّد هندسة الميزات كيفية تمثيل الميزات في متجه الميزات. على سبيل المثال، قد يتم تمثيل ميزة تصنيفية ثنائية بخمس قيم محتملة باستخدامالترميز الساخن الواحد. في هذه الحالة، سيتألف جزء متجه الميزات الخاص بمثال معيّن من أربعة أصفار و1.0 واحد في الموضع الثالث، كما يلي:

[0.0, 0.0, 1.0, 0.0, 0.0]

كمثال آخر، لنفترض أنّ نموذجك يتكوّن من ثلاث ميزات:

  • سمة فئوية ثنائية ذات خمس قيم محتملة ممثَّلة باستخدام الترميز الساخن، على سبيل المثال: [0.0, 1.0, 0.0, 0.0, 0.0]
  • ميزة فئوية ثنائية أخرى تتضمّن ثلاث قيم محتملة ممثّلة باستخدام الترميز الأحادي، مثل: [0.0, 0.0, 1.0]
  • ميزة النقطة العائمة؛ على سبيل المثال: 8.3.

في هذه الحالة، سيتم تمثيل متجه الميزات لكل مثال بتسع قيم. بالنظر إلى القيم النموذجية في القائمة السابقة، سيكون متجه الميزات كما يلي:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

راجِع البيانات الرقمية: كيف يستوعب النموذج البيانات باستخدام متجهات الميزات في &quot;دورة تدريبية مكثّفة حول تعلُّم الآلة&quot; للحصول على مزيد من المعلومات.

featurization

عملية استخراج الميزات من مصدر إدخال، مثل مستند أو فيديو، وربط هذه الميزات بمتجه ميزات

يستخدم بعض خبراء تعلُّم الآلة مصطلح "تحديد الميزات" كمرادف لمصطلحَي هندسة الميزات أو استخراج الميزات.

التعلّم الموحّد

نهج التعلم الآلي الموزع الذي القطارات التعلم الآلي نماذج باستخدام اللامركزية أمثلة المتواجدة على الأجهزة مثل الهواتف الذكية. في التعلم الفيدرالي، تقوم مجموعة فرعية من الأجهزة بتنزيل النموذج الحالي من خادم تنسيق مركزي. تستخدم الأجهزة الأمثلة المخزنة على الأجهزة لإجراء تحسينات على النموذج. ثم تقوم الأجهزة بتحميل تحسينات النموذج (ولكن ليس أمثلة التدريب) إلى الخادم المنسق، حيث يتم تجميعها مع تحديثات أخرى لإنتاج نموذج عالمي محسّن. بعد التجميع، لم تعد هناك حاجة إلى تحديثات النموذج المحسوبة بواسطة الأجهزة، ويمكن التخلص منها.

نظرًا لأن أمثلة التدريب لا يتم تحميلها مطلقًا، فإن التعلم الفيدرالي يتبع مبادئ الخصوصية المتمثلة في جمع البيانات المحددة وتقليل البيانات.

يمكنك الاطّلاع على القصة المصوّرة حول التعلّم الموحّد (نعم، قصة مصوّرة) للحصول على مزيد من التفاصيل.

حلقة الملاحظات

#fundamentals

في تعلُّم الآلة، هي حالة تؤثّر فيها توقّعات النموذج في بيانات التدريب الخاصة بالنموذج نفسه أو بنموذج آخر. على سبيل المثال، سيؤثر نموذج يقترح أفلامًا في الأفلام التي يشاهدها المستخدمون، ما سيؤثر بدوره في نماذج اقتراح الأفلام اللاحقة.

راجع أنظمة إنتاج التعلم الآلي: الأسئلة التي يجب طرحها في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

الشبكة العصبية التغذية الأمامية (FFN)

شبكة عصبية بدون اتصالات دورية أو متكررة. على سبيل المثال، التقليديةالشبكات العصبية العميقة هي شبكات عصبية تغذية أمامية. يختلف هذا النوع عن الشبكات العصبية المتكررة التي تكون دورية.

التعلم من خلال لقطات قليلة

نهج التعلم الآلي، والذي يستخدم غالبًا لتصنيف الكائنات، مصمم لتدريب الأشخاص الفعاليننماذج التصنيف من عدد قليل فقط من أمثلة التدريب.

يمكنك الاطّلاع أيضًا على التعلُّم بفرصة واحدة والتعلُّم بدون أمثلة.

التلقين ببضعة أمثلة

#الذكاء الاصطناعي التوليدي

المطالبة التي تحتوي على أكثر من مثال واحد (بضع أمثلة) توضّح الطريقة التي يجب أن يستجيب بها النموذج اللغوي الكبير. على سبيل المثال، يتضمّن الطلب الطويل التالي مثالَين يوضّحان للنموذج اللغوي الكبير كيفية الإجابة عن طلب بحث.

أجزاء من موجه واحد ملاحظات
ما هي العملة الرسمية للبلد المحدد؟ السؤال الذي تريد أن تجيب عنه النماذج اللغوية الكبيرة.
فرنسا: يورو إليك مثالاً.
المملكة المتحدة: الجنيه الإسترليني مثال آخر.
الهند: الاستعلام الفعلي.

عادةً ما ينتج عن التحفيز باستخدام عدد قليل من اللقطات نتائج مرغوبة أكثر من مطالبة صفرية و توجيه طلقة واحدة. ومع ذلك، فإن المطالبة ذات اللقطات القليلة تتطلب مطالبة أطول.

إن التحفيز باستخدام عدد قليل من اللقطات هو شكل من أشكال التعلم من خلال لقطات قليلة تطبق على التعلم القائم على المطالبة.

يمكنك الاطّلاع على هندسة المطالبات في "دورة مكثّفة عن تعلّم الآلة" للحصول على مزيد من المعلومات.

كمنجة

بايثون أولاًإعدادات مكتبة تحدد قيم الوظائف والفئات دون الحاجة إلى كود أو بنية أساسية معقدة. في حالة Pax وغيرها من قواعد بيانات تعلُّم الآلة، تمثّل هذه الدوال والفئات النماذج والتدريب والمَعلمات الفائقة.

يفترض Fiddle أن قواعد بيانات التعلم الآلي تنقسم عادةً إلى:

  • رمز المكتبة الذي يحدّد الطبقات وأدوات التحسين
  • رمز "الربط" لمجموعة البيانات، والذي يستدعي المكتبات ويربط كل شيء ببعضه

يلتقط Fiddle بنية الاستدعاء الخاصة بكود الغراء في نموذج غير مقيم وقابل للتغيير.

الكون المثالى

#الذكاء الاصطناعي التوليدي

تمريرة تدريبية ثانية خاصة بالمهمة يتم إجراؤها علىنموذج مدرب مسبقًا لتحسين معلماتها لحالة استخدام محددة. على سبيل المثال، تسلسل التدريب الكامل لبعضنماذج لغوية كبيرة كما يلي:

  1. التدريب المُسبَق: يتم تدريب نموذج لغوي كبير على مجموعة بيانات عامة واسعة النطاق، مثل جميع صفحات ويكيبيديا باللغة الإنجليزية.
  2. الضبط الدقيق: تدريب النموذج المدرب مسبقًا لأداء مهمة محددة، مثل الرد على الاستفسارات الطبية. يتضمّن الضبط الدقيق عادةً مئات أو آلاف الأمثلة التي تركّز على المهمة المحدّدة.

كمثال آخر، يكون تسلسل التدريب الكامل لنموذج صور كبير على النحو التالي:

  1. التدريب المُسبَق: تدريب نموذج كبير للصور على مجموعة بيانات عامة ضخمة من الصور، مثل جميع الصور في مستودع Wikimedia.
  2. الضبط الدقيق: تدريب النموذج المدرب مسبقًا لأداء مهمة محددة، مثل إنشاء صور للحيتان القاتلة.

يمكن أن يستلزم الضبط الدقيق أي مجموعة من الاستراتيجيات التالية:

  • تعديلالجميع من النموذج المدرب مسبقًا الموجودحدود. يُطلق على هذا أحيانًا اسم الضبط الدقيق الكامل.
  • تعديل فقطبعض من المعلمات الموجودة في النموذج المدرب مسبقًا (عادةً، الطبقات الأقرب إلى طبقة الإخراج )، مع الحفاظ على المعلمات الأخرى الموجودة دون تغيير (عادةً، الطبقات الأقرب إلى طبقة الإدخال ). يرىضبط فعال للمعلمات.
  • إضافة المزيد من الطبقات، عادةً فوق الطبقات الموجودة الأقرب إلى طبقة الإخراج.

الضبط الدقيق هو شكل من أشكالنقل التعلم. وعلى هذا النحو، قد يستخدم الضبط الدقيق دالة خسارة مختلفة أو نوع نموذج مختلف عن تلك المستخدمة لتدريب النموذج المدرب مسبقًا. على سبيل المثال، يمكنك ضبط نموذج صورة كبيرة مدرب مسبقًا لإنتاج نموذج انحدار يعيد عدد الطيور في صورة الإدخال.

قارِن بين الضبط الدقيق والمصطلحات التالية:

يمكنك الاطّلاع على الضبط الدقيق في "دورة مكثّفة عن تعلّم الآلة" للحصول على مزيد من المعلومات.

نموذج الفلاش

#الذكاء الاصطناعي التوليدي

مجموعة من نماذج Gemini الصغيرة نسبيًا والمحسَّنة لتحقيق سرعة عالية ووقت استجابة منخفض. تم تصميم نماذج Flash لمجموعة واسعة من التطبيقات التي تتطلّب ردودًا سريعة ومعدل نقل بيانات مرتفعًا.

الكتّان

مكتبة مفتوحة المصدر وعالية الأداء للتعلّم العميق، تم إنشاؤها استنادًا إلى JAX. توفّر Flax دوال لتدريب الشبكات العصبية، بالإضافة إلى طرق لتقييم أدائها.

Flaxformer

Transformer مكتبة مفتوحة المصدر، تم إنشاؤها استنادًا إلى Flax، وهي مصمَّمة في الأساس لمعالجة اللغة الطبيعية والأبحاث المتعدّدة الوسائط.

نسيان كلمة مرور البوابة

جزء من خلية الذاكرة الطويلة الأمد القصيرة الأمد ينظّم تدفّق المعلومات عبر الخلية. تحافظ بوابات النسيان على السياق من خلال تحديد المعلومات التي سيتم تجاهلها من حالة الخلية.

النموذج الأساسي

#generativeAI
#Metric

نموذج مدرَّب مسبقًا كبير جدًا تم تدريبه على مجموعة تدريب هائلة ومتنوّعة. يمكن للنموذج الأساسي تنفيذ ما يلي:

  • الاستجابة بشكل جيد لمجموعة كبيرة من الطلبات
  • يمكن استخدامها كنموذج أساسي لإجراء المزيد من عمليات الضبط الدقيق أو التخصيص الأخرى.

بعبارة أخرى، يكون النموذج الأساسي فعّالاً جدًا بشكل عام، ولكن يمكن تخصيصه أكثر ليصبح أكثر فائدةً لمهمة معيّنة.

جزء من النجاحات

#generativeAI
#Metric

مقياس لتقييم نموذج التعلم الآليالنص المُولَّد. يشير جزء حالات النجاح إلى عدد مخرجات النص التي تم إنشاؤها "بنجاح" مقسومًا على إجمالي عدد مخرجات النص التي تم إنشاؤها. على سبيل المثال، إذا أنشأ نموذج لغة كبير 10 مقاطع برمجية، ونجح خمسة منها، ستكون نسبة النجاح 50%.

على الرغم من أن نسبة النجاحات مفيدة على نطاق واسع في جميع الإحصائيات، إلا أن هذا المقياس داخل التعلم الآلي مفيد بشكل أساسي لقياس المهام القابلة للتحقق مثل إنشاء التعليمات البرمجية أو المشكلات الرياضية.

سوفت ماكس كامل

مرادف softmax

يختلف عن تحليل العينات المُحتملة.

لمزيد من المعلومات، يُرجى الاطّلاع على الشبكات العصبية: التصنيف المتعدد الفئات في "الدورة التدريبية المكثّفة حول تعلُّم الآلة".

طبقة مكتملة الاتصال

طبقة مخفية يتم فيها ربط كل عقدة بكل عقدة في الطبقة المخفية اللاحقة.

تُعرف الطبقة المتصلة بالكامل أيضًا باسمطبقة كثيفة.

تحويل الدالة

دالة تأخذ دالة كمدخل وتعرض دالة معدَّلة كمخرج. JAX يستخدم تحويلات الوظيفة.

G

GAN

اختصار لـشبكة عدائية توليدية.

Gemini

#generativeAI

النظام البيئي الذي يضم الذكاء الاصطناعي الأكثر تقدمًا من Google. تتضمن عناصر هذا النظام البيئي ما يلي:

  • متنوعنماذج الجوزاء.
  • واجهة المحادثة التفاعلية لنموذج الجوزاء. يقوم المستخدمون بكتابة المطالبات ويقوم Gemini بالرد على تلك المطالبات.
  • واجهات برمجة تطبيقات Gemini المتنوعة.
  • منتجات أعمال متنوعة تعتمد على نماذج Gemini؛ على سبيل المثال، Gemini لـ Google Cloud.

نماذج Gemini

#generativeAI

أحدث ما توصلت إليه تكنولوجيا جوجل محول -قائم على نماذج متعددة الوسائط. تم تصميم نماذج الجوزاء خصيصًا للتكامل معوكلاء.

يمكن للمستخدمين التفاعل مع نماذج Gemini بعدة طرق، بما في ذلك من خلال واجهة الحوار التفاعلية ومن خلال مجموعات تطوير البرامج (SDKs).

Gemma

#generativeAI

مجموعة من النماذج المفتوحة والخفيفة تم إنشاؤها بالاستناد إلى الأبحاث والتكنولوجيا نفسها التي استُخدمَت لإنشاء نماذج Gemini تتوفر عدة نماذج Gemma مختلفة، كل منها يوفر ميزات مختلفة، مثل الرؤية والترميز واتباع التعليمات. لمزيد من التفاصيل، يُرجى الاطّلاع على Gemma.

GenAI أو genAI

#generativeAI

اختصار لـالذكاء الاصطناعي التوليدي.

تعميم

#fundamentals

تشير إلى قدرة النموذج على تقديم توقّعات صحيحة بشأن بيانات جديدة لم يسبق له رؤيتها. النموذج الذي يمكن تعميمه هو عكس النموذج الذي يمكن تعميمهالإفراط في التجهيز.

راجع التعميم في الدورة التدريبية المكثفة حول التعلم الآلي للحصول على مزيد من المعلومات.

منحنى التعميم

#fundamentals

قطعة من كليهما خسارة التدريب و فقدان التحقق كدالة لعدد التكرارات.

يمكن أن يساعدك منحنى التعميم في اكتشاف الاحتمالاتالإفراط في التجهيز. على سبيل المثال، يشير منحنى التعميم التالي إلى الإفراط في التجهيز لأن فقدان التحقق يصبح في النهاية أعلى بكثير من فقدان التدريب.

رسم بياني ديكارتي يتم فيه تصنيف المحور ص على أنّه الخسارة والمحور س على أنّه التكرارات. يظهر رسمان بيانيان. يعرض أحد الرسومات البيانية
          فقدان التدريب، بينما يعرض الآخر فقدان التحقّق.
          يبدأ الرسمان البيانيان بشكل متشابه، ولكن ينخفض معدل الخطأ في التدريب في النهاية إلى مستوى أقل بكثير من معدل الخطأ في التحقّق.

يمكنك الاطّلاع على التعميم في "دورة مكثّفة عن تعلّم الآلة" للحصول على مزيد من المعلومات.

نموذج خطّي معمَّم

تعميم نماذج الانحدار بالمربعات الصغرى، التي تستند إلى الضوضاء الغاوسية، إلى أنواع أخرى من النماذج التي تستند إلى أنواع أخرى من الضوضاء، مثل ضوضاء بواسون أو الضوضاء الفئوية تشمل أمثلة النماذج الخطية المعمَّمة ما يلي:

يمكن العثور على مَعلمات النموذج الخطي المعمَّم من خلال التحسين المحدّب.

تتضمّن النماذج الخطية المعمَّمة الخصائص التالية:

  • إنّ متوسط التوقّع لنموذج الانحدار الأمثل للمربّعات الصغرى يساوي متوسط التصنيف في بيانات التدريب.
  • إنّ متوسط الاحتمالية التي يتوقّعها نموذج الانحدار اللوجستي الأمثل يساوي متوسط التصنيف في بيانات التدريب.

تكون قدرة النموذج الخطي المعمَّم محدودة بميزاته. على عكس النموذج العميق، لا يمكن للنموذج الخطي المعمَّم "تعلُّم ميزات جديدة".

النص الذي يتم إنشاؤه

#الذكاء الاصطناعي التوليدي

بشكل عام، النص الذي يخرجه نموذج التعلم الآلي. عند تقييم نماذج اللغة الكبيرة، تقارن بعض المقاييس النص الناتج معنص مرجعي. على سبيل المثال، افترض أنك تحاول تحديد مدى فعالية ترجمة نموذج التعلم الآلي من الفرنسية إلى الهولندية. في هذه الحالة:

  • النص الذي تم إنشاؤه هو الترجمة الهولندية التي يعرضها نموذج تعلُّم الآلة.
  • النص المرجعي هو الترجمة الهولندية التي ينشئها مترجم بشري (أو برنامج).

يُرجى العِلم أنّ بعض استراتيجيات التقييم لا تتضمّن نصًا مرجعيًا.

الشبكة التنافسية التوليدية (GAN)

نظام لإنشاء بيانات جديدة، حيث ينشئ المولّد بيانات، ويحدّد المميّز ما إذا كانت البيانات التي تم إنشاؤها صالحة أم غير صالحة.

يمكنك الاطّلاع على دورة شبكات الخصومة التوليدية للحصول على مزيد من المعلومات.

الذكاء الاصطناعي التوليدي

#generativeAI

مجال تحويلي ناشئ بدون تعريف رسمي مع ذلك، يتفق معظم الخبراء على أنّ نماذج الذكاء الاصطناعي التوليدي يمكنها إنشاء ("توليد") محتوى يتضمّن كل ما يلي:

  • معقّدة
  • متماسك
  • الصورة الأصلية

تشمل أمثلة الذكاء الاصطناعي التوليدي ما يلي:

  • نماذج اللغة الكبيرة ، والتي يمكنها إنشاء نص أصلي متطور والإجابة على الأسئلة.
  • نموذج توليد الصور، والذي يمكنه إنتاج صور فريدة.
  • نماذج إنشاء المحتوى الصوتي والموسيقي، والتي يمكنها تأليف موسيقى أصلية أو إنشاء محتوى صوتي واقعي
  • نماذج إنشاء الفيديوهات التي يمكنها إنشاء فيديوهات أصلية

يمكن لبعض التقنيات السابقة، بما في ذلك شبكات الذاكرة الطويلة المدى (LSTM) والشبكات العصبية المتكررة (RNN)، إنشاء محتوى أصلي ومتماسك أيضًا. يرى بعض الخبراء أنّ هذه التكنولوجيات السابقة هي ذكاء اصطناعي توليدي، بينما يرى آخرون أنّ الذكاء الاصطناعي التوليدي الحقيقي يتطلّب نواتج أكثر تعقيدًا مما يمكن أن تنتجه هذه التكنولوجيات السابقة.

يختلف ذلك عن تعلُّم الآلة التوقّعي.

نموذج توليدي

من الناحية العملية، نموذج يقوم بأحد الأمرين التاليين:

  • إنشاء (توليد) أمثلة جديدة من مجموعة البيانات التدريبية. على سبيل المثال، يمكن للنموذج التوليدي إنشاء الشعر بعد التدريب على مجموعة بيانات من القصائد. ال مولد كهربائي جزء من شبكة عدائية توليدية يقع ضمن هذه الفئة.
  • تحديد احتمالية ظهور مثال جديد من مجموعة التدريب، أو إنشائه من نفس الآلية التي أنشأت مجموعة التدريب. على سبيل المثال، بعد التدريب على مجموعة بيانات مكونة من جمل إنجليزية، يمكن لنموذج توليدي تحديد احتمالية أن يكون الإدخال الجديد عبارة عن جملة إنجليزية صالحة.

من الناحية النظرية، يمكن للنموذج التوليدي أن يميز توزيع الأمثلة أو الميزات المحددة في مجموعة البيانات. والمقصود:

p(examples)

نماذج التعلم غير الخاضعة للإشراف هي نماذج توليدية.

يختلف عن النماذج التمييزية.

منشئ

النظام الفرعي ضمن شبكة معادية توليدية الذي ينشئ أمثلة جديدة.

التباين معنموذج تمييزي.

شائبة جيني

#df
#متري

مقياس مماثل لـإنتروبيا. المقسمات استخدم القيم المشتقة من شوائب الجيني أو الإنتروبيا لتكوين شروط للتصنيف أشجار القرار. يتم استنتاج تحصيل المعلومات من قصور المعلومات. لا يوجد مصطلح مكافئ مقبول عالميًا للمقياس المشتق من شوائب الجيني؛ ومع ذلك، فإن هذا المقياس الذي لم يتم تسميته لا يقل أهمية عن اكتساب المعلومات.

يُطلق على عدم نقاء جيني أيضًا اسم مؤشر جيني أو ببساطة جيني.

مجموعة البيانات الذهبية

مجموعة من البيانات التي تم تنظيمها يدويًا والتي تلتقطالحقيقة الأساسية. يمكن للفرق استخدام مجموعة بيانات ذهبية واحدة أو أكثر لتقييم جودة النموذج.

تتضمّن بعض مجموعات البيانات الذهبية نطاقات فرعية مختلفة من البيانات الأساسية. على سبيل المثال، قد تلتقط مجموعة البيانات الذهبية لتصنيف الصور ظروف الإضاءة ودقة الصورة.

الاستجابة الذهبية

#generativeAI

أإجابة معروف أنه جيد. على سبيل المثال، بالنظر إلى ما يلياِسْتَدْعَى:

2 + 2

من المفترض أن تكون الإجابة المثالية هي:

4

Google AI Studio

أداة من Google توفّر واجهة سهلة الاستخدام لتجربة التطبيقات وإنشائها باستخدام نماذج اللغة الكبيرة من Google. يمكنك الاطّلاع على الصفحة الرئيسية في Google AI Studio لمعرفة التفاصيل.

‫GPT (Generative Pre-trained Transformer)

#generativeAI

هي مجموعة من النماذج اللغوية الكبيرة المستندة إلى Transformer، والتي طوّرتها شركة OpenAI.

يمكن أن تنطبق صيغ GPT على وسائط متعددة، بما في ذلك:

  • إنشاء الصور (مثل ImageGPT)
  • تحويل النص إلى صورة (على سبيل المثال، DALL-E)

متدرج

متّجه المشتقات الجزئية بالنسبة إلى جميع المتغيرات المستقلة في تعلُّم الآلة، التدرّج هو متّجه المشتقات الجزئية لدالة النموذج. يشير التدرّج إلى اتجاه الصعود الأكثر انحدارًا.

تجميع التدرّج

الانتشار العكسي هو أسلوب يعدّل المَعلمات مرة واحدة فقط لكل حقبة بدلاً من مرة واحدة لكل تكرار. بعد معالجة كل دفعة صغيرة، يؤدي تجميع التدرّجات إلى تعديل المجموع الجاري للتدرّجات. ثم، بعد معالجة الدفعة الصغيرة الأخيرة في العصر، يقوم النظام أخيرًا بتحديث المعلمات استنادًا إلى إجمالي كل تغييرات التدرج.

تكون عملية تجميع التدرّج مفيدة عندما يكون حجم الدفعة كبيرًا جدًا مقارنةً بكمية الذاكرة المتاحة للتدريب. عندما تكون الذاكرة مشكلة، يكون الميل الطبيعي هو تقليل حجم الدُفعات. ومع ذلك، فإنّ تقليل حجم الدفعة في الانتشار الخلفي العادي يزيد عدد تعديلات المَعلمات. تتيح ميزة &quot;تجميع التدرّجات&quot; للنموذج تجنُّب مشاكل الذاكرة مع الحفاظ على كفاءة التدريب.

أشجار القرارات المعزّزة بالتدرّج (GBT)

#df

هو نوع من غابة القرارات حيث:

يمكنك الاطّلاع على أشجار القرارات المعزّزة بالتدرّج في دورة &quot;غابات القرارات&quot; للحصول على مزيد من المعلومات.

تعزيز التدرج

#df

خوارزمية تدريب يتم فيها تدريب النماذج الضعيفة لتحسين الجودة (تقليل الخسارة) للنموذج القوي بشكل متكرر. على سبيل المثال، قد يكون النموذج الضعيف عبارة عن نموذج شجرة قرار خطي أو صغير. يصبح النموذج القوي عبارة عن مجموع كل النماذج الضعيفة التي تم تدريبها مسبقًا.

في أبسط أشكال تعزيز التدرج، في كل تكرار، يتم تدريب نموذج ضعيف للتنبؤ بتدرج الخسارة في النموذج القوي. ثم يتم تحديث مخرجات النموذج القوي عن طريق طرح التدرج المتوقع، على غرارنزول التدرج.

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

where:

  • ‫$F_{0}$ هو نموذج البداية القوية.
  • $F_{i+1}$ هو النموذج القوي التالي.
  • $F_{i}$ هو النموذج القوي الحالي.
  • $\xi$ هي قيمة بين 0.0 و1.0 تُسمى الانكماش، وهي مشابهة لمعدل التعلّم في خوارزمية انحدار التدرّج.
  • $f_{i}$ هو النموذج الضعيف الذي تم تدريبه للتنبؤ بتدرج الخسارة لـ $F_{i}$.

تتضمّن الأنواع الحديثة من تعزيز التدرّج أيضًا المشتقة الثانية (مصفوفة هيسيان) للدالة الخسارة في حساباتها.

أشجار القرار تُستخدم عادةً كنماذج ضعيفة في تعزيز التدرج. يرىأشجار القرار المعززة بالتدرج.

اقتصاص التدرّج

آلية شائعة الاستخدام للحدّ من مشكلة تضخّم التدرّج من خلال الحدّ بشكل مصطنع (القص) من القيمة القصوى للتدرّجات عند استخدام النزول بالتدرّج من أجل تدريب نموذج.

نزول التدرج

#fundamentals

تقنية رياضية للتقليلخسارة. يتم تعديل الانحدار التدريجي بشكل متكرر الأوزان و التحيزات ، العثور تدريجيا على أفضل مزيج لتقليل الخسائر.

إن الانحدار التدريجي أقدم - أقدم بكثير - من التعلم الآلي.

راجع الانحدار الخطي: الانحدار التدريجي في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

رسم بياني

#تينسورفلو

في TensorFlow، مواصفات حسابية. تمثل العقد في الرسم البياني العمليات. يتم توجيه الحواف وتمثل تمرير نتيجة العملية (أTensor ) كمتغير لعملية أخرى. يستخدمTensorBoard لتصور الرسم البياني.

تنفيذ الرسم البياني

#تينسورفلو

بيئة برمجة TensorFlow حيث يقوم البرنامج أولاً بإنشاءرسم بياني ثم يقوم بتنفيذ كل أو جزء من هذا الرسم البياني. يعد تنفيذ الرسم البياني هو وضع التنفيذ الافتراضي في TensorFlow 1.x.

التباين معتنفيذ حريص.

سياسة الجشع

في التعلم التعزيزي، سياسة الذي يختار دائمًا الإجراء الذي يتوقعه الجميع بأعلى قدر من الفعالية يعود.

الثبات

هي سمة في نموذج يستند ناتجها إلى مواد مصدرية معيّنة. على سبيل المثال، لنفترض أنّك قدّمت كتابًا كاملاً في الفيزياء كمدخل ("السياق") إلى نموذج لغوي كبير. بعد ذلك، تطرح على النموذج اللغوي الكبير سؤالاً في الفيزياء. إذا كان ردّ النموذج يعكس معلومات واردة في هذا الكتاب المدرسي، يكون النموذج مستندًا إلى هذا الكتاب المدرسي.

لاحظ أن النموذج الأرضي ليس دائمًا نموذجًاواقعي نموذج. على سبيل المثال، قد يحتوي كتاب الفيزياء الذي تم إدخاله على أخطاء.

معلومات فعلية

#fundamentals

الواقع

الشيء الذي حدث بالفعل.

على سبيل المثال، لنفترض أنّ هناك نموذج تصنيف ثنائي يتوقّع ما إذا كان طالب السنة الأولى في الجامعة سيتخرّج في غضون ست سنوات. الحقيقة الأساسية لهذا النموذج هي ما إذا كان الطالب قد تخرّج بالفعل في غضون ست سنوات أم لا.

الانحياز لتشابه المجموعة

#responsible

افتراض أنّ ما ينطبق على فرد ينطبق أيضًا على جميع أفراد المجموعة يمكن أن تتفاقم آثار تحيّز تحديد المصدر الجماعي إذا تم استخدام أخذ العيّنات حسب الملاءمة لجمع البيانات. في عينة غير تمثيلية، قد يتم تقديم سمات لا تعكس الواقع.

اطّلِع أيضًا على الانحياز للتشابه خارج المجموعة والانحياز داخل المجموعة. راجع أيضًا العدالة: أنواع التحيز في الدورة التدريبية المكثفة حول التعلم الآلي للحصول على مزيد من المعلومات.

H

هلوسة

#generativeAI

هي إنتاج نموذج ذكاء اصطناعي توليدي لنتائج تبدو معقولة ولكنّها غير صحيحة من الناحية الواقعية، ويدّعي النموذج أنّه يقدّم تأكيدًا بشأن العالم الحقيقي. على سبيل المثال، إذا ادّعى نموذج ذكاء اصطناعي توليدي أنّ باراك أوباما توفي في عام 1865، يكون هذا النموذج يهلوس.

تجزئة

في تعلُّم الآلة، هي آلية لتجميع البيانات الفئوية، خاصةً عندما يكون عدد الفئات كبيرًا، ولكن عدد الفئات التي تظهر فعليًا في مجموعة البيانات يكون صغيرًا نسبيًا.

على سبيل المثال، تضم الأرض حوالي 73,000 نوع من الأشجار. يمكنك تمثيل كل نوع من أنواع الأشجار البالغ عددها 73,000 في 73,000 مجموعة منفصلة من المجموعات الفئوية. بدلاً من ذلك، إذا ظهر 200 نوع فقط من أنواع الأشجار هذه في مجموعة بيانات، يمكنك استخدام التجزئة لتقسيم أنواع الأشجار إلى 500 مجموعة مثلاً.

يمكن أن يحتوي حوض واحد على أنواع أشجار متعددة. على سبيل المثال، يمكن أن يؤدي التجزئة إلى وضع شجرة الباوباب وشجرة القيقب الأحمر، وهما نوعان مختلفان وراثيًا، في المجموعة نفسها. على أي حال، يظل التجزئة طريقة جيدة لربط مجموعات الفئات الكبيرة بعدد الحاويات المحدّد. يحوّل التجزئة ميزة فئوية تتضمّن عددًا كبيرًا من القيم المحتملة إلى عدد أصغر بكثير من القيم من خلال تجميع القيم بطريقة حتمية.

راجع البيانات التصنيفية: المفردات والترميز الساخن الواحد في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

إرشادي

حل بسيط وسريع التنفيذ لمشكلة ما على سبيل المثال، "باستخدام طريقة التجربة والخطأ، حقّقنا دقة بنسبة% 86. وعندما انتقلنا إلى استخدام شبكة عصبية عميقة، ارتفعت الدقة إلى %98".

طبقة مخفية

#fundamentals

هي طبقة في شبكة عصبية بين طبقة الإدخال (الميزات) و طبقة الإخراج (التوقّع). تتكوّن كل طبقة مخفية من خلية عصبية واحدة أو أكثر. على سبيل المثال، تحتوي الشبكة العصبية التالية على طبقتَين مخفيتَين، الأولى تحتوي على ثلاث خلايا عصبية والثانية على خليتَين عصبيتَين:

أربع طبقات الطبقة الأولى هي طبقة إدخال تحتوي على سمتَين. الطبقة الثانية هي طبقة مخفية تحتوي على ثلاث خلايا عصبية. الطبقة الثالثة هي طبقة مخفية تحتوي على خليتَين عصبية. الطبقة الرابعة هي طبقة الإخراج. تحتوي كل ميزة على ثلاثة حواف، يشير كل منها إلى عصبون مختلف في الطبقة الثانية. تحتوي كل خلية عصبية في الطبقة الثانية على حافتين، تشير كل منهما إلى خلية عصبية مختلفة في الطبقة الثالثة. تحتوي كل خلية عصبية في الطبقة الثالثة على حافة واحدة، تشير كل منها إلى طبقة الإخراج.

تحتوي الشبكة العصبية العميقة على أكثر من طبقة مخفية واحدة. على سبيل المثال، يعتبر الرسم التوضيحي السابق عبارة عن شبكة عصبية عميقة لأن النموذج يحتوي على طبقتين مخفيتين.

لمزيد من المعلومات، يُرجى الاطّلاع على الشبكات العصبية: العُقد والطبقات المخفية في "الدورة التدريبية المكثّفة حول تعلُّم الآلة".

التجميع الهرمي

#clustering

فئة منالتجميع خوارزميات لإنشاء شجرة من المجموعات. يُعد التجميع الهرمي مناسبًا للبيانات الهرمية، مثل التصنيفات النباتية. هناك نوعان من خوارزميات التجميع الهرمي:

  • يقوم التجميع التراكمي أولاً بتعيين كل مثال إلى مجموعته الخاصة، ثم يدمج المجموعات الأقرب بشكل متكرر لإنشاء شجرة هرمية.
  • تجمع التجميع التقسيمي جميع الأمثلة أولاً في مجموعة واحدة، ثم تقسم المجموعة بشكل متكرر إلى شجرة هرمية.

يختلف ذلك عن التجميع العنقودي المستند إلى النقاط المركزية.

راجع خوارزميات التجميع في دورة التجميع للحصول على مزيد من المعلومات.

صعود التلال

خوارزمية لتحسين نموذج تعلُّم الآلة بشكل متكرّر ("الصعود إلى أعلى التل") إلى أن يتوقف النموذج عن التحسّن ("الوصول إلى قمة التل"). في ما يلي الشكل العام للخوارزمية:

  1. إنشاء نموذج أولي
  2. إنشاء نماذج مرشحة جديدة من خلال إجراء تعديلات صغيرة على الطريقة التي يدرب أو ضبط دقيق. قد يستلزم هذا العمل بطريقة مختلفة قليلاًمجموعة التدريب أو معلمات فرعية مختلفة.
  3. تقييم النماذج المرشّحة الجديدة واتّخاذ أحد الإجراءات التالية:
    • إذا تفوق نموذج مرشح على النموذج الأولي، فإن هذا النموذج المرشح يصبح نموذج البداية الجديد. في هذه الحالة، كرر الخطوات 1 و2 و3.
    • إذا لم يتفوّق أي نموذج على النموذج الأوّلي، يعني ذلك أنّك وصلت إلى أعلى مستوى من الأداء ويجب التوقّف عن تكرار العملية.

راجِع دليل ضبط التعلّم العميق للحصول على إرشادات حول ضبط المعلَمة الفائقة. راجِع وحدات البيانات في الدورة التدريبية المكثّفة حول تعلُّم الآلة للحصول على إرشادات حول تصميم الميزات.

الخسارة المفصلية

#متري

مجموعة من دوال الخسارة الخاصة بالتصنيف والمصمّمة للعثور على حد القرار بأكبر مسافة ممكنة من كل مثال تدريبي، وبالتالي زيادة الهامش بين الأمثلة والحد. تستخدم آلات المتجهات الداعمة القائمة على النواة دالة الخسارة المفصلية (أو دالة ذات صلة، مثل دالة الخسارة المفصلية المربّعة). بالنسبة إلى التصنيف الثنائي، يتم تعريف دالة الخسارة المفصلية على النحو التالي:

$$\text{loss} = \text{max}(0, 1 - (y * y'))$$

أين ي هي العلامة الحقيقية، إما -1 أو +1، و ي' هو الناتج الخام لـنموذج التصنيف:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

وبالتالي، يبدو رسم خسارة المفصلة مقابل (y * y') على النحو التالي:

مخطط ديكارتي يتألف من قطعتين من خط مستقيم متصلتين. تبدأ القطعة المستقيمة الأولى عند النقطة (-3, 4) وتنتهي عند النقطة (1, 0). تبدأ شريحة السطر الثاني
          عند (1, 0) وتستمر إلى أجل غير مسمى بميل
          يساوي 0.

التحيز التاريخي

#responsible

هو نوع من التحيّز الموجود في العالم والذي تم تضمينه في مجموعة بيانات. وتميل هذه التحيزات إلى عكس الصور النمطية الثقافية الحالية، وعدم المساواة الديمغرافية، والتحيزات ضد مجموعات اجتماعية معيّنة.

على سبيل المثال، لنفترض نموذج تصنيف يتنبأ بما إذا كان مقدّم طلب القرض سيتخلّف عن سداد القرض أم لا، وقد تم تدريبه على بيانات سابقة عن التخلّف عن سداد القروض منذ الثمانينيات من البنوك المحلية في منطقتَين مختلفتَين. إذا كان مقدّمو الطلبات السابقون من &quot;المجموعة أ&quot; أكثر عرضة لعدم سداد قروضهم بست مرات من مقدّمي الطلبات من &quot;المجموعة ب&quot;، قد يتعلّم النموذج تحيّزًا تاريخيًا يؤدي إلى انخفاض احتمالية موافقة النموذج على القروض في &quot;المجموعة أ&quot;، حتى إذا لم تعد الشروط التاريخية التي أدت إلى ارتفاع معدلات التخلف عن السداد في هذه المجموعة ذات صلة.

لمزيد من المعلومات، يُرجى الاطّلاع على الإنصاف: أنواع التحيز في &quot;الدورة التدريبية المكثّفة حول تعلُّم الآلة&quot;.

البيانات المحتجزة

أمثلة لم يتم استخدامها عمدًا ("تم الاحتفاظ بها") أثناء التدريب. مجموعة بيانات التحقّق من الصحة ومجموعة بيانات الاختبار هما مثالان على البيانات المحجوزة. تساعد البيانات المتبقية في تقييم قدرة نموذجك على التعميم على بيانات أخرى غير البيانات التي تم تدريبه عليها. توفر الخسارة في مجموعة الصمود تقديرًا أفضل للخسارة في مجموعة بيانات غير مرئية مقارنة بالخسارة في مجموعة التدريب.

مضيف

#TensorFlow
#جوجل كلاود

عند تدريب نموذج تعلّم آلي على شرائح تسريع (وحدات معالجة الرسومات أو وحدات معالجة الموتّرات)، يكون الجزء من النظام الذي يتحكّم في كلّ مما يلي:

  • التسلسل العام للرمز
  • استخراج بيانات مسار الإدخال وتحويلها

يعمل المضيف عادةً على وحدة المعالجة المركزية، وليس على شريحة تسريع؛ جهاز يتلاعب الموترات على رقائق التسريع.

التقييم البشري

#generativeAI

عملية يقيّم فيها أشخاص جودة نتائج نموذج تعلُّم الآلة، مثل أن يقيّم أشخاص يتحدثون لغتين جودة نموذج ترجمة يستند إلى تعلُّم الآلة. التقييم البشري مفيد بشكل خاص للحكم على النماذج التي تحتوي علىلا يوجد إجابة صحيحة واحدة.

يختلف ذلك عن التقييم التلقائي والتقييم باستخدام أداة التقييم التلقائي.

المشاركة البشرية (HITL)

#generativeAI

عبارة اصطلاحية غير محددة يمكن أن تعني أيًا مما يلي:

  • سياسة المشاهدةالذكاء الاصطناعي التوليدي الإخراج بشكل نقدي أو متشكك.
  • استراتيجية أو نظام لضمان مساهمة المستخدمين في تحديد سلوك النموذج وتقييمه وتحسينه. إن إبقاء الإنسان على اطلاع يتيح للذكاء الاصطناعي الاستفادة من الذكاء الآلي والذكاء البشري. على سبيل المثال، النظام الذي يقوم فيه الذكاء الاصطناعي بإنشاء كود يقوم مهندسو البرمجيات بمراجعته بعد ذلك هو نظام يعتمد على تدخل الإنسان.

المعلمة الفائقة

#fundamentals

المتغيرات التي يتم تعديلها أثناء عمليات التدريب المتتالية للنموذج، سواء تم ذلك من خلالك أو من خلال خدمة ضبط المعلمات الفائقة على سبيل المثال، معدّل التعلّم هو معلَمة فائقة. يمكنك ضبط معدّل التعلّم على 0.01 قبل إحدى جلسات التدريب. إذا تبيّن لك أنّ القيمة 0.01 مرتفعة جدًا، يمكنك ضبط معدّل التعلّم على 0.003 لجلسة التدريب التالية.

في المقابل، المَعلمات هي الأوزان والانحياز المختلفة التي يتعلّمها النموذج أثناء التدريب.

يمكنك الاطّلاع على الانحدار الخطي: المَعلمات الفائقة في "دورة مكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

المستوى الفائق

حدود تفصل الفضاء إلى فضائين فرعيين. على سبيل المثال، الخط هو مستوى فائق في بُعدين، والمستوى هو مستوى فائق في ثلاثة أبعاد. في التعلم الآلي بشكل أكثر شيوعًا، يكون المستوى الفائق هو الحد الفاصل بين مساحة عالية الأبعاد. آلات دعم المتجهات للنواة استخدم المستويات الفائقة لفصل الفئات الإيجابية عن الفئات السلبية، غالبًا في مساحة عالية الأبعاد للغاية.

I

معرف

اختصار الموزّعة بشكل مستقل ومتشابه

التعرّف على الصورة

عملية تقوم بتصنيف الكائنات أو الأنماط أو المفاهيم في الصورة. يُعرف التعرف على الصور أيضًا باسم تصنيف الصور.

لمزيد من المعلومات، راجع ممارسة التعلم الآلي: تصنيف الصور.

راجع دورة ML Practicum: Image Classification (تصنيف الصور) للحصول على مزيد من المعلومات.

مجموعة بيانات غير متوازنة

مرادف مجموعة بيانات غير متوازنة الفئات

التحيز الضمني

#responsible

إنشاء ارتباط أو افتراض تلقائيًا بناءً على نماذج العقل والذكريات. يمكن أن يؤثر التحيز الضمني في ما يلي:

  • كيف يتم جمع البيانات وتصنيفها؟
  • طريقة تصميم وتطوير أنظمة تعلُّم الآلة

على سبيل المثال، عند إنشاء نموذج تصنيف للتعرّف على صور حفلات الزفاف، قد يستخدم أحد المهندسين ظهور فستان أبيض في الصورة كإحدى السمات. ومع ذلك، لم تكن الفساتين البيضاء من العادات إلا خلال عصور معيّنة وفي ثقافات معيّنة.

انظر أيضاالتحيز التأكيدي.

الإسناد

شكل مختصر منإسناد القيمة.

عدم توافق مقاييس الإنصاف

#responsible
#متري

تشير إلى فكرة أنّ بعض مفاهيم العدالة غير متوافقة مع بعضها البعض ولا يمكن تحقيقها في الوقت نفسه. نتيجةً لذلك، لا يوجد مقياس عالمي واحد لتحديد مدى العدل يمكن تطبيقه على جميع مشاكل تعلُّم الآلة.

ورغم أن هذا قد يبدو محبطاً، فإن عدم توافق مقاييس العدالة لا يعني أن جهود العدالة غير مثمرة. وبدلاً من ذلك، يقترح أن العدالة يجب أن تُعرَّف بشكل سياقي لمشكلة تعلم آلي معينة، بهدف منع الأضرار الخاصة بحالات استخدامها.

يمكنك الاطّلاع على "حول إمكانية تحقيق العدالة" للحصول على مناقشة أكثر تفصيلاً حول عدم توافق مقاييس العدالة.

التعلم في السياق

#generativeAI

مرادف لـتوجيهات قليلة.

موزّعة بشكل مستقل ومتشابه

#fundamentals

البيانات المستخلَصة من توزيع لا يتغيّر، ولا تعتمد فيه كل قيمة مستخلَصة على القيم التي تم استخلاصها سابقًا. إنّ التوزيع المتطابق والمستقل هو الغاز المثالي في مجال تعلُّم الآلة، وهو بنية رياضية مفيدة ولكنّها نادرًا ما تكون موجودة بالضبط في العالم الحقيقي. على سبيل المثال، قد يكون توزيع الزوّار على صفحة ويب متطابقًا ومستقلاً على مدار فترة زمنية قصيرة، أي أنّ التوزيع لا يتغيّر خلال تلك الفترة القصيرة، وتكون زيارة شخص ما مستقلة بشكل عام عن زيارة شخص آخر. ومع ذلك، إذا وسّعت نطاق هذا الإطار الزمني، قد تظهر اختلافات موسمية في عدد زوّار صفحة الويب.

انظر أيضاعدم الثبات.

العدالة الفردية

#responsible
#متري

مقياس عدالة يتحقّق مما إذا كان يتم تصنيف الأفراد المتشابهين بشكل مماثل. على سبيل المثال، قد ترغب أكاديمية بروبدنجناجيان في تلبية العدالة الفردية من خلال ضمان حصول طالبين بنفس الدرجات ونتائج الاختبارات الموحدة على فرص متساوية في القبول.

لاحظ أن العدالة الفردية تعتمد كليًا على كيفية تعريفك "للتشابه" (في هذه الحالة، الدرجات ونتائج الاختبارات)، ويمكنك المخاطرة بإدخال مشاكل جديدة تتعلق بالعدالة إذا فاتت مقياس التشابه الخاص بك معلومات مهمة (مثل صرامة منهج الطالب).

راجع "العدالة من خلال الوعي" لمناقشة أكثر تفصيلاً للعدالة الفردية.

الاستدلال

#fundamentals
#generativeAI

في عملية تعلُّم الآلة التقليدية، يتم إجراء التوقعات من خلال تطبيق نموذج مدرَّب على أمثلة غير مصنَّفة. يمكنك الاطّلاع على التعلم الخاضع للإشراف في دورة "مقدمة في تعلُّم الآلة" لمعرفة المزيد.

في نماذج لغوية كبيرة الاستدلال هو عملية استخدام نموذج مدرب لتوليد إجابة إلى مدخل اِسْتَدْعَى.

يختلف معنى الاستدلال إلى حدّ ما في الإحصاء. راجع مقالة ويكيبيديا حول الاستدلال الإحصائي للحصول على التفاصيل.

مسار الاستدلال

#df

في شجرة القرارات، أثناء الاستدلال، يسلك مثال معيّن مسارًا من الجذر إلى شروط أخرى، وينتهي بـ ورقة. على سبيل المثال، في شجرة القرار التالية، توضّح الأسهم السميكة مسار الاستنتاج لمثال يتضمّن قيم الميزات التالية:

  • س = 7
  • y = 12
  • z = -3

يمر مسار الاستدلال في الرسم التوضيحي التالي عبر ثلاثة شروط قبل الوصول إلى الورقة (Zeta).

شجرة قرارات تتألف من أربعة شروط وخمسة أوراق
          شرط الجذر هو (x > 0). بما أنّ الإجابة هي &quot;نعم&quot;، ينتقل مسار الاستنتاج من الجذر إلى الشرط التالي (y > 0).
          بما أنّ الإجابة هي &quot;نعم&quot;، ينتقل مسار الاستنتاج إلى الشرط التالي (z > 0). بما أنّ الإجابة هي &quot;لا&quot;، ينتقل مسار الاستنتاج إلى عقدته الطرفية، وهي العقدة الفرعية (زيتا).

تشير الأسهم الثلاثة السميكة إلى مسار الاستدلال.

يمكنك الاطّلاع على أشجار القرارات في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

تحصيل المعلومات

#df
#Metric

في غابات القرارات، يشير إلى الفرق بين القصور في أحد الأجزاء ومجموع القصور المرجّح (حسب عدد الأمثلة) في الأجزاء الفرعية. القصور في أحد الأجزاء هو القصور في الأمثلة الواردة في هذا الجزء.

على سبيل المثال، إليك قيم الإنتروبيا التالية:

  • إنتروبيا العقدة الرئيسية = 0.6
  • القصور في جزء ثانوي واحد مع 16 مثالاً ذا صلة = 0.2
  • مقياس القصور في جزء فرعي آخر يتضمّن 24 مثالاً ذا صلة = 0.1

وبالتالي فإن 40% من الأمثلة موجودة في عقدة فرعية واحدة و60% موجودة في عقدة فرعية أخرى. ولذلك:

  • مجموع القصور المرجّح للعُقد الثانوية = (0.4 * 0.2) + (0.6 * 0.1) = 0.14

إذًا، يساوي تحصيل المعلومات:

  • تحصيل المعلومات = قصور الجزء الأصلي - مجموع القصور المرجّح للأجزاء الفرعية
  • تحصيل المعلومات = 0.6 - 0.14 = 0.46

معظم المقسمات السعي إلى خلق شروط التي تعمل على تعظيم الحصول على المعلومات.

الانحياز لأفراد المجموعة

#responsible

إظهار التحيز لمجموعة الفرد أو خصائصه إذا كان المختبِرون أو المقيمون من أصدقاء مطوّر تعلُّم الآلة أو أفراد عائلته أو زملاء عمله، قد يؤدي التحيز داخل المجموعة إلى إبطال اختبار المنتج أو مجموعة البيانات.

الانحياز لأفراد المجموعة هو شكل من أشكال الانحياز لتشابه المجموعة. اطّلِع أيضًا على الانحياز للتشابه خارج المجموعة.

راجع العدالة: أنواع التحيز في الدورة التدريبية المكثفة حول التعلم الآلي للحصول على مزيد من المعلومات.

أداة إنشاء الإدخالات

آلية يتم من خلالها تحميل البيانات إلىالشبكة العصبية.

يمكن اعتبار أداة إنشاء الإدخالات مكونًا مسؤولاً عن معالجة البيانات الأولية وتحويلها إلى موترات يتم تكرارها لإنشاء دفعات للتدريب والتقييم والاستدلال.

طبقة الإدخال

#fundamentals

الطبقة في الشبكة العصبونية التي تحتوي على متجه الميزات أي أنّ طبقة الإدخال توفّر أمثلة من أجل التدريب أو الاستدلال. على سبيل المثال، تتكون طبقة الإدخال في الشبكة العصبية التالية من ميزتين:

أربع طبقات: طبقة إدخال وطبقتان مخفيتان وطبقة إخراج

حالة محددة

#df

في شجرة القرار ، أ حالة الذي يختبر وجود عنصر واحد في مجموعة من العناصر. على سبيل المثال، فيما يلي شرط مضمن:

  house-style in [tudor, colonial, cape]

أثناء الاستدلال، إذا كانت قيمة نمط المنزلميزة يكونtudor أوcolonial أوcape ، ثم يتم تقييم هذه الحالة إلى نعم. إذا كانت قيمة ميزة نمط المنزل شيئًا آخر (على سبيل المثال، ranch)، فسيتم تقييم هذا الشرط على أنه لا.

عادةً ما تؤدي الشروط المحددة إلى أشجار قرار أكثر كفاءة من الشروط التي تختبرمشفر ساخن واحد سمات.

مثيل

مرادف لكلمة مثال

ضبط التعليمات

#الذكاء الاصطناعي التوليدي

شكل من أشكال الكون المثالى الذي يحسن الذكاء الاصطناعي التوليدي قدرة النموذج على اتباع التعليمات. يتضمن ضبط التعليمات تدريب نموذج على سلسلة من مطالبات التعليمات، والتي تغطي عادةً مجموعة واسعة من المهام. يميل نموذج التعليمات المضبوط الناتج بعد ذلك إلى توليد تعليمات مفيدة الاستجابات ل مطالبات إطلاق النار صفر عبر مجموعة متنوعة من المهام.

مقارنة وتباين مع:

القابلية للتفسير

#fundamentals

تشير إلى القدرة على شرح أو تقديم أسباب نموذج تعلُّم الآلة بعبارات يسهل على المستخدم فهمها.

معظم نماذج الانحدار الخطي، على سبيل المثال، يمكن تفسيرها بشكل كبير. (ما عليك سوى الاطّلاع على القيم التقديرية التي تم تدريبها لكل ميزة). تتسم غابات القرارات أيضًا بقابلية تأويل عالية. ومع ذلك، تتطلّب بعض النماذج عرضًا مرئيًا متطوّرًا لتصبح قابلة للتفسير.

يمكنك استخدامأداة تفسير التعلم (LIT) لتفسير نماذج التعلم الآلي.

اتفاقية بين المقيمين

#Metric

مقياس لعدد المرات التي يتفق فيها المقيمون البشريون عند تنفيذ مهمة ما. إذا لم يتفق المقيّمون، قد يكون من الضروري تحسين تعليمات المهمة. يُعرف هذا المقياس أيضًا باسم اتفاقية بين المعلقين أو اتساق التقييم. يُرجى الاطّلاع أيضًا على معامل كابا الخاص بـ &quot;كوهين&quot;، وهو أحد مقاييس الاتفاق بين المقيمين الأكثر شيوعًا.

لمزيد من المعلومات، يمكنك الاطّلاع على البيانات الفئوية: المشاكل الشائعة في &quot;دورة تدريبية مكثّفة حول تعلُّم الآلة&quot;.

التقاطع على الاتحاد (IoU)

تقاطع مجموعتين مقسومتين على اتحادهما. في مهام اكتشاف الصور باستخدام التعلم الآلي، يتم استخدام IoU لقياس دقة التنبؤات التي يتنبأ بها النموذج مربع حدودي فيما يتعلق بـ الحقيقة الأساسية صندوق حدودي. في هذه الحالة، تكون IoU للصندوقين هي النسبة بين المساحة المتداخلة والمساحة الإجمالية، وتتراوح قيمتها من 0 (لا يوجد تداخل بين الصندوق المحدد المتوقع والصندوق المحدد الحقيقي الأرضي) إلى 1 (الصندوق المحدد المتوقع والصندوق المحدد الحقيقي الأرضي لهما نفس الإحداثيات تمامًا).

على سبيل المثال، في الصورة أدناه:

  • تم تحديد المربع المحيط المتوقع (الإحداثيات التي تحدد المكان الذي يتوقع النموذج أن يقع فيه الطاولة الليلية في اللوحة) باللون الأرجواني.
  • تم تحديد المربع المحيط بالأرض (الإحداثيات التي تحدد مكان الطاولة الليلية في اللوحة فعليًا) باللون الأخضر.

لوحة فان جوخ &quot;غرفة نوم فينسنت في آرل&quot;، مع وجود مربعين مختلفين حول الطاولة الليلية بجانب السرير. يحدد مربع الحدود الواقعي (باللون الأخضر) محيط الطاولة الليلية بشكل مثالي. تم إزاحة المربع المحيط المتوقع (باللون الأرجواني) بنسبة 50% إلى الأسفل وإلى يمين المربع المحيط الحقيقي؛ فهو يحيط بالربع الأيمن السفلي من الطاولة الليلية، لكنه يفتقد بقية الطاولة.

هنا، تقاطع المربعات المحددة للتنبؤ والحقيقة الأساسية (أسفل اليسار) هو 1، واتحاد المربعات المحددة للتنبؤ والحقيقة الأساسية (أسفل اليمين) هو 7، وبالتالي فإن IoU هو \(\frac{1}{7}\).

نفس الصورة أعلاه، ولكن مع تقسيم كل مربع محدد إلى أربعة أرباع. يوجد إجمالي سبعة أرباع، حيث يتداخل الربع السفلي الأيمن من مربع الحدود الحقيقية والربع العلوي الأيسر من مربع الحدود المتوقعة مع بعضهما البعض. يمثل هذا القسم المتداخل (المميز باللون الأخضر) التقاطع، وتبلغ مساحته 1. الصورة نفسها كما في الأعلى، ولكن مع تقسيم كل مربّع إحاطة إلى أربعة أرباع. هناك سبعة أرباع إجمالاً، لأنّ الربع السفلي الأيسر من المربّع المحيط الخاص بالبيانات الصحيحة والربع العلوي الأيمن من المربّع المحيط المتوقّع يتداخلان مع بعضهما البعض.
          يمثّل الجزء الداخلي الكامل المحاط بكلا المربّعين المحيطَين (المميّز باللون الأخضر) عملية الاتحاد، وتبلغ مساحته 7.

IoU

اختصار لـتقاطع فوق الاتحاد.

مصفوفة العناصر

في أنظمة الاقتراحات، تكون مصفوفة متجهات التضمين ناتجة عن تحليل المصفوفات الذي يتضمّن إشارات كامنة حول كل عنصر. يحتوي كل صف في مصفوفة السلع على قيمة ميزة كامنة واحدة لجميع السلع. على سبيل المثال، لنفترض أنّك تستخدم نظامًا لاقتراح الأفلام. يمثّل كل عمود في مصفوفة السلع فيلمًا واحدًا. قد تمثّل الإشارات الضمنية أنواعًا من المحتوى، أو قد تكون إشارات يصعب تفسيرها وتتضمّن تفاعلات معقّدة بين النوع والنجوم وعمر الفيلم أو عوامل أخرى.

تحتوي مصفوفة العناصر على نفس عدد الأعمدة الموجودة في مصفوفة الهدف التي يتم تحليلها. على سبيل المثال، إذا كان لدينا نظام توصية أفلام يقوم بتقييم 10000 عنوان فيلم، فستحتوي مصفوفة العناصر على 10000 عمود.

items

في نظام الاقتراحات، تشير إلى الكيانات التي يقترحها النظام. على سبيل المثال، الفيديوهات هي العناصر التي يقترحها متجر الفيديو، بينما الكتب هي العناصر التي يقترحها متجر الكتب.

التكرار

#fundamentals

تعديل واحد على مَعلمات النموذج، أي الأوزان والانحيازات، أثناء التدريب يحدّد حجم الدفعة عدد الأمثلة التي يعالجها النموذج في تكرار واحد. على سبيل المثال، إذا كان حجم الدفعة 20، سيعالج النموذج 20 مثالاً قبل تعديل المَعلمات.

عند تدريبالشبكة العصبية تتضمن التكرار الواحد التمريرتين التاليتين:

  1. تمريرة أمامية لتقييم الخسارة في دفعة واحدة.
  2. عملية تمرير عكسي (الانتشار العكسي) لضبط معلَمات النموذج استنادًا إلى الخسارة ومعدّل التعلّم

يمكنك الاطّلاع على النزول التدريجي في "دورة مكثّفة عن تعلّم الآلة" للحصول على مزيد من المعلومات.

J

JAX

مكتبة للحوسبة على المصفوفات تجمع بين XLA (الجبر الخطي المسرَّع) والتفاضل التلقائي للحوسبة الرقمية العالية الأداء. توفّر JAX واجهة برمجة تطبيقات بسيطة وفعّالة لكتابة رموز رقمية مبرمَجة بسرعة مع عمليات تحويل قابلة للدمج. توفّر JAX ميزات مثل:

  • grad (التمايز التلقائي)
  • jit (التجميع في الوقت المناسب)
  • vmap (التحويل التلقائي إلى رسومات متجهة أو التجميع)
  • pmap (التوازي)

‫JAX هي لغة للتعبير عن عمليات تحويل الرموز الرقمية وتركيبها، وهي تشبه مكتبة NumPy في Python، ولكنها أكبر بكثير من حيث النطاق. (في الواقع، مكتبة .numpy ضمن JAX هي نسخة مكافئة وظيفيًا، ولكنها مكتوبة بالكامل من جديد من مكتبة NumPy في Python).

يعد JAX مناسبًا بشكل خاص لتسريع العديد من مهام التعلم الآلي من خلال تحويل النماذج والبيانات إلى نموذج مناسب للتوازي عبر وحدة معالجة الرسومات و تي بي يو رقائق التسريع.

Flax وOptax وPax والعديد من المكتبات الأخرى مستنِدة إلى بنية JAX الأساسية.

K

Keras

واجهة برمجة تطبيقات شائعة للتعلم الآلي في Python تعمل Keras على العديد من أُطر تعلُّم الآلة العميقة، بما في ذلك TensorFlow، حيث تتوفّر باسم tf.keras.

آلات متّجهات الدعم الأساسية (KSVMs)

خوارزمية تصنيف تسعى إلى زيادة الفارق بين الفئات الإيجابية و الفئات السلبية من خلال ربط متجهات بيانات الإدخال بمساحة ذات أبعاد أعلى. على سبيل المثال، لنفترض أنّ لدينا مشكلة تصنيف تتضمّن مجموعة بيانات إدخال تحتوي على مئة سمة. لزيادة الهامش بين الفئات الإيجابية والسلبية إلى أقصى حد، يمكن أن تربط آلة المتجهات الداعمة المستندة إلى النواة هذه الميزات داخليًا بمساحة ذات مليون بُعد. تستخدم آلات المتجهات الداعمة المستندة إلى النواة دالة خسارة تُعرف باسم الخسارة المفصلية.

النقاط الرئيسية

إحداثيات ميزات معيّنة في صورة على سبيل المثال، بالنسبة إلى نموذج التعرّف على الصور الذي يميّز أنواع الزهور، قد تكون النقاط الأساسية هي مركز كل بتلة والساق والسداة وما إلى ذلك.

التحقق المتبادل من خلال k-fold

خوارزمية لتوقُّع قدرة النموذج على التعميم على البيانات الجديدة. يشير k في التقسيم إلى k جزء إلى عدد المجموعات المتساوية التي تقسم إليها أمثلة مجموعة البيانات، أي أنّك تدرب النموذج وتختبره k مرة. في كل جولة من التدريب والاختبار، تكون مجموعة مختلفة هي مجموعة الاختبار، وتصبح جميع المجموعات المتبقية مجموعة التدريب. بعد k جولة من التدريب والاختبار، يمكنك حساب المتوسط والانحراف المعياري لمقاييس الاختبار المحدّدة.

على سبيل المثال، لنفترض أنّ مجموعة البيانات تتألف من 120 مثالاً. لنفترض أيضًا أنّك قرّرت ضبط قيمة k على 4. لذلك، بعد ترتيب الأمثلة بشكل عشوائي، عليك تقسيم مجموعة البيانات إلى أربع مجموعات متساوية تضم 30 مثالاً وإجراء أربع جولات تدريب واختبار:

مجموعة بيانات مقسَّمة إلى أربع مجموعات متساوية من الأمثلة في الجولة الأولى، يتم استخدام المجموعات الثلاث الأولى للتدريب والمجموعة الأخيرة للاختبار. في الجولة الثانية، يتم استخدام المجموعتين الأولى والثانية والمجموعة الأخيرة للتدريب، بينما يتم استخدام المجموعة الثالثة للاختبار. في الجولة 3، يتم استخدام المجموعة الأولى والمجموعتين الأخيرتين في التدريب، بينما يتم استخدام المجموعة الثانية في الاختبار.
          في الجولة 4، يتم استخدام المجموعة الأولى للاختبار، بينما يتم استخدام المجموعات الثلاث الأخيرة للتدريب.

على سبيل المثال، قد يكون متوسط الخطأ التربيعي (MSE) المقياس الأكثر أهمية لنموذج الانحدار الخطي. لذلك، عليك إيجاد المتوسط والانحراف المعياري لمتوسط الخطأ التربيعي على مستوى جميع الجولات الأربع.

متوسطات تصنيفية

#clustering

هي خوارزمية تجميع شائعة تصنّف الأمثلة في التعلّم غير الموجّه. تنفّذ الخوارزمية التصنيفية بشكل أساسي ما يلي:

  • تحديد أفضل k نقطة مركزية بشكل متكرر (تُعرف باسم النقاط المركزية)
  • يقوم بتعيين كل مثال إلى أقرب مركز ثقل. وتنتمي الأمثلة الأقرب إلى النقطة المركزية نفسها إلى المجموعة نفسها.

تختار الخوارزمية التصنيفية مواقع النقاط المركزية بهدف تقليل مربع المسافات التراكمية من كل مثال إلى أقرب نقطة مركزية.

على سبيل المثال، إليك الرسم البياني التالي الذي يوضّح العلاقة بين طول الكلب وعرضه:

مخطط ديكارتي يتضمّن عشرات نقاط البيانات

إذا كانت k=3، ستحدّد الخوارزمية التصنيفية ثلاث نقاط مركزية. يتم تعيين كل مثال إلى أقرب نقطة مركزية له، ما يؤدي إلى إنشاء ثلاث مجموعات:

الرسم البياني الديكارتي نفسه كما في الصورة التوضيحية السابقة، ولكن مع إضافة ثلاثة مراكز ثقل.
          يتم تجميع نقاط البيانات السابقة في ثلاث مجموعات مميزة،
          تمثّل كل مجموعة نقاط البيانات الأقرب إلى نقطة مركزية معيّنة.

لنفترض أنّ مصنّعًا يريد تحديد المقاسات المثالية للسترات الصغيرة والمتوسطة والكبيرة المخصّصة للكلاب. تحدّد النقاط المركزية الثلاث متوسط الارتفاع ومتوسط العرض لكل كلب في تلك المجموعة. لذلك، من المفترض أن يستند المصنّع إلى هذه النقاط المركزية الثلاث في تحديد أحجام السترات. يُرجى العِلم أنّ مركز المجموعة ليس عادةً مثالاً في المجموعة.

توضّح الرسومات التوضيحية السابقة خوارزمية k-means للأمثلة التي تتضمّن ميزتَين فقط (الارتفاع والعرض). يُرجى العِلم أنّ الخوارزمية التصنيفية يمكنها تجميع الأمثلة في العديد من السمات.

يمكنك الاطّلاع على ما هو التجميع العنقودي بطريقة k-means؟ في دورة التجميع العنقودي التدريبية للحصول على مزيد من المعلومات.

وسيط تصنيفي

#clustering

خوارزمية تصنيفية مرتبطة ارتباطًا وثيقًا بخوارزمية k-means. ويكمن الفرق العملي بينهما في ما يلي:

  • في خوارزمية k-means، يتم تحديد النقاط المركزية من خلال تقليل مجموع مربعات المسافة بين نقطة مركزية محتملة وكل مثال من أمثلتها.
  • في خوارزمية k-median، يتم تحديد النقاط المركزية من خلال تقليل مجموع المسافة بين النقطة المركزية المرشحة وكل مثال من أمثلتها.

يُرجى العِلم أنّ تعريفات المسافة تختلف أيضًا:

  • تعتمد خوارزمية k-means على المسافة الإقليدية من النقطة المركزية إلى المثال. (في بُعدَين، تعني المسافة الإقليدية استخدام نظرية فيثاغورس لاحتساب الوتر). على سبيل المثال، ستكون مسافة k-means بين (2,2) و (5,-2) كما يلي:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • تعتمد طريقة k-median على مسافة مانهاتن من النقطة المركزية إلى مثال. هذه المسافة هي مجموع الفروق المطلقة في كل بُعد. على سبيل المثال، ستكون مسافة k-median بين (2,2) و (5,-2) كما يلي:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

L

تسوية 0

#fundamentals

نوع من التسوية يفرض عقوبة على العدد الإجمالي للأوزان غير الصفرية في أحد النماذج. على سبيل المثال، سيتم فرض عقوبة أكبر على نموذج يتضمّن 11 وزنًا غير صفري مقارنةً بنموذج مشابه يتضمّن 10 أوزان غير صفرية.

يُطلق على التسوية L0 أحيانًا اسم تسوية L0-norm.

خسارة 1

#fundamentals
#Metric

دالة الخسارة التي تحسب القيمة المطلقة للفرق بين قيم التصنيف الفعلية والقيم التي يتوقّعها النموذج. على سبيل المثال، إليك طريقة حساب خسارة L1 لمجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج القيمة المطلقة للتغيير
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  ‫8 = خسارة L1

يكون معدّل الخطأ في L1 أقل حساسية للقيم الشاذة من معدّل الخطأ في L2.

المتوسط الخطأ المطلق هو متوسط L1 خسارة لكل مثال.

يمكنك الاطّلاع على الانحدار الخطي: الخسارة في &quot;الدورة التدريبية المكثّفة حول تعلُّم الآلة&quot; للحصول على مزيد من المعلومات.

التنظيم L1

#fundamentals

أحد أنواع التسوية التي تفرض عقوبة على الأوزان بما يتناسب مع مجموع القيمة المطلقة للأوزان. تساعد عملية التسوية L1 في خفض أوزان الميزات غير الملائمة أو التي لا صلة لها بالموضوع إلى 0 تمامًا. تتم إزالة سمة ذات وزن 0 من النموذج.

يجب عدم الخلط بينها وبين التسوية L2.

خسارة 2

#fundamentals
#Metric

أ وظيفة الخسارة الذي يحسب مربع الفرق بين القيم الفعلية ملصق القيم والقيم التي نموذج يتنبأ. على سبيل المثال، إليك حساب L2 خسارة ل حزمة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج مربع دلتا
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = خسارة L2

بسبب التربيع، L2 الخسارة تزيد من تأثيرالقيم المتطرفة. وهذا هو، ل 2 تتفاعل الخسارة بشكل أقوى مع التوقعات السيئة مقارنة بـل 1 خسارة. على سبيل المثال، سيكون معدّل فقدان الحزمة L1 للحزمة السابقة 8 بدلاً من 16. لاحظ أن قيمة متطرفة واحدة تشكل 9 من 16.

تستخدم نماذج الانحدار عادةً دالة الخسارة L2 كدالة خسارة.

متوسط الخطأ التربيعي هو متوسط خسارة 2 لكل مثال. الخسارة التربيعية هي اسم آخر للخسارة من النوع L2.

يمكنك الاطّلاع على الانحدار اللوجستي: الخسارة والتسوية في "الدورة التدريبية المكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

التنظيم L2

#fundamentals

أحد أنواع التسوية التي تعاقب الأوزان بما يتناسب مع مجموع مربعات الأوزان. تساعد عملية التسوية L2 في تقريب أوزان القيم الشاذة (التي تتضمّن قيمًا موجبة عالية أو قيمًا سالبة منخفضة) إلى 0، ولكن ليس تمامًا إلى 0. تبقى الميزات التي تتضمّن قيمًا قريبة جدًا من 0 في النموذج، ولكنّها لا تؤثّر كثيرًا في التوقّعات التي يقدّمها النموذج.

ل2 التنظيم يحسن التعميم دائمًا فيالنماذج الخطية.

التباين معل1 التنظيم.

راجع الإفراط في التجهيز: التنظيم L2 في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

التصنيف

#fundamentals

في التعلم الآلي الخاضع للإشراف ، جزء "الإجابة" أو "النتيجة" من مثال.

كل مثال مُصنَّف يتكون من واحد أو أكثر سمات وعلامة. على سبيل المثال، في مجموعة بيانات اكتشاف البريد العشوائي، من المحتمل أن تكون العلامة "بريد عشوائي" أو "ليس بريدًا عشوائيًا". في مجموعة بيانات هطول الأمطار، قد يكون الملصق هو كمية الأمطار التي سقطت خلال فترة معينة.

راجع التعلم الخاضع للإشراف في مقدمة التعلم الآلي للحصول على مزيد من المعلومات.

مثال مُصنَّف

#fundamentals

مثال يحتوي على واحد أو أكثر سمات و أ ملصق. على سبيل المثال، يوضح الجدول التالي ثلاثة أمثلة مُسمّاة من نموذج تقييم المنزل، كل منها يحتوي على ثلاث ميزات وعلامة واحدة:

عدد غرف النوم عدد الحمامات عمر المنزل سعر المنزل (العلامة)
3 2 15 345,000 دولار
2 1 72 179,000 دولار
4 2 34 392,000 دولار

في التعلم الآلي الخاضع للإشراف ، تتدرب النماذج على الأمثلة المسمىة وتضع توقعات عليها أمثلة غير مصنفة.

قارِن بين الأمثلة المصنّفة والأمثلة غير المصنّفة.

يمكنك الاطّلاع على التعلم الخاضع للإشراف في مقدّمة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

تسريب التصنيفات

عيب في تصميم النموذج حيث ميزة هو وكيل ل ملصق. على سبيل المثال، لنفترض أنّ هناك نموذج تصنيف ثنائي يتنبأ بما إذا كان أحد العملاء المحتملين سيشتري منتجًا معيّنًا أم لا. افترض أن إحدى ميزات النموذج هي قيمة منطقية تسمى SpokeToCustomerAgent. افترض أيضًا أنه يتم تعيين وكيل خدمة العملاء فقط بعد قيام العميل المحتمل بشراء المنتج فعليًا. أثناء التدريب، سيتعلّم النموذج بسرعة العلاقة بين SpokeToCustomerAgent والتصنيف.

لمزيد من المعلومات، يُرجى الاطّلاع على مراقبة خطوط الأنابيب في "دورة مكثّفة عن تعلّم الآلة".

lambda

#fundamentals

مرادف معدل التسوية

‫Lambda هو مصطلح مستخدَم بشكل مفرط. نحن هنا نركز على تعريف المصطلح داخلالتنظيم.

نموذج لغوي مخصَّص لتطبيقات المحادثة (LaMDA)

أ محول -قائم على نموذج اللغة الكبير تم تطويره بواسطة Google وتم تدريبه على مجموعة كبيرة من بيانات الحوار التي يمكنها إنشاء محادثات واقعية الاستجابات.

LaMDA: تقنية المحادثة الرائدة لدينا تقدم نظرة عامة.

معالم

مرادف النقاط الرئيسية

نموذج لغوي

أ نموذج الذي يقدر احتمال حدوث الرمز المميز أو سلسلة من الرموز التي تحدث في سلسلة أطول من الرموز.

يمكنك الاطّلاع على ما هو نموذج اللغة؟ في "دورة مكثّفة عن تعلُّم الآلة" لمزيد من المعلومات.

النموذج اللغوي الكبير

#generativeAI

كحدّ أدنى، يجب أن يكون النموذج اللغوي مزوّدًا بعدد كبير جدًا من المَعلمات. بشكل غير رسمي، أي نموذج لغة مستند إلى Transformer، مثل Gemini أو GPT

لمزيد من المعلومات، يمكنك الاطّلاع على النماذج اللغوية الكبيرة (LLM) في "دورة مكثّفة عن تعلُّم الآلة".

وقت الاستجابة

#generativeAI

الوقت الذي يستغرقه النموذج لمعالجة المدخلات وإنشاء الاستجابة. تستغرق الاستجابة ذات زمن الوصول المرتفع وقتًا أطول في الإنشاء مقارنةً بالاستجابة ذات زمن الوصول المنخفض.

تشمل العوامل التي تؤثر في وقت الاستجابة في النماذج اللغوية الكبيرة ما يلي:

  • أطوال الإدخال والإخراج [token]
  • تعقيد النموذج
  • البنية الأساسية التي يعمل عليها النموذج

يُعدّ تحسين وقت الاستجابة أمرًا بالغ الأهمية لإنشاء تطبيقات سريعة الاستجابة وسهلة الاستخدام.

الفضاء الكامن

مرادف لمساحة التضمين

طبقة

#fundamentals

مجموعة من الخلايا العصبية في الشبكة العصبية. هناك ثلاثة أنواع شائعة من الطبقات على النحو التالي:

على سبيل المثال، يوضح الرسم التوضيحي التالي شبكة عصبية تحتوي على طبقة إدخال واحدة، وطبقتين مخفيتين، وطبقة إخراج واحدة:

شبكة عصبية تتضمّن طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة إخراج واحدة تتألف طبقة الإدخال من ميزتَين. تتألف الطبقة المخفية الأولى من ثلاث خلايا عصبية، وتتألف الطبقة المخفية الثانية من خليتَين عصبيتَين. تتألف طبقة الإخراج من عقدة واحدة.

في TensorFlow، تكون الطبقات أيضًا عبارة عن دوال Python تأخذ موترات وخيارات إعداد كمدخلات وتنتج موترات أخرى كمخرجات.

Layers API (tf.layers)

#TensorFlow

واجهة برمجة تطبيقات TensorFlow لبناءعميق الشبكة العصبية كتركيبة من الطبقات. تتيح لك واجهة Layers API إنشاء أنواع مختلفة من الطبقات، مثل:

تتّبع واجهة برمجة التطبيقات للطبقات اصطلاحات واجهة برمجة التطبيقات للطبقات في Keras. أي أنّه باستثناء البادئة المختلفة، تتشارك جميع الدوال في واجهة برمجة التطبيقات Layers API الأسماء والتوقيعات نفسها مع نظيراتها في واجهة برمجة التطبيقات Keras layers API.

ورقة شجر

#df

أي نقطة نهاية في شجرة القرارات على عكس الشرط، لا تنفّذ الورقة اختبارًا. بل إنّ الورقة هي نتيجة محتملة. العقدة الطرفية node هي أيضًا عقدة طرفية في مسار الاستنتاج.

على سبيل المثال، تحتوي شجرة القرار التالية على ثلاث أوراق:

شجرة قرار تحتوي على شرطين تؤديان إلى ثلاث أوراق.

يمكنك الاطّلاع على أشجار القرارات في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

أداة تفسير التعلم (LIT)

أداة مرئية وتفاعلية لفهم النماذج وتصوّر البيانات

يمكنك استخدام LIT مفتوحة المصدر من أجل تفسير النماذج أو عرض البيانات النصية والصور والبيانات الجدولية.

معدّل التعلّم

#fundamentals

هو عدد ذو فاصلة عشرية يحدّد للخوارزمية لنزول التدرّج مدى قوة تعديل الأوزان والانحيازات في كل تكرار. على سبيل المثال، يؤدي معدّل التعلّم البالغ 0.3 إلى تعديل الأوزان والانحيازات بقوة أكبر بثلاث مرات من معدّل التعلّم البالغ 0.1.

معدل التعلم هو المفتاحالمعلمة الفائقة. إذا قمت بتعيين معدل التعلم على مستوى منخفض للغاية، فسيستغرق التدريب وقتًا طويلاً. إذا قمت بتعيين معدل التعلم على مستوى مرتفع للغاية، فغالبًا ما يواجه الانحدار التدريجي صعوبة في الوصولالتقارب.

راجع الانحدار الخطي: المعلمات الفائقة في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

انحدار التربيعات الأقل

نموذج انحدار خطي تم تدريبه من خلال خفض خسارة L2.

مسافة ليفينشتاين

#metric

أنتعديل المسافة مقياس يحسب أقل عدد من عمليات الحذف والإدراج والاستبدال المطلوبة لتغيير كلمة إلى أخرى. على سبيل المثال، مسافة Levenshtein بين الكلمتين "heart" و "darts" هي ثلاثة لأن التعديلات الثلاثة التالية هي أقل عدد من التغييرات لتحويل كلمة إلى أخرى:

  1. heart → deart (استبدال "h" بـ "d")
  2. deart → dart (حذف "e")
  3. سهام → سهام (أدخل "s")

لاحظ أن التسلسل السابق ليس المسار الوحيد للتحريرات الثلاثة.

خطي

#fundamentals

العلاقة بين متغيرين أو أكثر والتي يمكن تمثيلها فقط من خلال الجمع والضرب.

إن رسم العلاقة الخطية عبارة عن خط.

التباين معغير خطي.

النموذج الخطي

#fundamentals

النموذج الذي يحدّد وزنًا واحدًا لكل سمة لإجراء توقّعات (تتضمّن النماذج الخطية أيضًا انحيازًا). في المقابل، تكون العلاقة بين الميزات والتوقعات في النماذج العميقة غير خطية بشكل عام.

عادةً ما يكون تدريب النماذج الخطية أسهل وأكثر قابلية للتفسير من النماذج العميقة. ومع ذلك، يمكن للنماذج العميقة التعرّف على العلاقات المعقّدة بين الميزات.

الانحدار الخطي والانحدار اللوجستي هما نوعان من النماذج الخطية.

الانحدار الخطي

#fundamentals

نوع من نماذج تعلُّم الآلة التي ينطبق عليها ما يلي:

التباين في الانحدار الخطي معالانحدار اللوجستي. كما أن الانحدار المتباين معتصنيف.

راجع الانحدار الخطي في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

LIT

اختصار أداة تفسير التعلّم (LIT)، التي كانت تُعرف سابقًا باسم &quot;أداة تفسير اللغة&quot;.

LLM

#الذكاء الاصطناعي التوليدي

اختصار لـنموذج اللغة الكبير.

تقييمات LLM

#generativeAI
#متري

مجموعة من المقاييس والمعايير لتقييم أداءنماذج لغوية كبيرة (ماجستير في القانون). على مستوى عالٍ، تقييمات LLM:

  • مساعدة الباحثين على تحديد المجالات التي تحتاج فيها برامج الماجستير في القانون إلى التحسين.
  • وهي مفيدة في مقارنة النماذج اللغوية الكبيرة المختلفة وتحديد أفضل نموذج لغوي كبير لمهمة معيّنة.
  • المساعدة في ضمان أمان استخدام النماذج اللغوية الكبيرة ومراعاتها للأخلاقيات

راجع نماذج اللغة الكبيرة (LLMs) في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

الانحدار اللوجستي

#fundamentals

نوع مننموذج الانحدار الذي يتنبأ بالاحتمالية. تتميز نماذج الانحدار اللوجستي بالخصائص التالية:

  • التصنيف فئوي. يشير مصطلح الانحدار اللوجستي عادةً إلى الانحدار اللوجستي الثنائي، أي إلى نموذج يحسب احتمالات التصنيفات التي تتضمّن قيمتَين محتملتَين. هناك صيغة أقل شيوعًا، وهي الانحدار اللوجستي المتعدد الحدود، تحسب احتمالات التصنيفات التي تتضمّن أكثر من قيمتَين محتملتَين.
  • دالة الخسارة أثناء التدريب هيفقدان السجل. (يمكن وضع وحدات خسارة السجل المتعددة بشكل متوازي للعلامات التي تحتوي على أكثر من قيمتين محتملتين.)
  • يستخدم النموذج بنية خطية، وليس شبكة عصبية عميقة. ومع ذلك، فإن بقية هذا التعريف ينطبق أيضًا علىنماذج عميقة التي تتنبأ باحتمالات التسميات التصنيفية.

على سبيل المثال، ضع في اعتبارك نموذج الانحدار اللوجستي الذي يحسب احتمالية أن يكون البريد الإلكتروني المدخل بريدًا عشوائيًا أو ليس بريدًا عشوائيًا. أثناء الاستدلال، افترض أن النموذج يتنبأ بقيمة 0.72. لذلك فإن النموذج يقدر:

  • هناك احتمال بنسبة 72% أن يكون البريد الإلكتروني بريدًا عشوائيًا.
  • هناك احتمال بنسبة% 28 ألّا تكون الرسالة الإلكترونية غير مرغوب فيها.

يستخدم نموذج الانحدار اللوجستي بنية من خطوتَين على النحو التالي:

  1. يقوم النموذج بإنشاء تنبؤ خام (y') من خلال تطبيق دالة خطية لميزات الإدخال.
  2. يستخدم النموذج هذا التوقّع الأوّلي كإدخال إلى دالة سينية، ما يؤدي إلى تحويل التوقّع الأوّلي إلى قيمة بين 0 و1، باستثناء هذين الرقمين.

كما هو الحال مع أي نموذج انحدار، فإن نموذج الانحدار اللوجستي يتنبأ برقم. ومع ذلك، يصبح هذا الرقم عادةً جزءًا من نموذج التصنيف الثنائي على النحو التالي:

  • إذا كان الرقم المتوقّع أكبر من حد التصنيف، يتوقّع نموذج التصنيف الثنائي الفئة الإيجابية.
  • إذا كان الرقم المتوقع أقل من حد التصنيف، فإن نموذج التصنيف الثنائي يتنبأ بالفئة السلبية.

راجع الانحدار اللوجستي في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

لوجيت

متّجه التوقّعات الأولية (غير المعدَّلة) التي ينشئها نموذج التصنيف، والتي يتم عادةً تمريرها إلى دالة تعديل. إذا كان النموذج يحل مشكلة تصنيف متعدد الفئات المشكلة هي أن السجلات عادة ما تصبح مدخلات إلى سوفت ماكس وظيفة. ثم تقوم دالة softmax بإنشاء متجه من الاحتمالات (المعيارية) بقيمة واحدة لكل فئة ممكنة.

فقدان السجل

#fundamentals

دالة الخسارة المستخدَمة في الانحدار اللوجستي الثنائي.

يمكنك الاطّلاع على الانحدار اللوجستي: الخسارة والتسوية في "الدورة التدريبية المكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

احتمالات السجل

#fundamentals

يشير ذلك المصطلح إلى لوغاريتم يوضِّح معدّل احتمالية وقوع حدث معيّن.

الذاكرة الطويلة المدى والقصيرة المدى (LSTM)

نوع من الخلايا في شبكة عصبية متكررة تُستخدَم لمعالجة تسلسلات البيانات في تطبيقات مثل التعرّف على الكتابة اليدوية والترجمة الآلية والتعليق على الصور. تعالج LSTMsمشكلة التدرج المتلاشي وهذا ما يحدث عند تدريب الشبكات العصبية المتكررة بسبب تسلسلات البيانات الطويلة من خلال الحفاظ على التاريخ في حالة الذاكرة الداخلية استنادًا إلى المدخلات الجديدة والسياق من الخلايا السابقة في الشبكة العصبية المتكررة.

LoRA

#generativeAI

اختصار Low-Rank Adaptability

خسارة

#fundamentals
#متري

أثناء تدريب نموذج خاضع للإشراف، يتم قياس مدى بُعد التوقّع الذي يقدّمه النموذج عن التصنيف.

تحسب دالة الخسارة الخسارة.

يمكنك الاطّلاع على الانحدار الخطي: الخسارة في "الدورة التدريبية المكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

مجمِّع الخسائر

نوع من خوارزميات تعلُّم الآلة التي تحسّن أداء نموذج من خلال الجمع بين توقّعات نماذج متعددة واستخدام هذه التوقّعات لتقديم توقّع واحد. نتيجةً لذلك، يمكن أن يقلّل مجمّع الخسائر من تباين التوقعات ويحسّن دقة التوقعات.

منحنى الخسارة

#fundamentals

رسم بياني للخسارة كدالة لعدد التكرارات. يوضح الرسم البياني التالي منحنى الخسارة النموذجي:

رسم بياني ديكارتي للخسارة مقابل تكرارات التدريب، يوضّح انخفاضًا سريعًا في الخسارة خلال التكرارات الأولية، يليه انخفاض تدريجي، ثم ميل مسطّح خلال التكرارات النهائية

يمكن أن تساعدك منحنيات الخسارة في تحديد ما إذا كان نموذجك يتقارب أو يفرط في التكيّف.

يمكن لمنحنيات الخسارة رسم جميع أنواع الخسارة التالية:

يمكنك أيضًا الاطّلاع على منحنى التعميم.

يمكنك الاطّلاع على التدريب الزائد: تفسير منحنيات الخسارة في "دورة مكثّفة عن تعلُّم الآلة" للحصول على مزيد من المعلومات.

وظيفة الخسارة

#fundamentals
#متري

خلال تمرين أو الاختبار، وهي دالة رياضية تحسب الخسارة على حزمة من الأمثلة. تعيد دالة الخسارة خسارة أقل للنماذج التي تقدم تنبؤات جيدة مقارنة بالنماذج التي تقدم تنبؤات سيئة.

عادةً ما يكون الهدف من التدريب هو تقليل الخسارة التي تعرضها دالة الخسارة.

تتوفّر العديد من أنواع دوال الخسارة المختلفة. اختَر دالة الخسارة المناسبة لنوع النموذج الذي تنشئه. على سبيل المثال:

سطح الخسارة

رسم بياني للوزن مقابل الخسارة تهدف النزول التدريجي إلى العثور على الأوزان التي يكون فيها سطح الخسارة عند الحد الأدنى المحلي.

تأثير الضياع في المنتصف

أن ماجستير في القانون الميل إلى استخدام المعلومات من بداية ونهاية سلسلة طويلة من الأحداث. نافذة السياق أكثر فعالية من المعلومات الواردة من الوسط. وهذا يعني أنه في ظل سياق طويل، فإن تأثير الضياع في المنتصف يتسبب في أن تكون الدقة:

  • مرتفع نسبيًا عندما تكون المعلومات ذات الصلة لتكوين ردّ قريبة من بداية السياق أو نهايته
  • منخفضة نسبيًا عندما تكون المعلومات ذات الصلة لتكوين رد في منتصف السياق

هذا المصطلح مستمدّ من ورقة بحثية بعنوان Lost in the Middle: How Language Models Use Long Contexts.

Low-Rank Adaptability (LoRA)

#generativeAI

أ كفاءة المعلمات تقنية ل الكون المثالى هذا "يقوم بتجميد" الأوزان المدربة مسبقًا للنموذج (بحيث لا يمكن تعديلها بعد الآن) ثم يقوم بإدراج مجموعة صغيرة من الأوزان القابلة للتدريب في النموذج. تعتبر هذه المجموعة من الأوزان القابلة للتدريب (المعروفة أيضًا باسم "مصفوفات التحديث") أصغر بكثير من النموذج الأساسي وبالتالي فهي أسرع بكثير في التدريب.

توفر LoRA الفوائد التالية:

  • يحسّن جودة توقّعات النموذج للمجال الذي يتم فيه تطبيق الضبط الدقيق.
  • يتم الضبط بشكل أسرع من التقنيات التي تتطلّب ضبط جميع مَعلمات النموذج.
  • يقلل من التكلفة الحسابيةالاستدلال من خلال تمكين الخدمة المتزامنة للعديد من النماذج المتخصصة التي تشترك في نفس النموذج الأساسي.

LSTM

اختصار لـالذاكرة طويلة المدى.

M

تعلُم الآلة

#fundamentals

برنامج أو نظام يدرّب نموذجًا من البيانات التي يتم إدخالها. يمكن للنموذج المدرَّب أن يقدّم توقعات مفيدة من بيانات جديدة (لم يسبق رؤيتها) مأخوذة من التوزيع نفسه الذي تم استخدامه لتدريب النموذج.

يشير التعلم الآلي أيضًا إلى مجال الدراسة المعني بهذه البرامج أو الأنظمة.

يمكنك الاطّلاع على دورة مقدّمة عن تعلُّم الآلة للحصول على مزيد من المعلومات.

الترجمة الآلية

#generativeAI

استخدام البرمجيات (عادةً نموذج التعلم الآلي) لتحويل النص من لغة بشرية إلى لغة بشرية أخرى، على سبيل المثال، من الإنجليزية إلى اليابانية.

الطبقة الأغلبية

#fundamentals

التصنيف الأكثر شيوعًا في مجموعة بيانات غير متوازنة الفئات على سبيل المثال، إذا كانت مجموعة البيانات تحتوي على 99% من التصنيفات السلبية و1% من التصنيفات الإيجابية، تكون التصنيفات السلبية هي الفئة الأكبر.

التباين معالطبقة الأقلية.

راجع مجموعات البيانات: مجموعات البيانات غير المتوازنة في الدورة التدريبية المكثفة حول التعلم الآلي للحصول على مزيد من المعلومات.

عملية اتخاذ القرار في ماركوف (MDP)

رسم بياني يمثّل نموذج اتّخاذ القرار حيث يتم اتّخاذ القرارات (أو الإجراءات) لتصفّح سلسلة من الحالات بافتراض أنّ خاصية ماركوف صحيحة. في التعلّم التعزيزي، تؤدي عمليات الانتقال بين الحالات إلى عرض مكافأة عددية.

خاصية ماركوف

خاصية معينة البيئات حيث يتم تحديد انتقالات الحالة بالكامل من خلال المعلومات الضمنية في الحالة الحالية ولاية والوكيل فعل.

نموذج لغوي مخفي

أنموذج اللغة الذي يتنبأ باحتمالية قيام الرموز المرشحة بملء الفراغات في التسلسل. على سبيل المثال، يمكن لنموذج اللغة المقنعة حساب احتمالات الكلمة أو الكلمات المرشحة لاستبدال الخط الموجود أسفل الجملة التالية:

عاد ____ في القبعة.

تستخدم المراجع عادةً السلسلة "MASK" بدلاً من الشرطة السفلية. على سبيل المثال:

عاد "القناع" الموجود في القبعة.

معظم نماذج اللغة المقنعة الحديثة هيثنائي الاتجاه.

matplotlib

مكتبة رسم بياني ثنائية الأبعاد مفتوحة المصدر بلغة Python. تساعدك matplotlib على تصور جوانب مختلفة من التعلم الآلي.

تحليل المصفوفة إلى عوامل

في الرياضيات، آلية للعثور على المصفوفات التي يقترب حاصل ضربها النقطي من مصفوفة مستهدفة.

في أنظمة التوصية غالبًا ما تحتفظ مصفوفة الهدف بتقييمات المستخدمين أغراض. على سبيل المثال، قد تبدو مصفوفة الهدف لنظام توصية الأفلام على النحو التالي، حيث تمثل الأعداد الصحيحة الموجبة تقييمات المستخدم ويعني الرقم 0 أن المستخدم لم يقم بتقييم الفيلم:

  الدار البيضاء قصة فيلادلفيا النمر الأسود المرأة المعجزة خيال رخيص
مستخدم 1 5.0 3 0.0 2.0 0.0
مستخدم 2 4.0 0.0 0.0 1 5.0
مستخدم 3 3 1 4.0 5.0 0.0

يهدف نظام توصية الأفلام إلى التنبؤ بتقييمات المستخدمين للأفلام غير المصنفة. على سبيل المثال، هل سيحب المستخدم 1 فيلم Black Panther؟

أحد الأساليب المتبعة في أنظمة التوصية هو استخدام تحليل المصفوفة لتوليد المصفوفتين التاليتين:

على سبيل المثال، قد يؤدي استخدام تحليل العوامل المصفوفة على المستخدمين الثلاثة والعناصر الخمسة إلى الحصول على مصفوفة المستخدمين ومصفوفة العناصر التالية:

User Matrix                 Item Matrix

1.1   2.3           0.9   0.2   1.4    2.0   1.2
0.6   2.0           1.7   1.2   1.2   -0.1   2.1
2.5   0.5

يؤدي حاصل الضرب النقطي لمصفوفة المستخدم ومصفوفة العناصر إلى إنشاء مصفوفة توصيات لا تحتوي فقط على تقييمات المستخدم الأصلية ولكن أيضًا على توقعات للأفلام التي لم يشاهدها كل مستخدم. على سبيل المثال، ضع في اعتبارك تقييم المستخدم 1 لـ الدار البيضاء، والذي كان 5.0. من المأمول أن يكون حاصل الضرب النقطي المقابل لتلك الخلية في مصفوفة التوصيات حوالي 5.0، وهو:

(1.1 * 0.9) + (2.3 * 1.7) = 4.9

والأهم من ذلك، هل سيعجب المستخدم 1 فيلم Black Panther؟ يؤدي أخذ ناتج الضرب النقطي المقابل للصف الأول والعمود الثالث إلى الحصول على تقييم متوقّع يبلغ 4.3:

(1.1 * 1.4) + (2.3 * 1.2) = 4.3

عادةً ما يؤدي تحليل المصفوفة إلى إنتاج مصفوفة مستخدم ومصفوفة عناصر، والتي تكون معًا أكثر إحكاما بشكل كبير من مصفوفة الهدف.

متوسط الخطأ المطلق (MAE)

#Metric

متوسط الخسارة لكل مثال عند استخدام L1 loss احسب متوسّط الخطأ المطلق على النحو التالي:

  1. احسب خسارة L1 للدفعة.
  2. قسّم خسارة L1 على عدد الأمثلة في الدفعة.

على سبيل المثال، ضع في اعتبارك حساب خسارة L1 في الدفعة التالية المكونة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقعة للنموذج الخسارة (الفرق بين القيمة الفعلية والقيمة المتوقّعة)
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = خسارة L1

وبالتالي، فإن خسارة L1 هي 8 وعدد الأمثلة هو 5. لذلك، فإن متوسط الخطأ المطلق هو:

Mean Absolute Error = L1 loss / Number of Examples
Mean Absolute Error = 8/5 = 1.6

متوسط الخطأ المطلق للتباين مع خطأ متوسط التربيع و خطأ الجذر التربيعي المتوسط.

متوسط الدقة المتوسطة عند k (mAP@k)

#generativeAI
#متري

المتوسط الإحصائي لكل نتائج متوسط الدقة عند k في مجموعة بيانات التحقّق. يُستخدم متوسط الدقة عند k لتقييم جودة المحتوى المقترح الذي يقدّمه نظام التوصية.

على الرغم من أنّ عبارة "المتوسط الحسابي" تبدو مكرّرة، إلا أنّ اسم المقياس مناسب. ففي النهاية، يعثر هذا المقياس على متوسط قيم متوسط الدقة عند k المتعددة.

خطأ التربيع المتوسط (MSE)

#Metric

متوسط الخسارة لكل مثال عند استخدام L2 loss احسب متوسط الخطأ التربيعي على النحو التالي:

  1. احسب خسارة L2 لمجموعة.
  2. قسّم خسارة L2 على عدد الأمثلة في الدفعة.

على سبيل المثال، ضع في اعتبارك الخسارة في الدفعة التالية المكونة من خمسة أمثلة:

القيمة الفعلية تنبؤ النموذج فقدان البيانات الخسارة التربيعية
7 6 1 1
5 4 1 1
8 11 3 9
4 6 2 4
9 8 1 1
‫16 = خسارة L2

لذلك، فإن متوسط الخطأ التربيعي هو:

Mean Squared Error = L2 loss / Number of Examples
Mean Squared Error = 16/5 = 3.2

متوسط الخطأ التربيعي هو تدريب شائع مُحسِّن ، وخاصة بالنسبة ل الانحدار الخطي.

خطأ متوسط مربع التباين مع متوسط الخطأ المطلق و خطأ الجذر التربيعي المتوسط.

ملعب TensorFlow يستخدم متوسط الخطأ التربيعي لحساب قيم الخسارة.

شبكة متداخلة

#TensorFlow
#جوجل كلاود

في البرمجة المتوازية للتعلم الآلي، هو مصطلح مرتبط بتعيين البيانات والنموذج إلى شرائح TPU، وتحديد كيفية تجزئة هذه القيم أو تكرارها.

Mesh هو مصطلح مُحمّل بشكل زائد يمكن أن يعني أيًا مما يلي:

  • تخطيط مادي لشرائح TPU.
  • بنية منطقية مجرّدة لتحديد كيفية ربط البيانات والنموذج بشرائح TPU.

في كلتا الحالتين، يتم تحديد الشبكة على أنّها شكل.

التعلم الفائق

مجموعة فرعية من تعلُّم الآلة تكتشف خوارزمية تعلُّم أو تحسّنها. يمكن أن يهدف نظام التعلّم الفائق أيضًا إلى تدريب نموذج لتعلُّم مهمة جديدة بسرعة من كمية صغيرة من البيانات أو من الخبرة المكتسبة في المهام السابقة. تحاول خوارزميات التعلّم الفائق بشكل عام تحقيق ما يلي:

  • تحسين الميزات المصمَّمة يدويًا أو التعرّف عليها (مثل أداة تهيئة أو أداة تحسين)
  • أن تكون أكثر كفاءة في استخدام البيانات والحوسبة
  • تحسين التعميم

يرتبط التعلّم الفائق بالتعلّم ببضع فُرَص.

المقياس

#TensorFlow
#متري

إحصائية تهمك.

أنموضوعي هو مقياس يحاول نظام التعلم الآلي تحسينه.

واجهة برمجة تطبيقات المقاييس (tf.metrics)

#متري

واجهة برمجة تطبيقات TensorFlow لتقييم النماذج على سبيل المثال، تحدّد tf.metrics.accuracy عدد المرات التي تتطابق فيها توقّعات النموذج مع التصنيفات.

دفعة صغيرة

#fundamentals

مجموعة فرعية صغيرة مختارة عشوائيًا من حزمة تمت معالجتها في واحدة التكرار. الحجم الدفعة عادةً ما تحتوي الدفعة الصغيرة على ما بين 10 إلى 1000 عينة.

على سبيل المثال، افترض أن مجموعة التدريب بأكملها (الدفعة الكاملة) تتكون من 1000 مثال. لنفترض أيضًا أنّك ضبطت حجم الدفعة لكل دفعة صغيرة على 20. لذلك، تحدد كل تكرار الخسارة على 20 مثالًا عشوائيًا من أصل 1000 ثم تعدل الأوزان و التحيزات وفقاً لذلك.

من الأكثر كفاءة حساب الخسارة في دفعة صغيرة مقارنة بالخسارة في جميع الأمثلة في الدفعة الكاملة.

راجع الانحدار الخطي: المعلمات الفائقة في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

انحدار التدرج العشوائي للدفعات الصغيرة

خوارزمية النزول المتدرّج التي تستخدم دُفعات صغيرة. وبعبارة أخرى، يقدّر النزول المتدرّج العشوائي ضمن دفعة صغيرة التدرّج استنادًا إلى مجموعة فرعية صغيرة من بيانات التدريب. تستخدم طريقة النزول المتدرّج العشوائي العادية دفعة صغيرة بحجم 1.

الحد الأدنى للخسارة

#متري

دالة الخسارة لـ الشبكات التنافسية التوليدية ، بناءً على الانتروبيا المتقاطعة بين توزيع البيانات المولدة والبيانات الحقيقية.

تم استخدام خسارة الحد الأدنى في الورقة الأولى لوصف الشبكات التنافسية التوليدية.

يمكنك الاطّلاع على دوال الخسارة في دورة الشبكات التوليدية الخصومية للحصول على مزيد من المعلومات.

الطبقة الأقلية

#fundamentals

التصنيف الأقل شيوعًا في مجموعة بيانات غير متوازنة على سبيل المثال، إذا كانت مجموعة البيانات تحتوي على% 99 من التصنيفات السلبية و% 1 من التصنيفات الإيجابية، تكون التصنيفات الإيجابية هي الفئة الأقلية.

التباين مع الفئة الأكبر

يمكنك الاطّلاع على مجموعات البيانات: مجموعات البيانات غير المتوازنة في "الدورة التدريبية المكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

مزيج من الخبراء

#generativeAI

مخطط لزيادة الشبكة العصبية الكفاءة من خلال استخدام مجموعة فرعية فقط من معلماتها (المعروفة باسم خبير ) لمعالجة مدخلات معينة الرمز المميز أو مثال. توجّه شبكة الحجب كل رمز مميز أو مثال إلى الخبراء المناسبين.

للحصول على التفاصيل، راجع أيًا من الورقتين التاليتين:

تعلُّم الآلة

اختصار تعلُّم الآلة

MMIT

#الذكاء الاصطناعي التوليدي

اختصار لـتعليمات متعددة الوسائط مضبوطة.

MNIST

مجموعة بيانات متاحة للجميع جمعها كل من &quot;لوكون&quot; و&quot;كورتيس&quot; و&quot;بورغيس&quot; وتحتوي على 60,000 صورة، تعرض كل صورة كيف كتب شخص رقمًا معيّنًا يدويًا من 0 إلى 9. يتم تخزين كل صورة كمصفوفة 28 × 28 من الأعداد الصحيحة، حيث يكون كل عدد صحيح عبارة عن قيمة تدرج رمادي بين 0 و255، شاملة.

MNIST عبارة عن مجموعة بيانات أساسية للتعلم الآلي، تُستخدم غالبًا لاختبار مناهج التعلم الآلي الجديدة. لمزيد من التفاصيل، يُرجى الاطّلاع على قاعدة بيانات MNIST للأرقام المكتوبة بخط اليد.

النمط

فئة بيانات عالية المستوى. على سبيل المثال، الأرقام والنصوص والصور والفيديو والصوت هي خمسة أشكال مختلفة.

نموذج

#fundamentals

بشكل عام، أي صيغة رياضية تعالج البيانات المدخلة وتعرض الناتج. بعبارة أخرى، النموذج هو مجموعة المَعلمات والبنية اللازمة لنظام ما من أجل وضع التوقعات. في تعلُّم الآلة الموجَّه، يتلقّى النموذج مثالاً كمدخل ويستنتج توقّعًا كمخرج. تختلف النماذج بعض الشيء ضمن تعلُّم الآلة الموجَّه. على سبيل المثال:

يمكنك حفظ نموذج أو استعادته أو إنشاء نُسخ منه.

التعلم الآلي غير الخاضع للإشراف كما يقوم أيضًا بإنشاء نماذج، وهي عادةً وظيفة يمكنها تعيين مثال إدخال إلى النموذج الأكثر ملاءمة تَجَمَّع.

سعة النموذج

#Metric

مدى تعقيد المشاكل التي يمكن للنموذج تعلّمها وكلما زادت درجة تعقيد المشاكل التي يمكن أن يتعلّمها النموذج، زادت قدرته. تزداد سعة النموذج عادةً مع عدد مَعلمات النموذج. للحصول على تعريف رسمي لقدرة نموذج التصنيف، يُرجى الاطّلاع على سمة VC.

نموذج متتالي

#generativeAI

نظام يختار النموذج المثالي لاستعلام استنتاج معيّن.

لنفترض أنّ لدينا مجموعة من النماذج تتراوح بين نماذج كبيرة جدًا (تحتوي على الكثير من المَعلمات) ونماذج أصغر بكثير (تحتوي على عدد أقل بكثير من المَعلمات). تستهلك النماذج الكبيرة جدًا موارد حوسبة أكبر في وقت الاستدلال مقارنةً بالنماذج الأصغر. ومع ذلك، يمكن للنماذج الكبيرة جدًا عادةً استنتاج طلبات أكثر تعقيدًا من النماذج الأصغر. يحدد تسلسل النماذج مدى تعقيد طلب الاستنتاج، ثم يختار النموذج المناسب لتنفيذ الاستنتاج. الهدف الأساسي من استخدام النماذج المتتالية هو تقليل تكاليف الاستدلال من خلال اختيار نماذج أصغر بشكل عام، واختيار نموذج أكبر للاستعلامات الأكثر تعقيدًا فقط.

لنفترض أنّ نموذجًا صغيرًا يعمل على هاتف، وأنّ إصدارًا أكبر من هذا النموذج يعمل على خادم بعيد. يؤدي تسلسل النماذج الجيد إلى خفض التكلفة ووقت الاستجابة من خلال السماح للنموذج الأصغر بمعالجة الطلبات البسيطة واستدعاء النموذج البعيد فقط لمعالجة الطلبات المعقّدة.

يمكنك الاطّلاع أيضًا على موجه النماذج.

التوازي النموذجي

طريقة لتوسيع نطاق التدريب أو الاستدلال من خلال وضع أجزاء مختلفة من نموذج واحد على أجهزة مختلفة يتيح التوازي النموذجي إنشاء نماذج كبيرة جدًا بحيث لا يمكن وضعها على جهاز واحد.

لتنفيذ التوازي بين النماذج، يقوم النظام عادةً بما يلي:

  1. تقسّم الأجزاء النموذج إلى أجزاء أصغر.
  2. يقوم بتوزيع تدريب تلك الأجزاء الأصغر عبر معالجات متعددة. يقوم كل معالج بتدريب جزء خاص به من النموذج.
  3. دمج النتائج لإنشاء نموذج واحد.

يؤدي التوازي النموذجي إلى إبطاء التدريب.

انظر أيضاالتوازي في البيانات.

جهاز التوجيه النموذجي

#generativeAI

الخوارزمية التي تحدّد النموذج المثالي للاستدلال في التسلسل الهرمي للنماذج عادةً ما يكون موجّه النماذج نموذجًا لتعلُّم الآلة يتعلّم تدريجيًا كيفية اختيار أفضل نموذج لبيانات إدخال معيّنة. ومع ذلك، قد يكون موجّه النماذج في بعض الأحيان خوارزمية أبسط لا تستند إلى تعلُّم الآلة.

التدريب النموذجي

عملية تحديد الأفضلنموذج.

MOE

#generativeAI

اختصار لـمزيج من الخبراء.

الزخم

خوارزمية متطورة لانحدار التدرّج تعتمد فيها خطوة التعلّم ليس فقط على المشتق في الخطوة الحالية، ولكن أيضًا على مشتقات الخطوات التي سبقتها مباشرةً. تتضمّن طريقة &quot;الزخم&quot; احتساب متوسط متحرك مرجّح أُسّيًا للتدرّجات بمرور الوقت، وهو ما يشبه الزخم في الفيزياء. يمنع الزخم أحيانًا التعلّم من التوقف عند الحد الأدنى المحلي.

MT

#generativeAI

اختصار لـالترجمة الآلية.

التصنيف المتعدّد الفئات

#fundamentals

في التعلم الخاضع للإشراف، تصنيف المشكلة التي تحتوي عليها مجموعة البياناتأكثر من اثنين الفصول الدراسية من العلامات. على سبيل المثال، يجب أن تكون العلامات الموجودة في مجموعة بيانات Iris واحدة من الفئات الثلاث التالية:

  • السوسن السيتوسا
  • سوسن فيرجينيكا
  • القزحية الملونة

النموذج الذي تم تدريبه على مجموعة بيانات Iris والذي يتنبأ بنوع Iris في الأمثلة الجديدة يقوم بإجراء تصنيف متعدد الفئات.

على النقيض من ذلك، فإن مشاكل التصنيف التي تميز بين فئتين بالضبط هينماذج التصنيف الثنائي. على سبيل المثال، نموذج البريد الإلكتروني الذي يتوقّع ما إذا كانت الرسالة غير مرغوب فيها أو مرغوب فيها هو نموذج تصنيف ثنائي.

في مشاكل التجميع، يشير التصنيف متعدد الفئات إلى أكثر من مجموعتين.

راجع الشبكات العصبية: التصنيف متعدد الفئات في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

الانحدار اللوجستي متعدد الفئات

استخدام الانحدار اللوجستي في تصنيف متعدد الفئات المشاكل.

الاهتمام الذاتي المتعدد الرؤوس

هي امتداد لآلية الانتباه الذاتي، وتطبّق آلية الانتباه الذاتي عدة مرات لكل موضع في تسلسل الإدخال.

محولات تم تقديم الاهتمام الذاتي متعدد الرؤوس.

تعليمات متعددة الوسائط مضبوطة

أنمُضبوط حسب التعليمات نموذج يمكنه معالجة المدخلات التي تتجاوز النص، مثل الصور والفيديو والصوت.

نموذج متعدد الوسائط

نموذج تتضمّن مدخلاته أو مخرجاته أو كليهما أكثر من نوع بيانات واحد. على سبيل المثال، لنفترض أنّ هناك نموذجًا يتضمّن صورة وتعليقًا نصيًا (نوعان من البيانات) كميزات، ويعرض نتيجة تشير إلى مدى ملاءمة التعليق النصي للصورة. لذلك، تكون مدخلات هذا النموذج متعددة الوسائط ويكون الناتج أحادي الوسائط.

التصنيف المتعدد الحدود

مرادف لـتصنيف متعدد الفئات.

الانحدار المتعدد الحدود

مرادف الانحدار اللوجستي المتعدد الفئات

تنفيذ مهام متعددة

تقنية التعلم الآلي التي يتم فيها استخدام عنصر واحد فقط نموذج تم تدريبه على أداء مهام متعددة المهام.

يتم إنشاء نماذج المهام المتعددة من خلال التدريب على بيانات مناسبة لكل مهمة من المهام المختلفة. يتيح ذلك للنموذج تعلُّم كيفية مشاركة المعلومات بين المهام، ما يساعده في التعلّم بفعالية أكبر.

النموذج المُدرَّب على مهام متعددة غالبًا ما يتمتع بقدرات تعميم محسّنة ويمكن أن يكون أكثر فعالية في التعامل مع أنواع مختلفة من البيانات.

لا

Nano

#generativeAI

نموذج Gemini صغير نسبيًا مصمَّم للاستخدام على الأجهزة. راجع Gemini Nano للحصول على التفاصيل.

يمكنك أيضًا الاطّلاع على Pro وUltra.

فخ NaN

عندما يصبح أحد الأرقام في النموذج NaN أثناء التدريب، ما يؤدي إلى أن تصبح العديد من الأرقام الأخرى أو جميعها في النموذج في النهاية NaN.

NaN هو اختصار لـ ن أوت أ ن بني مصفر.

معالجة اللغات الطبيعية

هو مجال يهدف إلى تعليم أجهزة الكمبيوتر كيفية معالجة ما يقوله المستخدم أو يكتبه باستخدام القواعد اللغوية. تعتمد جميع عمليات معالجة اللغات الطبيعية الحديثة تقريبًا على تعلُّم الآلة.

فهم اللغات الطبيعية

مجموعة فرعية منمعالجة اللغة الطبيعية الذي يحددالنوايا من شيء قيل أو كتب. إن فهم اللغة الطبيعية قد يتجاوز معالجة اللغة الطبيعية ليشمل النظر في جوانب معقدة من اللغة مثل السياق والسخرية والعاطفة.

فئة سلبية

#fundamentals
#Metric

في التصنيف الثنائي، يُطلق على إحدى الفئتَين اسم إيجابية ويُطلق على الأخرى اسم سلبية. الفئة الإيجابية هي الشيء أو الحدث الذي يختبره النموذج، والفئة السلبية هي الاحتمال الآخر. على سبيل المثال:

  • قد تكون الفئة السلبية في اختبار طبي هي "ليس ورمًا".
  • الفئة السلبية في البريد الإلكترونينموذج التصنيف قد لا يكون "بريدًا عشوائيًا".

التباين معفئة إيجابية.

أخذ العينات السلبية

مرادف تحليل العينات المُحتملة

البحث في البنية العصبية (NAS)

تقنية لتصميم بنية المبنى تلقائيًاالشبكة العصبية. يمكن لخوارزميات NAS تقليل كمية الوقت والموارد المطلوبة لتدريب الشبكة العصبية.

تستخدم أجهزة NAS عادةً ما يلي:

  • مساحة بحث، وهي عبارة عن مجموعة من البنيات المعمارية الممكنة.
  • دالة لياقة، وهي مقياس لمدى جودة أداء بنية معيّنة في مهمة محدّدة

غالبًا ما تبدأ خوارزميات NAS بمجموعة صغيرة من البُنى المحتملة، ثم توسّع مساحة البحث تدريجيًا مع تعلّم الخوارزمية المزيد عن البُنى الفعّالة. تستند دالة اللياقة البدنية عادةً إلى أداء البنية على مجموعة تدريب، ويتم عادةً تدريب الخوارزمية باستخدام أسلوب التعلم المعزّز.

وقد أثبتت خوارزميات NAS فعاليتها في العثور على بنى عالية الأداء لمجموعة متنوعة من المهام، بما في ذلك تصنيف الصور وتصنيف النصوص والترجمة الآلية.

الشبكة العصبية

#fundamentals

نموذج يحتوي على طبقة مخفية واحدة على الأقل. الشبكة العصبية العميقة هي نوع من الشبكات العصبية يحتوي على أكثر من طبقة مخفية واحدة. على سبيل المثال، يعرض المخطط التالي شبكة عصبية عميقة تحتوي على طبقتَين مخفيتَين.

شبكة عصبية تتضمّن طبقة إدخال وطبقتَين مخفيتَين وطبقة إخراج

يتصل كل عصبون في الشبكة العصبية بجميع العُقد في الطبقة التالية. على سبيل المثال، في الرسم البياني السابق، لاحظ أنّ كل عصبون من الأعصاب الثلاثة في الطبقة المخفية الأولى يرتبط بشكل منفصل بكل من العصبونين في الطبقة المخفية الثانية.

يُطلق على الشبكات العصبونية التي يتم تنفيذها على أجهزة الكمبيوتر أحيانًا اسم الشبكات العصبونية الاصطناعية للتمييز بينها وبين الشبكات العصبونية الموجودة في الدماغ والجهاز العصبي.

يمكن لبعض الشبكات العصبية محاكاة العلاقات غير الخطية المعقّدة للغاية بين الميزات المختلفة والتصنيف.

انظر أيضا الشبكة العصبية التلافيفية و الشبكة العصبية المتكررة.

لمزيد من المعلومات، يُرجى الاطّلاع على الشبكات العصبونية في "دورة مكثّفة عن تعلّم الآلة".

عصبون

#fundamentals

في التعلم الآلي، وحدة مميزة داخل طبقة مخفية من أ الشبكة العصبية. يقوم كل عصبون بإجراء العملية المكونة من خطوتين التالية:

  1. تحسب هذه الدالة المجموع المرجّح لقيم الإدخال مضروبة في الأوزان المقابلة.
  2. يمرر المجموع المرجح كمدخل إلىوظيفة التنشيط.

تقبل إحدى الخلايا العصبية في الطبقة المخفية الأولى مدخلات من قيم الميزات في طبقة الإدخال. تتلقّى الخلية العصبية في أي طبقة مخفية بعد الطبقة الأولى مدخلات من الخلايا العصبية في الطبقة المخفية السابقة. على سبيل المثال، تقبل إحدى الخلايا العصبية في الطبقة المخفية الثانية مدخلات من الخلايا العصبية في الطبقة المخفية الأولى.

يوضّح الرسم التوضيحي التالي خليتَين عصبيتين ومدخلاتهما.

شبكة عصبية تتضمّن طبقة إدخال وطبقتَين مخفيتَين وطبقة إخراج يتم تمييز خليتَين عصبية، إحداهما في الطبقة المخفية الأولى والأخرى في الطبقة المخفية الثانية. تتلقّى الخلية العصبية المميّزة
          في الطبقة المخفية الأولى مدخلات من كلتا الميزتين
          في طبقة الإدخال. تتلقّى الخلية العصبية المميّزة في الطبقة المخفية الثانية مدخلات من كل من الخلايا العصبية الثلاث في الطبقة المخفية الأولى.

تحاكي الخلية العصبية في الشبكة العصبية سلوك الخلايا العصبية في الدماغ وأجزاء أخرى من الجهاز العصبي.

N-gram

تسلسل مرتّب من N كلمة على سبيل المثال، بجنون هي ثنائية كلمات. بما أنّ الترتيب مهم، فإنّ أحبك بشدة هي ثنائية مختلفة عن أحبك.

لا أسماء هذا النوع من N-gram أمثلة
2 ثنائي الحروف أو ثنائي الغرام للذهاب، الذهاب إلى، تناول الغداء، تناول العشاء
3 ثلاثي الحروف أو 3 غرام أكلتُ كثيرًا، وعشتُ بسعادة أبدية، ودقّت الأجراس
4 4 جرام walk in the park, dust in the wind, the boy ate lentils

كثيرفهم اللغة الطبيعية تعتمد النماذج على N-grams للتنبؤ بالكلمة التالية التي سيكتبها المستخدم أو يقولها. على سبيل المثال، لنفترض أن أحد المستخدمين كتب بكل سعادة غامرة. من المحتمل أن يتنبأ نموذج NLU المستند إلى الثلاثيات بأن المستخدم سوف يكتب الكلمة التالية بعد.

تختلف N-grams عن حقيبة الكلمات، وهي مجموعات غير مرتبة من الكلمات.

لمزيد من المعلومات، يمكنك الاطّلاع على النماذج اللغوية الكبيرة في "دورة مكثّفة عن تعلُّم الآلة".

معالجة اللغات الطبيعية

اختصار معالجة اللغات الطبيعية

فهم اللغات الطبيعية

اختصار فهم اللغات الطبيعية

عقدة (شجرة القرار)

#df

في شجرة القرار، يمثّل ذلك أي شرط أو ورقة.

شجرة قرارات تتضمّن شرطَين وثلاثة فروع نهائية

راجع أشجار القرار في دورة غابات القرار للحصول على مزيد من المعلومات.

العقدة (الشبكة العصبية)

#fundamentals

أ خلية عصبية في طبقة مخفية.

راجع الشبكات العصبية في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

عُقدة (الرسم البياني في TensorFlow)

#TensorFlow

عملية في TensorFlowرسم بياني.

الضجيج

بشكل عام، أي شيء يحجب الإشارة في مجموعة البيانات. يمكن إدخال التشويش إلى البيانات بعدة طرق. على سبيل المثال:

  • يخطئ المقيمون في تصنيف المحتوى.
  • يسجّل البشر والأدوات قيم السمات بشكل خاطئ أو يحذفونها.

حالة غير ثنائية

#df

أحالة تحتوي على أكثر من نتيجتين محتملتين. على سبيل المثال، يتضمّن الشرط غير الثنائي التالي ثلاث نتائج محتملة:

شرط (number_of_legs = ?) يؤدي إلى ثلاث نتائج محتملة. نتيجة واحدة (عدد الأرجل = 8) تؤدي إلى ورقة تسمى العنكبوت. النتيجة الثانية (عدد الأرجل = 4) تؤدي إلى ورقة تسمى الكلب. تؤدي النتيجة الثالثة (number_of_legs = 2) إلى
          عقدة فرعية باسم penguin.

راجع أنواع الشروط في دورة غابات القرار للحصول على مزيد من المعلومات.

غير خطي

#fundamentals

العلاقة بين متغيرين أو أكثر لا يمكن تمثيلها فقط من خلال الجمع والضرب. يمكن تمثيل العلاقة الخطية كخط؛ ولا يمكن تمثيل العلاقة غير الخطية كخط. على سبيل المثال، ضع في اعتبارك نموذجين يربط كل منهما ميزة واحدة بعلامة واحدة. النموذج على اليمين خطي، والنموذج على اليسار غير خطي:

قطعتين أرض. إن الرسم البياني عبارة عن خط، لذا فهذه علاقة خطية.
          المخطط الآخر عبارة عن منحنى، لذا فهذه علاقة غير خطية.

راجِع الشبكات العصبية: العُقد والطبقات المخفية في &quot;دورة تدريبية مكثّفة حول تعلُّم الآلة&quot; لتجربة أنواع مختلفة من الدوال غير الخطية.

الانحياز لعدم الإجابة

#responsible

يرىتحيز الاختيار.

عدم الثبات

#fundamentals

سمة تتغيّر قيمها على مستوى سمة واحدة أو أكثر، وعادةً ما تكون هذه السمة هي الوقت. على سبيل المثال، إليك بعض الأمثلة على عدم الثبات:

  • يختلف عدد ملابس السباحة المباعة في متجر معين حسب الموسم.
  • إن كمية الفاكهة التي يتم حصادها في منطقة معينة تكون صفرًا في معظم العام ولكنها كبيرة لفترة وجيزة.
  • ونتيجة لتغير المناخ، تتغير درجات الحرارة السنوية المتوسطة.

التباين معالثبات.

لا توجد إجابة صحيحة واحدة (نورا)

#generativeAI

أ اِسْتَدْعَى وجودعديد صحيح الاستجابات. على سبيل المثال، لا يوجد للمطالبة التالية إجابة صحيحة واحدة:

أريد سماع نكتة مضحكة عن الأفيال.

التقييم إن الاستجابات لعدم وجود إجابة صحيحة واحدة تكون عادةً أكثر ذاتية من تقييم المطالبات التي تحتوي على إجابة واحدة صحيحة. على سبيل المثال، يتطلب تقييم نكتة الفيل طريقة منهجية لتحديد مدى مضحكة النكتة.

NORA

#الذكاء الاصطناعي التوليدي

اختصار لا توجد إجابة صحيحة واحدة

تطبيع

#fundamentals

بمعنى واسع، عملية تحويل النطاق الفعلي للقيم المتغيرة إلى نطاق قياسي من القيم، مثل:

  • من -1 إلى +1
  • من 0 إلى 1
  • الدرجات المعيارية (من -3 إلى +3 تقريبًا)

على سبيل المثال، لنفترض أنّ النطاق الفعلي لقيم ميزة معيّنة هو 800 إلى 2,400. كجزء من هندسة الميزات، يمكنك تسوية القيم الفعلية إلى نطاق عادي، مثل من -1 إلى +1.

التسوية هي مهمة شائعة في هندسة الميزات. عادةً ما تتدرب النماذج بشكل أسرع (وتنتج تنبؤات أفضل) عندما يتم تضمين كل ميزة عددية فيمتجه الميزة لديه نفس النطاق تقريبًا.

راجِع أيضًا التسوية باستخدام الدرجة المعيارية.

لمزيد من المعلومات، يمكنك الاطّلاع على البيانات الرقمية: التسوية في "الدورة التدريبية المكثّفة حول تعلُّم الآلة".

NotebookLM

#generativeAI

أداة تعتمد على Gemini تتيح للمستخدمين تحميل المستندات ثم استخدامهاالمطالبات لطرح الأسئلة حول هذه المستندات أو تلخيصها أو تنظيمها. على سبيل المثال، يمكن لمؤلف أن يقوم بتحميل عدة قصص قصيرة ويطلب من Notebook LM العثور على موضوعاتها المشتركة أو تحديد أي منها يمكن أن يكون الفيلم الأفضل.

الكشف عن الجديد

عملية تحديد ما إذا كان مثال جديد (مبتكر) يأتي من التوزيع نفسه الذي تأتي منه مجموعة التدريب. بعبارة أخرى، بعد التدريب على مجموعة التدريب، تحدّد ميزة رصد البيانات الجديدة ما إذا كان المثال الجديد (أثناء الاستدلال أو أثناء التدريب الإضافي) قيمة متطرفة.

التباين مع رصد القيم الشاذة

البيانات الرقمية

#fundamentals

الميزات الممثَّلة كأعداد صحيحة أو أرقام ذات قيم حقيقية على سبيل المثال، من المحتمل أن يمثل نموذج تقييم المنزل حجم المنزل (بالقدم المربع أو بالمتر المربع) كبيانات رقمية. يشير تمثيل إحدى السمات كبيانات رقمية إلى أنّ قيم السمة لها علاقة رياضية بالتصنيف. أي أنّ عدد الأمتار المربعة في المنزل يرتبط على الأرجح بعلاقة رياضية بقيمة المنزل.

لا ينبغي تمثيل جميع بيانات الأعداد الصحيحة كبيانات رقمية. على سبيل المثال، الرموز البريدية في بعض أنحاء العالم هي أعداد صحيحة، ولكن لا يجب تمثيل الرموز البريدية التي تتضمّن أعدادًا صحيحة كبيانات رقمية في النماذج. ذلك لأنّ الرمز البريدي 20000 ليس ضعف (أو نصف) فعالية الرمز البريدي 10000. بالإضافة إلى ذلك، على الرغم من أنّ الرموز البريدية المختلفة مرتبطة بقيم مختلفة للعقارات، لا يمكننا افتراض أنّ قيم العقارات في الرمز البريدي 20000 هي ضعف قيم العقارات في الرمز البريدي 10000. يجب تمثيل الرموز البريدية على أنّها بيانات فئوية بدلاً من ذلك.

تُسمى الميزات الرقمية أحيانًاالميزات المستمرة.

لمزيد من المعلومات، راجِع التعامل مع البيانات الرقمية في &quot;الدورة التدريبية المكثّفة حول تعلُّم الآلة&quot;.

NumPy

أن مكتبة رياضيات مفتوحة المصدر الذي يوفر عمليات مصفوفة فعالة في Python.الباندا تم بناؤه على NumPy.

O

هدف

#متري

مقياس تحاول الخوارزمية تحسينه.

دالة الهدف

#Metric

الصيغة الرياضية أومتري أن النموذج يهدف إلى التحسين. على سبيل المثال، دالة الهدف لـ الانحدار الخطي عادة ما يكون متوسط الخسارة التربيعية. لذلك، عند تدريب نموذج الانحدار الخطي، يهدف التدريب إلى تقليل الخسارة التربيعية المتوسطة.

في بعض الحالات، يكون الهدف هو تعظيم دالة الهدف. على سبيل المثال، إذا كانت دالة الهدف هي الدقة، فإن الهدف هو تعظيم الدقة.

انظر أيضاخسارة.

الشرط المائل

#df

في شجرة القرار ، أ حالة التي تنطوي على أكثر من واحد ميزة. على سبيل المثال، إذا كان الارتفاع والعرض كلاهما ميزات، فإن ما يلي هو حالة مائلة:

  height > width

التباين معحالة محاذاة المحور.

اطّلِع على أنواع الشروط في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

بلا إنترنت

#fundamentals

مرادف لـثابت.

الاستدلال غير المتصل بالإنترنت

#fundamentals

تشير إلى عملية إنشاء نموذج لمجموعة من التوقّعات ثم تخزين هذه التوقّعات مؤقتًا (حفظها). وبعد ذلك، يمكن للتطبيقات الوصول إلى التوقّع المستنتَج من ذاكرة التخزين المؤقت بدلاً من إعادة تشغيل النموذج.

على سبيل المثال، لنفترض أنّ هناك نموذجًا ينشئ توقّعات أحوال الطقس المحلية (توقّعات) مرة كل أربع ساعات. بعد كل عملية تشغيل للنموذج، يخزّن النظام مؤقتًا جميع توقّعات الطقس المحلية. تسترجع تطبيقات الطقس التوقعات من ذاكرة التخزين المؤقت.

يُطلق على الاستدلال غير المتصل بالإنترنت أيضًا اسم الاستدلال الثابت.

يختلف ذلك عن الاستدلال على الإنترنت. يمكنك الاطّلاع على أنظمة تعلُّم الآلة في مرحلة الإنتاج: الاستنتاج الثابت مقابل الاستنتاج الديناميكي في "دورة تدريبية مكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

الترميز الساخن الواحد

#fundamentals

تمثيل البيانات الفئوية كمتّجه حيث:

  • تم تعيين أحد العناصر إلى 1.
  • تم تعيين جميع العناصر الأخرى على 0.

يتم استخدام الترميز الساخن بشكل شائع لتمثيل السلاسل أو المعرفات التي تحتوي على مجموعة محدودة من القيم المحتملة. على سبيل المثال، افترض أن ميزة تصنيفية معينة تسمى Scandinavia لها خمس قيم محتملة:

  • "الدنمارك"
  • "السويد"
  • "النرويج"
  • "فنلندا"
  • "أيسلندا"

يمكن أن يمثّل الترميز الأحادي الساخن كل قيمة من القيم الخمس على النحو التالي:

البلد المتّجه
"الدنمارك" 1 0 0 0 0
"السويد" 0 1 0 0 0
"النرويج" 0 0 1 0 0
"فنلندا" 0 0 0 1 0
"أيسلندا" 0 0 0 0 1

بفضل التشفير الساخن الواحد، يمكن للنموذج أن يتعلم اتصالات مختلفة استنادًا إلى كل من البلدان الخمسة.

تمثيل ميزة كبيانات رقمية هو بديل للترميز الأحادي. للأسف، لا يُعد تمثيل البلدان الاسكندنافية رقميًا خيارًا جيدًا. على سبيل المثال، إليك التمثيل الرقمي التالي:

  • "الدنمارك" هي 0
  • "السويد" هي 1
  • "النرويج" هي 2
  • "فنلندا" هي 3
  • "أيسلندا" هي 4

باستخدام الترميز الرقمي، سيفسّر النموذج الأرقام الأولية رياضيًا وسيحاول التدريب على هذه الأرقام. ومع ذلك، لا يبلغ عدد سكان آيسلندا ضعف عدد سكان النرويج (أو نصفه)، لذا سيتوصّل النموذج إلى بعض الاستنتاجات الغريبة.

راجع البيانات التصنيفية: المفردات والترميز الساخن الواحد في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

إجابة واحدة صحيحة (ORA)

#generativeAI

أ اِسْتَدْعَى وجودأعزب صحيح إجابة. على سبيل المثال، إليك الطلب التالي:

صواب أو خطأ: زحل أكبر من المريخ.

الإجابة الصحيحة الوحيدة هي صحيح.

يختلف عن لا توجد إجابة صحيحة.

التعلم دفعة واحدة

نهج لتعلُّم الآلة يُستخدم غالبًا لتصنيف العناصر، وهو مصمَّم لتعلُّم نموذج تصنيف فعّال من مثال تدريبي واحد.

يمكنك أيضًا الاطّلاع على التعلّم ببضع فُرَص والتعلّم بدون فُرَص.

التلقين بمثال واحد

#generativeAI

طلب يتضمّن مثالاً واحدًا يوضّح طريقة استجابة النموذج اللغوي الكبير. على سبيل المثال، يتضمّن الطلب التالي مثالاً واحدًا يوضّح للنموذج اللغوي الكبير كيفية الإجابة عن طلب بحث.

أجزاء طلب واحد ملاحظات
ما هي العملة الرسمية للبلد المحدد؟ السؤال الذي تريد أن تجيب عنه النماذج اللغوية الكبيرة.
فرنسا: يورو مثال واحد.
الهند: طلب البحث الفعلي

قارِن بين الطلب لمرة واحدة والمصطلحات التالية:

واحد-مقابل-الكل

#fundamentals

بالنظر إلى مشكلة التصنيف التي تحتوي على N فئة، فإن الحل الذي يتكون من N فئة منفصلة هو:التصنيف الثنائي النموذج - نموذج تصنيف ثنائي واحد لكل نتيجة محتملة. على سبيل المثال، إذا كان لدينا نموذج يصنف الأمثلة على أنها حيوانية أو نباتية أو معدنية، فإن الحل الذي يعتمد على مبدأ "واحد مقابل الكل" من شأنه أن يوفر نماذج التصنيف الثنائية المنفصلة الثلاثة التالية:

  • حيوان أو ليس حيوانًا
  • نباتي مقابل غير نباتي
  • معدني وغير معدني

online

#fundamentals

مرادف لـمتحرك.

الاستدلال عبر الإنترنت

#fundamentals

إنشاء توقّعات عند الطلب على سبيل المثال، لنفترض أنّ تطبيقًا يمرّر بيانات إلى نموذج ويصدر طلبًا للحصول على توقع. يستجيب النظام الذي يستخدم الاستدلال على الإنترنت للطلب من خلال تشغيل النموذج (وعرض التوقّع للتطبيق).

التباين مع الاستدلال غير المتصل بالإنترنت.

يمكنك الاطّلاع على أنظمة تعلُّم الآلة في مرحلة الإنتاج: الاستنتاج الثابت مقابل الاستنتاج الديناميكي في "دورة تدريبية مكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

العملية (op)

#TensorFlow

في TensorFlow، أي إجراء ينشئ Tensor أو يعالجه أو يتلفه. على سبيل المثال، ضرب المصفوفات هو عملية تتلقّى موترَين كمدخلات وتنتج موترًا واحدًا كمخرجات.

Optax

مكتبة لمعالجة التدرّجات وتحسينها في JAX تسهّل Optax عملية البحث من خلال توفير وحدات أساسية يمكن إعادة دمجها بطرق مخصّصة لتحسين النماذج المَعلمية، مثل الشبكات العصبية العميقة. تشمل الأهداف الأخرى ما يلي:

  • توفير عمليات تنفيذ سهلة القراءة ومختبَرة جيدًا وفعّالة للمكوّنات الأساسية
  • تحسين الإنتاجية من خلال إتاحة إمكانية الجمع بين المكونات منخفضة المستوى في محسنات مخصصة (أو مكونات معالجة التدرج الأخرى).
  • تسريع تبني الأفكار الجديدة من خلال تسهيل قيام أي شخص بالمساهمة.

مُحسِّن

هي تنفيذ محدّد لخوارزمية النزول التدريجي. تشمل أدوات التحسين الشائعة ما يلي:

  • AdaGrad، وهي اختصار لعبارة ADAptive GRADient descent.
  • آدم، وهو اختصار لـ ADAptive with Momentum.

ORA

#generativeAI

اختصار لـإجابة واحدة صحيحة.

تحيز التجانس خارج المجموعة

#responsible

الميل إلى اعتبار أعضاء المجموعة الخارجية أكثر تشابهًا من أعضاء المجموعة الداخلية عند مقارنة المواقف والقيم والسمات الشخصية وغيرها من الخصائص يشير مصطلح المجموعة الداخلية إلى الأشخاص الذين تتفاعل معهم بانتظام، بينما يشير مصطلح المجموعة الخارجية إلى الأشخاص الذين لا تتفاعل معهم بانتظام. إذا أنشأت مجموعة بيانات من خلال الطلب من المشاركين تقديم سمات حول المجموعات الخارجية، قد تكون هذه السمات أقل دقة وأكثر نمطية من السمات التي يدرجها المشاركون للأشخاص في مجموعتهم الداخلية.

على سبيل المثال، قد يصف أهل ليليبوت منازل أهل ليليبوت الآخرين بتفاصيل كبيرة، مشيرين إلى اختلافات صغيرة في الأساليب المعمارية والنوافذ والأبواب والأحجام. ومع ذلك، فإن سكان الليليبوت أنفسهم قد يعلنون ببساطة أن سكان البروبدينغناجيين جميعهم يعيشون في منازل متطابقة.

تحيز التجانس خارج المجموعة هو شكل من أشكالتحيز الإسناد الجماعي.

انظر أيضاالتحيز داخل المجموعة.

اكتشاف القيم المتطرفة

عملية تحديد القيم المتطرفة في مجموعة التدريب.

يختلف عن رصد المحتوى الجديد.

الذي حقق أداءً مختلفًا

القيم البعيدة عن معظم القيم الأخرى في التعلّم الآلي، أي مما يلي يُعدّ قيمة شاذة:

  • بيانات الإدخال التي تزيد قيمها عن 3 انحرافات معيارية تقريبًا عن المتوسط
  • الأوزان ذات القيم المطلقة العالية
  • القيم المتوقعة بعيدة نسبيا عن القيم الفعلية.

على سبيل المثال، لنفترض أنّ widget-price هي إحدى ميزات طراز معيّن. لنفترض أنّ المتوسط widget-price هو 7 يورو مع انحراف معياري يبلغ 1 يورو. وبالتالي، فإنّ الأمثلة التي تحتوي على widget-price بقيمة 12 يورو أو 2 يورو ستُعتبر قيمًا متطرفة لأنّ كل سعر من هذين السعرين يبتعد بمقدار خمسة انحرافات معيارية عن المتوسط.

غالبًا ما تحدث القيم الشاذة بسبب أخطاء إملائية أو أخطاء أخرى في الإدخال. في حالات أخرى، لا تكون القيم الشاذة أخطاء، فمن النادر أن تكون القيم بعيدة عن المتوسط بمقدار خمسة انحرافات معيارية، ولكن هذا ليس مستحيلاً.

تتسبب القيم الشاذة غالبًا في حدوث مشاكل في تدريب النماذج. القص هو إحدى طرق إدارة القيم الشاذة.

لمزيد من المعلومات، راجِع التعامل مع البيانات الرقمية في &quot;الدورة التدريبية المكثّفة حول تعلُّم الآلة&quot;.

التقييم خارج المجموعة (OOB)

#df

آلية لتقييم جودة غابة القرارات من خلال اختبار كل شجرة قرارات مقابل الأمثلة غير المستخدَمة أثناء التدريب على شجرة القرارات هذه. على سبيل المثال، في الرسم البياني التالي، لاحظ أنّ النظام يدرب كل شجرة قرار على حوالي ثلثَي الأمثلة، ثم يقيّمها باستخدام الثلث المتبقي من الأمثلة.

غابة قرارات تتألف من ثلاث أشجار قرارات
          تتدرّب إحدى شجرتَي القرارات على ثلثَي الأمثلة
          ثم تستخدم الثلث المتبقي للتقييم خارج النطاق.
          تتدرّب شجرة قرارات ثانية على ثلثَي الأمثلة المختلفة عن شجرة القرارات السابقة، ثم تستخدم ثلثًا مختلفًا لتقييم OOB عن شجرة القرارات السابقة.

التقييم خارج المجموعة هو تقريب فعال من الناحية الحسابية ومحافظ لآلية التحقّق المتبادل. في التصديق المتقاطع، يتم تدريب نموذج واحد لكل جولة من جولات التصديق المتقاطع (على سبيل المثال، يتم تدريب 10 نماذج في عملية تصديق متقاطع من 10 أجزاء). باستخدام التقييم خارج النطاق، يتم تدريب نموذج واحد. بما أنّ التجميع يحجب بعض البيانات عن كل شجرة أثناء التدريب، يمكن أن يستخدم تقييم OOB هذه البيانات لتقريب التحقّق من الصحة المتبادل.

راجع التقييم خارج الحقيبة في دورة الغابات القرارية للحصول على مزيد من المعلومات.

طبقة الإخراج

#fundamentals

الطبقة "النهائية" في الشبكة العصبية تحتوي طبقة الإخراج على التوقّع.

يوضّح الرسم التوضيحي التالي شبكة عصبية عميقة صغيرة تتضمّن طبقة إدخال وطبقتَين مخفيتَين وطبقة إخراج:

شبكة عصبية تتضمّن طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة إخراج واحدة تتألف طبقة الإدخال من ميزتَين. تتألف الطبقة المخفية الأولى من ثلاث خلايا عصبية، وتتألف الطبقة المخفية الثانية من خليتَين عصبيتَين. تتألف طبقة الإخراج من عقدة واحدة.

فرط التخصيص

#fundamentals

إنشاء نموذج يطابق بيانات التدريب بشكل كبير جدًا، ما يؤدي إلى عدم قدرة النموذج على تقديم توقّعات صحيحة بشأن البيانات الجديدة

يمكن أن يؤدي التسوية إلى الحدّ من الإفراط في التكيّف. يمكن أن يؤدي التدريب على مجموعة تدريب كبيرة ومتنوعة أيضًا إلى تقليل الإفراط في التخصيص.

يمكنك الاطّلاع على مقالة الإفراط في التخصيص في "دورة مكثّفة عن تعلّم الآلة" للحصول على مزيد من المعلومات.

أخذ عيّنات زائدة

إعادة استخدام أمثلة لفئة أقل تمثيلاً في مجموعة بيانات غير متوازنة الفئات من أجل إنشاء مجموعة تدريب أكثر توازنًا

على سبيل المثال، لنفترض أنّ لديك مشكلة تصنيف ثنائي يكون فيها معدّل الفئة الأكبر إلى الفئة الأصغر هو 5,000:1. إذا كانت مجموعة البيانات تحتوي على مليون مثال، فإنّها لن تحتوي إلا على 200 مثال تقريبًا من الفئة الأقل تمثيلاً، وهو عدد قليل جدًا من الأمثلة للتدريب الفعّال. للتغلّب على هذا النقص، يمكنك إعادة استخدام هذه الأمثلة الـ 200 عدة مرات، ما قد يؤدي إلى توفير أمثلة كافية للتدريب المفيد.

يجب توخّي الحذر بشأن التطابق الزائد عند إجراء عملية أخذ عينات زائدة.

التباين معنقص أخذ العينات.

P

البيانات المعبأة

نهج لتخزين البيانات بشكل أكثر كفاءة.

تخزن البيانات المضغوطة البيانات إما باستخدام تنسيق مضغوط أو بطريقة أخرى تسمح بالوصول إليها بكفاءة أكبر. تقلل البيانات المجمعة من كمية الذاكرة والحسابات المطلوبة للوصول إليها، مما يؤدي إلى تدريب أسرع واستدلال نموذجي أكثر كفاءة.

غالبًا ما تُستخدم البيانات المعبأة مع تقنيات أخرى، مثل زيادة البيانات و التنظيم ، مما يؤدي إلى تحسين الأداء بشكل أكبر نماذج.

PaLM

اختصار نموذج Pathways اللغوي

باندا

#fundamentals

واجهة برمجة تطبيقات لتحليل البيانات الموجهة للأعمدة مبنية علىنامبي. تدعم العديد من أطر التعلم الآلي، بما في ذلك TensorFlow، هياكل بيانات pandas كمدخلات. راجع وثائق pandas للحصول على التفاصيل.

المعلمة

#fundamentals

الأوزان والانحيازات التي يتعلّمها النموذج أثناء عملية التدريب على سبيل المثال، في نموذج الانحدار الخطي، تتألف المَعلمات من الانحياز (b) وجميع الأوزان (w1 وw2 وما إلى ذلك) في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في المقابل، فرط المعلمات هي القيم التي توفّرها أنت (أو خدمة ضبط فرط المعلمات) للنموذج. على سبيل المثال، معدّل التعلّم هو وسيط فائق.

الضبط الفعّال من حيث المعلَمات

#generativeAI

مجموعة من الأساليب لضبط نموذج لغوي كبير مُدرَّب مسبقًا (PLM) بشكل أكثر فعالية من الضبط الدقيق الكامل. عادةً ما يؤدي الضبط الفعال للمعلمات إلى ضبط عدد أقل بكثير من حدود من الضبط الدقيق الكامل، إلا أنه ينتج عمومًا نموذج اللغة الكبير الذي يعمل بشكل جيد (أو جيد تقريبًا) مثل نموذج لغة كبير تم بناؤه من الضبط الدقيق الكامل.

مقارنة وتباين الضبط الفعال للمعلمات مع:

يُعرف الضبط الفعّال من حيث المَعلمات أيضًا باسم الضبط الدقيق الفعّال من حيث المَعلمات.

خادم المعلَمة (PS)

#تينسورفلو

مهمة تتتبّع مَعلمات نموذج في إعداد موزّع.

تحديث المعلمات

عملية ضبط النموذج حدود أثناء التدريب، عادةً خلال تكرار واحد من نزول التدرج.

مشتقة جزئية

المشتقة التي تعتبر فيها جميع المتغيرات، ما عدا واحد منها، ثابتة. على سبيل المثال، المشتق الجزئي لـ f(x, y) بالنسبة إلى x هو المشتق لـ f عند اعتباره دالة لـ x وحدها (أي الحفاظ على ثبات y). يركز المشتق الجزئي لـ f بالنسبة إلى x فقط على كيفية تغير x ويتجاهل جميع المتغيرات الأخرى في المعادلة.

تحيز المشاركة

#responsible

مرادف لتحيز عدم الاستجابة. يرىتحيز الاختيار.

استراتيجية التجزئة

الخوارزمية التي يتم بموجبها تقسيم المتغيّرات على خوادم المَعلمات

الاجتياز عند المستوى k (pass@k)

#متري

مقياس لتحديد جودة الكود (على سبيل المثال، بايثون) الذينموذج اللغة الكبير يولد. على وجه التحديد، يخبرك المرور عند k باحتمالية اجتياز كتلة واحدة على الأقل من التعليمات البرمجية المولدة من بين k من كتل التعليمات البرمجية المولدة لجميع اختبارات الوحدة الخاصة بها.

غالبًا ما تواجه النماذج اللغوية الكبيرة صعوبة في إنشاء رموز برمجية جيدة للمشاكل البرمجية المعقّدة. يتكيّف مهندسو البرامج مع هذه المشكلة من خلال مطالبة النموذج اللغوي الكبير بإنشاء حلول متعدّدة (k) للمشكلة نفسها. بعد ذلك، يختبر مهندسو البرامج كل حلّ باستخدام اختبارات الوحدات. يعتمد احتساب "النجاح عند k" على نتيجة اختبارات الوحدات:

  • إذا نجح واحد أو أكثر من هذه الحلول في اجتياز اختبار الوحدة، فإن برنامج LLM يجتاز تحدي إنشاء التعليمات البرمجية هذا.
  • لولا أحد من الحلول التي اجتازت اختبار الوحدة، ثم LLMفشل هذا هو تحدي توليد الكود.

الصيغة الخاصة بالتمرير عند k هي كما يلي:

\[\text{pass at k} = \frac{\text{total number of passes}} {\text{total number of challenges}}\]

بشكل عام، تنتج القيم الأعلى لـ k درجات نجاح أعلى في k؛ ومع ذلك، تتطلب القيم الأعلى لـ k موارد أكبر لنماذج اللغة واختبار الوحدات.

نموذج مسارات اللغة (PaLM)

نموذج أقدم وسابق لـنماذج الجوزاء.

Pax

#generativeAI

إطار عمل برمجة مصمم لتدريب نطاق واسع الشبكة العصبية نماذج كبيرة جدًا بحيث تمتد على عدة تي بي يو شريحة تسريع شرائح أو قرون.

تم إنشاء Pax على Flax، الذي تم إنشاؤه على JAX.

مخطّط بياني يوضّح موضع Pax في حزمة البرامج
          تم إنشاء Pax استنادًا إلى JAX. يتألف تنسيق Pax من ثلاث طبقات. تحتوي الطبقة السفلية على TensorStore وFlax.
          تحتوي الطبقة الوسطى على Optax وFlaxformer. تحتوي الطبقة العليا على مكتبة Praxis Modeling Library. تم إنشاء Fiddle
          استنادًا إلى Pax.

البرسبترون

نظام (أو جهاز أو برنامج) يتلقّى قيمة إدخال واحدة أو أكثر، ويشغّل دالة على المجموع المرجّح للمدخلات، ويحسب قيمة إخراج واحدة. في تعلُّم الآلة، تكون الدالة عادةً غير خطية، مثل ReLU أو sigmoid أو tanh. على سبيل المثال، يعتمد المُدْرِك التالي على الدالة السينية لمعالجة ثلاث قيم إدخال:

$$f(x_1, x_2, x_3) = \text{sigmoid}(w_1 x_1 + w_2 x_2 + w_3 x_3)$$

في الرسم التوضيحي التالي، يستقبل البيرسبترون ثلاث مدخلات، يتم تعديل كل منها بواسطة وزن قبل إدخاله إلى البيرسبترون:

مُدْرِكٌ يَسْتَقْبِلُ 3 مُدْخَلات، كُلٌّ مِنْهَا مُضْرُوبٌ بِوَزْنٍ مُنْفَصِلٍ. تنتج الشبكة العصبية ذات الطبقة الواحدة قيمة واحدة.

المُدْرِكات هي الخلايا العصبية في الشبكات العصبية.

الأداء

#Metric

مصطلح مُحمّل بالمعاني التالية:

  • المعنى العادي ضمن هندسة البرمجيات وهي: ما مدى سرعة (أو كفاءة) تشغيل هذا البرنامج؟
  • المعنى في سياق تعلُّم الآلة هنا، يجيب الأداء على السؤال التالي: ما مدى صحة هذا؟نموذج ؟ أي، ما مدى جودة توقّعات النموذج؟

أهمية التقليب المتغيرة

#df
#متري

نوع منأهمية متغيرة الذي يقيم الزيادة في خطأ التنبؤ للنموذجبعد تبديل قيم الميزة. أهمية متغير التباديل هي مقياس مستقل عن النموذج.

الحيرة

#متري

مقياس لمدى نجاح النموذج في إنجاز مهمته. على سبيل المثال، افترض أن مهمتك هي قراءة الأحرف القليلة الأولى من الكلمة التي يكتبها المستخدم على لوحة مفاتيح الهاتف، وتقديم قائمة بالكلمات الممكنة لإكمالها. إنّ مقياس الحيرة، P، لهذه المهمة هو تقريبًا عدد التخمينات التي عليك تقديمها لكي تتضمّن قائمتك الكلمة الفعلية التي يحاول المستخدم كتابتها.

ترتبط مقياس الحيرة بالإنتروبيا المتقاطعة على النحو التالي:

$$P= 2^{-\text{cross entropy}}$$

خط الأنابيب

البنية التحتية المحيطة بخوارزمية التعلم الآلي. يتضمن خط الأنابيب جمع البيانات، ووضع البيانات في ملفات بيانات التدريب، وتدريب نموذج واحد أو أكثر، وتصدير النماذج إلى الإنتاج.

راجع خطوط أنابيب التعلم الآلي في دورة إدارة مشاريع التعلم الآلي للحصول على مزيد من المعلومات.

خطوط الأنابيب

أحد أشكال التوازية على مستوى النموذج، حيث يتم تقسيم معالجة النموذج إلى مراحل متتالية ويتم تنفيذ كل مرحلة على جهاز مختلف. أثناء معالجة مرحلة ما لإحدى الدفعات، يمكن للمرحلة السابقة معالجة الدفعة التالية.

انظر أيضاالتدريب على مراحل.

بي جيت

دالة JAX تقسّم الرمز البرمجي ليتم تنفيذه على عدة شرائح تسريع. يُمرِّر المستخدم دالة إلى pjit، تعرض دالة لها الدلالات المكافئة ولكن يتم تجميعها في عملية حسابية XLA يتم تنفيذها على عدة أجهزة (مثل وحدات معالجة الرسومات أو نوى TPU).

يتيح pjit للمستخدمين تقسيم العمليات الحسابية دون إعادة كتابتها باستخدام مقسم SPMD.

اعتبارًا من مارس 2023، تم دمج pjit مع jit. يمكنك الرجوع إلى المصفوفات الموزّعة والتوازي التلقائي لمزيد من التفاصيل.

PLM

#generativeAI

اختصار لـنموذج اللغة المدرب مسبقًا.

pmap

دالة JAX تنفّذ نُسخًا من دالة إدخال على أجهزة متعددة (وحدات معالجة مركزية أو وحدات معالجة الرسومات أو وحدات TPU) بقيم إدخال مختلفة، وتعتمد دالة pmap على SPMD.

سياسة

في التعلّم التعزيزي، يكون الوكيل عبارة عن عملية ربط احتمالية بين الحالات والإجراءات.

تجميع

تقليل حجم مصفوفة (أو مصفوفات) تم إنشاؤها بواسطة طبقة التفافية سابقة إلى مصفوفة أصغر تتضمّن عملية تجميع البيانات عادةً أخذ القيمة القصوى أو المتوسطة في المنطقة المجمّعة. على سبيل المثال، لنفترض أنّ لدينا مصفوفة 3x3 التالية:

المصفوفة 3x3 [[5,3,1], [8,2,5], [9,4,3]].

تعمل عملية التجميع، تمامًا مثل عملية الالتفاف، على تقسيم هذه المصفوفة إلى شرائح ثم تمرير عملية الالتفاف هذه بمقدار خطوات. على سبيل المثال، لنفترض أنّ عملية التجميع تقسّم مصفوفة الالتفاف إلى شرائح 2x2 بخطوة 1x1. كما يوضّح الرسم البياني التالي، يتم تنفيذ أربع عمليات تجميع. لنفترض أنّ كل عملية تجميع تختار القيمة القصوى من القيم الأربع في تلك الشريحة:

مصفوفة الإدخال هي 3x3 مع القيم: [[5,3,1], [8,2,5], [9,4,3]].
          المصفوفة الفرعية 2x2 في أعلى اليمين من مصفوفة الإدخال هي [[5,3], [8,2]]، لذا
          تؤدي عملية تجميع القيم في أعلى اليمين إلى القيمة 8 (وهي
          الحد الأقصى من 5 و3 و8 و2). المصفوفة الفرعية 2x2 في أعلى يسار مصفوفة الإدخال هي [[3,1], [2,5]]، لذا فإنّ عملية التجميع في أعلى اليسار تؤدي إلى القيمة 5. المصفوفة الفرعية 2x2 في أسفل يسار مصفوفة الإدخال هي
          [[8,2], [9,4]]، لذا تؤدي عملية التجميع في أسفل اليسار إلى القيمة
          9. المصفوفة الفرعية 2x2 في أسفل يسار مصفوفة الإدخال هي
          [[2,5], [4,3]]، لذا تؤدي عملية تجميع القيم في أسفل اليسار إلى القيمة
          5. باختصار، تؤدي عملية التجميع إلى المصفوفة 2x2
          [[8,5], [9,5]].

تساعد عملية التجميع في فرض ثبات الترجمة في مصفوفة الإدخال.

يُعرف التجميع لتطبيقات الرؤية بشكل أكثر رسمية باسم التجميع المكاني. تشير تطبيقات السلاسل الزمنية عادةً إلى التجميع باسم التجميع الزمني. بشكل أقل رسمية، يُطلق على التجميع غالبًا اسم أخذ عينات فرعية أو تقليل عدد العينات.

راجع مقدمة عن الشبكات العصبية التلافيفية في دورة ML Practicum: تصنيف الصور.

الترميز الموضعي

تقنية لإضافة معلومات حول موضع الرمز في تسلسل إلى تضمين الرمز. نماذج المحولات استخدم الترميز الموضعي لفهم العلاقة بين الأجزاء المختلفة من التسلسل بشكل أفضل.

يستخدم التنفيذ الشائع للترميز الموضعي دالة جيبية. (على وجه التحديد، يتم تحديد معدّل التكرار والسعة للدالة الجيبية من خلال موضع الرمز المميز في التسلسل). تتيح هذه التقنية لنموذج Transformer التعلّم من أجل التركيز على أجزاء مختلفة من التسلسل استنادًا إلى موضعها.

فئة إيجابية

#fundamentals
#Metric

الفئة التي تختبرها.

على سبيل المثال، قد تكون الفئة الموجبة في نموذج السرطان هي "ورم". قد تكون الفئة الإيجابية في نموذج تصنيف رسائل إلكترونية هي "رسائل غير مرغوب فيها".

التباين مع الفئة السلبية.

مرحلة ما بعد المعالجة

#responsible
#fundamentals

ضبط مخرجات النموذج بعد تشغيله. يمكن استخدام المعالجة اللاحقة لفرض قيود العدالة دون تعديل النماذج نفسها.

على سبيل المثال، يمكن تطبيق المعالجة اللاحقة على نموذج التصنيف الثنائي من خلال ضبط حدّ التصنيف، وذلك للحفاظ على تكافؤ الفرص لبعض السمات من خلال التأكّد من أنّ معدّل الإيجابية الحقيقية هو نفسه لجميع قيم تلك السمة.

نموذج ما بعد التدريب

#الذكاء الاصطناعي التوليدي

مصطلح غير محدّد بدقة يشير عادةً إلى نموذج مُدرَّب مسبقًا خضع لبعض عمليات ما بعد المعالجة، مثل واحدة أو أكثر من العمليات التالية:

PR AUC (المساحة تحت منحنى PR)

#Metric

المساحة تحت منحنى الدقة والاستدعاء الذي تم الحصول عليه من خلال رسم نقاط (الاستدعاء، الدقة) لقيم مختلفة لحد التصنيف.

براكسيس

مكتبة أساسية وعالية الأداء لتعلُّم الآلة في Pax يُطلق على Praxis غالبًا اسم "مكتبة الطبقات".

لا يحتوي Praxis على تعريفات لفئة Layer فحسب، بل يتضمّن أيضًا معظم المكوّنات الداعمة لها، بما في ذلك:

توفّر Praxis تعريفات لفئة Model.

الدقة

#fundamentals
#متري

مقياس لنماذج التصنيف يجيب عن السؤال التالي:

عندما تنبأ النموذجفئة إيجابية ما هي نسبة التوقعات الصحيحة؟

وهنا الصيغة:

$$\text{Precision} = \frac{\text{true positives}} {\text{true positives} + \text{false positives}}$$

where:

  • تعني القيمة الإيجابية الحقيقية أن النموذج تنبأ بشكل صحيح بالفئة الإيجابية.
  • تعني النتيجة الإيجابية الخاطئة أن النموذج تنبأ بشكل خاطئ بالفئة الإيجابية.

على سبيل المثال، لنفترض أنّ أحد النماذج قدّم 200 توقّع إيجابي. من بين هذه التوقّعات الإيجابية البالغ عددها 200:

  • 150 كانت إيجابية حقيقية.
  • كانت 50 منها نتائج موجبة خاطئة.

في هذه الحالة:

$$\text{Precision} = \frac{\text{150}} {\text{150} + \text{50}} = 0.75$$

التباين مع دقة و يتذكر.

يمكنك الاطّلاع على التصنيف: الدقة والاسترجاع والضبط والمقاييس ذات الصلة في &quot;دورة تدريبية مكثّفة حول تعلُّم الآلة&quot; للحصول على مزيد من المعلومات.

الدقة عند k (الدقة@k)

#متري

مقياس لتقييم قائمة مرتبة (مرتبة) من العناصر. تحدد الدقة عند k نسبة العناصر الأولى k في تلك القائمة التي تعتبر "ذات صلة". والمقصود:

\[\text{precision at k} = \frac{\text{relevant items in first k items of the list}} {\text{k}}\]

يجب أن تكون قيمة k أقل من أو تساوي طول القائمة المرتجعة. يُرجى العلم أنّ طول القائمة التي تم إرجاعها ليس جزءًا من عملية الاحتساب.

غالبًا ما تكون الصلة ذاتية؛ حتى بالنسبة للخبراءالمُقيِّمون البشريون غالبًا ما يختلفون حول العناصر ذات الصلة.

المقارنة بـ:

منحنى الدقة والاسترجاع

#Metric

منحنى الدقة مقابل الاسترجاع عند عتبات التصنيف المختلفة.

التوقّع

#fundamentals

ناتج النموذج على سبيل المثال:

  • يكون التوقّع الذي يقدّمه نموذج التصنيف الثنائي إما الفئة الإيجابية أو الفئة السلبية.
  • يكون التوقّع الذي يقدّمه نموذج التصنيف المتعدد الفئات عبارة عن فئة واحدة.
  • التنبؤ بنموذج الانحدار الخطي هو رقم.

انحياز التوقّعات

#Metric

قيمة تشير إلى مدى التباعد بين متوسط التوقعات هو من متوسط ملصقات في مجموعة البيانات.

يجب عدم الخلط بين هذا المفهوم ومصطلح الانحياز في نماذج تعلُّم الآلة أو الانحياز في الأخلاق والعدالة.

التعلم الآلي التنبئي

أي نظام تعلُّم آلة عادي ("كلاسيكي")

لا يوجد تعريف رسمي لمصطلح التعلم الآلي التوقعي. بل إن المصطلح يميز فئة من أنظمة التعلم الآليلا مرتكز علىالذكاء الاصطناعي التوليدي.

التكافؤ التنبئي

#responsible
#Metric

أ مقياس العدالة الذي يتحقق ما إذا كان، بالنسبة لقيمة معينة نموذج التصنيف ، ال دقة المعدلات متكافئة بالنسبة للمجموعات الفرعية قيد النظر.

على سبيل المثال، سيستوفي نموذج يتوقّع القبول في الكلية شرط التكافؤ التوقّعي للجنسية إذا كان معدّل دقته هو نفسه بالنسبة إلى الأشخاص من ليليبوت وبروبدينغناغ.

يُطلق على التكافؤ التنبئي أحيانًا أيضًا اسم تكافؤ المعدل التنبئي.

راجع "شرح تعريفات العدالة" (القسم 3.2.1) لمناقشة أكثر تفصيلاً للتكافؤ التنبئي.

تساوي الأسعار التوقّعي

#responsible
#Metric

اسم آخر للتكافؤ التوقعي

المعالجة المُسبَقة

#responsible
معالجة البيانات قبل استخدامها لتدريب نموذج يمكن أن تكون المعالجة المسبقة بسيطة، مثل إزالة الكلمات من مجموعة نصوص باللغة الإنجليزية غير متوفرة في قاموس اللغة الإنجليزية، أو معقّدة، مثل إعادة التعبير عن نقاط البيانات بطريقة تزيل أكبر عدد ممكن من السمات المرتبطة بالسمات الحسّاسة. يمكن أن تساعد المعالجة المُسبقة في استيفاء قيود الإنصاف.

نموذج مدرَّب مسبقًا

#generativeAI

على الرغم من أنّ هذا المصطلح يمكن أن يشير إلى أي نموذج مدرَّب أو متّجه تضمين مدرَّب، يشير النموذج المدرَّب مسبقًا الآن عادةً إلى نموذج لغوي كبير مدرَّب أو شكل آخر من أشكال الذكاء الاصطناعي التوليدي المدرَّب.

يمكنك أيضًا الاطّلاع على النموذج الأساسي والنموذج الأولي.

التدريب المسبق

#generativeAI

الأولي تمرين نموذج على مساحة كبيرة مجموعة البيانات. بعض النماذج المدربة مسبقًا هي نماذج عملاقة خرقاء ويجب تحسينها عادةً من خلال التدريب الإضافي. على سبيل المثال، قد يدرّب خبراء تعلُّم الآلة نموذج لغة كبيرًا مسبقًا على مجموعة بيانات نصية ضخمة، مثل جميع صفحات ويكيبيديا باللغة الإنجليزية. بعد التدريب المُسبَق، يمكن تحسين النموذج الناتج بشكل أكبر من خلال أي من التقنيات التالية:

اعتقاد مسبق

ما تعتقد بشأن البيانات قبل أن تبدأ التدريب عليها. على سبيل المثال، ل2 التنظيم يعتمد على اعتقاد مسبق بأن الأوزان يجب أن تكون صغيرة وموزعة بشكل طبيعي حول الصفر.

Pro

#generativeAI

أ نموذج الجوزاء مع عدد أقل حدود من ألترا ولكن هناك المزيد من المعلمات نانو. لمزيد من التفاصيل، يمكنك الاطّلاع على مقالة Gemini Pro.

نموذج الانحدار الاحتمالي

أ نموذج الانحدار الذي لا يستخدم فقط الأوزان لكل واحد ميزة ، ولكن أيضا عدم اليقين بشأن تلك الأوزان. نموذج الانحدار الاحتمالي يولد تنبؤًا وعدم يقين في هذا التنبؤ. على سبيل المثال، قد يعطي نموذج الانحدار الاحتمالي تنبؤًا بـ 325 مع انحراف معياري يبلغ 12. لمزيد من المعلومات حول نماذج الانحدار الاحتمالي، راجع هذا Colab على tensorflow.org.

دالة الكثافة الاحتمالية

#Metric

دالة تحدّد عدد مرات تكرار عيّنات البيانات التي تتضمّن بالضبط قيمة معيّنة. عندما تكون قيم مجموعة البيانات عبارة عن أرقام نقطة عائمة مستمرة، نادرًا ما تحدث تطابقات تامة. ومع ذلك، يؤدي تكامل دالة كثافة الاحتمال من القيمة x إلى القيمة y إلى الحصول على التكرار المتوقّع لعيّنات البيانات بين x وy.

على سبيل المثال، لنفترض أنّ لدينا توزيعًا طبيعيًا بمتوسط 200 وانحراف معياري يبلغ 30. لتحديد التكرار المتوقّع لعينات البيانات التي تقع ضمن النطاق من 211.4 إلى 218.7، يمكنك دمج دالة كثافة الاحتمال للتوزيع الطبيعي من 211.4 إلى 218.7.

prompt

#generativeAI

أي نص يتم إدخاله كمدخل إلى نموذج لغوي كبير لإعداد النموذج ليعمل بطريقة معيّنة. يمكن أن تكون الطلبات قصيرة مثل عبارة أو طويلة بشكل عشوائي (على سبيل المثال، النص الكامل لرواية). تندرج الطلبات ضمن فئات متعددة، بما في ذلك تلك الموضّحة في الجدول التالي:

فئة المطالبة مثال ملاحظات
السؤال ما هي سرعة طيران الحمام؟
مدرسة تعليم اكتب قصيدة مضحكة عن التحكيم. موجه يطلب من نموذج اللغة الكبير القيام بشيء ما.
مثال ترجمة كود Markdown إلى HTML. على سبيل المثال:
Markdown: * عنصر القائمة
HTML: <ul> <li>عنصر القائمة</li> </ul>
الجملة الأولى في مثال الطلب هذا هي تعليمات. ويشكّل الجزء المتبقي من الطلب المثال.
دور اشرح سبب استخدام خوارزمية انحدار التدرّج في تدريب تعلُّم الآلة، وذلك لشخص حاصل على درجة الدكتوراه في الفيزياء. الجزء الأول من الجملة هو تعليمات، أما العبارة "للحصول على درجة الدكتوراه في الفيزياء" فهي جزء الدور.
إدخال جزئي لإكمال النموذج يعيش رئيس وزراء المملكة المتحدة في يمكن أن ينتهي طلب الإدخال الجزئي بشكل مفاجئ (كما هو الحال في هذا المثال) أو ينتهي بشرطة سفلية.

يمكن لنموذج الذكاء الاصطناعي التوليدي الاستجابة لطلب باستخدام نص أو رمز برمجي أو صور أو تضمينات أو فيديوهات أو أي شيء آخر تقريبًا.

التعلم القائم على المطالبة

#الذكاء الاصطناعي التوليدي

هي إحدى إمكانات النماذج التي تتيح لها تعديل سلوكها استجابةً لإدخال نص عشوائي (طلبات). في نموذج التعلّم النموذجي المستند إلى الطلبات، يستجيب النموذج اللغوي الكبير لطلب من خلال إنشاء نص. على سبيل المثال، لنفترض أنّ المستخدم يُدخل الطلب التالي:

تلخيص قانون نيوتن الثالث للحركة.

لا يتم تدريب النموذج القادر على التعلّم المستند إلى الطلبات بشكل خاص للإجابة عن الطلب السابق. بدلاً من ذلك، "يعرف" النموذج الكثير من الحقائق حول الفيزياء، والكثير حول قواعد اللغة العامة، والكثير حول ما يشكّل إجابات مفيدة بشكل عام. هذه المعرفة كافية لتقديم إجابة (نأمل أن تكون) مفيدة. تتيح الملاحظات الإضافية من المستخدمين ("كانت الإجابة معقّدة جدًا" أو "ما هي التفاعلات؟") لبعض أنظمة التعلّم المستندة إلى الطلبات تحسين فائدة إجاباتها تدريجيًا.

التصميم الفوري

#الذكاء الاصطناعي التوليدي

مرادف لـالهندسة السريعة.

الهندسة السريعة

#الذكاء الاصطناعي التوليدي

فن إنشاء طلبات تؤدي إلى الحصول على ردود مرغوبة من نموذج لغوي كبير يُجري البشر عملية هندسة الطلبات. تُعد كتابة طلبات منظَّمة بشكل جيد جزءًا أساسيًا من ضمان الحصول على ردود مفيدة من نموذج لغوي كبير. تعتمد هندسة الطلبات على العديد من العوامل، بما في ذلك:

التصميم الفوري هو مرادف للهندسة السريعة.

راجع مقدمة حول تصميم المطالبات للحصول على مزيد من التفاصيل حول كتابة المطالبات المفيدة.

مجموعة المطالبات

#الذكاء الاصطناعي التوليدي

مجموعة من الطلبات لتقييم نموذج لغوي كبير على سبيل المثال، يوضّح الرسم التوضيحي التالي مجموعة طلبات تتألف من ثلاثة طلبات:

تؤدي ثلاثة طلبات إلى نموذج لغوي كبير إلى إنشاء ثلاثة ردود. تشكّل المطالبات الثلاث
          مجموعة المطالبات. تشكّل الردود الثلاثة مجموعة الردود.

تتألف مجموعات الطلبات الجيدة من مجموعة "واسعة" بما يكفي من الطلبات لتقييم سلامة النماذج اللغوية الكبيرة ومدى فائدتها بشكل شامل.

انظر أيضامجموعة الاستجابة.

تعديل الطلبات

#الذكاء الاصطناعي التوليدي

أ ضبط المعلمات بكفاءة آلية تتعلم "البادئة" التي يضيفها النظام إلى العملية الفعلية اِسْتَدْعَى.

إحدى طرق تعديل الطلبات، والتي تُعرف أحيانًا باسم تعديل البادئة، هي إضافة البادئة في كل طبقة. في المقابل، لا يضيف معظم عمليات تحسين الطلبات سوى بادئة إلى طبقة الإدخال.

الوكيل (السمات الحسّاسة)

#responsible
سمة مستخدَمة كبديل عن سمة حساسة على سبيل المثال، يمكن استخدام الرمز البريدي الخاص بفرد كبديل للدخل أو العِرق أو الأصل الإثني.

تصنيفات تقريبية

#fundamentals

البيانات المستخدَمة لتقريب التصنيفات غير المتوفّرة مباشرةً في مجموعة البيانات

على سبيل المثال، لنفترض أنّه عليك تدريب نموذج للتنبؤ بمستوى الإجهاد لدى الموظفين. تحتوي مجموعة البيانات على الكثير من الميزات التنبؤية، ولكنها لا تتضمّن تصنيفًا باسم مستوى التوتر. لم يثنِك ذلك، فاخترت "حوادث في مكان العمل" كبديل لمستوى التوتر. ففي النهاية، يتعرّض الموظفون الذين يعانون من ضغط كبير إلى حوادث أكثر من الموظفين الذين يتمتعون بالهدوء. أم أنهم يفعلون ذلك؟ ربما ترتفع وتنخفض حوادث مكان العمل بالفعل لأسباب متعددة.

كمثال ثانٍ، لنفترض أنّك تريد أن يكون هل تمطر؟ تصنيفًا منطقيًا لمجموعة البيانات، ولكنّ مجموعة البيانات لا تحتوي على بيانات عن المطر. إذا كانت الصور الفوتوغرافية متوفرة، يمكنك إنشاء تصنيف بديل لـ هل تمطر؟ من خلال صور لأشخاص يحملون مظلات. هل هذا تصنيف تقريبي جيد؟ من المحتمل ذلك، ولكن قد يميل الأشخاص في بعض الثقافات إلى حمل المظلات للحماية من الشمس أكثر من الحماية من المطر.

غالبًا ما تكون علامات الوكيل غير كاملة. عند الإمكان، اختَر التصنيفات الفعلية بدلاً من التصنيفات البديلة. مع ذلك، عندما تكون العلامة الفعلية غائبة، اختر علامة الوكيل بعناية شديدة، واختر أقل علامة وكيل مرشحة سيئة.

راجع مجموعات البيانات: العلامات في الدورة التدريبية المكثفة حول التعلم الآلي للحصول على مزيد من المعلومات.

وظيفة نقية

وظيفة تعتمد مخرجاتها فقط على مدخلاتها، وليس لها أي آثار جانبية. على وجه التحديد، لا تستخدم الدالة الخالصة أي حالة عالمية أو تغيرها، مثل محتويات الملف أو قيمة متغير خارج الدالة.

يمكن استخدام الوظائف النقية لإنشاء كود آمن للخيوط، وهو أمر مفيد عند التجزئة نموذج الكود عبر عدة رقائق التسريع.

تتطلّب طرق تحويل الدوال في JAX أن تكون الدوال المُدخَلة دوالاً خالصة.

Q

دالة Q

في التعلم المعزز، الدالة التي تتوقّع العائد المتوقّع من اتّخاذ إجراء في حالة معيّنة ثم اتّباع سياسة معيّنة.

تُعرف دالة Q أيضًا باسم دالة قيمة حالة الإجراء.

التعلم Q

في التعلم المعزز، يتم استخدام خوارزمية تتيح للعامل تعلم دالة Q المثالية لعملية اتخاذ قرار ماركوف من خلال تطبيق معادلة بيلمان. تضع نماذج عملية اتخاذ القرار في ماركوف بيئة.

التجزيء

كل مجموعة في تقسيم البيانات إلى شرائح حسب الكمية

تقسيم البيانات إلى حزمات حسب الكمية

توزيع قيم الميزة فيدلاء بحيث يحتوي كل دلو على نفس العدد (أو تقريبًا نفس العدد) من الأمثلة. على سبيل المثال، يقسم الشكل التالي 44 نقطة إلى 4 مجموعات، تحتوي كل منها على 11 نقطة. ولكي يحتوي كل جزء في الشكل على العدد نفسه من النقاط، يمتد بعض الأجزاء على عرض مختلف من قيم x.

44 نقطة بيانات مقسمة إلى 4 مجموعات تحتوي كل منها على 11 نقطة.
          على الرغم من أنّ كل مجموعة تحتوي على العدد نفسه من نقاط البيانات،
          تحتوي بعض المجموعات على نطاق أوسع من قيم السمات مقارنةً بالمجموعات الأخرى.

لمزيد من المعلومات، يمكنك الاطّلاع على البيانات الرقمية: التقسيم إلى فئات في "دورة مكثّفة عن تعلُّم الآلة".

التقطيع

مصطلح محمل بشكل زائد يمكن استخدامه بأي من الطرق التالية:

  • تنفيذ تقسيم البيانات إلى فئات حسب الكمية على ميزة معيّنة
  • تحويل البيانات إلى أصفار وآحاد لتسريع عمليات التخزين والتدريب والاستنتاج بما أنّ البيانات المنطقية أكثر مقاومة للتشويش والأخطاء من التنسيقات الأخرى، يمكن أن يؤدي التكميم إلى تحسين صحة النموذج. تشمل تقنيات التكميم التقريب والاقتطاع والتصنيف.
  • تقليل عدد وحدات البت المستخدَمة لتخزين المَعلمات الخاصة بنموذج على سبيل المثال، لنفترض أنّ مَعلمات أحد النماذج يتم تخزينها كأرقام نقطة عائمة 32 بت. يحوّل التكميم هذه المَعلمات من 32 بت إلى 4 أو 8 أو 16 بت. يؤدي التكميم إلى تقليل ما يلي:

    • استخدام الحوسبة والذاكرة والقرص والشبكة
    • حان الوقت لاستنتاج التنبؤ
    • استهلاك الطاقة

    ومع ذلك، فإن التكميم يؤدي في بعض الأحيان إلى تقليل صحة تنبؤات النموذج.

قائمة المحتوى التالي

#TensorFlow

TensorFlowعملية الذي ينفذ بنية بيانات قائمة الانتظار. تستخدم عادة في الإدخال/الإخراج.

R

التوليد المعزّز بالاسترجاع (RAG)

#fundamentals

اختصار التوليد المعزّز بالاسترجاع

الغابة العشوائية

#df

مجموعة من أشجار القرارات يتم تدريب كل شجرة قرارات فيها باستخدام ضوضاء عشوائية محددة، مثل التجميع

الغابات العشوائية هي نوع من غابات القرارات.

يمكنك الاطّلاع على الغابة العشوائية في دورة "غابات القرارات" للحصول على مزيد من المعلومات.

سياسة عشوائية

في التعلم المعزّز، سياسة تختار إجراءً بشكل عشوائي.

الرتبة (الترتيب)

الموضع الترتيبي للفئة في مشكلة التعلم الآلي التي تصنف الفئات من الأعلى إلى الأدنى. على سبيل المثال، قد يقوم نظام تصنيف السلوك بتصنيف مكافآت الكلب من الأعلى (شريحة لحم) إلى الأدنى (الكرنب الذابل).

الرتبة (الموتر)

#تينسورفلو

عدد الأبعاد فيTensor. على سبيل المثال، يحتوي المقياس على الرتبة 0، ويحتوي المتجه على الرتبة 1، وتحتوي المصفوفة على الرتبة 2.

يجب عدم الخلط بينها وبين الترتيب (الترتيب التسلسلي).

تصنيف

نوع من التعلّم الموجّه يهدف إلى ترتيب قائمة من العناصر.

مُصنِّف

#fundamentals

هو شخص يقدّم تصنيفات لأمثلة. "المُعلق" هو اسم آخر للمُقيِّم.

لمزيد من المعلومات، يمكنك الاطّلاع على البيانات الفئوية: المشاكل الشائعة في "دورة تدريبية مكثّفة حول تعلُّم الآلة".

تذكُّر الإعلان

#fundamentals
#متري

مقياس لنماذج التصنيف يجيب عن السؤال التالي:

عندما كانت الحقيقة الأساسية هي الفئة الموجبة، ما هي النسبة المئوية للتوقّعات التي حدّدها النموذج بشكل صحيح على أنّها الفئة الموجبة؟

في ما يلي الصيغة:

\[\text{Recall} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}} \]

where:

  • تعني القيمة الإيجابية الحقيقية أن النموذج تنبأ بشكل صحيح بالفئة الإيجابية.
  • تعني النتيجة السلبية الخاطئة أن النموذجعن طريق الخطأ تنبأفئة سلبية.

على سبيل المثال، لنفترض أنّ نموذجك قدّم 200 توقّع بشأن أمثلة كانت الحقيقة الأساسية فيها هي الفئة الموجبة. من بين هذه التوقعات الـ 200:

  • كانت 180 منها نتائج موجبة صحيحة.
  • كانت 20 منها نتائج سلبية خاطئة.

في هذه الحالة:

\[\text{Recall} = \frac{\text{180}} {\text{180} + \text{20}} = 0.9 \]

راجع التصنيف: الدقة، والتذكر، والدقة، والمقاييس ذات الصلة لمزيد من المعلومات.

استدعاء عند k (استدعاء@k)

#متري

مقياس لتقييم الأنظمة التي تنتج قائمة مرتبة (مرتبة) من العناصر. يحدد الاستدعاء عند k نسبة العناصر ذات الصلة في أول k عنصر في تلك القائمة من إجمالي عدد العناصر ذات الصلة التي تم إرجاعها.

\[\text{recall at k} = \frac{\text{relevant items in first k items of the list}} {\text{total number of relevant items in the list}}\]

التباين مع الدقة عند k

نظام الاقتراحات

نظام يختار لكل مستخدم مجموعة صغيرة نسبيًا من العناصر المرغوبة من مجموعة كبيرة من النصوص. على سبيل المثال، قد يقترح نظام اقتراح الفيديوهات فيديوهَين من مجموعة تضم 100,000 فيديو، فيختار كازابلانكا وقصة فيلادلفيا لمستخدم واحد، والمرأة الخارقة والنمر الأسود لمستخدم آخر. قد يستند نظام اقتراح الفيديوهات إلى عوامل مثل:

  • الأفلام التي قام مستخدمون مشابهون بتقييمها أو مشاهدتها.
  • النوع، المخرجين، الممثلين، الفئة السكانية المستهدفة...

راجع دورة أنظمة التوصية للحصول على مزيد من المعلومات.

وحدة خطية مصححة (ReLU)

#fundamentals

دالة تنشيط ذات السلوك التالي:

  • إذا كان الإدخال سلبيًا أو صفرًا، فسيكون الإخراج 0.
  • إذا كان الإدخال موجبًا، فإن الإخراج يساوي الإدخال.

على سبيل المثال:

  • إذا كان المدخل -3، يكون الناتج 0.
  • إذا كان الإدخال هو +3، فإن الإخراج هو 3.0.

فيما يلي مخطط ReLU:

مخطط ديكارتي لخطين يحتوي السطر الأول على قيمة y ثابتة تساوي 0، ويمتد على طول المحور x من -infinity,0 إلى 0,-0.
          يبدأ السطر الثاني عند النقطة 0,0. ميل هذا الخط هو 1+، لذا
          يمتد من 0,0 إلى +infinity,+infinity.

ReLU هي وظيفة تنشيط شائعة جدًا. على الرغم من سلوكها البسيط، لا تزال ReLU تمكن الشبكة العصبية من التعلم غير خطي العلاقات بين سمات و ال ملصق.

الشبكة العصبية المتكررة

الشبكة العصبية التي يتم تشغيلها عمدًا عدة مرات، حيث يتم إدخال أجزاء من كل عملية تشغيل في عملية التشغيل التالية. على وجه التحديد، توفّر الطبقات المخفية من عملية التشغيل السابقة جزءًا من الإدخال إلى الطبقة المخفية نفسها في عملية التشغيل التالية. تُعدّ الشبكات العصبونية المتكرّرة مفيدة بشكل خاص في تقييم التسلسلات، ما يتيح للطبقات المخفية التعلّم من عمليات التشغيل السابقة للشبكة العصبونية على الأجزاء السابقة من التسلسل.

على سبيل المثال، يوضح الشكل التالي شبكة عصبية متكررة تعمل أربع مرات. لاحظ أن القيم التي تم تعلمها في الطبقات المخفية من التشغيل الأول تصبح جزءًا من الإدخال لنفس الطبقات المخفية في التشغيل الثاني. وبنفس الطريقة، تصبح القيم التي تم تعلمها في الطبقة المخفية في التشغيل الثاني جزءًا من الإدخال إلى نفس الطبقة المخفية في التشغيل الثالث. بهذه الطريقة، يتم تدريب الشبكة العصبية المتكررة تدريجيًا، كما تتوقّع معنى التسلسل بأكمله بدلاً من معنى الكلمات الفردية فقط.

شبكة عصبية متكررة (RNN) يتم تشغيلها أربع مرات لمعالجة أربع كلمات إدخال

نص مرجعي

#الذكاء الاصطناعي التوليدي

رد الخبير علىاِسْتَدْعَى. على سبيل المثال، بالنظر إلى المطالبة التالية:

ترجِم السؤال "ما اسمك؟" من الإنجليزية إلى الفرنسية.

قد يكون ردّ الخبير على النحو التالي:

Comment vous appelez-vous?

مقاييس مختلفة (مثل أحمر الشفاه ) قياس الدرجة التي يتطابق بها النص المرجعي مع نموذج التعلم الآلي النص المُولَّد.

التأمّل

#generativeAI

استراتيجية لتحسين جودةسير العمل الوكيل من خلال فحص (التأمل) في مخرجات الخطوة قبل تمرير تلك المخرجات إلى الخطوة التالية.

غالبًا ما يكون المدقّق هو LLM نفسه الذي أنشأ الرد (مع أنّه يمكن أن يكون نموذجًا لغويًا كبيرًا مختلفًا). كيف يمكن للنموذج اللغوي الكبير نفسه الذي أنشأ الرد أن يكون حكمًا عادلاً على رده؟ يكمن "الحل" في وضع النموذج اللغوي الكبير في حالة ذهنية نقدية (تأملية). هذه العملية تشبه الكاتب الذي يستخدم عقلية إبداعية لكتابة مسودة أولى ثم ينتقل إلى عقلية نقدية لتحريرها.

على سبيل المثال، تخيل سير عمل وكيل تكون خطوته الأولى هي إنشاء نص لأكواب القهوة. قد يكون الموجه لهذه الخطوة هو:

أنت مبدع. إنشاء نص أصلي فكاهي يتكون من أقل من 50 حرفًا مناسبًا لكوب القهوة.

الآن تخيل المطالبة التأملية التالية:

أنت من محبّي القهوة. هل تجد الردّ السابق مضحكًا؟

وقد يقوم سير العمل بعد ذلك فقط بتمرير النص الذي يحصل على درجة انعكاس عالية إلى المرحلة التالية.

نموذج الانحدار

#fundamentals

بشكل غير رسمي، هو نموذج ينشئ توقّعًا رقميًا. (في المقابل، ينشئ نموذج التصنيف توقعًا للفئة). على سبيل المثال، كل ما يلي نماذج انحدار:

  • نموذج يتنبأ بقيمة منزل معين باليورو، مثل 423,000.
  • نموذج يتنبأ بمتوسط عمر شجرة معينة بالسنوات، مثل 23.2.
  • نموذج يتوقّع كمية الأمطار التي ستتساقط بالبوصة في مدينة معيّنة خلال الساعات الست القادمة، مثل 0.18.

في ما يلي نوعان شائعان من نماذج الانحدار:

  • الانحدار الخطي: يجد هذا النموذج الخط الذي يطابق قيم التصنيفات مع الميزات على أفضل وجه.
  • الانحدار اللوجستي، الذي ينشئ احتمالية تتراوح بين 0.0 و1.0، ثم يربطها النظام عادةً بتوقّع فئة.

ليس كل نموذج يعرض توقّعات عددية هو نموذج انحدار. في بعض الحالات، يكون التوقّع الرقمي مجرّد نموذج تصنيف يحتوي على أسماء فئات رقمية. على سبيل المثال، النموذج الذي يتوقّع رمزًا بريديًا رقميًا هو نموذج تصنيف، وليس نموذج انحدار.

التنظيم

#fundamentals

أي آلية تقلّل من التطابق الزائد تشمل الأنواع الشائعة من التسوية ما يلي:

يمكن أيضًا تعريف التسوية على أنّها عقوبة على تعقيد النموذج.

لمزيد من المعلومات، يُرجى الاطّلاع على الإفراط في التكيّف: تعقيد النموذج في &quot;الدورة التدريبية المكثّفة حول تعلُّم الآلة&quot;.

معدل التنظيم

#fundamentals

رقم يحدّد الأهمية النسبية للتسوية أثناء التدريب. رفع معدل التسوية يقللالإفراط في التجهيز ولكن قد يقلل ذلك من القدرة التنبؤية للنموذج. وعلى العكس من ذلك، فإن تقليل أو حذف معدل التنظيم يؤدي إلى زيادة الإفراط في التجهيز.

راجع الإفراط في التجهيز: التنظيم L2 في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

التعلّم المعزّز (RL)

هي مجموعة من الخوارزميات التي تتعلّم سياسة مثالية، هدفها زيادة العائد عند التفاعل مع بيئة. على سبيل المثال، المكافأة النهائية في معظم الألعاب هي الفوز. يمكن أن تصبح أنظمة التعلّم المعزّز خبيرة في لعب الألعاب المعقّدة من خلال تقييم تسلسلات حركات الألعاب السابقة التي أدّت في النهاية إلى الفوز، وتسلسلات الحركات التي أدّت في النهاية إلى الخسارة.

التعلّم المعزّز من الردود البشرية (RLHF)

#الذكاء الاصطناعي التوليدي

استخدام ردود الفعل من المصنفين البشريين لتحسين جودة النموذجالاستجابات. على سبيل المثال، يمكن لآلية RLHF أن تطلب من المستخدمين تقييم جودة ردّ النموذج باستخدام إيموجي 👍 أو 👎. ويستطيع النظام بعد ذلك تعديل استجاباته المستقبلية استنادًا إلى تلك الملاحظات.

ReLU

#fundamentals

اختصار وحدة خطية مصحَّحة

مخزن إعادة التشغيل

في DQN - مثل الخوارزميات، الذاكرة التي يستخدمها العميل لتخزين انتقالات الحالة لاستخدامها في إعادة تجربة.

نسخة مطابقة

نسخة (أو جزء منها) من مجموعة التدريب أو نموذج ، يتم تخزينها عادة على جهاز آخر. على سبيل المثال، يمكن للنظام استخدام الاستراتيجية التالية لتنفيذالتوازي في البيانات:

  1. وضع نسخ طبق الأصل من نموذج موجود على أجهزة متعددة.
  2. إرسال مجموعات فرعية مختلفة من مجموعة التدريب إلى كل نسخة متماثلة.
  3. تجميعالمعلمة التحديثات.

يمكن أن تشير النسخة المتطابقة أيضًا إلى نسخة أخرى من خادم الاستدلال. تؤدي زيادة عدد النسخ المتماثلة إلى زيادة عدد الطلبات التي يمكن للنظام معالجتها في وقت واحد، ولكنها تؤدي أيضًا إلى زيادة تكاليف العرض.

تحيز التقارير

#responsible

إنّ معدّل تكرار كتابة الأشخاص عن إجراءات أو نتائج أو سمات معيّنة لا يعكس معدّل تكرارها في العالم الحقيقي أو مدى ارتباط سمة معيّنة بفئة من الأفراد. يمكن أن يؤثّر التحيز في إعداد التقارير في تركيبة البيانات التي تتعلّم منها أنظمة تعلُّم الآلة.

على سبيل المثال، في الكتب، كلمة ضحك أكثر انتشارًا من كلمة تنفس. من المحتمل أن يحدد نموذج التعلم الآلي الذي يقدر التردد النسبي للضحك والتنفس من مجموعة كتب أن الضحك أكثر شيوعًا من التنفس.

راجع العدالة: أنواع التحيز في الدورة التدريبية المكثفة حول التعلم الآلي للحصول على مزيد من المعلومات.

التمثيل

عملية تعيين البيانات إلى مصادر مفيدةسمات.

إعادة التصنيف

المرحلة النهائية مننظام التوصية ، حيث قد يتم إعادة تصنيف العناصر المسجلة وفقًا لبعض الخوارزميات الأخرى (عادةً غير خوارزمية التعلم الآلي). يقوم إعادة الترتيب بتقييم قائمة العناصر التي تم إنشاؤها بواسطةالتسجيل المرحلة، اتخاذ إجراءات مثل:

  • استبعاد العناصر التي سبق أن اشتراها المستخدم
  • تعزيز نتائج العناصر الأحدث

راجع إعادة الترتيب في دورة أنظمة التوصية للحصول على مزيد من المعلومات.

رد

#generativeAI

النص أو الصور أو الصوت أو الفيديو الذي الذكاء الاصطناعي التوليدي نموذج يستنتج. وبعبارة أخرى،اِسْتَدْعَى هو مدخل إلى نموذج الذكاء الاصطناعي التوليدي والاستجابة هي الناتج.

مجموعة الردود

#الذكاء الاصطناعي التوليدي

مجموعة من الاستجابات أ نموذج اللغة الكبير يعود إلى الإدخال مجموعة المطالبات.

التوليد المعزّز بالاسترجاع (RAG)

#fundamentals

تقنية لتحسين الجودةنموذج اللغة الكبيرة (LLM) الإخراج عن طريق تأريضه بمصادر المعرفة المسترجعة بعد تدريب النموذج. RAG يحسن دقة LLMالاستجابات من خلال توفير إمكانية الوصول إلى المعلومات المسترجعة من قواعد المعرفة أو الوثائق الموثوقة لطلاب الماجستير المدربين.

تشمل الدوافع الشائعة لاستخدام الجيل المعزز بالاسترجاع ما يلي:

  • زيادة الدقة الواقعية للردود التي ينشئها النموذج
  • منح النموذج إذن الوصول إلى معلومات لم يتم تدريبه عليها
  • تغيير المعرفة التي يستخدمها النموذج.
  • تمكين النموذج من الاستشهاد بالمصادر.

على سبيل المثال، لنفترض أنّ تطبيقًا للكيمياء يستخدم واجهة برمجة التطبيقات PaLM لإنشاء ملخّصات ذات صلة بطلبات بحث المستخدمين. عندما يتلقّى الخلفية في التطبيق طلب بحث، تقوم الخلفية بما يلي:

  1. يبحث عن ("يستعيد") البيانات ذات الصلة باستعلام المستخدم.
  2. يضيف ("يزيد") بيانات الكيمياء ذات الصلة إلى استعلام المستخدم.
  3. يطلب من LLM إنشاء ملخص بناءً على البيانات المرفقة.

العودة

في التعلم التعزيزي، مع الأخذ في الاعتبار سياسة معينة وحالة معينة، فإن العائد هو مجموع كل المكافآت أن عامل يتوقع أن يتلقى عند اتباعه سياسة من ولاية إلى نهاية حلقة. يأخذ الوكيل في الاعتبار الطبيعة المتأخرة للمكافآت المتوقعة من خلال خصم المكافآت وفقًا لانتقالات الحالة المطلوبة للحصول على المكافأة.

لذلك، إذا كان عامل الخصم هو \(\gamma\)، و \(r_0, \ldots, r_{N}\)يشير إلى المكافآت حتى نهاية الحلقة، فسيكون حساب العائد كما يلي:

$$\text{Return} = r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots + \gamma^{N-1} r_{N-1}$$

مكافأة

في التعلم التعزيزي، النتيجة العددية لأخذ فعل في ولاية ، كما هو محدد في بيئة.

التسوية التربيعية

مرادف لـل2 التنظيم. يُستخدَم مصطلح التسوية باستخدام الانحدار الحدي بشكل متكرر أكثر في سياقات الإحصاء البحت، بينما يُستخدَم مصطلح التسوية باستخدام 2 بشكل متكرر أكثر في سياقات التعلم الآلي.

RNN

اختصار لـالشبكات العصبية المتكررة.

منحنى ROC (خصائص تشغيل جهاز الاستقبال)

#fundamentals
#متري

رسم بياني لـ معدل إيجابي حقيقي عكس معدل الإيجابيات الكاذبة لمختلف عتبات التصنيف في التصنيف الثنائي.

يشير شكل منحنى ROC إلى قدرة نموذج التصنيف الثنائي على فصل الفئات الإيجابية عن الفئات السلبية. على سبيل المثال، لنفترض أن نموذج التصنيف الثنائي يفصل تمامًا جميع الفئات السلبية عن جميع الفئات الإيجابية:

خط أعداد يحتوي على 8 أمثلة إيجابية على الجانب الأيمن و 7 أمثلة سلبية على الجانب الأيسر.

يبدو منحنى ROC للنموذج السابق على النحو التالي:

منحنى ROC. المحور x هو معدل الإيجابيات الكاذبة والمحور y هو معدل الإيجابيات الحقيقية. المنحنى له شكل حرف L مقلوب. يبدأ المنحنى عند (0.0,0.0) ويستمر بشكل مستقيم حتى (0.0,1.0). ثم ينتقل المنحنى من (0.0,1.0) إلى (1.0,1.0).

على النقيض من ذلك، يوضح الرسم التوضيحي التالي قيم الانحدار اللوجستي الخام لنموذج رهيب لا يستطيع فصل الفئات السلبية عن الفئات الإيجابية على الإطلاق:

خط أعداد يتضمّن أمثلة إيجابية وفئات سلبية مختلطة تمامًا.

يبدو منحنى ROC لهذا النموذج على النحو التالي:

منحنى ROC، وهو في الواقع خط مستقيم من (0.0,0.0) إلى (1.0,1.0).

في الوقت نفسه، في العالم الحقيقي، تفصل معظم نماذج التصنيف الثنائي بين الفئات الإيجابية والسلبية إلى حد ما، ولكن ليس بشكل مثالي عادةً. لذا، يقع منحنى ROC النموذجي في مكان ما بين الحدّين الأقصىين:

منحنى ROC يمثّل المحور الأفقي معدّل الموجب الخاطئ، ويمثّل المحور العمودي معدّل الموجب الصحيح. يقترب منحنى ROC من قوس متذبذب
          يمر بنقاط البوصلة من الغرب إلى الشمال.

تحدّد النقطة الأقرب إلى (0.0,1.0) على منحنى ROC نظريًا عتبة التصنيف المثالية. ومع ذلك، تؤثر عدة مشاكل أخرى من العالم الحقيقي في اختيار الحد المثالي للتصنيف. على سبيل المثال، قد تتسبّب النتائج السلبية الخاطئة في مشاكل أكثر بكثير من النتائج الإيجابية الخاطئة.

مقياس رقمي يسمىAUC يلخص منحنى ROC في قيمة فاصلة عائمة واحدة.

التلقين حسب الدور

#الذكاء الاصطناعي التوليدي

أ اِسْتَدْعَى ، وعادة ما تبدأ بالضمير أنت ، الذي يخبرنا الذكاء الاصطناعي التوليدي نموذج للتظاهر بأنه شخص معين أو دور معين عند إنشاء إجابة. يمكن أن يساعد تحديد الدور في الطلب نموذج الذكاء الاصطناعي التوليدي في التفكير بطريقة صحيحة لإنشاء ردّ أكثر فائدة. على سبيل المثال، قد يكون أي من مطالبات الدور التالية مناسبًا اعتمادًا على نوع الاستجابة التي تبحث عنها:

لقد حصلت على درجة الدكتوراه في علوم الكمبيوتر.

أنت مهندس برمجيات يستمتع بتقديم تفسيرات صبور حول Python لطلاب البرمجة الجدد.

أنت بطل أكشن يتمتع بمجموعة معينة جدًا من مهارات البرمجة. أكد لي أنك ستجد عنصرًا معينًا في قائمة Python.

الجذر

#df

البداية العقدة (الأول حالة ) في شجرة القرار. حسب الاتفاقية، تضع المخططات الجذر في أعلى شجرة القرار. على سبيل المثال:

شجرة قرار تحتوي على شرطين وثلاث أوراق. الشرط الابتدائي (x > 2) هو الجذر.

الدليل الجذري

#TensorFlow

الدليل الذي تحدده لاستضافة الدلائل الفرعية لملفات نقطة تفتيش TensorFlow وأحداث نماذج متعددة.

خطأ الجذر التربيعي المتوسط (RMSE)

#fundamentals
#Metric

الجذر التربيعي لـخطأ متوسط التربيع.

ثبات الدوران

في مشكلة تصنيف الصور، تشير إلى قدرة الخوارزمية على تصنيف الصور بنجاح حتى عند تغيير اتجاه الصورة. على سبيل المثال، يمكن للخوارزمية التعرّف على مضرب تنس سواء كان متجهًا للأعلى أو للجانب أو للأسفل. يُرجى العِلم أنّ الثبات الدوراني ليس مرغوبًا فيه دائمًا، فمثلاً، لا يجب تصنيف الرقم 9 المقلوب على أنّه 9.

انظر أيضا الثبات الترجمي و ثبات الحجم.

ROUGE (طالب موجه نحو التذكير لتقييم التعلم)

#Metric

مجموعة من المقاييس التي تقيّم نماذج التلخيص التلقائي والترجمة الآلية. تحدّد مقاييس ROUGE مدى تطابق النص المرجعي مع النص الذي أنشأه نموذج تعلُّم الآلة. يقيس كل مقياس من مقاييس عائلة ROUGE التداخل بطريقة مختلفة. تشير نتائج ROUGE الأعلى إلى تشابه أكبر بين النص المرجعي والنص الذي تم إنشاؤه مقارنةً بنتائج ROUGE الأقل.

يقوم كل عضو في عائلة ROUGE عادةً بإنشاء المقاييس التالية:

  • الدقة
  • التذكُّر
  • F1

للتفاصيل والأمثلة، انظر:

ROUGE-L

#Metric

أحد مقاييس عائلة ROUGE، وهو يركّز على طول أطول تسلسل فرعي مشترك في النص المرجعي والنص الذي تم إنشاؤه. تحسب الصيغ التالية الاستدعاء والدقة لـ ROUGE-L:

$$\text{ROUGE-L recall} = \frac{\text{longest common sequence}} {\text{number of words in the reference text} }$$
$$\text{ROUGE-L precision} = \frac{\text{longest common sequence}} {\text{number of words in the generated text} }$$

يمكنك بعد ذلك استخدامف1 لتجميع استدعاء ROUGE-L ودقة ROUGE-L في مقياس واحد:

$$\text{ROUGE-L F} {_1} = \frac{\text{2} * \text{ROUGE-L recall} * \text{ROUGE-L precision}} {\text{ROUGE-L recall} + \text{ROUGE-L precision} }$$

تتجاهل مقياس ROUGE-L أي أسطر جديدة في النص المرجعي والنص الذي تم إنشاؤه، لذا يمكن أن يتضمّن أطول تسلسل فرعي مشترك عدة جمل. عندما يتضمن النص المرجعي والنص المُولَّد جملًا متعددة، فإن أحد أشكال ROUGE-L المسمى ROUGE-Lsum يكون مقياسًا أفضل بشكل عام. تحدد دالة ROUGE-Lsum أطول تسلسل فرعي مشترك لكل جملة في مقطع ما، ثم تحسب متوسط أطول تسلسلات فرعية مشتركة.

روج-ن

#Metric

مجموعة من المقاييس داخل أحمر الشفاه عائلة تقارن بين N-grams المشتركة بحجم معين في نص مرجعي و النص المُولَّد. على سبيل المثال:

  • يقيس ROUGE-1 عدد الرموز المشتركة في النص المرجعي والنص المُولَّد.
  • روج-2 يقيس عدد المشتركين ثنائيات (2 جرام) في النص المرجعي والنص المُولّد.
  • روج-3 يقيس عدد المشتركين ثلاثيات (3 جرام) في النص المرجعي والنص المُولّد.

يمكنك استخدام الصيغ التالية لحساب استدعاء ROUGE-N ودقة ROUGE-N لأي عضو من عائلة ROUGE-N:

$$\text{ROUGE-N recall} = \frac{\text{number of matching N-grams}} {\text{number of N-grams in the reference text} }$$
$$\text{ROUGE-N precision} = \frac{\text{number of matching N-grams}} {\text{number of N-grams in the generated text} }$$

يمكنك بعد ذلك استخدامف1 لتجميع استدعاء ROUGE-N ودقة ROUGE-N في مقياس واحد:

$$\text{ROUGE-N F}{_1} = \frac{\text{2} * \text{ROUGE-N recall} * \text{ROUGE-N precision}} {\text{ROUGE-N recall} + \text{ROUGE-N precision} }$$

روج-إس

#Metric

شكل من أشكال ROUGE-N يتيح مطابقة skip-gram. أي أنّ مقياس ROUGE-N لا يحتسب سوى N-grams التي تتطابق تمامًا، ولكن مقياس ROUGE-S يحتسب أيضًا N-grams التي تفصل بينها كلمة واحدة أو أكثر. على سبيل المثال، يمكنك القيام بما يلي:

عند احتساب مقياس ROUGE-N، لا يتطابق المقطع الثنائي غيوم بيضاء مع غيوم بيضاء متراكمة. ومع ذلك، عند احتساب مقياس ROUGE-S، تتطابق السحب البيضاء مع السحب البيضاء المتراكمة.

معامل التحديد

#متري

أ الانحدار مقياس يشير إلى مقدار التباين في ملصق يرجع ذلك إلى ميزة فردية أو إلى مجموعة ميزات. R-squared هي قيمة بين 0 و1، والتي يمكنك تفسيرها على النحو التالي:

  • إن قيمة R-squared تساوي 0، مما يعني أن أيًا من التغيرات في العلامة لا ترجع إلى مجموعة الميزات.
  • إن قيمة R-squared تساوي 1، مما يعني أن كل تباين في العلامة يرجع إلى مجموعة الميزات.
  • يشير معامل تحديد بين 0 و1 إلى مدى إمكانية توقّع التغيّر في التصنيف من ميزة معيّنة أو مجموعة ميزات. على سبيل المثال، يعني معامل التحديد البالغ 0.10 أنّ %10 من التباين في التصنيف يرجع إلى مجموعة الميزات، ويعني معامل التحديد البالغ 0.20 أنّ %20 من التباين يرجع إلى مجموعة الميزات، وهكذا.

R-squared هو مربعمعامل ارتباط بيرسون بين القيم التي تنبأ بها النموذج والحقيقة الأساسية.

S

تحيز العينة

#responsible

اطّلِع على الانحياز في الاختيار.

أخذ العينات مع الاستبدال

#df

طريقة لاختيار العناصر من مجموعة من العناصر المرشحة حيث يمكن اختيار نفس العنصر عدة مرات. تعني عبارة "مع الاستبدال" أنه بعد كل اختيار، يتم إرجاع العنصر المحدد إلى مجموعة العناصر المرشحة. أما الطريقة العكسية، أي جمع العيّنات بدون استبدال، فتعني أنّه لا يمكن اختيار عنصر مرشّح إلا مرة واحدة.

على سبيل المثال، ضع في اعتبارك مجموعة الفاكهة التالية:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

افترض أن النظام يختار عشوائيًا fig باعتباره العنصر الأول. إذا كنت تستخدم أخذ العينات مع الاستبدال، فسيختار النظام العنصر الثاني من المجموعة التالية:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

نعم، إنّها المجموعة نفسها كما في السابق، لذا قد يختار النظام fig مرة أخرى.

في حال استخدام أخذ العينات بدون استبدال، لا يمكن اختيار عينة مرة أخرى بعد اختيارها. على سبيل المثال، إذا اختار النظام عشوائيًا fig كأول عيّنة، لا يمكن اختيار fig مرة أخرى. لذلك، يختار النظام العيّنة الثانية من المجموعة التالية (المخفَّضة):

fruit = {kiwi, apple, pear, cherry, lime, mango}

SavedModel

#تينسورفلو

التنسيق المقترَح لحفظ نماذج TensorFlow واستردادها ‫SavedModel هو تنسيق تسلسل قابل للاسترداد ومستقل عن اللغة، ما يتيح للأنظمة والأدوات ذات المستوى الأعلى إنشاء نماذج TensorFlow واستهلاكها وتحويلها.

راجع قسم الحفظ والاستعادة في دليل مبرمج TensorFlow للحصول على التفاصيل الكاملة.

موفّر

#تينسورفلو

عنصر TensorFlow المسؤول عن حفظ نقاط التحقّق من النموذج

الكمية القياسية

رقم واحد أو سلسلة واحدة يمكن تمثيلها على شكل موتر برتبة 0. على سبيل المثال، ينشئ كل سطر من سطور الرمز التالية قيمة عددية في TensorFlow:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)

القياس

أي تحويل أو أسلوب رياضي يغيّر نطاق تصنيف أو قيمة ميزة أو كليهما. بعض أشكال القياس مفيدة جدًا في عمليات التحويل، مثل التسوية.

تشمل أشكال القياس الشائعة والمفيدة في تعلُّم الآلة ما يلي:

  • القياس الخطي، والذي يستخدم عادةً مزيجًا من الطرح والقسمة لاستبدال القيمة الأصلية برقم بين -1 و+1 أو بين 0 و1.
  • القياس اللوغاريتمي، والذي يستبدل القيمة الأصلية باللوغاريتم الخاص بها.
  • تطبيع الدرجة Z ، والذي يستبدل القيمة الأصلية بقيمة فاصلة عائمة تمثل عدد الانحرافات المعيارية عن متوسط تلك الميزة.

scikit-learn

منصة شائعة مفتوحة المصدر لتعلُّم الآلة يمكنك الاطّلاع على scikit-learn.org.

تسجيل النتائج

#متري

الجزء من نظام التوصية الذي يوفر قيمة أو تصنيفًا لكل عنصر تم إنتاجه بواسطة جيل المرشحين مرحلة.

تحيز الاختيار

#responsible

أخطاء في الاستنتاجات المستخلَصة من البيانات المأخوذة من عيّنات بسبب عملية اختيار تؤدي إلى اختلافات منهجية بين العيّنات المرصودة في البيانات والعيّنات غير المرصودة تتوفّر أشكال التحيز في الاختيار التالية:

  • تحيز التغطية: لا يتطابق السكان الممثلون في مجموعة البيانات مع السكان الذين يتوقع نموذج التعلم الآلي حدوث ذلك.
  • تحيز العينة: لا يتم جمع البيانات بشكل عشوائي من المجموعة المستهدفة.
  • تحيز عدم الاستجابة (يُسمى أيضًا تحيز المشاركة): يختار المستخدمون من مجموعات معينة عدم المشاركة في الاستطلاعات بمعدلات مختلفة عن المستخدمين من مجموعات أخرى.

على سبيل المثال، لنفترض أنّك بصدد إنشاء نموذج تعلُّم آلي يتوقّع مدى استمتاع الأشخاص بفيلم معيّن. لجمع بيانات التدريب، توزّع استطلاعًا على كل شخص في الصف الأمامي من قاعة سينما تعرض الفيلم. قد تبدو هذه الطريقة معقولة لجمع مجموعة بيانات، ولكن قد يؤدي هذا النوع من جمع البيانات إلى حدوث أشكال التحيز التالية عند الاختيار:

  • تحيّز التغطية: من خلال أخذ عيّنات من مجموعة من الأشخاص الذين اختاروا مشاهدة الفيلم، قد لا تكون توقّعات نموذجك قابلة للتعميم على الأشخاص الذين لم يعبّروا عن هذا المستوى من الاهتمام بالفيلم.
  • تحيّز أخذ العيّنات: بدلاً من أخذ عيّنات عشوائية من المجموعة المستهدَفة (جميع الأشخاص في السينما)، أخذت عيّنات من الأشخاص في الصف الأمامي فقط. من المحتمل أنّ الأشخاص الجالسين في الصف الأمامي كانوا أكثر اهتمامًا بالفيلم من الأشخاص الجالسين في الصفوف الأخرى.
  • تحيّز عدم الاستجابة: بشكل عام، يميل الأشخاص الذين لديهم آراء قوية إلى الرد على الاستطلاعات الاختيارية بشكل متكرر أكثر من الأشخاص الذين لديهم آراء معتدلة. بما أنّ استطلاع الأفلام اختياري، من المرجّح أن تشكّل الردود توزيعًا ثنائي المنوال بدلاً من التوزيع الطبيعي (على شكل جرس).

الاهتمام الذاتي (يُسمى أيضًا طبقة الاهتمام الذاتي)

طبقة شبكة عصبية تعمل على تحويل تسلسل من التضمينات (على سبيل المثال،الرمز المميز تضمينات) في تسلسل آخر من التضمينات. يتم إنشاء كل تضمين في تسلسل الإخراج من خلال دمج المعلومات من عناصر تسلسل الإدخال من خلالانتباه آلية.

يشير جزء الاهتمام الذاتي في آلية الاهتمام الذاتي إلى تسلسل يهتم بنفسه بدلاً من سياق آخر. تُعدّ آلية الانتباه الذاتي إحدى اللبنات الأساسية في المحوّلات، وتستخدم مصطلحات البحث في القاموس، مثل "الاستعلام" و"المفتاح" و "القيمة".

تبدأ طبقة الانتباه الذاتي بسلسلة من تمثيلات الإدخال، تمثيل واحد لكل كلمة. يمكن أن يكون تمثيل الإدخال لكلمة عبارة عن تضمين بسيط. بالنسبة إلى كل كلمة في تسلسل الإدخال، تقيِّم الشبكة مدى صلة الكلمة بكل عنصر في التسلسل الكامل للكلمات. تحدّد نتائج الصلة مدى تضمين التمثيل النهائي للكلمة لتمثيلات الكلمات الأخرى.

على سبيل المثال، ضع في اعتبارك الجملة التالية:

لم يعبر الحيوان الشارع لأنّه كان متعبًا جدًا.

يوضح الرسم التوضيحي التالي (من Transformer: A Novel Neural Network Architecture for Language Understanding) نمط انتباه طبقة الاهتمام الذاتي للضمير it، مع الإشارة إلى مدى مساهمة كل كلمة في التمثيل.

تظهر الجملة التالية مرتين: لم يعبر الحيوان الشارع لأنّه كان متعبًا جدًا. تربط الخطوط الضمير it في إحدى الجمل بخمسة رموز (The وanimal وstreet وit والنقطة) في الجملة الأخرى. يكون الارتباط بين الضمير it والكلمة animal هو الأقوى.

تسلط طبقة الاهتمام الذاتي الضوء على الكلمات ذات الصلة بـ "ذلك". في هذه الحالة، تعلمت طبقة الانتباه كيفية تسليط الضوء على الكلمات التي قد تشير إليها it، مع تعيين أعلى وزن لـ animal.

لتسلسل من ن الرموز ، الاهتمام الذاتي يحول سلسلة من التضمينات ن أوقات منفصلة، مرة واحدة في كل موضع في التسلسل.

يمكنك أيضًا الرجوع إلى الانتباه والانتباه الذاتي المتعدد الرؤوس.

التعلّم الذاتي الموجَّه

مجموعة من الأساليب لتحويل مشكلة تعلُّم الآلة غير الموجَّه إلى مشكلة تعلُّم الآلة الموجَّه من خلال إنشاء تصنيفات بديلة من أمثلة غير مصنَّفة.

بعض محول - نماذج تعتمد على مثل بيرت استخدم التعلم الذاتي.

التدريب الخاضع للإشراف الذاتي هو نهج للتعلم شبه الخاضع للإشراف.

التدريب الذاتي

هي نوع من التعلّم الذاتي بإشراف جزئي، وتكون مفيدة بشكل خاص في حال استيفاء جميع الشروط التالية:

تعمل عملية التدريب الذاتي عن طريق التكرار على الخطوتين التاليتين حتى يتوقف النموذج عن التحسن:

  1. يستخدمالتعلم الآلي الخاضع للإشراف لتدريب النموذج على الأمثلة المسمىة.
  2. استخدِم النموذج الذي تم إنشاؤه في الخطوة 1 لإنشاء توقعات (تصنيفات) بشأن الأمثلة غير المصنَّفة، ونقِّل الأمثلة التي تتضمّن مستوى ثقة عاليًا إلى الأمثلة المصنَّفة مع التصنيف المتوقّع.

لاحظ أنّ كل تكرار للخطوة 2 يضيف المزيد من الأمثلة المصنّفة للخطوة 1 للتدريب عليها.

التعلم شبه الخاضع للإشراف

تدريب نموذج على البيانات حيث تحتوي بعض أمثلة التدريب على تسميات ولكن البعض الآخر لا يحتوي عليها. إحدى تقنيات التعلم شبه الخاضع للإشراف هي استنتاج العلامات للأمثلة غير المسمّاة، ثم التدريب على العلامات المستنتجة لإنشاء نموذج جديد. يمكن أن يكون التعلم شبه الخاضع للإشراف مفيدًا إذا كانت العلامات باهظة الثمن للحصول عليها ولكن الأمثلة غير المصنفة متوفرة بكثرة.

التدريب الذاتي هو إحدى تقنيات التعلّم شبه الموجَّه.

سمة حسّاسة

#responsible
سمة بشرية قد تُمنح اعتبارًا خاصًا لأسباب قانونية أو أخلاقية أو اجتماعية أو شخصية

تحليل المشاعر

استخدام خوارزميات التعلم الإحصائي أو الآلي لتحديد الموقف العام للمجموعة - إيجابيًا أو سلبيًا - تجاه خدمة أو منتج أو منظمة أو موضوع. على سبيل المثال، باستخدامفهم اللغة الطبيعية يمكن لخوارزمية أن تقوم بتحليل المشاعر على ردود الفعل النصية من دورة جامعية لتحديد مدى إعجاب الطلاب أو عدم إعجابهم بالدورة بشكل عام.

راجع دليل تصنيف النص للحصول على مزيد من المعلومات.

نموذج التسلسل

نموذج تعتمد مدخلاته على ترتيبها. على سبيل المثال، توقّع الفيديو التالي الذي سيشاهده المستخدم من سلسلة فيديوهات شاهدها سابقًا.

مهمة من تسلسل إلى تسلسل

مهمة تقوم بتحويل تسلسل إدخال منالرموز إلى تسلسل إخراج من الرموز. على سبيل المثال، هناك نوعان شائعان من المهام المتسلسلة إلى المتسلسلة:

  • المترجمون:
    • عينة من تسلسل الإدخال: "أنا أحبك".
    • تسلسل الناتج النموذجي: "Je t'aime".
  • الإجابة على السؤال:
    • عينة تسلسل الإدخال: "هل أحتاج إلى سيارتي في مدينة نيويورك؟"
    • تسلسل إخراج العينة: "لا. احتفظ بسيارتك في المنزل."

حصة طعام

عملية جعل النموذج المدرب متاحًا لتقديم التنبؤات من خلال الاستدلال عبر الإنترنت أو الاستدلال غير المتصل بالإنترنت.

الشكل (الموتر)

تمثّل هذه السمة عدد العناصر في كل بُعد من الموتر. يتم تمثيل الشكل كقائمة من الأعداد الصحيحة. على سبيل المثال، يحتوي الموتر الثنائي الأبعاد التالي على شكل [3,4]:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]

يستخدم TensorFlow تنسيق الصف الرئيسي (نمط C) لتمثيل ترتيب الأبعاد، ولهذا السبب فإن الشكل في TensorFlow هو [3,4] وليس [4,3]. بعبارة أخرى، في TensorFlow Tensor ثنائي الأبعاد، يكون الشكل[ عدد الصفوف ، عدد الأعمدة].

الشكل الثابت هو شكل موتر يكون معروفًا في وقت الترجمة البرمجية.

يكون الشكل الديناميكي غير معروف في وقت الترجمة البرمجية، وبالتالي يعتمد على بيانات وقت التشغيل. يمكن تمثيل هذا الموتر باستخدام سمة عنصر نائب في TensorFlow، كما هو موضّح في [3, ?].

شظية

#TensorFlow
#GoogleCloud

يشير إلى تقسيم منطقي لمجموعة التدريب أو النموذج. عادةً، تنشئ بعض العمليات أجزاءً من خلال تقسيم الأمثلة أو المَعلمات إلى أجزاء متساوية الحجم (عادةً). بعد ذلك، يتم تعيين كل جزء إلى جهاز مختلف.

يُطلق على تقسيم النموذج اسم التوازي على مستوى النموذج، ويُطلق على تقسيم البيانات اسم التوازي على مستوى البيانات.

الانكماش

#df

المعلَمة الفائقة في تعزيز التدرّج التي تتحكّم في التكيّف الزائد يشبه الانكماش في تعزيز التدرّج معدّل التعلّم في خوارزمية انحدار التدرّج. الانكماش هو قيمة عشرية تتراوح بين 0.0 و1.0. تؤدي قيمة الانكماش المنخفضة إلى تقليل التكيّف الزائد بشكل أكبر من قيمة الانكماش المرتفعة.

التقييم جنبًا إلى جنب

مقارنة جودة نموذجَين من خلال تقييم استجاباتهما للمطالبة نفسها على سبيل المثال، لنفترض أنّ الطلب التالي تم تقديمه إلى نموذجَين مختلفَين:

قم بإنشاء صورة لكلب لطيف يلعب بثلاث كرات.

في التقييم جنبًا إلى جنب، سيختار المُقيِّم الصورة "الأفضل" (أكثر دقة؟ أكثر جمالا؟ أكثر جاذبية؟).

الدالّة الإسية

#fundamentals

دالة رياضية "تضغط" قيمة إدخال في نطاق محدود، عادةً من 0 إلى 1 أو من -1 إلى +1. أي أنّه يمكنك تمرير أي رقم (اثنان أو مليون أو مليار سالب أو أي رقم آخر) إلى دالة Sigmoid وسيظل الناتج ضمن النطاق المحدود. يبدو الرسم البياني لدالة التنشيط السينية كما يلي:

رسم بياني منحني ثنائي الأبعاد تتراوح فيه قيم x من سالب ما لا نهاية إلى موجب ما لا نهاية، بينما تتراوح قيم y من 0 تقريبًا إلى 1 تقريبًا. عندما تكون قيمة x هي 0، تكون قيمة y هي 0.5. يكون ميل المنحنى موجبًا دائمًا، ويكون الميل الأعلى عند النقطة 0 و0.5، ثم ينخفض الميل تدريجيًا مع زيادة القيمة المطلقة لـ x.

تستخدم الدالة السينيية عدة استخدامات في التعلم الآلي، بما في ذلك:

مقياس التشابه

#clustering
#Metric

في خوارزميات التجميع، يشير ذلك المصطلح إلى المقياس المستخدَم لتحديد مدى التشابه بين أي مثالَين.

برنامج واحد / بيانات متعددة (SPMD)

تقنية التوازي حيث يتم تشغيل نفس الحساب على بيانات إدخال مختلفة بالتوازي على أجهزة مختلفة. الهدف من SPMD هو الحصول على النتائج بشكل أسرع. إنه الأسلوب الأكثر شيوعًا للبرمجة المتوازية.

ثبات الحجم

في مشكلة تصنيف الصور، قدرة الخوارزمية على تصنيف الصور بنجاح حتى عندما يتغير حجم الصورة. على سبيل المثال، لا تزال الخوارزمية قادرة على التعرف على القطة سواء كانت تستهلك 2 مليون بكسل أو 200 ألف بكسل. لاحظ أن حتى أفضل خوارزميات تصنيف الصور لا تزال لديها حدود عملية على ثبات الحجم. على سبيل المثال، من غير المرجح أن تتمكن الخوارزمية (أو الإنسان) من تصنيف صورة قطة تستهلك 20 بكسل فقط بشكل صحيح.

راجِع أيضًا الثبات الانتقالي والثبات الدوراني.

راجع دورة التجميع للحصول على مزيد من المعلومات.

رسم تخطيطي

#clustering

فيالتعلم الآلي غير الخاضع للإشراف ، فئة من الخوارزميات التي تقوم بإجراء تحليل أولي للتشابه على الأمثلة. تستخدم خوارزميات التخطيط دالة تجزئة حساسة للموقع لتحديد النقاط التي من المحتمل أن تكون متشابهة، ثم تجميعها في مجموعات.

يؤدي التخطيط إلى تقليل العمليات الحسابية المطلوبة لحسابات التشابه على مجموعات البيانات الكبيرة. بدلاً من حساب التشابه لكل زوج من الأمثلة في مجموعة البيانات، نحسب التشابه لكل زوج من النقاط داخل كل مجموعة فقط.

skip-gram

مخطط N-gram قد يحذف (أو "يتخطّى") كلمات من السياق الأصلي، ما يعني أنّ الكلمات N قد لا تكون متجاورة في الأصل. بتعبير أدق، "k-skip-n-gram" هو عبارة عن n-gram قد يتم تخطي ما يصل إلى k كلمة منه.

على سبيل المثال، تحتوي عبارة "the quick brown fox" على ثنائيات الحروف المحتملة التالية:

  • "the quick"
  • "بني سريع"
  • "ثعلب بني"

"1-تخطي-2-جرام" هو زوج من الكلمات يحتوي على كلمة واحدة على الأكثر بينهما. وبالتالي، فإنّ عبارة "the quick brown fox" تتضمّن ما يلي من ثنائيات 1-skip 2-gram:

  • "البني"
  • "الثعلب السريع"

بالإضافة إلى ذلك، فإن جميع الـ 2 جرام هيأيضًا 1-تخطي-2-جرام، حيث أنه من الممكن تخطي أقل من كلمة واحدة.

تعتبر الحروف المتخطية مفيدة لفهم المزيد من السياق المحيط بالكلمة. في المثال، تم ربط الكلمة "fox" مباشرةً بالكلمة "quick" في مجموعة 1-skip-2-grams، ولكن ليس في مجموعة 2-grams.

تساعد الجرامات المتخطية في التدريبتضمين الكلمات نماذج.

softmax

#fundamentals

دالة تحدد الاحتمالات لكل فئة ممكنة فينموذج تصنيف متعدد الفئات. مجموع الاحتمالات يساوي 1.0 بالضبط. على سبيل المثال، يوضح الجدول التالي كيفية قيام SoftMax بتوزيع الاحتمالات المختلفة:

الصورة هي... الاحتمالية
كلب .85
هرّ .13
حصان .02

يُطلق على Softmax أيضًا اسم full softmax.

يختلف عن تحليل العينات المُحتملة.

لمزيد من المعلومات، يمكنك الاطّلاع على الشبكات العصبية: التصنيف المتعدد الفئات في &quot;دورة تدريبية مكثّفة حول تعلُّم الآلة&quot;.

الضبط الفوري الناعم

#generativeAI

تقنية لضبط نموذج اللغة الكبير لمهمة معينة، دون الحاجة إلى موارد مكثفة الكون المثالى. بدلا من إعادة تدريب جميع الأوزان في النموذج، يتم ضبط الضبط الفوري الناعم تلقائيًا اِسْتَدْعَى لتحقيق نفس الهدف.

عند تقديم طلب نصي، تعمل عملية ضبط الطلب السلس عادةً على إلحاق تضمينات رموز مميزة إضافية بالطلب، وتستخدم الانتشار الخلفي لتحسين الإدخال.

يحتوي الموجه "الصعب" على رموز فعلية بدلاً من تضمينات الرموز.

خاصية متناثرة

#fundamentals

أميزة التي تكون قيمها في الغالب صفرًا أو فارغة. على سبيل المثال، الميزة التي تحتوي على قيمة واحدة 1 ومليون قيمة 0 هي ميزة متفرقة. وعلى النقيض من ذلك، فإنميزة كثيفة تحتوي على قيم ليست في الغالب صفرًا أو فارغة.

في تعلُّم الآلة، يكون عدد كبير من الميزات ميزات متناثرة. السمات الفئوية هي عادةً سمات متناثرة. على سبيل المثال، من بين 300 نوع ممكن من الأشجار في غابة، قد يحدّد مثال واحد شجرة قيقب فقط. أو من بين ملايين الفيديوهات المحتملة في مكتبة فيديوهات، قد يحدّد مثال واحد فيلم "كازابلانكا" فقط.

في النموذج، يتم عادةً تمثيل الميزات المتفرقة باستخدام الترميز الأحادي. إذا كان التشفير الواحد الفعّال كبيرًا، يمكنك وضع طبقة تضمين فوق التشفير الواحد الفعّال لتحقيق كفاءة أكبر.

التمثيل المتناثر

#fundamentals

تخزين فقطالمناصب من العناصر غير الصفرية في ميزة متفرقة.

على سبيل المثال، لنفترض أنّ ميزة فئوية باسم species تحدّد 36 نوعًا من الأشجار في غابة معيّنة. افترض أيضًا أنّ كل مثال يحدّد نوعًا واحدًا فقط.

يمكنك استخدام متجه الترميز الأحادي لتمثيل أنواع الأشجار في كل مثال. سيحتوي المتجه الساخن الواحد على 1 واحد (لتمثيل أنواع الأشجار المحددة في هذا المثال) و35 0 (لتمثيل أنواع الأشجار الـ 35 غير الموجودة في هذا المثال). لذا، فإن التمثيل الساخن لـ maple قد يبدو مشابهًا لما يلي:

متّجه تتضمّن المواضع من 0 إلى 23 فيه القيمة 0، ويتضمّن الموضع 24 القيمة 1، وتتضمّن المواضع من 25 إلى 35 القيمة 0.

وبدلاً من ذلك، فإن التمثيل المتناثر من شأنه ببساطة أن يحدد موقف الأنواع المعينة. إذا كان maple في الموضع 24، فسيكون التمثيل المتناثر لـ maple ببساطة:

24

لاحظ أن التمثيل المتناثر أكثر إحكاما من التمثيل الساخن الواحد.

لمزيد من المعلومات، راجِع استخدام البيانات الفئوية في &quot;الدورة التدريبية المكثّفة حول تعلُّم الآلة&quot;.

متّجه متناثر

#fundamentals

متّجه تكون قيمه في الغالب أصفارًا راجِع أيضًا الميزة الخفيفة والخفة.

مقياس التناثر

#متري

عدد العناصر التي تم ضبطها على صفر (أو قيمة فارغة) في متّجه أو مصفوفة مقسومًا على إجمالي عدد الإدخالات في هذا المتّجه أو المصفوفة على سبيل المثال، لنفترض أنّ لديك مصفوفة تتضمّن 100 عنصر، منها 98 خلية تحتوي على القيمة صفر. يتم احتساب مقياس التناثر على النحو التالي:

$$ {\text{sparsity}} = \frac{\text{98}} {\text{100}} = {\text{0.98}} $$

يشير مصطلح ندرة الميزة إلى ندرة متجه الميزة؛ ويشير مصطلح ندرة النموذج إلى ندرة أوزان النموذج.

الاختزال المكاني

يرىتجميع.

الترميز المواصفاتي

#generativeAI

عملية كتابة ملف وصيانته بلغة طبيعية (مثل اللغة الإنجليزية) يصف البرنامج. يمكنك بعد ذلك أن تطلب من نموذج ذكاء اصطناعي توليدي أو مهندس برمجيات آخر إنشاء البرنامج الذي يتوافق مع هذا الوصف.

يتطلب الكود الذي يتم إنشاؤه تلقائيًا التكرار بشكل عام. في الترميز التحديدي، يمكنك تكرار ملف الوصف. وعلى النقيض من ذلك، فيالترميز المحادثة ، يمكنك التكرار داخل مربع المطالبة. في الممارسة العملية، يتضمن إنشاء الكود التلقائي في بعض الأحيان مزيجًا من كلا الترميز المواصفاتي والترميز المحادثة.

تقسيم

#df

في شجرة القرار، مصطلح آخر للشرط.

الفاصل

#df

أثناء التدريب شجرة القرار ، الروتين (والخوارزمية) المسؤولة عن إيجاد أفضل حالة في كل العقدة.

SPMD

اختصار لـبرنامج واحد / بيانات متعددة.

فريق

#متري

هي اختصار لمجموعة بيانات Stanford للإجابة عن الأسئلة، وقد تم تقديمها في الورقة البحثية SQuAD: أكثر من 100,000 سؤال حول فهم الآلة للنصوص. تتضمّن مجموعة البيانات هذه أسئلة طرحها مستخدمون حول مقالات ويكيبيديا. تتضمّن بعض الأسئلة في مجموعة بيانات SQuAD إجابات، لكنّ أسئلة أخرى لا تتضمّن إجابات عن قصد. لذلك، يمكنك استخدام مجموعة بيانات SQuAD لتقييم قدرة نموذج اللغة الكبير على تنفيذ ما يلي:

  • أجب عن الأسئلة التي يمكن الإجابة عليها.
  • تحديد الأسئلة التي لا يمكن الإجابة عنها

المطابقة التامة مع F1 هما المقياسان الأكثر شيوعًا لتقييم النماذج اللغوية الكبيرة (LLM) مقارنةً بمجموعة بيانات SQuAD.

تربيع الخسارة المفصلية

#متري

مربّع الخسارة المفصلية تفرض الخسارة المفصلية المربّعة عقوبة أشد على القيم الشاذة مقارنةً بالخسارة المفصلية العادية.

الخسارة التربيعية

#fundamentals
#Metric

مرادف لـل2 خسارة.

التدريب على مراحل

تكتيك تدريب النموذج في سلسلة من المراحل المنفصلة. يمكن أن يكون الهدف إما تسريع عملية التدريب أو تحقيق جودة أفضل للنموذج.

في ما يلي صورة توضيحية لأسلوب التجميع التدريجي:

  • تحتوي المرحلة 1 على 3 طبقات مخفية، وتحتوي المرحلة 2 على 6 طبقات مخفية، وتحتوي المرحلة 3 على 12 طبقة مخفية.
  • تبدأ المرحلة الثانية بالتدريب بالأوزان التي تم تعلمها في الطبقات الثلاث المخفية في المرحلة الأولى. تبدأ المرحلة 3 التدريب باستخدام الأوزان التي تم تعلّمها في 6 طبقات مخفية من المرحلة 2.

ثلاث مراحل، تحمل الأسماء المرحلة 1 والمرحلة 2 والمرحلة 3
          تحتوي كل مرحلة على عدد مختلف من الطبقات: تحتوي المرحلة 1 على 3 طبقات، والمرحلة 2 على 6 طبقات، والمرحلة 3 على 12 طبقة.
          تصبح الطبقات الثلاث من المرحلة 1 أول 3 طبقات في المرحلة 2.
          وبالمثل، تصبح الطبقات الست من المرحلة 2 أول 6 طبقات في المرحلة 3.

اطّلِع أيضًا على تجميع الطلبات.

الولاية

في التعلم التعزيزي، قيم المعلمات التي تصف التكوين الحالي للبيئة، والتي عامل يستخدم لاختيار فعل.

دالة قيمة الحالة والفعل

مرادف لـدالة Q.

ثابت

#fundamentals

شيء يتم إجراؤه مرة واحدة بدلاً من إجرائه بشكل مستمر المصطلحان ثابت وبلا إنترنت مترادفان. في ما يلي الاستخدامات الشائعة للبيانات الثابتة وغير المتصلة بالإنترنت في تعلّم الآلة:

  • النموذج الثابت (أو النموذج غير المتصل بالإنترنت) هو نموذج يتم تدريبه مرة واحدة ثم استخدامه لفترة من الوقت.
  • التدريب الثابت (أو التدريب بلا اتصال بالإنترنت) هو عملية تدريب نموذج ثابت.
  • الاستدلال الثابت (أو الاستدلال غير المتصل بالإنترنت) هو عملية يقوم فيها النموذج بإنشاء مجموعة من التوقعات في وقت واحد.

التباين مع ديناميكية.

الاستنتاج الثابت

#fundamentals

مرادف لـالاستدلال غير المتصل بالإنترنت.

الثبات

#fundamentals

سمة لا تتغيّر قيمها على مستوى سمة واحدة أو أكثر، وعادةً ما تكون هذه السمة هي الوقت. على سبيل المثال، تكون إحدى السمات ثابتة إذا كانت قيمها متشابهة تقريبًا في عامَي 2021 و2023.

في العالم الحقيقي، هناك عدد قليل جدًا من الميزات التي تتسم بالثبات. حتى الميزات المرادفة للاستقرار (مثل مستوى سطح البحر) تتغير بمرور الوقت.

التباين مععدم الثبات.

بخطوة

تمريرة أمامية وتمريرة خلفية من لاعب واحدحزمة.

يمكنك الاطّلاع على الانتشار العكسي لمزيد من المعلومات حول التمرير الأمامي والتمرير الخلفي.

حجم الخطوة

مرادف لمعدّل التعلّم.

النزول المتدرّج العشوائي (SGD)

#fundamentals

خوارزمية انحدار التدرّج يكون فيها حجم الدفعة واحدًا. بعبارة أخرى، يتم تدريب SGD على مثال واحد يتم اختياره بشكل موحّد وعشوائي من مجموعة تدريب.

يمكنك الاطّلاع على الانحدار الخطي: المعلمات الفائقة في "دورة مكثّفة عن تعلُّم الآلة" للحصول على مزيد من المعلومات.

قفزة

في عملية الالتفاف أو التجميع، تكون دلتا في كل بُعد من السلسلة التالية من شرائح الإدخال. على سبيل المثال، يوضّح الرسم المتحرّك التالي خطوة (1,1) أثناء عملية التفاف. وبالتالي، تبدأ شريحة الإدخال التالية بموضع واحد على يمين شريحة الإدخال السابقة. عندما تصل العملية إلى الحافة اليسرى، تكون الشريحة التالية في أقصى اليمين ولكن في موضع واحد لأسفل.

مصفوفة إدخال 5x5 وفلتر التفافي 3x3 بما أنّ الخطوة هي (1,1)، سيتم تطبيق فلتر التفاف 9 مرات. تقيّم شريحة الالتفاف الأولى المصفوفة الفرعية 3x3 في أعلى يسار مصفوفة الإدخال. تقيّم الشريحة الثانية المصفوفة الفرعية 3x3 في أعلى المنتصف. يقيّم الجزء الثالث من الالتفاف المصفوفة الفرعية 3x3 في أعلى اليسار. تقيّم الشريحة الرابعة المصفوفة الفرعية 3x3 في الوسط الأيسر.
     تقيّم الشريحة الخامسة المصفوفة الفرعية الوسطى 3x3. تعمل الشريحة السادسة على تقييم المصفوفة الفرعية 3x3 في الوسط على اليمين. تقيّم الشريحة السابعة
     المصفوفة الفرعية 3x3 في أسفل اليمين. تقيّم الشريحة الثامنة المصفوفة الفرعية 3x3 في المنتصف السفلي. تقيّم الشريحة التاسعة المصفوفة الفرعية 3x3 في أسفل يسار الصورة.

يوضّح المثال السابق خطوة ثنائية الأبعاد. إذا كانت مصفوفة الإدخال ثلاثية الأبعاد، سيكون التقدّم أيضًا ثلاثي الأبعاد.

تقليل المخاطر الهيكلية (SRM)

خوارزمية توازن بين هدفين:

  • الحاجة إلى بناء النموذج الأكثر قدرة على التنبؤ (على سبيل المثال، أقل خسارة).
  • الحاجة إلى إبقاء النموذج بسيطًا قدر الإمكان (على سبيل المثال، التنظيم القوي).

على سبيل المثال، الوظيفة التي تقلل الخسارة+التنظيم في مجموعة التدريب هي خوارزمية لتقليل المخاطر الهيكلية.

يختلف عن تقليص المخاطر التجريبية.

أخذ العينات الفرعية

اطّلِع على تجميع.

رمز الكلمة الفرعية

في نماذج اللغة، الرمز المميّز هو سلسلة فرعية من كلمة، وقد يكون الكلمة بأكملها.

على سبيل المثال، يمكن تقسيم كلمة مثل "itemize" إلى الجزءين "item" (كلمة جذرية) و "ize" (لاحقة)، حيث يتم تمثيل كل منهما برمز خاص به. إن تقسيم الكلمات غير الشائعة إلى أجزاء تسمى الكلمات الفرعية، يسمح لنماذج اللغة بالعمل على الأجزاء المكونة الأكثر شيوعًا للكلمة، مثل البادئات واللواحق.

في المقابل، قد لا يتم تقسيم الكلمات الشائعة، مثل "ذاهب"، وقد يتم تمثيلها برمز مميز واحد.

ملخّص

#TensorFlow

في TensorFlow، هي قيمة أو مجموعة من القيم يتم احتسابها في خطوة معيّنة، ويتم استخدامها عادةً لتتبُّع مقاييس النموذج أثناء التدريب.

تعلُّم الآلة الموجَّه

#fundamentals

تدريب أ نموذج من سمات وما يقابلها ملصقات. التعلم الآلي الخاضع للإشراف يشبه تعلم موضوع ما من خلال دراسة مجموعة من الأسئلة وإجاباتها المقابلة. بعد إتقان الربط بين الأسئلة والأجوبة، يمكن للطالب بعد ذلك تقديم إجابات لأسئلة جديدة (لم يسبق رؤيتها من قبل) حول نفس الموضوع.

مقارنة معالتعلم الآلي غير الخاضع للإشراف.

يمكنك الاطّلاع على التعلم الخاضع للإشراف في دورة "مقدمة في تعلُّم الآلة" للحصول على مزيد من المعلومات.

خاصية مصطنعة

#fundamentals

ميزة غير متوفّرة بين الميزات المُدخَلة، ولكن تم تجميعها من ميزة واحدة أو أكثر من الميزات المُدخَلة تشمل طرق إنشاء الميزات الاصطناعية ما يلي:

  • الدلاء ميزة مستمرة في صناديق النطاق.
  • إنشاءميزة الصليب.
  • ضرب (أو قسمة) قيمة ميزة واحدة على قيم ميزات أخرى أو على نفسها على سبيل المثال، إذا كانت a وb سمتَين من سمات الإدخال، تكون الأمثلة التالية من السمات المصطنعة:
    • ab
    • أ2
  • تطبيق دالة متسامية على قيمة سمة على سبيل المثال، إذا كانت c هي ميزة إدخال، تكون الأمثلة التالية هي ميزات اصطناعية:
    • sin(c)
    • ln(c)

الميزات التي تم إنشاؤها بواسطة التطبيع أو القياس لا تعتبر الميزات وحدها ميزات اصطناعية.

T

T5

نموذج تعلُّم النقل من نص إلى نص، طوّره فريق Google AI في عام 2020 ‫T5 هو نموذج ترميز-فك ترميز يستند إلى بنية Transformer، وتم تدريبه على مجموعة بيانات كبيرة جدًا. وهو فعّال في مجموعة متنوعة من مهام معالجة اللغة الطبيعية، مثل إنشاء النصوص وترجمة اللغات والإجابة عن الأسئلة بطريقة حوارية.

يستمدّ نموذج T5 اسمه من أحرف T الخمسة في عبارة "محوّل نقل النص إلى نص".

تي 5 اكس

إطار عمل مفتوح المصدر لتعلُّم الآلة مصمَّم لإنشاء وتدريب نماذج معالجة اللغات الطبيعية (NLP) على نطاق واسع. يتم تنفيذ T5 على قاعدة بيانات T5X (المستندة إلى JAX وFlax).

التعلم المعزز المستند إلى جدول Q

في التعلم المعزّز، يتم تنفيذ التعلم المستند إلى Q باستخدام جدول لتخزين دوال Q لكل مجموعة من الحالات والإجراءات.

الاستهداف

مرادف لكلمة label.

الشبكة المستهدَفة

في التعلم العميق المعزز Q، يتم استخدام شبكة عصبية تمثّل تقريبًا ثابتًا للشبكة العصبية الرئيسية، حيث تنفّذ الشبكة العصبية الرئيسية إما دالة Q أو سياسة. بعد ذلك، يمكنك تدريب الشبكة الرئيسية على قيم Q التي تتوقّعها الشبكة المستهدَفة. وبالتالي، يمكنك منع حلقة الملاحظات التي تحدث عندما تتدرب الشبكة الرئيسية على قيم Q التي تتوقعها بنفسها. من خلال تجنُّب هذه الملاحظات، يزداد ثبات التدريب.

المهمة

مشكلة يمكن حلّها باستخدام تقنيات تعلُّم الآلة، مثل:

درجة الحرارة

#generativeAI

أالمعلمة الفائقة التي تتحكم في درجة عشوائية مخرجات النموذج. تؤدي درجات الحرارة المرتفعة إلى إنتاج عشوائي أكثر، في حين تؤدي درجات الحرارة المنخفضة إلى إنتاج عشوائي أقل.

يعتمد اختيار درجة الحرارة الأفضل على التطبيق المحدد و/أو قيم السلسلة.

بيانات حسب فترة زمنية محدّدة

البيانات المسجّلة في نقاط زمنية مختلفة على سبيل المثال، مبيعات المعاطف الشتوية المسجّلة لكل يوم من أيام السنة هي بيانات زمنية.

Tensor

#TensorFlow

بنية البيانات الأساسية في برامج TensorFlow الموترات هي بنى بيانات متعددة الأبعاد (يمكن أن يكون عدد الأبعاد كبيرًا جدًا)، وهي غالبًا ما تكون كميات قياسية أو متجهات أو مصفوفات. يمكن أن تحتوي عناصر Tensor على قيم عددية صحيحة أو قيم نقطة عائمة أو قيم سلاسل.

TensorBoard

#TensorFlow

لوحة المعلومات التي تعرض الملخصات المحفوظة أثناء تنفيذ برنامج TensorFlow واحد أو أكثر.

TensorFlow

#TensorFlow

منصة تعلُّم آلي موزّعة وواسعة النطاق يشير المصطلح أيضًا إلى طبقة واجهة برمجة التطبيقات الأساسية في حزمة TensorFlow، والتي تتيح إجراء عمليات حسابية عامة على رسومات بيانية لتدفّق البيانات.

على الرغم من أنّ TensorFlow تُستخدَم بشكل أساسي في تعلُّم الآلة، يمكنك أيضًا استخدامها في مهام غير مرتبطة بتعلُّم الآلة وتتطلّب إجراء عمليات حسابية رقمية باستخدام رسومات بيانية لتدفّق البيانات.

TensorFlow Playground

#TensorFlow

برنامج يعرض بشكل مرئي كيف تؤثر المَعلمات الفائقة المختلفة في تدريب النماذج (لا سيما الشبكات العصبية). انتقِل إلى http://playground.tensorflow.org لتجربة TensorFlow Playground.

خدمة TensorFlow

#تينسورفلو

منصة لنشر النماذج المدرَّبة في مرحلة الإنتاج

وحدة معالجة الموتّرات (TPU)

#TensorFlow
#جوجل كلاود

دائرة متكاملة خاصة بالتطبيق (ASIC) تعمل على تحسين أداء أحمال عمل التعلم الآلي. يتم نشر هذه ASICs كأجهزة متعددة رقائق TPU على جهاز TPU.

رتبة الموتر

#TensorFlow

اطّلِع على الترتيب (المتّجه).

شكل الموتر

#TensorFlow

عدد العناصر أTensor يحتوي على أبعاد مختلفة. على سبيل المثال، يكون شكل موتر [5, 10] هو 5 في بعد واحد و10 في بعد آخر.

حجم الموتر

#تينسورفلو

تمثّل هذه السمة إجمالي عدد القيم العددية التي يحتوي عليها Tensor. على سبيل المثال، يبلغ حجم [5, 10]Tensor 50.

TensorStore

مكتبة لقراءة وكتابة المصفوفات الكبيرة المتعددة الأبعاد بكفاءة

شرط الإنهاء

في التعلم المعزّز، هي الشروط التي تحدّد متى تنتهي الحلقة، مثلاً عندما يصل العامل إلى حالة معيّنة أو يتجاوز عددًا محددًا من انتقالات الحالة. على سبيل المثال، في لعبة إكس أو، تنتهي الحلقة إما عندما يضع أحد اللاعبين علامة في ثلاث خانات متتالية أو عندما يتم وضع علامة في جميع الخانات.

اختبار

#df

في شجرة القرار، مصطلح آخر للشرط.

خسارة الاختبار

#fundamentals
#Metric

أ متري يمثل نموذجًا خسارة ضد مجموعة الاختبار. عند إنشاء نموذج، تحاول عادةً تقليل خسارة الاختبار. هذا لأن فقدان الاختبار المنخفض يمثل إشارة ذات جودة أقوى من فقدان الاختبار المنخفض خسارة التدريب أو منخفضة فقدان التحقق.

تشير الفجوة الكبيرة بين خسارة الاختبار وخسارة التدريب أو خسارة التحقق في بعض الأحيان إلى أنك بحاجة إلى زيادةمعدل التنظيم.

مجموعة الاختبار

مجموعة فرعية من مجموعة البيانات مخصص لاختبار المدربين نموذج.

عادةً، يتم تقسيم الأمثلة في مجموعة البيانات إلى المجموعات الفرعية الثلاث التالية المميّزة:

يجب أن ينتمي كل مثال في مجموعة البيانات إلى مجموعة فرعية واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، يجب ألا ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة الاختبار.

ترتبط مجموعة التدريب ومجموعة التحقّق ارتباطًا وثيقًا بتدريب النموذج. بما أنّ مجموعة الاختبار مرتبطة بالتدريب بشكل غير مباشر فقط، فإنّ فقدان الاختبار هو مقياس أقل تحيزًا وأعلى جودة من فقدان التدريب أو فقدان التحقّق.

راجع مجموعات البيانات: تقسيم مجموعة البيانات الأصلية في الدورة التدريبية المكثفة حول التعلم الآلي للحصول على مزيد من المعلومات.

مدى النص

نطاق مؤشر المصفوفة المرتبط بقسم فرعي محدد من سلسلة نصية. على سبيل المثال، تشغل الكلمة good في سلسلة Python s="Be good now" نطاق النص من 3 إلى 6.

tf.Example

#تينسورفلو

وهو عبارة عن بروتوكول تخزين مؤقت معياري لوصف البيانات المُدخَلة لتدريب نماذج تعلُّم الآلة أو الاستدلال عليها.

tf.keras

#تينسورفلو

تنفيذ كيراس مُدمج في تينسور فلو.

عتبة (لأشجار القرار)

#df

في الشرط المحاذي للمحور، تكون القيمة هي القيمة التي تتم مقارنة العنصر بها. على سبيل المثال، 75 هي قيمة الحد في الشرط التالي:

grade >= 75

يمكنك الاطّلاع على Exact splitter for binary classification with numerical features في دورة "أشجار القرار" التدريبية للحصول على مزيد من المعلومات.

تحليل السلسلة الزمنية

#clustering

أحد المجالات الفرعية لتعلُّم الآلة والإحصاءات، وهو يحلّل البيانات الزمنية. تتطلّب العديد من أنواع مشاكل تعلُّم الآلة تحليل السلاسل الزمنية، بما في ذلك التصنيف والتجميع والتوقّع واكتشاف القيم الشاذة. على سبيل المثال، يمكنك استخدام تحليل السلاسل الزمنية لتوقّع المبيعات المستقبلية للمعاطف الشتوية حسب الشهر استنادًا إلى بيانات المبيعات السابقة.

الخطوة الزمنية

خلية واحدة "غير ملفوفة" داخلالشبكة العصبية المتكررة. على سبيل المثال، يوضح الشكل التالي ثلاث خطوات زمنية (مُسماة بالرموز السفلية t-1 وt وt+1):

ثلاث خطوات زمنية في شبكة عصبونية متكرّرة ويصبح الناتج من الخطوة الزمنية الأولى هو المدخل إلى الخطوة الزمنية الثانية. ويصبح الناتج
          من الخطوة الزمنية الثانية هو المدخل إلى الخطوة الزمنية الثالثة.

الرمز المميز

فينموذج اللغة الوحدة الذرية التي يتدرب عليها النموذج ويقوم بالتنبؤات عليها. الرمز عادة ما يكون واحدًا مما يلي:

  • كلمة، على سبيل المثال، تتكوّن العبارة "الكلاب تحب القطط" من ثلاث رموز مميزة للكلمات: "الكلاب" و"تحب" و "القطط".
  • حرف - على سبيل المثال، تتكون العبارة "سمكة الدراجة" من تسعة رموز حرفية. (يُرجى العِلم أنّ المساحة الفارغة تُحتسب كإحدى الرموز المميزة).
  • الكلمات الفرعية: يمكن أن تكون كلمة واحدة رمزًا مميزًا واحدًا أو رموزًا مميزة متعددة. تتألف الكلمة الفرعية من كلمة جذرية أو بادئة أو لاحقة. على سبيل المثال، قد ينظر نموذج اللغة الذي يستخدم الكلمات الفرعية كرموز مميزة إلى الكلمة "كلاب" على أنّها رمزان مميزان (الكلمة الجذر "كلب" ولاحقة الجمع "اب"). وقد يرى نموذج اللغة نفسه الكلمة المفردة "أطول" على أنّها كلمتان فرعيتان (الكلمة الجذر "طويل" واللاحقة "أ").

في النطاقات خارج نماذج اللغة، يمكن أن تمثّل الرموز المميزة أنواعًا أخرى من الوحدات الذرية. على سبيل المثال، في مجال رؤية الكمبيوتر، قد يكون الرمز المميز مجموعة فرعية من صورة.

لمزيد من المعلومات، يمكنك الاطّلاع على النماذج اللغوية الكبيرة في "دورة مكثّفة عن تعلُّم الآلة".

مُجزئ

نظام أو خوارزمية تقوم بترجمة سلسلة من بيانات الإدخال إلىالرموز.

معظم النماذج الأساسية الحديثة هي متعددة الوسائط. يجب أن يحوّل أداة الترميز لنظام متعدد الوسائط كل نوع إدخال إلى التنسيق المناسب. على سبيل المثال، عند إدخال بيانات تتضمّن نصًا ورسومات، قد يحوّل برنامج تقسيم النص النص المدخل إلى كلمات فرعية ويحوّل الصور المدخلة إلى رقع صغيرة. بعد ذلك، يجب أن يحوّل أداة تقسيم النص إلى رموز جميع الرموز المميزة إلى مساحة تضمين موحّدة واحدة، ما يتيح للنموذج "فهم" مجموعة من المدخلات المتعددة الوسائط.

دقة أعلى k

#متري

النسبة المئوية للمرات التي يظهر فيها "علامة الهدف" ضمن أول k موضع من القوائم المولدة. يمكن أن تكون القوائم عبارة عن توصيات مخصصة أو قائمة بالعناصر مرتبة حسبsoftmax.

دقة Top-k تُعرف أيضًا باسم الدقة عند k.

برج

أحد مكونات الشبكة العصبية العميقة، وهو عبارة عن شبكة عصبية عميقة في حد ذاته. في بعض الحالات، يقرأ كل برج من مصدر بيانات مستقل، وتبقى هذه الأبراج مستقلة إلى أن يتم دمج ناتجها في طبقة نهائية. في حالات أخرى (مثل المشفّر والمفكّر في بنية العديد من المحوّلات)، تتضمّن البنية اتصالات متبادلة بين بعضها البعض.

لغة غير لائقة

#متري

درجة إساءة المحتوى أو تهديده أو إهانته يمكن للعديد من نماذج تعلُّم الآلة تحديد مستوى السمية وقياسه. تحدّد معظم هذه النماذج مستوى السمية وفقًا لمعايير متعدّدة، مثل مستوى اللغة المسيئة ومستوى اللغة التي تتضمّن تهديدات.

TPU

#TensorFlow
#GoogleCloud

اختصار لـوحدة معالجة الموتر.

شريحة TPU

#TensorFlow
#جوجل كلاود

مسرع جبر خطي قابل للبرمجة مع ذاكرة عالية النطاق الترددي على الشريحة تم تحسينها لأحمال عمل التعلم الآلي. يتم نشر شرائح TPU متعددة على جهاز TPU.

جهاز TPU

#TensorFlow
#GoogleCloud

لوحة دوائر مطبوعة (PCB) ذات عدةرقائق TPU ، وواجهات الشبكة ذات النطاق الترددي العالي، وأجهزة تبريد النظام.

عقدة وحدة معالجة الموتّرات

#TensorFlow
#جوجل كلاود

مورد لوحدة معالجة الموتّرات على Google Cloud بنوع وحدة معالجة موتّرات محدّد. تتصل عقدة TPU بشبكة VPC من شبكة VPC نظيرة. عُقد TPU هي مورد محدّد في Cloud TPU API.

جراب TPU

#TensorFlow
#GoogleCloud

تكوين محدد لـ أجهزة TPU في مركز بيانات Google. ترتبط جميع الأجهزة الموجودة في TPU Pod ببعضها البعض عبر شبكة مخصصة عالية السرعة. يعد TPU Pod أكبر تكوين لـأجهزة TPU متوفر لإصدار TPU محدد.

مورد TPU

#TensorFlow
#GoogleCloud

كيان لوحدة معالجة الموتّرات (TPU) على Google Cloud يمكنك إنشاؤه أو إدارته أو استخدامه. على سبيل المثال، عُقد وحدات معالجة الموتّرات وأنواع وحدات معالجة الموتّرات هي موارد لوحدات معالجة الموتّرات.

شريحة TPU

#TensorFlow
#GoogleCloud

شريحة وحدة معالجة الموتّرات (TPU) هي جزء كسري من أجهزة TPU في حزمة TPU. يتم ربط جميع الأجهزة في شريحة وحدة معالجة الموتّرات (TPU) ببعضها البعض عبر شبكة مخصّصة عالية السرعة.

نوع TPU

#TensorFlow
#GoogleCloud

يشير إلى إعداد جهاز واحد أو أكثر من أجهزة TPU مع إصدار معيّن من أجهزة TPU. يمكنك اختيار نوع وحدة معالجة الموتّرات عند إنشاء عقدة وحدة معالجة الموتّرات على Google Cloud. على سبيل المثال، v2-8نوع وحدة معالجة الموتّرات هو جهاز TPU v2 واحد مزوّد بـ 8 نوى. يحتوي v3-2048 نوع وحدة TPU على 256 جهاز TPU v3 متصل بشبكة و2048 نواة إجمالاً. أنواع وحدات معالجة الموتّرات هي موارد محدّدة في Cloud TPU API.

عامل TPU

#TensorFlow
#جوجل كلاود

عملية يتم تشغيلها على جهاز مضيف وتنفذ برامج التعلم الآلي عليهأجهزة TPU.

التدريب

#fundamentals

تشير إلى عملية تحديد المَعلمات المثالية (الأوزان والانحيازات) التي يتألف منها النموذج. أثناء التدريب، يقرأ النظام أمثلة ويعدّل المَعلمات تدريجيًا. يستخدم التدريب كل مثال من بضع مرات إلى مليارات المرات.

يمكنك الاطّلاع على التعلم الخاضع للإشراف في دورة "مقدمة في تعلُّم الآلة" للحصول على مزيد من المعلومات.

خسارة التدريب

#fundamentals
#Metric

مقياس يمثّل الخسارة التي يتكبّدها النموذج خلال عملية تدريب معيّنة. على سبيل المثال، لنفترض أنّ دالة الخسارة هي متوسط الخطأ التربيعي. على سبيل المثال، قد يكون الخطأ في التدريب (متوسط الخطأ التربيعي) في التكرار العاشر هو 2.2، بينما يكون الخطأ في التدريب في التكرار المئة هو 1.9.

أمنحنى الخسارة يرسم مخططًا لخسارة التدريب مقابل عدد التكرارات. يقدم منحنى الخسارة التلميحات التالية حول التدريب:

  • يشير المنحدر التنازلي إلى أن النموذج يتحسن.
  • يشير المنحدر الصاعد إلى أن النموذج يزداد سوءًا.
  • يشير المنحدر المسطح إلى أن النموذج قد وصل إلىالتقارب.

على سبيل المثال، المثال التالي مثالي إلى حد مامنحنى الخسارة يظهر:

  • ميل حادّ نحو الأسفل خلال التكرارات الأولية، ما يشير إلى تحسُّن سريع في النموذج
  • منحدر مستوٍ تدريجيًا (ولكنه لا يزال في اتجاه الانخفاض) حتى اقتراب نهاية التدريب، مما يعني استمرار تحسين النموذج بوتيرة أبطأ إلى حد ما مقارنة بالتكرارات الأولية.
  • ميلان مستوٍ نحو نهاية التدريب، ما يشير إلى التقارب

رسم بياني للخسارة في التدريب مقابل التكرارات يبدأ منحنى الخسارة هذا بانحدار حاد إلى الأسفل. ينخفض الانحدار تدريجيًا إلى أن يصبح صفرًا.

على الرغم من أن خسارة التدريب مهمة، انظر أيضًاتعميم.

انحراف في التدريب والتقديم

#fundamentals

الفرق بين أداء النموذج أثناء التدريب وأداء النموذج نفسه أثناء العرض

مجموعة التدريب

#fundamentals

مجموعة فرعية من مجموعة البيانات المستخدَمة لتدريب نموذج

عادةً، يتم تقسيم الأمثلة في مجموعة البيانات إلى ثلاث مجموعات فرعية مميزة كما يلي:

من الناحية المثالية، يجب أن ينتمي كل مثال في مجموعة البيانات إلى مجموعة فرعية واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، لا ينبغي أن ينتمي مثال واحد إلى مجموعة التدريب ومجموعة التحقق من الصحة.

اطّلِع على مجموعات البيانات: تقسيم مجموعة البيانات الأصلية في "دورة مكثّفة عن تعلّم الآلة" للحصول على مزيد من المعلومات.

مسار

في التعلم التعزيزي ، سلسلة منالثنائيات التي تمثل سلسلة من ولاية انتقالات عامل حيث يتوافق كل عنصر مع الحالة، فعل ، جائزة ، والحالة التالية لانتقال حالة معينة.

نقل التعلم

نقل المعلومات من مهمة تعلُّم آلي إلى أخرى على سبيل المثال، في عملية تعلُّم المهام المتعددة، يحلّ نموذج واحد مهام متعددة، مثل نموذج التعلّم العميق الذي يتضمّن عُقد إخراج مختلفة للمهام المختلفة. قد تتضمّن عملية نقل التعلّم نقل المعرفة من حلّ مهمة أبسط إلى مهمة أكثر تعقيدًا، أو نقل المعرفة من مهمة تتوفّر فيها بيانات أكثر إلى مهمة تتوفّر فيها بيانات أقل.

تحل معظم أنظمة التعلم الآلي مهمة واحدة. يُعد التعلم الانتقالي خطوة صغيرة نحو الذكاء الاصطناعي حيث يمكن لبرنامج واحد حل مهام متعددة.

المحوّل

بنية شبكة عصبية تم تطويرها في Google وتعتمد على آليات الاهتمام الذاتي لتحويل تسلسل من عمليات التضمين المدخلة إلى تسلسل من عمليات التضمين الناتجة بدون الاعتماد على الالتفافات أو الشبكات العصبية المتكررة. يمكن النظر إلى المحول على أنه مجموعة من طبقات الاهتمام الذاتي.

يمكن أن يتضمن المحول أيًا من العناصر التالية:

يقوم المُرمِّز بتحويل تسلسل التضمينات إلى تسلسل جديد بنفس الطول. يتضمّن برنامج الترميز N طبقة متطابقة، تحتوي كل منها على طبقتَين فرعيتَين. يتم تطبيق هاتين الطبقتين الفرعيتين في كل موضع من تسلسل تضمين الإدخال، مما يؤدي إلى تحويل كل عنصر من التسلسل إلى تضمين جديد. تجمع الطبقة الفرعية الأولى من أداة الترميز المعلومات من تسلسل الإدخال بأكمله. تقوم الطبقة الفرعية الثانية للمشفر بتحويل المعلومات المجمعة إلى تضمين إخراجي.

يقوم المفكك بتحويل تسلسل تضمينات الإدخال إلى تسلسل تضمينات الإخراج، ربما بطول مختلف. يشتمل جهاز فك التشفير أيضًا على N طبقة متطابقة مع ثلاث طبقات فرعية، اثنتان منها تشبهان الطبقات الفرعية لجهاز التشفير. تأخذ الطبقة الفرعية الثالثة لفك التشفير مخرجات المشفر وتطبقالاهتمام بالذات آلية لجمع المعلومات منه.

توفر تدوينة المدونة Transformer: A Novel Neural Network Architecture for Language Understanding مقدمة جيدة عن Transformers.

يمكنك الاطّلاع على النماذج اللغوية الكبيرة: ما المقصود بالنموذج اللغوي الكبير؟ في "دورة مكثّفة عن تعلُّم الآلة" لمزيد من المعلومات.

الثبات الانتقالي

في مشكلة تصنيف الصور، قدرة الخوارزمية على تصنيف الصور بنجاح حتى عندما يتغير موضع الكائنات داخل الصورة. على سبيل المثال، لا تزال الخوارزمية قادرة على التعرف على كلب، سواء كان في وسط الإطار أو في الطرف الأيسر منه.

انظر أيضا ثبات الحجم و ثبات الدوران.

ثلاثي

أنن-جرام حيث N=3.

سالب صحيح

#fundamentals
#متري

مثال يوضّح كيف يتنبأ النموذج بشكل صحيح بالفئة السلبية. على سبيل المثال، يستنتج النموذج أنّ رسالة إلكترونية معيّنة ليست غير مرغوب فيها، وأنّ هذه الرسالة الإلكترونية ليست غير مرغوب فيها بالفعل.

موجب صحيح

#fundamentals
#Metric

مثال يقدّم فيه النموذج توقّعًا صحيحًا للفئة الموجبة. على سبيل المثال، يستنتج النموذج أنّ رسالة إلكترونية معيّنة هي رسالة غير مرغوب فيها، وتكون هذه الرسالة الإلكترونية في الواقع رسالة غير مرغوب فيها.

معدل الإيجابية الحقيقية (TPR)

#fundamentals
#متري

مرادف لكلمة استدعاء والمقصود:

$$\text{true positive rate} = \frac {\text{true positives}} {\text{true positives} + \text{false negatives}}$$

معدل الموجب الصحيح هو المحور الصادي في منحنى ROC.

TTL

اختصار مدة البقاء.

U

Ultra

#الذكاء الاصطناعي التوليدي

نموذج Gemini الذي يتضمّن أكبر عدد من المَعلمات يمكنك الاطّلاع على مقالة Gemini Ultra لمعرفة التفاصيل.

انظر أيضا محترف و نانو.

عدم الوعي (بإحدى السمات الحسّاسة)

#responsible

حالة تتوفّر فيها سمات حسّاسة، ولكنّها غير مضمّنة في بيانات التدريب. بما أنّ السمات الحساسة غالبًا ما تكون مرتبطة بسمات أخرى خاصة ببيانات المستخدم، فإنّ النموذج الذي تم تدريبه بدون معرفة سمة حساسة قد يظل له تأثير غير متناسب فيما يتعلق بهذه السمة، أو ينتهك قيود العدالة الأخرى.

فرط التعميم

#fundamentals

إنتاج نموذج بقدرة توقّع ضعيفة لأنّ النموذج لم يستوعب بشكل كامل مدى تعقيد بيانات التدريب يمكن أن تؤدي العديد من المشاكل إلى حدوث نقص في الملاءمة، بما في ذلك:

راجع الإفراط في التجهيز في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

جمع عيّنات جزئية

إزالة أمثلة من الطبقة الأغلبية في مجموعة بيانات غير متوازنة حسب الفئة من أجل خلق توازن أكثر مجموعة التدريب.

على سبيل المثال، لنفترض مجموعة بيانات تكون فيها نسبة الفئة الأكبر تمثيلاً إلى الفئة الأقل تمثيلاً هي 20:1. للتغلّب على عدم توازن الفئات هذا، يمكنك إنشاء مجموعة تدريبية تتألف من جميع أمثلة الفئة الأقل تمثيلاً، ولكن عُشر أمثلة الفئة الأكثر تمثيلاً فقط، ما يؤدي إلى إنشاء نسبة فئات في مجموعة التدريب تبلغ 2:1. وبفضل عملية تقليل عدد العيّنات، قد تؤدي مجموعة التدريب الأكثر توازنًا إلى إنشاء نموذج أفضل. بدلاً من ذلك، قد تحتوي مجموعة التدريب الأكثر توازناً هذه على أمثلة غير كافية لتدريب نموذج فعّال.

يختلف ذلك عن أخذ العيّنات الزائد.

أحادي الاتجاه

نظام يقيّم النص الذي يسبق قسمًا مستهدفًا من النص. في المقابل، يقيّم النظام الثنائي الاتجاه النص الذي يسبق النص المستهدف والنص الذي يليه. يمكنك الاطّلاع على ثنائي الاتجاه لمزيد من التفاصيل.

نموذج اللغة أحادي الاتجاه

نموذج لغوي يعتمد في حساب الاحتمالات على الرموز المميزة التي تظهر قبل الرموز المميزة المستهدَفة وليس بعدها يختلف عن نموذج اللغة الثنائي الاتجاه.

مثال غير مُصنَّف

#fundamentals

مثال يتضمّن ميزات ولكن بدون تصنيف على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة غير مصنّفة من نموذج لتقييم المنازل، ويتضمّن كل مثال ثلاث سمات ولكن بدون قيمة للمنزل:

عدد غرف النوم عدد الحمامات عمر المنزل
3 2 15
2 1 72
4 2 34

في تعلُّم الآلة الموجَّه، يتم تدريب النماذج على أمثلة مصنَّفة، ويتم إجراء توقعات على أمثلة غير مصنَّفة.

في التعلّم شبه الموجَّه وغير الموجَّه، يتم استخدام أمثلة غير مصنَّفة أثناء التدريب.

قارن المثال غير المسمى معمثال مُصنَّف.

التعلم الآلي غير الخاضع للإشراف

#clustering
#fundamentals

تدريب أنموذج للعثور على أنماط في مجموعة بيانات، عادةً مجموعة بيانات غير مُسمّاة.

إنّ الاستخدام الأكثر شيوعًا للتعلّم الآلي غير الموجَّه هو تجميع البيانات في مجموعات من الأمثلة المتشابهة. على سبيل المثال، يمكن لخوارزمية تعلّم آلي غير مراقَب تجميع الأغاني استنادًا إلى خصائص مختلفة للموسيقى. ويمكن أن تصبح المجموعات الناتجة مدخلاً لخوارزميات أخرى لتعلُّم الآلة (على سبيل المثال، لخدمة اقتراحات موسيقية). يمكن أن يساعد التجميع العنقودي عندما تكون التصنيفات المفيدة نادرة أو غير متوفّرة. على سبيل المثال، في مجالات مثل مكافحة إساءة الاستخدام والاحتيال، يمكن أن تساعد المجموعات البشر في فهم البيانات بشكل أفضل.

التباين مع التعلم الآلي الخاضع للإشراف.

راجع ما هو التعلم الآلي؟ في دورة مقدمة في التعلم الآلي للحصول على مزيد من المعلومات.

نمذجة التحسين

تقنية النمذجة، المستخدمة بشكل شائع في التسويق، والتي تقوم بنمذجة "التأثير السببي" (المعروف أيضًا باسم "التأثير التدريجي") لـ "العلاج" على "الفرد". وإليك مثالان:

  • قد يستخدم الأطباء نمذجة الارتقاء للتنبؤ بانخفاض معدل الوفيات (التأثير السببي) الناتج عن إجراء طبي (علاج) اعتمادًا على عمر وتاريخ المريض (الفرد) الطبي.
  • قد تستخدم جهات التسويق نماذج تحسين الأداء لتوقّع الزيادة في احتمال إجراء عملية شراء (تأثير سببي) بسبب إعلان (معالجة) على شخص (فرد).

يختلف نموذج تحسين الاستجابة عن التصنيف أو الانحدار في أنّ بعض التصنيفات (مثل نصف التصنيفات في المعالجات الثنائية) تكون دائمًا غير متوفّرة في نموذج تحسين الاستجابة. على سبيل المثال، يمكن أن يتلقّى المريض علاجًا أو لا يتلقّاه، وبالتالي، يمكننا فقط ملاحظة ما إذا كان المريض سيشفى أو لن يشفى في إحدى هاتين الحالتين فقط (وليس كلتيهما). تتمثّل الميزة الرئيسية لنموذج التحسّن في أنّه يمكنه إنشاء توقّعات للحالة غير المرصودة (الواقع الافتراضي) واستخدامها لاحتساب التأثير السببي.

زيادة الوزن

تطبيق وزن على الفئة المخفضة يساوي العامل الذي تم تخفيضه.

مصفوفة المستخدم

في أنظمة الاقتراحات، متّجه التضمين الذي تم إنشاؤه بواسطة تحليل المصفوفات الذي يتضمّن إشارات كامنة حول تفضيلات المستخدم. يحتوي كل صف في مصفوفة المستخدمين على معلومات حول القوة النسبية لمختلف الإشارات الكامنة لمستخدم واحد. على سبيل المثال، لنفترض أنّك تستخدم نظامًا لاقتراح الأفلام. في هذا النظام، قد تمثّل الإشارات الضمنية في مصفوفة المستخدمين اهتمام كل مستخدم بأنواع معيّنة، أو قد تكون إشارات يصعب تفسيرها وتتضمّن تفاعلات معقّدة على مستوى عوامل متعدّدة.

تحتوي مصفوفة المستخدمين على عمود لكل ميزة كامنة وصف لكل مستخدم. أي أنّ مصفوفة المستخدمين تتضمّن عدد الصفوف نفسه الذي تتضمّنه المصفوفة المستهدَفة التي يتم تحليلها إلى عوامل. على سبيل المثال، إذا كان لديك نظام اقتراحات للأفلام يضم 1,000,000 مستخدم، ستحتوي مصفوفة المستخدمين على 1,000,000 صف.

V

الإثبات

#fundamentals

التقييم الأوّلي لجودة النموذج تتحقّق عملية التحقّق من صحة البيانات من جودة توقّعات النموذج من خلال مقارنتها بمجموعة التحقّق من صحة البيانات.

لأن مجموعة التحقق تختلف عن مجموعة التدريب يساعد التحقق من الصحة على الحماية من الإفراط في التجهيز.

يمكنك أن تفكر في تقييم النموذج مقابل مجموعة التحقق من الصحة باعتبارها الجولة الأولى من الاختبار وتقييم النموذج مقابل مجموعة التحقق من الصحة.مجموعة الاختبار كجولة ثانية من الاختبار.

فقدان التحقق

#fundamentals
#Metric

المقياس الذي يمثّل الخسارة التي يتكبّدها النموذج على مجموعة التحقّق خلال تكرار معيّن من التدريب

انظر أيضامنحنى التعميم.

مجموعة التحقّق

#fundamentals

مجموعة فرعية من مجموعة البيانات التي تجري تقييمًا أوليًا مقارنةً بنموذج تم تدريبه. عادةً، يتم تقييم النموذج المدرَّب استنادًا إلى مجموعة التحقّق عدة مرات قبل تقييم النموذج استنادًا إلى مجموعة الاختبار.

تقليديًا، تقوم بتقسيم الأمثلة في مجموعة البيانات إلى المجموعات الفرعية الثلاثة المميزة التالية:

يُفضّل أن ينتمي كل مثال في مجموعة البيانات إلى مجموعة فرعية واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، يجب ألا ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقّق.

اطّلِع على مجموعات البيانات: تقسيم مجموعة البيانات الأصلية في "دورة مكثّفة عن تعلّم الآلة" للحصول على مزيد من المعلومات.

تقدير القيمة

عملية استبدال قيمة مفقودة بقيمة بديلة مقبولة عندما تكون إحدى القيم مفقودة، يمكنك إما تجاهل المثال بأكمله أو استخدام تقدير القيمة لإنقاذ المثال.

على سبيل المثال، لنفترض أنّ لديك مجموعة بيانات تحتوي على ميزة temperature من المفترض أن يتم تسجيلها كل ساعة. ومع ذلك، لم تتوفّر قراءة درجة الحرارة لساعة معيّنة. في ما يلي قسم من مجموعة البيانات:

الطابع الزمني درجة الحرارة
1680561000 10
1680564600 12
1680568200 غير متاحة
1680571800 20
1680575400 21
1680579000 21

يمكن للنظام إما حذف المثال المفقود أو احتساب درجة الحرارة المفقودة على أنها 12 أو 16 أو 18 أو 20، اعتمادًا على خوارزمية الاحتساب.

مشكلة التدرج المتلاشي

هي ميل تدرّجات الطبقات المخفية المبكرة في بعض الشبكات العصبية العميقة إلى أن تصبح مسطّحة (منخفضة) بشكل مفاجئ. تؤدي التدرجات المنخفضة بشكل متزايد إلى تغييرات أصغر بشكل متزايد في الأوزان على العُقد في شبكة عصبية عميقة، ما يؤدي إلى تعلّم ضئيل أو معدوم. يصعب أو يستحيل تدريب النماذج التي تعاني من مشكلة تضاؤل التدرّج. تعالج خلايا الذاكرة القصيرة الأمد الطويلة هذه المشكلة.

قارِن ذلك بمشكلة التدرّج المتفجّر.

أهمية متغيرة

#df
#Metric

مجموعة من النتائج تشير إلى الأهمية النسبية لكل سمة في النموذج.

على سبيل المثال، ضع في اعتباركشجرة القرار الذي يقدر أسعار المنازل. افترض أن شجرة القرار هذه تستخدم ثلاث ميزات: الحجم والعمر والأسلوب. إذا تم حساب مجموعة من أهمية المتغيرات للميزات الثلاث على النحو التالي: {size=5.8, age=2.5, style=4.7}، فإنّ الحجم أكثر أهمية لشجرة القرار من العمر أو النمط.

توجد مقاييس مختلفة لأهمية المتغير، والتي يمكنها إعلام خبراء التعلم الآلي حول الجوانب المختلفة للنماذج.

مشفر ذاتي متغير (VAE)

نوع منمشفر ذاتي الذي يستغل التناقض بين المدخلات والمخرجات لتوليد إصدارات معدلة من المدخلات. تعتبر أجهزة التشفير التلقائي المتغيرة مفيدة لـالذكاء الاصطناعي التوليدي.

تعتمد أساليب الاستدلال المتغير على الاستدلال المتغير: وهي تقنية لتقدير معلمات نموذج الاحتمالية.

المتّجه

مصطلح عام جدًا يختلف معناه باختلاف المجالات الرياضية والعلمية. في إطار تعلُّم الآلة، يتضمّن المتّجه خاصيتَين:

  • نوع البيانات: عادةً ما تحتوي المتجهات في التعلم الآلي على أرقام ذات فاصلة عائمة.
  • عدد العناصر: هذا هو طول المتجه أو بعده.

على سبيل المثال، لنفترض متجه ميزات يحتوي على ثمانية أعداد نقطية عائمة. يبلغ طول أو حجم متجه الميزات هذا ثمانية. يُرجى العِلم أنّ متّجهات تعلُّم الآلة غالبًا ما تتضمّن عددًا كبيرًا من السمات.

يمكنك تمثيل العديد من أنواع المعلومات المختلفة كمتجه. على سبيل المثال:

  • يمكن تمثيل أي موضع على سطح الأرض كمتّجه ثنائي الأبعاد، حيث يمثّل أحد البُعدَين خط العرض والآخر خط الطول.
  • يمكن تمثيل الأسعار الحالية لكل من الأسهم الـ500 على هيئة متجه مكون من 500 بُعد.
  • يمكن تمثيل توزيع الاحتمالات على عدد محدود من الفئات كمتّجه. على سبيل المثال، يمكن لنظام التصنيف المتعدد الفئات الذي يتوقّع أحد الألوان الثلاثة الناتجة (الأحمر أو الأخضر أو الأصفر) أن يعرض المتّجه (0.3, 0.2, 0.5) ليعني P[red]=0.3, P[green]=0.2, P[yellow]=0.5.

يمكن ربط المتجهات ببعضها، وبالتالي يمكن تمثيل مجموعة متنوعة من الوسائط المختلفة كمتجه واحد. تعمل بعض النماذج مباشرةً على تسلسل العديد من عمليات الترميز الواحد الفعّال.

تم تحسين المعالِجات المتخصّصة، مثل وحدات معالجة الموتّرات، لتنفيذ عمليات رياضية على المتّجهات.

المتجه هو موتر ل رتبة 1.

الذروة

#جوجل كلاود
#generativeAI
منصة Google Cloud للذكاء الاصطناعي والتعلم الآلي. توفر Vertex الأدوات والبنية الأساسية لبناء تطبيقات الذكاء الاصطناعي ونشرها وإدارتها، بما في ذلك الوصول إلىGemini نماذج.

ترميز الاهتزاز

#generativeAI

إصدار طلب إلى نموذج ذكاء اصطناعي توليدي لإنشاء برنامج أي أنّ الطلبات التي تقدّمها تصف الغرض من البرنامج وميزاته، ويحوّلها نموذج الذكاء الاصطناعي التوليدي إلى رمز مصدر. لا يتطابق الرمز البرمجي الذي تم إنشاؤه دائمًا مع نواياك، لذا يتطلّب الترميز المستند إلى الإحساس عادةً تكرارًا.

صاغ أندريه كارباثي مصطلح "الترميز حسب الأجواء" في هذه المشاركة على X. في منشور X، وصف كارباثي هذه الطريقة بأنّها "نوع جديد من الترميز... حيث تستسلم تمامًا للأجواء...". لذلك، كان المصطلح يشير في الأصل إلى نهج متساهل عن قصد في إنشاء البرامج، حيث قد لا يتم حتى فحص الرمز البرمجي الذي تم إنشاؤه. ومع ذلك، تطوّر المصطلح بسرعة في العديد من الأوساط ليصبح يعني الآن أي شكل من أشكال الترميز من إنشاء الذكاء الاصطناعي.

للحصول على وصف أكثر تفصيلاً لبرمجة الاهتزازات، راجع ما هو ترميز الاهتزاز؟

بالإضافة إلى ذلك، قم بمقارنة وتباين ترميز الاهتزاز مع:

واط

دالة الخسارة Wasserstein

#Metric

إحدى دوال الخسارة الشائعة الاستخدام في الشبكات التوليدية الخصومية، استنادًا إلى مسافة نقل التربة بين توزيع البيانات التي تم إنشاؤها والبيانات الحقيقية.

الوزن

#fundamentals

قيمة يضربها النموذج في قيمة أخرى. التدريب هو عملية تحديد الأوزان المثالية للنموذج، أما الاستنتاج فهو عملية استخدام تلك الأوزان التي تم تعلّمها لإجراء التوقعات.

راجع الانحدار الخطي في الدورة التدريبية المكثفة للتعلم الآلي للحصول على مزيد من المعلومات.

المربعات الصغرى المتناوبة المرجحة (WALS)

خوارزمية لتقليل دالة الهدف أثناء تحليل المصفوفة في أنظمة الاقتراحات، ما يتيح تخفيض وزن الأمثلة الناقصة. تخفّض طريقة المربّعات الصغرى المرجّحة الخطأ التربيعي المرجّح بين المصفوفة الأصلية وإعادة الإنشاء من خلال التبديل بين تثبيت تحليل الصفوف وتحليل الأعمدة. يمكن حلّ كلّ من عمليات التحسين هذه باستخدام التحسين المحدّب بطريقة المربّعات الصغرى. لمزيد من التفاصيل، يُرجى الاطّلاع على دورة أنظمة الاقتراحات التدريبية.

المبلغ المرجح

#fundamentals

مجموع كل قيم الإدخال ذات الصلة مضروبًا في الأوزان المقابلة لها. على سبيل المثال، لنفترض أنّ المدخلات ذات الصلة تتألف مما يلي:

قيمة الإدخال وزن الإدخال
2 -1.3
-1 0.6
3 0.4

وبالتالي، يكون المجموع المرجّح كما يلي:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

المجموع المرجّح هو وسيطة الإدخال إلى دالة التنشيط.

نموذج واسع

نموذج خطي يتضمّن عادةً العديد من سمات الإدخال المتفرّقة. نطلق على هذا النوع من النماذج اسم "واسع" لأنّه نوع خاص من الشبكات العصبية يتضمّن عددًا كبيرًا من المدخلات التي تتصل مباشرةً بعقدة الإخراج. غالبًا ما يكون من الأسهل تصحيح أخطاء النماذج العميقة وفحصها مقارنةً بالنماذج الواسعة. على الرغم من أنّ النماذج الواسعة لا يمكنها التعبير عن اللاخطية من خلال الطبقات المخفية، يمكنها استخدام عمليات تحويل مثل تقاطع الميزات والتجميع في فئات لنمذجة اللاخطية بطرق مختلفة.

يختلف عن النموذج العميق.

العرض

عدد الخلايا العصبية في طبقة معيّنة من شبكة عصبية

حكمة الجمهور

#df

تشير إلى فكرة أنّ احتساب متوسط آراء أو تقديرات مجموعة كبيرة من الأشخاص (أي "الجمهور") غالبًا ما يؤدي إلى نتائج جيدة بشكل مدهش. على سبيل المثال، لنفترض أنّ هناك لعبة يخمّن فيها المشاركون عدد حبّات الحلوى الهلامية المعبّأة في برطمان كبير. مع أنّ معظم التخمينات الفردية ستكون غير دقيقة، تبيّن تجريبيًا أنّ متوسط جميع التخمينات يكون قريبًا بشكل مدهش من العدد الفعلي لحبات الحلوى في المرطبان.

المجموعات هي نظير برمجي لـ "حكمة الجمهور". حتى إذا كانت النماذج الفردية تقدّم توقّعات غير دقيقة بشكل كبير، فإنّ حساب متوسط التوقّعات الناتجة عن العديد من النماذج يؤدي غالبًا إلى توقّعات جيدة بشكل مدهش. على سبيل المثال، على الرغم من أنّ شجرة القرار الفردية قد تقدّم تنبؤات غير دقيقة، إلا أنّ غابة القرار غالبًا ما تقدّم تنبؤات دقيقة جدًا.

تضمين الكلمات

تمثيل كل كلمة في مجموعة كلمات ضمن متجه تضمين، أي تمثيل كل كلمة كمتجه من قيم النقطة العائمة بين 0.0 و1.0 تمثّل الكلمات التي لها معانٍ متشابهة بشكل أكثر تشابهًا من الكلمات التي لها معانٍ مختلفة. على سبيل المثال، سيكون لكل من الجزر والكرفس والخيار تمثيلات متشابهة نسبيًا، وستكون مختلفة تمامًا عن تمثيلات الطائرة والنظارات الشمسية ومعجون الأسنان.

X

XLA (Accelerated Linear Algebra)

برنامج تجميع مفتوح المصدر لتعلُّم الآلة مخصّص لوحدات معالجة الرسومات ووحدات المعالجة المركزية ومسرّعات تعلُّم الآلة

تأخذ أداة تجميع XLA النماذج من أُطر تعلُّم الآلة الشائعة، مثل PyTorch وTensorFlow وJAX، وتعمل على تحسينها لتحقيق أداء عالٍ على مختلف منصات الأجهزة، بما في ذلك وحدات معالجة الرسومات ووحدات المعالجة المركزية ومسرّعات تعلُّم الآلة.

Z

التعلم بدون طلقة

نوع من تدريب تعلُّم الآلة حيث يستنتج النموذج توقّعًا لمهمة لم يتم تدريبه عليها بشكل محدّد. بعبارة أخرى، لا يتلقّى النموذج أي أمثلة تدريبية خاصة بالمهمة، ولكن يُطلب منه إجراء استنتاج لتلك المهمة.

مطالبة صفرية

#generativeAI

أ اِسْتَدْعَى هذا ما يفعلهلا تقديم مثال لكيفية رغبتك في ذلك نموذج اللغة الكبير للرد. على سبيل المثال:

أجزاء من موجه واحد ملاحظات
ما هي العملة الرسمية للبلد المحدد؟ السؤال الذي تريد من LLM أن يجيب عليه.
الهند: الاستعلام الفعلي.

قد يردّ النموذج اللغوي الكبير بأي مما يلي:

  • روبية
  • INR
  • ر.ه.‏
  • الروبية الهندية
  • الروبية
  • الروبية الهندية

جميع الإجابات صحيحة، ولكن قد تفضّل تنسيقًا معيّنًا.

قارِن بين الطلب بدون أمثلة والمصطلحات التالية:

تطبيع الدرجة Z

#fundamentals

التحجيم هو أسلوب يستبدل قيمة سمة أولية بقيمة نقطة عائمة تمثّل عدد الانحرافات المعيارية عن متوسط تلك السمة. على سبيل المثال، لنفترض أنّ هناك ميزة متوسطها 800 وانحرافها المعياري 100. يوضّح الجدول التالي كيف يمكن أن يؤدي التوحيد القياسي لنتيجة Z إلى ربط القيمة الأولية بنتيجة Z:

قيمة أساسية الدرجة المعيارية
800 0
950 +1.5
575 -2.25

بعد ذلك، يتم تدريب نموذج تعلُّم الآلة على قيم Z الخاصة بهذه الميزة بدلاً من القيم الأولية.

يمكنك الاطّلاع على البيانات الرقمية: التسوية في "الدورة التدريبية المكثّفة حول تعلُّم الآلة" للحصول على مزيد من المعلومات.

يقوم هذا القاموس بتعريف مصطلحات التعلم الآلي.