مسرد مصطلحات التعلم الآلي: الذكاء الاصطناعي التوليدي

تتضمّن هذه الصفحة مصطلحات في مسرد مصطلحات الذكاء الاصطناعي التوليدي. للاطّلاع على جميع مصطلحات مسرد المصطلحات، انقر هنا.

جيم

نموذج الانحدار التلقائي

#language
#image
#generativeAI

model يستنتج توقّعًا استنادًا إلى توقّعاته السابقة. على سبيل المثال، تتوقّع نماذج اللغة الانحدارية التلقائية الرمز المميّز التالي استنادًا إلى الرموز المميّزة التي كان يتم توقّعها سابقًا. جميع النماذج اللغوية الكبيرة المستندة إلى المحوّل هي انحدار تلقائي.

وفي المقابل، لا تكون نماذج الصور المستندة إلى GAN انحدارية تلقائيًا لأنها تنشئ صورة في تصريح أمامي واحد وليس تكرارًا على خطوات. في المقابل، إنّ بعض نماذج إنشاء الصور تتراجع تلقائيًا لأنّها تنشئ صورة بخطوات.

C

تحفيز سلسلة من الأفكار

#language
#generativeAI

يشير ذلك المصطلح إلى أسلوب هندسة سريعة يشجّع نموذج اللغة الكبيرة (LLM) لشرح أسبابه بالتفصيل. على سبيل المثال، ضع في اعتبارك المطالبة التالية، مع إيلاء اهتمام خاص للجملة الثانية:

كم عدد القوة الجاذبة التي يختبرها سائق في سيارة تمتد من 0 إلى 60 ميلاً في الساعة في 7 ثوانٍ؟ في الإجابة، اعرض جميع العمليات الحسابية ذات الصلة.

من المرجّح أن يكون ردّ النموذج اللغوي الكبير:

  • اعرض تسلسلاً من المعادلات الفيزيائية، مع إدخال القيم 0 و60 و7 في الأماكن المناسبة.
  • اشرح سبب اختيار هذه المعادلات وماذا تعني المتغيرات المختلفة.

يجبر النموذج اللغوي الكبير على إجراء جميع العمليات الحسابية، ما قد يؤدي إلى إجابة أكثر دقة. بالإضافة إلى ذلك، يتيح طلب التفكير المتسلسل للمستخدم فحص خطوات النموذج اللغوي الكبير (LLM) لتحديد ما إذا كانت الإجابة منطقية.

D

الطلب المباشر

#language
#generativeAI

مرادف لعبارة طلب عدم توفّر لقطة شاشة.

التقطير

#generativeAI

يشير ذلك المصطلح إلى عملية تصغير حجم model واحد (يُعرف باسم model) إلى نموذج أصغر (يُعرف باسم model) يحاكي توقّعات النموذج الأصلي بأكبر قدر ممكن من الدقة. التقطير مفيد لأن النموذج الأصغر له فائدتان رئيسيتان على النموذج الأكبر (المعلم):

  • وقت استنتاج أسرع
  • انخفاض استخدام الذاكرة والطاقة

ومع ذلك، فإن تنبؤات الطالب عادة لا تكون جيدة مثل تنبؤات المعلم.

يعمل الاستخلاص على تدريب نموذج الطالب لتقليل دالة الخسارة استنادًا إلى الفرق بين مخرجات توقعات نموذج الطلاب والمعلمين.

قارن بين استخلاص المعلومات والتباينات مع المصطلحات التالية:

F

المطالبة بلقطات قليلة

#language
#generativeAI

إشعار يتضمّن أكثر من مثال واحد ((بعض الأمثلة) يوضّح كيفية استجابة نموذج اللغة الكبيرة. على سبيل المثال، يحتوي الطلب الطويل التالي على مثالين يوضحان نموذج لغوي كبير لكيفية الإجابة على استعلام.

أجزاء من إشعار واحد Notes
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد الإجابة عنه من خلال النموذج اللغوي الكبير (LLM).
فرنسا: يورو مثال واحد.
المملكة المتحدة: جنيه إسترليني مثال آخر.
الهند: طلب البحث الفعلي.

بشكل عام، يؤدي تفعيل بضع لقطات ومع ذلك، فإن المطالبة بلقطات قليلة تتطلب مطالبة أطول.

إنّ الطلب من خلال بضع لقطات هو شكل من أشكال التعلّم الذي يتضمّن بضع لقطات يتم تطبيقه على التعلّم المستند إلى الطلبات.

الضبط الدقيق

#language
#image
#generativeAI

هو تصريح تدريب ثان خاص بمهمة يتم إجراؤه على نموذج مدرَّب مسبقًا لتحسين معلَماته في حالة استخدام معيّنة. على سبيل المثال، في ما يلي تسلسل التدريب الكامل لبعض النماذج اللغوية الكبيرة:

  1. تدريب مسبق: يمكنك تدريب نموذج لغوي كبير على مجموعة بيانات عامة واسعة، مثل جميع صفحات ويكيبيديا باللغة الإنجليزية.
  2. ضبط الصوت بدقة: يمكنك تدريب نموذج مدرَّب مسبقًا لأداء مهمة محدّدة، مثل الاستجابة للطلبات الطبية. يتضمن الضبط الدقيق عادةً مئات أو آلاف الأمثلة التي تركز على المهمة المحددة.

ومثال آخر على ذلك هو تسلسل التدريب الكامل لنموذج الصور الكبيرة على النحو التالي:

  1. تدريب مسبق: درِّب على نموذج صورة كبير على مجموعة بيانات صور عامة واسعة، مثل جميع الصور في Wikimedia Commons.
  2. الضبط الدقيق: تدريب النموذج المدرَّب مسبقًا لأداء مهمة محددة، مثل إنشاء صور حيتان أوركا.

يمكن أن يستلزم الضبط الدقيق أي مجموعة من الاستراتيجيات التالية:

  • تعديل جميع المَعلمات الحالية للنموذج المدرَّب مسبقًا. ويسمى هذا أحيانًا الضبط الكامل.
  • تعديل بعض المعلَمات الحالية فقط في النموذج المدرَّب مسبقًا (عادةً، الطبقات الأقرب إلى طبقة المخرجات)، مع الاحتفاظ بالمعلَمات الحالية الأخرى بدون تغيير (عادةً، الطبقات الأقرب إلى طبقة الإدخال). اطّلِع على ضبط فعالية المعلَمات.
  • إضافة المزيد من الطبقات، عادةً فوق الطبقات الحالية الأقرب إلى طبقة المخرجات.

الضبط الدقيق هو شكل من أشكال نقل التعلّم. وبالتالي، قد يستخدم الضبط الدقيق دالة خسارة مختلفة أو نوع نموذج مختلف عن تلك المستخدمة لتدريب النموذج المدرَّب مسبقًا. على سبيل المثال، يمكنك ضبط نموذج صور كبير مدرَّب مسبقًا لإنشاء نموذج انحدار يعرض عدد الطيور في صورة إدخال.

المقارنة والتباين في الضبط الدقيق باستخدام المصطلحات التالية:

G

الذكاء الاصطناعي التوليدي

#language
#image
#generativeAI

مجال تحويلي صاعد بدون تعريف رسمي. يتفق معظم الخبراء على أنّ نماذج الذكاء الاصطناعي التوليدي يمكنها إنشاء ("إنشاء") محتوى ينطبق عليه كل ما يلي:

  • معقد
  • متماسكة
  • الصورة الأصلية

على سبيل المثال، يمكن لنموذج الذكاء الاصطناعي التوليدي إنشاء مقالات أو صور معقدة.

يمكن أيضًا لبعض التقنيات السابقة، بما في ذلك LSTM وRNN، إنشاء محتوى أصلي ومتناسق. يرى بعض الخبراء أنّ هذه التقنيات السابقة هي ذكاء اصطناعي توليدي، بينما يعتقد البعض الآخر أنّ الذكاء الاصطناعي التوليدي الحقيقي يتطلّب إنتاج بيانات أكثر تعقيدًا من تلك التي يمكن أن تنتجها التكنولوجيات السابقة.

تتعارض مع تعلُّم الآلة القائم على التوقّعات.

I

التعلّم حسب السياق

#language
#generativeAI

مرادف لعبارة طلب بضع لقطات.

ضبط التعليمات

#generativeAI

هو شكل من أشكال التعديلات الدقيقة التي تحسّن قدرة نموذج الذكاء الاصطناعي التوليدي على اتّباع التعليمات. يتضمن ضبط التعليم تدريب نموذج على سلسلة من مطالبات التعليمات، وعادة ما تغطي مجموعة متنوعة واسعة من المهام. بعد ذلك، يميل النموذج المضبوط وفقًا للتعليمات إلى إنشاء ردود مفيدة للطلبات بدون إطلاق في مجموعة متنوعة من المهام.

المقارنة والتباين مع:

O

المطالبة بلقطة واحدة

#language
#generativeAI

إشعار يتضمّن مثالاً واحدًا يوضّح كيفية استجابة نموذج اللغة الكبيرة على سبيل المثال، تحتوي المطالبة التالية على مثال واحد يوضح نموذج لغوي كبير كيف يجب أن يجيب على استعلام.

أجزاء من إشعار واحد Notes
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد الإجابة عنه من خلال النموذج اللغوي الكبير (LLM).
فرنسا: يورو مثال واحد.
الهند: طلب البحث الفعلي.

قارِن بين الطلب من لقطة واحدة والمصطلحات التالية:

P

ضبط فعّال معلَمة

#language
#generativeAI

هو مجموعة من التقنيات لضبط نموذج لغوي مدرّب مسبقًا (PLM) كبير أكثر من التعديلات الدقيقة الكاملة. يضبط عادةً الضبط الفعال مع المعلمات معلَمات أقل بكثير من الضبط الكامل، ولكن ينتج بشكل عام نموذج لغوي كبير يحقّق أداءً جيدًا (أو شبه كالتالي) مثل نموذج لغوي كبير تم إنشاؤه من التوليف الدقيق.

المقارنة والتباين بين التوليف الفعال للمعلَمات مع:

يُعرف التوليف الفعال مع المَعلمات أيضًا باسم ضبط فعّال للمعلَمات.

منظمة PLM

#language
#generativeAI

اختصار يشير إلى نموذج لغوي مدرّب مسبقًا.

نموذج مدرَّب مسبقًا

#language
#image
#generativeAI

النماذج أو مكوّنات النماذج (مثل متجه تضمين) التي سبق أن تم تدريبها. في بعض الأحيان، ستدخل متّجهات تضمين مدرّبة مسبقًا في شبكة عصبية. وفي أحيان أخرى، سيعمل النموذج على تدريب متجهات التضمين نفسها بدلاً من الاعتماد على التضمينات المدرّبة مسبقًا.

يشير مصطلح نموذج لغوي مدرّب مسبقًا إلى نموذج لغوي كبير وخضع لتدريب مسبق.

التدريب المُسبَق

#language
#image
#generativeAI

يشير ذلك المصطلح إلى التدريب الأوّلي على نموذج معيّن على مجموعة بيانات كبيرة. بعض النماذج المدرَّبة مسبقًا هي نماذج عمالقة أحرجة ويجب تحسينها عادةً من خلال تدريب إضافي. على سبيل المثال، قد يدرّب خبراء تعلّم الآلة مسبقًا نموذجًا لغويًا كبيرًا على مجموعة بيانات نصية ضخمة، مثل جميع الصفحات باللغة الإنجليزية في ويكيبيديا. بعد التدريب المسبق، يمكن تحسين النموذج الناتج بشكل أكبر من خلال أي من الأساليب التالية:

رسالة مطالبة

#language
#generativeAI

أي نص يتمّ إدخاله كإدخال في نموذج لغوي كبير لضبط النموذج لكي يتصرف بطريقة معيّنة يمكن أن تكون المطالبات قصيرة مثل العبارة أو طويلة بشكل عشوائي (على سبيل المثال، النص الكامل لرواية). تنقسم المطالبات إلى فئات متعددة، بما في ذلك تلك المعروضة في الجدول التالي:

فئة الإشعار مثال Notes
السؤال ما مدى سرعة الطيور في الطيران؟
مدرسة تعليم كتابة قصيدة مضحكة عن التحكيم: إشعار يطلب من نموذج اللغة الكبير تنفيذ إجراء ما.
مثال ترجمة التعليمات البرمجية Markdown إلى HTML. على سبيل المثال:
Markdown: * عنصر قائمة
HTML: <ul> <li>عنصر القائمة</li> </ul>
الجملة الأولى في هذا المثال المطالبة هي تعليمات. بقية المطالبة هي المثال.
الدور يُرجى توضيح سبب استخدام خوارزمية انحدار التدرج في التدريب على تعلُّم الآلة للحصول على درجة الدكتوراه في الفيزياء. الجزء الأول من الجملة هو تعليمات، والعبارة "إلى شهادة دكتوراه في الفيزياء" هي جزء الدور.
إدخال جزئي لإكمال النموذج يعيش رئيس وزراء المملكة المتحدة في يمكن أن ينتهي طلب الإدخال الجزئي بشكل مفاجئ (كما هو الحال في هذا المثال) أو ينتهي بشرطة سفلية.

يمكن لنموذج الذكاء الاصطناعي التوليدي أن يتجاوب مع أي طلب بإضافة نص أو رمز أو صور أو وحدات تضمين أو فيديوهات، أو أي شيء تقريبًا.

التعلُّم القائم على الطلب

#language
#generativeAI

يشير ذلك المصطلح إلى إمكانية لنماذج معيّنة تتيح تعديل سلوكها استجابةً للإدخال العشوائي للنص (الطلبات). في نموذج التعلّم المستند إلى الطلبات النموذجية، يستجيب نموذج لغوي كبير للسؤال من خلال إنشاء نص. على سبيل المثال، لنفترض أن مستخدمًا أدخل المطالبة التالية:

تلخيص قانون الحركة الثالث لنيوتن.

إن النموذج القادر على التعلم القائم على المطالبة لا يتم تدريبه بشكل خاص للإجابة على المطالبة السابقة. بل إنّ النموذج "يعرف" الكثير من الحقائق حول الفيزياء، والكثير من القواعد اللغوية العامة، ويعرف كثيرًا بما يشكّل إجابات مفيدة بشكل عام. هذه المعرفة كافية لتقديم إجابة مفيدة (نأمل). من خلال ملاحظات بشرية إضافية ("كانت تلك الإجابة معقّدة جدًا" أو "ما التفاعل؟")، يمكن لبعض أنظمة التعلُّم المستندة إلى الطلبات أن تحسّن تدريجيًا فائدة تلك الإجابات.

تصميم المطالبة

#language
#generativeAI

مرادف لعبارة هندسة مطالبة.

هندسة الطلبات

#language
#generativeAI

أسلوب إنشاء الطلبات التي تجذب الردود المطلوبة من نموذج لغوي كبير يقوم البشر بإجراء هندسة فورية. تعد كتابة مطالبات جيدة التنظيم جزءًا أساسيًا من ضمان ردود مفيدة من نموذج لغوي كبير. تعتمد الهندسة الفورية على العديد من العوامل، بما في ذلك:

  • مجموعة البيانات التي تم استخدامها للتدريب المسبق وربما تحسين نموذج اللغة الكبير.
  • يشير ذلك المصطلح إلى degree ومعلَمات فك الترميز الأخرى التي يستخدمها النموذج لإنشاء الاستجابات.

راجِع مقدمة عن تصميم المطالبة لمزيد من التفاصيل حول كتابة الطلبات المفيدة.

تصميم رسالة المطالبة هو مرادف للهندسة الفورية.

ضبط الإشعارات

#language
#generativeAI

آلية ضبط فعّال للمعلَمات تتعرّف على "بادئة" يضيفها النظام قبل الإشعار الفعلي.

من أشكال توليف المطالبة، التي يُطلق عليها أحيانًا اسم ضبط البادئة، إضافة البادئة إلى كل طبقة. في المقابل، يؤدي معظم ضبط الإشعارات إلى إضافة بادئة إلى طبقة الإدخال فقط.

R

التعلّم التعزيزي من آراء المستخدمين (RLHF)

#generativeAI
#rl

استخدام الملاحظات من خبراء التصنيف لتحسين جودة استجابات النموذج. على سبيل المثال، يمكن لآلية RLHF أن تطلب من المستخدمين تقييم جودة استجابة نموذج معيّن باستخدام رمز تعبيري 👍 أو 👎. يمكن للنظام بعد ذلك تعديل ردوده المستقبلية بناءً على تلك الملاحظات.

المطالبة بالدور

#language
#generativeAI

جزء اختياري من طلب يحدّد جمهورًا مستهدفًا لاستجابة نموذج الذكاء الاصطناعي التوليدي. وبدون طلب الدور، يقدّم النموذج اللغوي الكبير إجابة قد تكون مفيدة أو لا تكون مفيدة للشخص الذي يطرح الأسئلة. من خلال طلب الدور، يمكن لنموذج اللغة الكبير الإجابة بطريقة أكثر ملاءمة وأكثر فائدة لجمهور مستهدف محدّد. على سبيل المثال، يظهر جزء مطالبة الدور في المتطلبات التالية بخط غامق:

  • تلخيص هذه المقالة للحصول على درجة الدكتوراه في الاقتصاد.
  • يُرجى وصف طريقة عمل المد والجزر لعمر 10 سنوات.
  • شرح الأزمة المالية لعام 2008 تحدث كما يمكنك إلى طفل صغير أو كلب جولدن ريتريفر.

T

درجة الحرارة

#language
#image
#generativeAI

يشير ذلك المصطلح إلى مَعلمة فائقة تتحكّم في درجة التوزيع العشوائي لمخرجات النموذج. تؤدي درجات الحرارة الأعلى إلى ناتج عشوائي أكثر، بينما تؤدي درجات الحرارة المنخفضة إلى مخرجات عشوائية أقل.

يعتمد اختيار أفضل درجة حرارة على التطبيق المحدد والخصائص المطلوبة لمخرجات النموذج. على سبيل المثال، من المحتمل أن ترفع درجة الحرارة عند إنشاء تطبيق ينشئ منتجًا إبداعيًا. بالمقابل، من المحتمل أن تخفض درجة الحرارة عند إنشاء نموذج يصنف الصور أو النص من أجل تحسين دقة النموذج واتساقه.

غالبًا ما تُستخدم درجة الحرارة مع softmax.

Z

طلب اللقطة صفر

#language
#generativeAI

طلب لا يقدّم مثالاً على الطريقة التي تريد أن يردّ بها نموذج اللغة الكبيرة مثلاً:

أجزاء من إشعار واحد Notes
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد الإجابة عنه من خلال النموذج اللغوي الكبير (LLM).
الهند: طلب البحث الفعلي.

قد يتجاوب نموذج اللغة الكبير مع أيٍّ مما يلي:

  • روبية
  • INR
  • الروبية الهندية
  • الروبية
  • الروبية الهندية

جميع الإجابات صحيحة، ولكن قد تفضل تنسيقًا معينًا.

قارِن بين طلب اللقطة بدون دقة والمصطلحات التالية: