واژه نامه یادگیری ماشینی: هوش مصنوعی مولد

این صفحه شامل اصطلاحات واژه‌نامه هوش مصنوعی مولد است. برای مشاهده همه اصطلاحات واژه‌نامه، اینجا کلیک کنید .

الف

انطباق

#هوش_مصنوعی_تولیدی

مترادف برای تنظیم یا تنظیم دقیق .

عامل

#هوش_مصنوعی_تولیدی

نرم‌افزاری که می‌تواند ورودی‌های چندوجهی کاربر را به منظور برنامه‌ریزی و اجرای اقدامات از طرف کاربر، استدلال کند.

در یادگیری تقویتی ، یک عامل، موجودیتی است که از یک سیاست برای به حداکثر رساندن بازده مورد انتظار حاصل از انتقال بین حالت‌های محیط استفاده می‌کند.

عامل

#هوش_مصنوعی_تولیدی

صفت فاعل . Agentic به ویژگی‌هایی که فاعل‌ها دارند (مانند خودمختاری) اشاره دارد.

گردش کار عاملی

#هوش_مصنوعی_تولیدی

فرآیندی پویا که در آن یک عامل به طور مستقل اقداماتی را برای دستیابی به یک هدف برنامه‌ریزی و اجرا می‌کند. این فرآیند ممکن است شامل استدلال، فراخوانی ابزارهای خارجی و خوداصلاحی برنامه خود باشد.

شیب هوش مصنوعی

#هوش_مصنوعی_تولیدی

خروجی از یک سیستم هوش مصنوعی مولد که کمیت را بر کیفیت ترجیح می‌دهد. به عنوان مثال، یک صفحه وب با شیب هوش مصنوعی پر از محتوای بی‌کیفیت، تولید شده توسط هوش مصنوعی و ارزان است.

ارزیابی خودکار

#هوش_مصنوعی_تولیدی

استفاده از نرم‌افزار برای قضاوت در مورد کیفیت خروجی یک مدل.

وقتی خروجی مدل نسبتاً سرراست باشد، یک اسکریپت یا برنامه می‌تواند خروجی مدل را با یک پاسخ طلایی مقایسه کند. این نوع ارزیابی خودکار گاهی اوقات ارزیابی برنامه‌ریزی‌شده نامیده می‌شود. معیارهایی مانند ROUGE یا BLEU اغلب برای ارزیابی برنامه‌ریزی‌شده مفید هستند.

وقتی خروجی مدل پیچیده است یا هیچ پاسخ صحیحی ندارد، گاهی اوقات یک برنامه یادگیری ماشین جداگانه به نام autorater ارزیابی خودکار را انجام می‌دهد.

در تضاد با ارزیابی انسانی .

ارزیابی خودکار

#هوش_مصنوعی_تولیدی
یک مکانیزم ترکیبی برای قضاوت در مورد کیفیت خروجی یک مدل هوش مصنوعی مولد که ارزیابی انسانی را با ارزیابی خودکار ترکیب می‌کند. یک autorater یک مدل یادگیری ماشینی است که بر روی داده‌های ایجاد شده توسط ارزیابی انسانی آموزش دیده است. در حالت ایده‌آل، یک autorater یاد می‌گیرد که از یک ارزیاب انسانی تقلید کند.

ارزیاب‌های خودکار از پیش ساخته شده در دسترس هستند، اما بهترین ارزیاب‌های خودکار به طور خاص برای کاری که ارزیابی می‌کنید تنظیم شده‌اند.

مدل خودرگرسیون

#هوش_مصنوعی_تولیدی

مدلی که پیش‌بینی را بر اساس پیش‌بینی‌های قبلی خود استنتاج می‌کند. برای مثال، مدل‌های زبانی خودرگرسیو، توکن بعدی را بر اساس توکن‌های پیش‌بینی‌شده قبلی پیش‌بینی می‌کنند. همه مدل‌های زبانی بزرگ مبتنی بر Transformer خودرگرسیو هستند.

در مقابل، مدل‌های تصویر مبتنی بر GAN معمولاً خود-همبسته نیستند زیرا تصویر را در یک مسیر رو به جلو تولید می‌کنند و نه به صورت تکراری در مراحل مختلف. با این حال، برخی از مدل‌های تولید تصویر خود-همبسته هستند زیرا تصویر را در مراحل مختلف تولید می‌کنند.

ب

مدل پایه

#هوش_مصنوعی_تولیدی

یک مدل از پیش آموزش‌دیده که می‌تواند به عنوان نقطه شروع برای تنظیم دقیق جهت رسیدگی به وظایف یا برنامه‌های خاص عمل کند.

همچنین به مدل از پیش آموزش‌دیده و مدل پایه مراجعه کنید.

سی

القای زنجیره‌ای افکار

#هوش_مصنوعی_تولیدی

یک تکنیک مهندسی سریع که یک مدل زبان بزرگ (LLM) را تشویق می‌کند تا استدلال خود را گام به گام توضیح دهد. برای مثال، دستور زیر را در نظر بگیرید و به جمله دوم توجه ویژه‌ای داشته باشید:

راننده در خودرویی که در عرض ۷ ثانیه از ۰ به ۶۰ مایل در ساعت می‌رسد، چند نیروی گرانش را تجربه می‌کند؟ در پاسخ، تمام محاسبات مربوطه را نشان دهید.

پاسخ LLM احتمالاً این خواهد بود:

  • دنباله‌ای از فرمول‌های فیزیک را نشان دهید و مقادیر ۰، ۶۰ و ۷ را در مکان‌های مناسب قرار دهید.
  • توضیح دهید که چرا آن فرمول‌ها را انتخاب کرده و متغیرهای مختلف چه معنایی دارند.

ایجاد زنجیره فکری، LLM را مجبور می‌کند تا تمام محاسبات را انجام دهد که ممکن است منجر به پاسخ صحیح‌تری شود. علاوه بر این، ایجاد زنجیره فکری کاربر را قادر می‌سازد تا مراحل LLM را بررسی کند تا مشخص شود که آیا پاسخ منطقی است یا خیر.

چت

#هوش_مصنوعی_تولیدی

محتوای یک گفتگوی رفت و برگشتی با یک سیستم یادگیری ماشینی، معمولاً یک مدل زبانی بزرگ . تعامل قبلی در یک چت (آنچه تایپ کرده‌اید و نحوه پاسخ مدل زبانی بزرگ) زمینه‌ای برای بخش‌های بعدی چت می‌شود.

یک چت‌بات (chatbot) کاربردی از یک مدل زبانی بزرگ است.

تعبیه زبان متنی

#هوش_مصنوعی_تولیدی

تعبیه‌ای که به «درک» کلمات و عبارات به شیوه‌ای که گویندگان مسلط انسانی می‌توانند، نزدیک می‌شود. تعبیه‌های زبانیِ بافتارمحور می‌توانند نحو، معناشناسی و بافت پیچیده را درک کنند.

برای مثال، جاسازی‌های کلمه انگلیسی cow را در نظر بگیرید. جاسازی‌های قدیمی‌تر مانند word2vec می‌توانند کلمات انگلیسی را به گونه‌ای نمایش دهند که فاصله در فضای جاسازی از cow تا bull مشابه فاصله ewe (گوسفند ماده) تا ram (گوسفند نر) یا از ماده تا نر باشد. جاسازی‌های زبانیِ بافت‌دار می‌توانند با تشخیص اینکه انگلیسی‌زبانان گاهی اوقات به طور اتفاقی از کلمه cow به معنای cow یا bull استفاده می‌کنند، یک قدم فراتر بروند.

پنجره زمینه

#هوش_مصنوعی_تولیدی

تعداد توکن‌هایی که یک مدل می‌تواند در یک اعلان داده شده پردازش کند. هرچه پنجره زمینه بزرگتر باشد، مدل می‌تواند از اطلاعات بیشتری برای ارائه پاسخ‌های منسجم و سازگار به اعلان استفاده کند.

کدگذاری محاوره‌ای

#هوش_مصنوعی_تولیدی

یک گفتگوی تکراری بین شما و یک مدل هوش مصنوعی مولد به منظور ایجاد نرم‌افزار. شما یک دستورالعمل ارائه می‌دهید که برخی از نرم‌افزارها را توصیف می‌کند. سپس، مدل از آن توضیحات برای تولید کد استفاده می‌کند. سپس، شما یک دستورالعمل جدید برای رفع نقص‌های دستورالعمل قبلی یا کد تولید شده ارائه می‌دهید و مدل کد به‌روز شده را تولید می‌کند. شما دو نفر به عقب و جلو می‌روید تا زمانی که نرم‌افزار تولید شده به اندازه کافی خوب باشد.

کدگذاری مکالمه اساساً معنای اصلی کدگذاری ارتعاشی است.

با کدگذاری مشخصات مقایسه کنید.

دی

تذکر مستقیم

#هوش_مصنوعی_تولیدی

مترادف برای تحریک بدون هدف (zero-shot prompting ).

تقطیر

#هوش_مصنوعی_تولیدی

فرآیند کاهش اندازه یک مدل (که به عنوان معلم شناخته می‌شود) به یک مدل کوچک‌تر (که به عنوان دانش‌آموز شناخته می‌شود) که پیش‌بینی‌های مدل اصلی را تا حد امکان با دقت شبیه‌سازی می‌کند. تقطیر مفید است زیرا مدل کوچک‌تر دو مزیت کلیدی نسبت به مدل بزرگ‌تر (معلم) دارد:

  • زمان استنتاج سریع‌تر
  • کاهش مصرف حافظه و انرژی

با این حال، پیش‌بینی‌های دانش‌آموز معمولاً به خوبی پیش‌بینی‌های معلم نیست.

تقطیر، مدل دانش‌آموز را آموزش می‌دهد تا یک تابع زیان را بر اساس تفاوت بین خروجی‌های پیش‌بینی‌های مدل‌های دانش‌آموز و معلم به حداقل برساند.

تقطیر را با اصطلاحات زیر مقایسه و تضاد کنید:

برای اطلاعات بیشتر به بخش LLM: تنظیم دقیق، خلاصه‌سازی و مهندسی سریع در دوره فشرده یادگیری ماشین مراجعه کنید.

ای

ارزیابی‌ها

#هوش_مصنوعی_تولیدی
#متریک

در درجه اول به عنوان مخفف ارزیابی‌های LLM استفاده می‌شود. به طور گسترده‌تر، evals مخفف هر نوع ارزیابی است.

ارزیابی

#هوش_مصنوعی_تولیدی
#متریک

فرآیند اندازه‌گیری کیفیت یک مدل یا مقایسه مدل‌های مختلف با یکدیگر.

برای ارزیابی یک مدل یادگیری ماشین تحت نظارت ، معمولاً آن را در برابر یک مجموعه اعتبارسنجی و یک مجموعه تست ارزیابی می‌کنید. ارزیابی یک LLM معمولاً شامل ارزیابی‌های گسترده‌تر کیفیت و ایمنی است.

ف

واقعیت

#هوش_مصنوعی_تولیدی

در دنیای یادگیری ماشین، ویژگی‌ای که مدلی را توصیف می‌کند که خروجی آن مبتنی بر واقعیت است. واقعیت‌گرایی یک مفهوم است نه یک معیار. برای مثال، فرض کنید دستور زیر را به یک مدل زبانی بزرگ ارسال می‌کنید:

فرمول شیمیایی نمک خوراکی چیست؟

مدلی که واقعیت را بهینه می‌کند، پاسخ خواهد داد:

نمک طعام

وسوسه‌انگیز است که فرض کنیم همه مدل‌ها باید مبتنی بر واقعیت باشند. با این حال، برخی از دستورالعمل‌ها، مانند موارد زیر، باید باعث شوند که یک مدل هوش مصنوعی مولد، خلاقیت را به جای واقعیت بهینه کند.

یه شعر طنز در مورد یه فضانورد و یه کرم ابریشم بگو.

بعید است که شعر لیمریک حاصل بر اساس واقعیت باشد.

با استواری و ثبات قدم در تضاد است.

پوسیدگی سریع

#هوش_مصنوعی_تولیدی

یک تکنیک آموزشی برای بهبود عملکرد LLMها . کاهش سریع شامل کاهش سریع نرخ یادگیری در طول آموزش است. این استراتژی به جلوگیری از بیش‌برازش مدل به داده‌های آموزشی کمک می‌کند و تعمیم‌پذیری را بهبود می‌بخشد.

چند شات باعث

#هوش_مصنوعی_تولیدی

یک اعلان که شامل بیش از یک ("چند") مثال است که نحوه پاسخ مدل زبان بزرگ را نشان می‌دهد. برای مثال، اعلان طولانی زیر شامل دو مثال است که نحوه پاسخ به یک پرس‌وجو توسط یک مدل زبان بزرگ را نشان می‌دهد.

بخش‌هایی از یک دستورالعمل یادداشت‌ها
واحد پول رسمی کشور مشخص شده چیست؟ سوالی که می‌خواهید LLM به آن پاسخ دهد.
فرانسه: یورو یک مثال.
بریتانیا: پوند انگلیس یک مثال دیگر.
هند: پرس و جوی واقعی.

معمولاً روش ترغیب با تعداد کم، نتایج مطلوب‌تری نسبت به روش‌های ترغیب بدون تعداد و ترغیب یک‌باره ایجاد می‌کند. با این حال، روش ترغیب با تعداد کم، به یک روش ترغیب طولانی‌تر نیاز دارد.

روش هدایت چند مرحله‌ای، نوعی از یادگیری چند مرحله‌ای است که در یادگیری مبتنی بر هدایت به کار می‌رود.

برای اطلاعات بیشتر به دوره فشرده مهندسی سریع در یادگیری ماشین مراجعه کنید.

تنظیم دقیق

#هوش_مصنوعی_تولیدی

یک مرحله آموزشی دوم، مختص به یک وظیفه خاص، که بر روی یک مدل از پیش آموزش دیده انجام می‌شود تا پارامترهای آن برای یک مورد استفاده خاص اصلاح شود. به عنوان مثال، توالی کامل آموزش برای برخی از مدل‌های زبانی بزرگ به شرح زیر است:

  1. پیش‌آموزش: یک مدل زبانی بزرگ را روی یک مجموعه داده عمومی وسیع، مانند تمام صفحات ویکی‌پدیا به زبان انگلیسی، آموزش دهید.
  2. تنظیم دقیق: مدل از پیش آموزش‌دیده را برای انجام یک کار خاص ، مانند پاسخ به پرسش‌های پزشکی، آموزش دهید. تنظیم دقیق معمولاً شامل صدها یا هزاران مثال متمرکز بر روی یک کار خاص است.

به عنوان مثالی دیگر، توالی کامل آموزش برای یک مدل تصویر بزرگ به شرح زیر است:

  1. پیش‌آموزش: یک مدل تصویر بزرگ را روی یک مجموعه داده تصویر عمومی گسترده، مانند تمام تصاویر موجود در ویکی‌مدیا کامنز، آموزش دهید.
  2. تنظیم دقیق: مدل از پیش آموزش‌دیده را برای انجام یک کار خاص ، مانند تولید تصاویر نهنگ قاتل، آموزش دهید.

تنظیم دقیق می‌تواند شامل ترکیبی از استراتژی‌های زیر باشد:

  • اصلاح تمام پارامترهای موجود مدل از پیش آموزش‌دیده. این عمل گاهی اوقات تنظیم دقیق کامل نامیده می‌شود.
  • اصلاح تنها برخی از پارامترهای موجود مدل از پیش آموزش‌دیده (معمولاً لایه‌های نزدیک به لایه خروجی )، در حالی که سایر پارامترهای موجود بدون تغییر باقی می‌مانند (معمولاً لایه‌های نزدیک به لایه ورودی ). به تنظیم پارامتر-کارآمد مراجعه کنید.
  • اضافه کردن لایه‌های بیشتر، معمولاً روی لایه‌های موجود نزدیک به لایه خروجی.

تنظیم دقیق نوعی یادگیری انتقالی است. به همین دلیل، تنظیم دقیق ممکن است از یک تابع زیان یا نوع مدل متفاوت از آنچه برای آموزش مدل از پیش آموزش دیده استفاده شده است، استفاده کند. به عنوان مثال، می‌توانید یک مدل تصویر بزرگ از پیش آموزش دیده را تنظیم دقیق کنید تا یک مدل رگرسیون تولید کنید که تعداد پرندگان را در یک تصویر ورودی برمی‌گرداند.

تنظیم دقیق را با اصطلاحات زیر مقایسه و تضاد کنید:

برای اطلاعات بیشتر به دوره فشرده تنظیم دقیق در یادگیری ماشین مراجعه کنید.

مدل فلش

#هوش_مصنوعی_تولیدی

خانواده‌ای از مدل‌های نسبتاً کوچک Gemini که برای سرعت و تأخیر کم بهینه شده‌اند. مدل‌های Flash برای طیف وسیعی از کاربردها که در آن‌ها پاسخ سریع و توان عملیاتی بالا بسیار مهم است، طراحی شده‌اند.

مدل فونداسیون

#هوش_مصنوعی_تولیدی
#متریک

یک مدل از پیش آموزش‌دیده بسیار بزرگ که روی یک مجموعه آموزشی عظیم و متنوع آموزش دیده است. یک مدل پایه می‌تواند هر دو کار زیر را انجام دهد:

  • به طیف وسیعی از درخواست‌ها به خوبی پاسخ دهید.
  • به عنوان یک مدل پایه برای تنظیم دقیق‌تر یا سایر سفارشی‌سازی‌ها عمل می‌کند.

به عبارت دیگر، یک مدل پایه از قبل به طور کلی بسیار توانمند است، اما می‌تواند بیشتر سفارشی شود تا برای یک کار خاص مفیدتر شود.

کسری از موفقیت‌ها

#هوش_مصنوعی_تولیدی
#متریک

معیاری برای ارزیابی متن تولید شده توسط یک مدل یادگیری ماشین. کسر موفقیت‌ها، تعداد خروجی‌های متنی تولید شده "موفق" تقسیم بر تعداد کل خروجی‌های متنی تولید شده است. برای مثال، اگر یک مدل زبانی بزرگ 10 بلوک کد تولید کند که پنج تای آنها موفق باشند، کسر موفقیت‌ها 50٪ خواهد بود.

اگرچه کسر موفقیت‌ها در آمار به‌طور گسترده مفید است، اما در یادگیری ماشین، این معیار در درجه اول برای اندازه‌گیری وظایف قابل تأیید مانند تولید کد یا مسائل ریاضی مفید است.

جی

جوزا

#هوش_مصنوعی_تولیدی

اکوسیستمی که پیشرفته‌ترین هوش مصنوعی گوگل را در بر می‌گیرد. عناصر این اکوسیستم عبارتند از:

  • مدل‌های مختلف جمینی
  • رابط مکالمه‌ای تعاملی برای مدل Gemini. کاربران پیام‌هایی را تایپ می‌کنند و Gemini به آنها پاسخ می‌دهد.
  • API های مختلف Gemini.
  • محصولات تجاری متنوعی مبتنی بر مدل‌های Gemini؛ برای مثال، Gemini برای Google Cloud .

مدل‌های جمینی

#هوش_مصنوعی_تولیدی

مدل‌های چندوجهی پیشرفته گوگل مبتنی بر Transformer . مدل‌های Gemini به طور خاص برای ادغام با عامل‌ها طراحی شده‌اند.

کاربران می‌توانند از طرق مختلفی با مدل‌های Gemini تعامل داشته باشند، از جمله از طریق رابط گفتگوی تعاملی و از طریق SDKها.

جما

#هوش_مصنوعی_تولیدی

خانواده‌ای از مدل‌های باز سبک وزن که از همان تحقیقات و فناوری مورد استفاده برای ایجاد مدل‌های Gemini ساخته شده‌اند. چندین مدل مختلف Gemma در دسترس است که هر کدام ویژگی‌های متفاوتی مانند بینایی، کد و دنبال کردن دستورالعمل را ارائه می‌دهند. برای جزئیات بیشتر به Gemma مراجعه کنید.

GenAI یا genAI

#هوش_مصنوعی_تولیدی

مخفف هوش مصنوعی مولد (generative AI) است.

متن تولید شده

#هوش_مصنوعی_تولیدی

به طور کلی، متنی که یک مدل یادگیری ماشینی تولید می‌کند. هنگام ارزیابی مدل‌های زبانی بزرگ، برخی معیارها متن تولید شده را با متن مرجع مقایسه می‌کنند. به عنوان مثال، فرض کنید می‌خواهید تعیین کنید که یک مدل یادگیری ماشینی چقدر مؤثر از فرانسوی به هلندی ترجمه می‌کند. در این مورد:

  • متن تولید شده، ترجمه هلندی است که مدل ML آن را خروجی می‌دهد.
  • متن مرجع ، ترجمه هلندی است که یک مترجم انسانی (یا نرم‌افزار) آن را ایجاد می‌کند.

توجه داشته باشید که برخی از استراتژی‌های ارزیابی شامل متن مرجع نمی‌شوند.

هوش مصنوعی مولد

#هوش_مصنوعی_تولیدی

یک حوزه متحول‌کننده نوظهور بدون تعریف رسمی. با این حال، اکثر متخصصان موافقند که مدل‌های هوش مصنوعی مولد می‌توانند محتوایی را ایجاد کنند ("تولید") که همه موارد زیر را داشته باشد:

  • پیچیده
  • منسجم
  • اصلی

نمونه‌هایی از هوش مصنوعی مولد عبارتند از:

  • مدل‌های زبانی بزرگ ، که می‌توانند متن اصلی پیچیده تولید کنند و به سوالات پاسخ دهند.
  • مدل تولید تصویر، که می‌تواند تصاویر منحصر به فردی تولید کند.
  • مدل‌های تولید صدا و موسیقی، که می‌توانند موسیقی اصیل بسازند یا گفتار واقع‌گرایانه تولید کنند.
  • مدل‌های تولید ویدیو، که می‌توانند ویدیوهای بدیع تولید کنند.

برخی از فناوری‌های اولیه، از جمله LSTMها و RNNها ، نیز می‌توانند محتوای اصیل و منسجم تولید کنند. برخی از کارشناسان این فناوری‌های اولیه را به عنوان هوش مصنوعی مولد می‌بینند، در حالی که برخی دیگر احساس می‌کنند که هوش مصنوعی مولد واقعی به خروجی پیچیده‌تری نسبت به آنچه فناوری‌های اولیه می‌توانند تولید کنند، نیاز دارد.

در تضاد با یادگیری ماشینی پیش‌بینی‌کننده .

پاسخ طلایی

#هوش_مصنوعی_تولیدی

پاسخی که به عنوان پاسخ خوب شناخته می‌شود. برای مثال، با توجه به سوال زیر:

۲ + ۲

پاسخ طلایی امیدوارانه این است:

۴

GPT (ترانسفورماتور مولد از پیش آموزش‌دیده)

#هوش_مصنوعی_تولیدی

خانواده‌ای از مدل‌های زبان بزرگ مبتنی بر Transformer که توسط OpenAI توسعه داده شده‌اند.

انواع GPT می‌توانند در چندین حالت اعمال شوند، از جمله:

  • تولید تصویر (برای مثال، ImageGPT)
  • تولید متن به تصویر (برای مثال، DALL-E ).

ح

توهم

#هوش_مصنوعی_تولیدی

تولید خروجی ظاهراً باورپذیر اما در واقع نادرست توسط یک مدل هوش مصنوعی مولد که ادعا می‌کند در مورد دنیای واقعی ادعایی دارد. به عنوان مثال، یک مدل هوش مصنوعی مولد که ادعا می‌کند باراک اوباما در سال ۱۸۶۵ درگذشته است، توهم‌زا است.

ارزیابی انسانی

#هوش_مصنوعی_تولیدی

فرآیندی که در آن افراد کیفیت خروجی یک مدل یادگیری ماشین را قضاوت می‌کنند؛ برای مثال، قضاوت افراد دوزبانه در مورد کیفیت یک مدل ترجمه یادگیری ماشین. ارزیابی انسانی به‌ویژه برای قضاوت در مورد مدل‌هایی که هیچ پاسخ صحیحی ندارند، مفید است.

مقایسه با ارزیابی خودکار و ارزیابی خودکار ارزیاب .

انسان در حلقه (HITL)

#هوش_مصنوعی_تولیدی

اصطلاحی با تعریفی کلی که می‌تواند به یکی از معانی زیر باشد:

  • سیاستی که خروجی هوش مصنوعی مولد را با دید انتقادی یا تردیدآمیز بررسی می‌کند.
  • یک استراتژی یا سیستم برای اطمینان از اینکه افراد به شکل‌دهی، ارزیابی و اصلاح رفتار یک مدل کمک می‌کنند. نگه داشتن یک انسان در حلقه، هوش مصنوعی را قادر می‌سازد تا از هوش ماشینی و هوش انسانی بهره‌مند شود. به عنوان مثال، سیستمی که در آن یک هوش مصنوعی کدی را تولید می‌کند که مهندسان نرم‌افزار سپس آن را بررسی می‌کنند، یک سیستم انسان در حلقه است.

من

یادگیری در بافتار

#هوش_مصنوعی_تولیدی

مترادف برای تحریک با چند ضربه .

استنباط

#مبانی
#هوش_مصنوعی_تولیدی

در یادگیری ماشین سنتی، فرآیند انجام پیش‌بینی‌ها با اعمال یک مدل آموزش‌دیده بر روی نمونه‌های بدون برچسب . برای کسب اطلاعات بیشتر به یادگیری نظارت‌شده در دوره مقدماتی یادگیری ماشین مراجعه کنید.

در مدل‌های زبانی بزرگ ، استنتاج فرآیند استفاده از یک مدل آموزش‌دیده برای تولید پاسخ به یک ورودی فوری است.

استنباط در آمار معنای تا حدودی متفاوتی دارد. برای جزئیات بیشتر به مقاله ویکی پدیا در مورد استنباط آماری مراجعه کنید.

تنظیم دستورالعمل

#هوش_مصنوعی_تولیدی

نوعی تنظیم دقیق که توانایی یک مدل هوش مصنوعی مولد را در دنبال کردن دستورالعمل‌ها بهبود می‌بخشد. تنظیم دستورالعمل شامل آموزش یک مدل بر اساس مجموعه‌ای از دستورالعمل‌های سریع است که معمولاً طیف گسترده‌ای از وظایف را پوشش می‌دهند. سپس مدل تنظیم‌شده بر اساس دستورالعمل حاصل، تمایل به تولید پاسخ‌های مفید به دستورالعمل‌های سریع در طیف وسیعی از وظایف دارد.

مقایسه و تطبیق با:

ل

مدل زبان بزرگ

#هوش_مصنوعی_تولیدی

حداقل، یک مدل زبانی با تعداد پارامترهای بسیار بالا. به طور غیررسمی‌تر، هر مدل زبانی مبتنی بر Transformer ، مانند Gemini یا GPT .

برای اطلاعات بیشتر به بخش مدل‌های زبان بزرگ (LLM) در دوره فشرده یادگیری ماشین مراجعه کنید.

تأخیر

#هوش_مصنوعی_تولیدی

زمانی که طول می‌کشد تا یک مدل ورودی را پردازش کرده و پاسخی تولید کند. تولید یک پاسخ با تأخیر بالا ، نسبت به یک پاسخ با تأخیر کم، زمان بیشتری می‌برد.

عواملی که بر تأخیر مدل‌های زبانی بزرگ تأثیر می‌گذارند عبارتند از:

  • طول توکن‌های ورودی و خروجی
  • پیچیدگی مدل
  • زیرساختی که مدل روی آن اجرا می‌شود

بهینه‌سازی تأخیر برای ایجاد برنامه‌های واکنش‌گرا و کاربرپسند بسیار مهم است.

کارشناسی ارشد حقوق

#هوش_مصنوعی_تولیدی

مخفف مدل زبان بزرگ است.

ارزیابی‌های LLM (ارزیابی‌ها)

#هوش_مصنوعی_تولیدی
#متریک

مجموعه‌ای از معیارها و بنچمارک‌ها برای ارزیابی عملکرد مدل‌های زبانی بزرگ (LLM). در سطح بالا، ارزیابی‌های LLM:

  • به محققان کمک کنید تا حوزه‌هایی را که LLMها نیاز به بهبود دارند، شناسایی کنند.
  • در مقایسه LLM های مختلف و شناسایی بهترین LLM برای یک کار خاص مفید هستند.
  • به اطمینان از ایمن و اخلاقی بودن استفاده از LLM ها کمک کنید.

برای اطلاعات بیشتر به بخش مدل‌های زبان بزرگ (LLM) در دوره فشرده یادگیری ماشین مراجعه کنید.

لورا

#هوش_مصنوعی_تولیدی

مخفف سازگاری سطح پایین .

سازگاری رتبه پایین (LoRA)

#هوش_مصنوعی_تولیدی

یک تکنیک پارامتر-کارآمد برای تنظیم دقیق که وزن‌های از پیش آموزش‌دیده مدل را "ثابت" می‌کند (به طوری که دیگر قابل تغییر نباشند) و سپس مجموعه‌ای کوچک از وزن‌های قابل آموزش را در مدل وارد می‌کند. این مجموعه از وزن‌های قابل آموزش (که به عنوان "ماتریس‌های به‌روزرسانی" نیز شناخته می‌شوند) به طور قابل توجهی کوچکتر از مدل پایه است و بنابراین آموزش آن بسیار سریع‌تر است.

LoRA مزایای زیر را ارائه می‌دهد:

  • کیفیت پیش‌بینی‌های مدل را برای دامنه‌ای که تنظیم دقیق در آن اعمال می‌شود، بهبود می‌بخشد.
  • تنظیم دقیق‌تر، سریع‌تر از تکنیک‌هایی است که نیاز به تنظیم دقیق تمام پارامترهای مدل دارند.
  • با فعال کردن امکان ارائه همزمان چندین مدل تخصصی که از یک مدل پایه مشترک استفاده می‌کنند، هزینه محاسباتی استنتاج را کاهش می‌دهد.

م

ترجمه ماشینی

#هوش_مصنوعی_تولیدی

استفاده از نرم‌افزار (معمولاً یک مدل یادگیری ماشین) برای تبدیل متن از یک زبان انسانی به زبان انسانی دیگر، مثلاً از انگلیسی به ژاپنی.

میانگین دقت متوسط ​​در k (mAP@k)

#هوش_مصنوعی_تولیدی
#متریک

میانگین آماری تمام میانگین دقت‌ها در k در یک مجموعه داده اعتبارسنجی. یکی از کاربردهای میانگین میانگین دقت در k، قضاوت در مورد کیفیت توصیه‌های تولید شده توسط یک سیستم توصیه‌گر است.

اگرچه عبارت «میانگین میانگین» تکراری به نظر می‌رسد، اما نام این معیار مناسب است. گذشته از همه اینها، این معیار میانگین دقت چندین میانگین را در k مقدار پیدا می‌کند.

ترکیبی از متخصصان

#هوش_مصنوعی_تولیدی

طرحی برای افزایش کارایی شبکه عصبی با استفاده از تنها زیرمجموعه‌ای از پارامترهای آن (که به عنوان متخصص شناخته می‌شود) برای پردازش یک نشانه یا مثال ورودی معین. یک شبکه دروازه‌ای، هر نشانه یا مثال ورودی را به متخصص(های) مناسب هدایت می‌کند.

برای جزئیات، به یکی از مقالات زیر مراجعه کنید:

ام ام آی تی

#هوش_مصنوعی_تولیدی

مخفف عبارت multimodal instruction-tuned (تنظیم‌شده با دستورالعمل چندوجهی) است.

مدل آبشاری

#هوش_مصنوعی_تولیدی

سیستمی که مدل ایده‌آل را برای یک پرس‌وجوی استنتاجی خاص انتخاب می‌کند.

گروهی از مدل‌ها را تصور کنید، از مدل‌های بسیار بزرگ (با پارامترهای زیاد) تا مدل‌های بسیار کوچک‌تر (با پارامترهای بسیار کمتر). مدل‌های بسیار بزرگ در زمان استنتاج ، منابع محاسباتی بیشتری نسبت به مدل‌های کوچک‌تر مصرف می‌کنند. با این حال، مدل‌های بسیار بزرگ معمولاً می‌توانند درخواست‌های پیچیده‌تری را نسبت به مدل‌های کوچک‌تر استنتاج کنند. آبشاری‌سازی مدل، پیچیدگی پرس‌وجوی استنتاج را تعیین می‌کند و سپس مدل مناسب را برای انجام استنتاج انتخاب می‌کند. انگیزه اصلی آبشاری‌سازی مدل، کاهش هزینه‌های استنتاج با انتخاب مدل‌های کوچک‌تر و انتخاب تنها یک مدل بزرگ‌تر برای پرس‌وجوهای پیچیده‌تر است.

تصور کنید که یک مدل کوچک روی یک تلفن اجرا می‌شود و نسخه بزرگ‌تری از آن مدل روی یک سرور از راه دور اجرا می‌شود. آبشاری کردن مدل خوب، با فعال کردن مدل کوچک‌تر برای مدیریت درخواست‌های ساده و فراخوانی مدل از راه دور فقط برای مدیریت درخواست‌های پیچیده، هزینه و تأخیر را کاهش می‌دهد.

همچنین به مدل روتر مراجعه کنید.

مدل روتر

#هوش_مصنوعی_تولیدی

الگوریتمی که مدل ایده‌آل برای استنتاج در آبشاری کردن مدل را تعیین می‌کند. یک روتر مدل، خود معمولاً یک مدل یادگیری ماشین است که به تدریج یاد می‌گیرد چگونه بهترین مدل را برای یک ورودی مشخص انتخاب کند. با این حال، یک روتر مدل گاهی اوقات می‌تواند یک الگوریتم ساده‌تر و غیر یادگیری ماشینی باشد.

وزارت آموزش و پرورش

#هوش_مصنوعی_تولیدی

مخفف ترکیبی از متخصصان .

تن

#هوش_مصنوعی_تولیدی

مخفف ترجمه ماشینی است.

ن

نانو

#هوش_مصنوعی_تولیدی

یک مدل نسبتاً کوچک Gemini که برای استفاده روی دستگاه طراحی شده است. برای جزئیات بیشتر به Gemini Nano مراجعه کنید.

همچنین به نسخه‌های پرو و ​​اولترا مراجعه کنید.

هیچ کس جواب درست نداد (نورا)

#هوش_مصنوعی_تولیدی

سوالی که چندین پاسخ صحیح دارد. برای مثال، سوال زیر هیچ پاسخ صحیحی ندارد:

یه جوک بامزه در مورد فیل‌ها بگو.

ارزیابی پاسخ‌ها به سوالاتی که هیچ پاسخ درستی ندارند، معمولاً بسیار ذهنی‌تر از ارزیابی سوالاتی با یک پاسخ درست است. برای مثال، ارزیابی یک جوک در مورد فیل نیاز به یک روش سیستماتیک برای تعیین میزان خنده‌دار بودن آن دارد.

نورا

#هوش_مصنوعی_تولیدی

مخفف « هیچ‌کس جواب درست نمی‌دهد ».

نوت بوک LM

#هوش_مصنوعی_تولیدی

ابزاری مبتنی بر Gemini که به کاربران امکان می‌دهد اسناد را بارگذاری کنند و سپس از دستورالعمل‌ها برای پرسیدن سؤال در مورد، خلاصه کردن یا سازماندهی آن اسناد استفاده کنند. به عنوان مثال، یک نویسنده می‌تواند چندین داستان کوتاه را بارگذاری کند و از Notebook LM بخواهد که مضامین مشترک آنها را پیدا کند یا مشخص کند که کدام یک بهترین فیلم را می‌سازد.

ای

یک پاسخ درست (ORA)

#هوش_مصنوعی_تولیدی

سوالی که فقط یک پاسخ صحیح دارد. برای مثال، سوال زیر را در نظر بگیرید:

درست یا غلط: زحل از مریخ بزرگتر است.

تنها پاسخ صحیح، حقیقت است.

در مقابل، هیچ‌کس پاسخ درست نمی‌دهد .

راهنمایی تک مرحله‌ای

#هوش_مصنوعی_تولیدی

یک اعلان که شامل یک مثال است که نحوه پاسخگویی مدل زبان بزرگ را نشان می‌دهد. برای مثال، اعلان زیر شامل یک مثال است که نحوه پاسخگویی یک مدل زبان بزرگ به یک پرس‌وجو را نشان می‌دهد.

بخش‌هایی از یک دستورالعمل یادداشت‌ها
واحد پول رسمی کشور مشخص شده چیست؟ سوالی که می‌خواهید LLM به آن پاسخ دهد.
فرانسه: یورو یک مثال.
هند: پرس و جوی واقعی.

روش ترغیب یک مرحله‌ای را با اصطلاحات زیر مقایسه و تمایز دهید:

اورا

#هوش_مصنوعی_تولیدی

مخفف یک پاسخ درست .

پ

تنظیم پارامتر-کارآمد

#هوش_مصنوعی_تولیدی

مجموعه‌ای از تکنیک‌ها برای تنظیم دقیق یک مدل زبانی بزرگ از پیش آموزش‌دیده (PLM) که نسبت به تنظیم دقیق کامل، کارآمدتر است. تنظیم کارآمد بر اساس پارامتر معمولاً پارامترهای بسیار کمتری را نسبت به تنظیم دقیق کامل تنظیم می‌کند، اما عموماً یک مدل زبانی بزرگ تولید می‌کند که به خوبی (یا تقریباً به خوبی) یک مدل زبانی بزرگ ساخته شده از تنظیم دقیق کامل عمل می‌کند.

تنظیم پارامتر-کارآمد را با موارد زیر مقایسه و بررسی کنید:

تنظیم پارامتر-کارآمد، همچنین به عنوان تنظیم دقیق پارامتر-کارآمد شناخته می‌شود.

پکس

#هوش_مصنوعی_تولیدی

یک چارچوب برنامه‌نویسی که برای آموزش مدل‌های شبکه عصبی در مقیاس بزرگ طراحی شده است، مدل‌هایی که آنقدر بزرگ هستند که چندین برش یا غلاف تراشه شتاب‌دهنده TPU را در بر می‌گیرند.

پکس بر اساس فلاکس ساخته شده است که خود فلاکس نیز بر اساس جکس ساخته شده است.

نموداری که موقعیت پکس را در پشته نرم‌افزار نشان می‌دهد.  پکس بر روی جکس ساخته شده است. پکس خود از سه لایه تشکیل شده است. لایه پایینی شامل TensorStore و Flax است.  لایه میانی شامل Optax و Flaxformer است.  لایه بالایی شامل کتابخانه مدل‌سازی Praxis است. Fiddle بر روی پکس ساخته شده است.

پی ال ​​ام

#هوش_مصنوعی_تولیدی

مخفف مدل زبانی از پیش آموزش‌دیده .

مدل پس از آموزش

#هوش_مصنوعی_تولیدی

اصطلاحی با تعریف کلی که معمولاً به مدلی از پیش آموزش‌دیده اشاره دارد که برخی عملیات پس‌پردازشی مانند یک یا چند مورد زیر را پشت سر گذاشته است:

مدل از پیش آموزش دیده

#هوش_مصنوعی_تولیدی

اگرچه این اصطلاح می‌تواند به هر مدل آموزش‌دیده یا بردار جاسازی‌شده آموزش‌دیده اشاره داشته باشد، اما مدل از پیش آموزش‌دیده اکنون معمولاً به یک مدل زبان بزرگ آموزش‌دیده یا شکل دیگری از مدل هوش مصنوعی مولد آموزش‌دیده اشاره دارد.

همچنین به مدل پایه و مدل فونداسیون مراجعه کنید.

پیش آموزش

#هوش_مصنوعی_تولیدی

آموزش اولیه یک مدل روی یک مجموعه داده بزرگ. برخی از مدل‌های از پیش آموزش‌دیده، غول‌های دست و پا چلفتی هستند و معمولاً باید از طریق آموزش‌های اضافی اصلاح شوند. به عنوان مثال، متخصصان یادگیری ماشین ممکن است یک مدل زبانی بزرگ را روی یک مجموعه داده متنی گسترده، مانند تمام صفحات انگلیسی در ویکی‌پدیا، از پیش آموزش دهند. پس از آموزش اولیه، مدل حاصل ممکن است از طریق هر یک از تکنیک‌های زیر اصلاح شود:

حرفه‌ای

#هوش_مصنوعی_تولیدی

یک مدل Gemini با پارامترهای کمتر از Ultra اما پارامترهای بیشتر از Nano . برای جزئیات بیشتر به Gemini Pro مراجعه کنید.

سریع

#هوش_مصنوعی_تولیدی

هر متنی که به عنوان ورودی به یک مدل زبانی بزرگ وارد می‌شود تا مدل را برای رفتار به شیوه‌ای خاص شرطی کند. پیام‌ها می‌توانند به کوتاهی یک عبارت یا به طور دلخواه طولانی باشند (برای مثال، کل متن یک رمان). پیام‌ها در چندین دسته قرار می‌گیرند، از جمله مواردی که در جدول زیر نشان داده شده است:

دسته بندی سریع مثال یادداشت‌ها
سوال کبوتر چقدر سریع می‌تواند پرواز کند؟
دستورالعمل یه شعر طنز در مورد آربیتراژ بنویس. اعلانی که از مدل زبان بزرگ می‌خواهد کاری انجام دهد .
مثال کد Markdown را به HTML تبدیل کنید. برای مثال:
نشانه‌گذاری: * مورد لیست
HTML: <ul> <li>لیست آیتم</li> </ul>
جمله اول در این مثال، یک دستورالعمل است. بقیه سوال، مثال است.
نقش توضیح دهید که چرا از گرادیان نزولی در آموزش یادگیری ماشین به مدرک دکترای فیزیک استفاده می‌شود. بخش اول جمله یک دستورالعمل است؛ عبارت «به سوی دکترای فیزیک» بخش مربوط به نقش است.
ورودی جزئی برای تکمیل مدل نخست وزیر بریتانیا در آنجا زندگی می‌کند یک ورودی جزئی می‌تواند یا به طور ناگهانی (مانند این مثال) پایان یابد یا با یک زیرخط (_) پایان یابد.

یک مدل هوش مصنوعی مولد می‌تواند به یک درخواست با متن، کد، تصاویر، جاسازی‌ها ، ویدیوها و تقریباً هر چیزی پاسخ دهد.

یادگیری مبتنی بر سرعت عمل

#هوش_مصنوعی_تولیدی

قابلیتی در مدل‌های خاص که آنها را قادر می‌سازد رفتار خود را در پاسخ به ورودی متن دلخواه ( دستورالعمل‌ها ) تطبیق دهند. در یک الگوی یادگیری مبتنی بر دستور، یک مدل زبانی بزرگ با تولید متن به یک دستور پاسخ می‌دهد. برای مثال، فرض کنید کاربری دستور زیر را وارد می‌کند:

قانون سوم حرکت نیوتن را خلاصه کنید.

A model capable of prompt-based learning isn't specifically trained to answer the previous prompt. Rather, the model "knows" a lot of facts about physics, a lot about general language rules, and a lot about what constitutes generally useful answers. That knowledge is sufficient to provide a (hopefully) useful answer. Additional human feedback ("That answer was too complicated." or "What's a reaction?") enables some prompt-based learning systems to gradually improve the usefulness of their answers.

prompt design

#هوش_مصنوعی_تولیدی

Synonym for prompt engineering .

مهندسی سریع

#هوش_مصنوعی_تولیدی

The art of creating prompts that elicit the desired responses from a large language model . Humans perform prompt engineering. Writing well-structured prompts is an essential part of ensuring useful responses from a large language model. Prompt engineering depends on many factors, including:

  • The dataset used to pre-train and possibly fine-tune the large language model.
  • The temperature and other decoding parameters that the model uses to generate responses.

Prompt design is a synonym for prompt engineering.

See Introduction to prompt design for more details on writing helpful prompts.

prompt set

#هوش_مصنوعی_تولیدی

A group of prompts for evaluating a large language model . For example, the following illustration shows a prompt set consisting of three prompts:

Three prompts to an LLM produce three responses. The three prompts
          are the prompt set. The three responses are the response set.

Good prompt sets consist of a sufficiently "wide" collection of prompts to thoroughly evaluate the safety and helpfulness of a large language model.

See also response set .

prompt tuning

#هوش_مصنوعی_تولیدی

A parameter efficient tuning mechanism that learns a "prefix" that the system prepends to the actual prompt .

One variation of prompt tuning—sometimes called prefix tuning —is to prepend the prefix at every layer . In contrast, most prompt tuning only adds a prefix to the input layer .

ر

reference text

#هوش_مصنوعی_تولیدی

An expert's response to a prompt . For example, given the following prompt:

Translate the question "What is your name?" from English to French.

An expert's response might be:

Comment vous appelez-vous?

Various metrics (such as ROUGE ) measure the degree to which the reference text matches an ML model's generated text .

reflection

#هوش_مصنوعی_تولیدی

A strategy for improving the quality of an agentic workflow by examining (reflecting on) a step's output before passing that output to the next step.

The examiner is often the same LLM that generated the response (though it could be a different LLM). How could the same LLM that generated a response be a fair judge of its own response? The "trick" is to put the LLM in a critical (reflective) mindset. This process is analogous to a writer who uses a creative mindset to write a first draft and then switches to a critical mindset to edit it.

For example, imagine an agentic workflow whose first step is to create text for coffee mugs. The prompt for this step might be:

You are a creative. Generate humorous, original text of less than 50 characters suitable for a coffee mug.

Now imagine the following reflective prompt:

You are a coffee drinker. Would you find the preceding response humorous?

The workflow might then only pass text that receives a high reflection score to the next stage.

Reinforcement Learning from Human Feedback (RLHF)

#هوش_مصنوعی_تولیدی

Using feedback from human raters to improve the quality of a model's responses . For example, an RLHF mechanism can ask users to rate the quality of a model's response with a 👍 or 👎 emoji. The system can then adjust its future responses based on that feedback.

پاسخ

#هوش_مصنوعی_تولیدی

The text, images, audio, or video that a generative AI model infers . In other words, a prompt is the input to a generative AI model and the response is the output .

response set

#هوش_مصنوعی_تولیدی

The collection of responses a large language model returns to an input prompt set .

role prompting

#هوش_مصنوعی_تولیدی

A prompt , typically beginning with the pronoun you , that tells a generative AI model to pretend to be a certain person or a certain role when generating the response . Role prompting can help a generative AI model get into the right "mindset" in order to generate a more useful response. For example, any of the following role prompts might be appropriate depending on the kind of response you are seeking:

You have a PhD in computer science.

You are a software engineer who enjoys giving patient explanations about Python to new programming students.

You are an action hero with a very particular set of programming skills. Assure me that you will find a particular item in a Python list.

س

soft prompt tuning

#هوش_مصنوعی_تولیدی

A technique for tuning a large language model for a particular task, without resource intensive fine-tuning . Instead of retraining all the weights in the model, soft prompt tuning automatically adjusts a prompt to achieve the same goal.

Given a textual prompt, soft prompt tuning typically appends additional token embeddings to the prompt and uses backpropagation to optimize the input.

A "hard" prompt contains actual tokens instead of token embeddings.

specificational coding

#هوش_مصنوعی_تولیدی

The process of writing and maintaining a file in a human language (for example, English) that describes software. You can then tell a generative AI model or another software engineer to create the software that fulfills that description.

Automatically-generated code generally requires iteration. In specificational coding, you iterate on the description file. By contrast, in conversational coding , you iterate within the prompt box. In practice, automatic code generation sometimes involves a combination of both specificational coding and conversational coding.

تی

دما

#هوش_مصنوعی_تولیدی

A hyperparameter that controls the degree of randomness of a model's output. Higher temperatures result in more random output, while lower temperatures result in less random output.

Choosing the best temperature depends on the specific application and or string values.

یو

فوق العاده

#هوش_مصنوعی_تولیدی

The Gemini model with the most parameters . See Gemini Ultra for details.

See also Pro and Nano .

پنجم

Vertex

#گوگل کلود
#هوش_مصنوعی_تولیدی
Google Cloud's platform for AI and machine learning. Vertex provides tools and infrastructure for building, deploying, and managing AI applications, including access to Gemini models.

vibe coding

#هوش_مصنوعی_تولیدی

Prompting a generative AI model to create software. That is, your prompts describe the software's purpose and features, which a generative AI model translates into source code. The generated code doesn't always match your intentions, so vibe coding usually requires iteration.

Andrej Karpathy coined the term vibe coding in this X post . In the X post, Karpathy describes it as "a new kind of coding...where you fully give in to the vibes..." So, the term originally implied an intentionally loose approach to creating software in which you might not even examine the generated code. However, the term has rapidly evolved in many circles to now mean any form of AI-generated coding.

For a more detailed description of vibe coding, seeWhat is vibe coding? .

In addition, compare and contrast vibe coding with:

ز

zero-shot prompting

#هوش_مصنوعی_تولیدی

A prompt that does not provide an example of how you want the large language model to respond. For example:

Parts of one prompt یادداشت‌ها
What is the official currency of the specified country? The question you want the LLM to answer.
India: The actual query.

The large language model might respond with any of the following:

  • Rupee
  • روپیه هند
  • Indian rupee
  • The rupee
  • The Indian rupee

All of the answers are correct, though you might prefer a particular format.

Compare and contrast zero-shot prompting with the following terms: