בעיות נפוצות

ל-GAN יש כמה מצבי כשל נפוצים. כל הבעיות הנפוצות האלה הן תחומים של מחקר פעיל. אף אחת מהבעיות האלה לא נפתרה לחלוטין, אבל נציין כמה דברים שאנשים ניסו.

מדרגות נועלים

המחקר הציע שאם האפליה היא טובה מדי, יכול להיות שאימון המחולל ייכשל עקב ההתקדמות שנעלמה. למעשה, אפלילר אופטימלי אינו מספק מספיק מידע עבור המחולל כדי להתקדם.

ניסיונות לריפוי

כיווץ מצב

בדרך כלל רוצים ש-GAN יפיק מגוון רחב של פלטים. למשל, אתם צריכים ליצור פנים שונות לכל קלט רנדומלי כדי ליצור את הפנים.

עם זאת, אם מחולל מייצר פלט אפשרי במיוחד, המחולל עשוי ללמוד להפיק רק את הפלט הזה. למעשה, הגנרטור תמיד מנסה למצוא את הפלט הכי הגיוני עם האפליה.

אם הגנרטור מתחיל להפיק את אותו פלט (או קבוצת פלט קטנה) שוב ושוב, השיטה הטובה ביותר של המפלגת היא ללמוד לדחות תמיד את הפלט הזה. אבל אם הדור הבא של האפליה ייתקע במינימום של האזור המקומי ולא ימצא את השיטה הטובה ביותר, יהיה קל מדי לחזור על המחולל הבא כדי למצוא את הפלט הכי סביר לאפליה הנוכחית.

כל איטרציה של מחולל אופטימיזציה יתר-אפליה עבור אפליה מסוימת, והאפליה אף פעם לא מצליחה לצאת מהמלכודת. כתוצאה מכך, המחוללים מסתובבים בקבוצה קטנה של סוגי פלט. כשל כזה ב-GAN נקרא כיווץ מצב.

ניסיונות לריפוי

הגישות הבאות מנסות לאלץ את המחולל להרחיב את הטווח שלו על ידי מניעת האופטימיזציה לאפליה קבועה אחת:

  • הפסד של Wasserstein: הירידה של Wasserstein מפחיתה את התכווצות בכך שהיא מאפשרת לאמן את האפליה לאפשרות של אופטימיזציה ללא צורך לדאוג לגבי מעברי צבע. אם האפליה לא נתקעת בהגבלה המקומית, היא לומדת לדחות את התוצאות שהגנרטור מתייצב עליהן. כך שהמחולל צריך לנסות משהו חדש.
  • הודעות GAN שלא הושקו: כשמשתמשים ב-GAN שלא בוצעה השקה, משתמשים בפונקציית אובדן גנרטור שמשלבת לא רק את הסיווגים הנוכחיים של ההבחנה בין הסיווגים לכן הגנרטור לא יכול לבצע אופטימיזציה יתר על המידה עבור אפליה אחת.

נכשלה ההמרה

לעתים קרובות GAN לא מרוכז, כפי שמתואר במודול לגבי הדרכה.

ניסיונות לריפוי

חוקרים ניסו להשתמש בסוגים שונים של שגרה כדי לשפר את שיעור ההמרה של GAN, כולל: