חפיפה?
לפני שתצפו בסרטון או תקראו את התיעוד, השלם
את התרגיל הזה שבוחן שימוש יתר בהצלבת תכונות.
משימה 1: מריצים את המודל כפי שהוא, עם כל התכונות הרלוונטיות לכל המוצרים. האם יש הפתעות באופן שבו המודל מתאים לנתונים?
מה הבעיה?
משימה 2: נסו להסיר תכונות שונות במוצרים שונים כדי לשפר את הביצועים (אם כי רק במעט). למה הסרת תכונות
תשפר את הביצועים?
(התשובות מופיעות מתחת לתרגיל).
לוחצים על סמל הפלוס כדי להציג תשובה למשימה 1.
באופן מפתיע, גבול ההחלטות של המודל נראה די משוגע. באופן ספציפי, בפינה השמאלית העליונה יש אזור שרומז לכחול, על אף שאין תמיכה נראית לכך בנתונים.
שימו לב לעובי היחסי של חמשת הקווים שמריצים מ-INPUT עד ל-OUTPUT.
השורות האלה מציגות את המשקולות היחסיות של חמשת המאפיינים.
הקווים שמתקבלים מ-X1 ומ-X2 עבים בהרבה מהקווים שמצוינים במעברי הפיצ'רים. לכן, מעברי התכונות תורמים למודל הרבה פחות מהתכונות הרגילות (הלא צולבות).
לוחצים על סמל הפלוס כדי להציג תשובה למשימה 2.
הסרת כל הצלבים של התכונות נותנת מודל הגיוני יותר (כבר אין יותר גבול מעוקל שמרמז על התאמה יתר) ומקרבת את אובדן הבדיקה.
אחרי 1,000 חזרות, הערך של אובדן הבדיקה אמור להיות מעט נמוך יותר מאשר במקרים שבהם התבצעו הצלבות של הפיצ'רים (למרות שהתוצאות עשויות להשתנות מעט, בהתאם למערך הנתונים).
הנתונים בתרגיל הזה הם למעשה נתונים לינאריים ורעש.
אם אנחנו משתמשים במודל מורכב מדי, כמו מודל עם יותר מדי צלבים, אנחנו נותנים לו הזדמנות להתאים את עצמה לרעש בנתוני האימון, בדרך כלל בגלל העלות של שיפור הביצועים של המודל על נתוני הבדיקה.