הנחיות למשתתפים ב-GSoC בנושא שימוש בכלי AI ב-GSoC 2026
חשוב מאוד לקרוא את המסמכים של הארגון ב-GSoC ולשים לב להנחיות שלו לגבי השימוש בכלי AI בקהילה שלו. ביקשנו מהארגונים להבהיר היטב מה הציפיות שלהם מהמשתתפים ב-GSoC.
לכל ארגון יש דעה משלו לגבי המקרים שבהם מתאים להשתמש בכלים מבוססי-AI.
יש ארגונים שאוסרים על שימוש בכלים מבוססי-AI, כולל בכתיבת הצעות. אחרים לא יאפשרו להשתמש בבסיס הקוד שלהם בקוד שנוצר על ידי מודלים של שפה גדולה.
ריכזנו כאן כמה נקודות שכדאי לקחת בחשבון כשמשתמשים בכלי AI באופן כללי. שוב, ההנחיות האלה לא מקיפות לכל ארגון – אתם צריכים לקרוא את ההנחיות של כל ארגון ב-GSoC כדי להבין מה הוא יקבל ומה לא.
המלצות של מנטור לגבי מתי כדאי להשתמש בכלי AI
1. תמיד מאמתים את הקוד ומבינים אותו לעומק
זו העצה הכי חשובה והכי חוזרת על עצמה. האדם שתרם את התוכן שומר על אחריות מלאה לעבודה, ולכן נדרשת הבנה ואימות מלאים.
- חשוב תמיד לאמת את מה שנוצר על ידי ה-AI, ואם אתם לא מבינים את התוכן או לא בטוחים לגביו, אל תשתמשו בו עד שתבינו אותו.
2. שימוש ב-AI למחקר ולמידה, לא ללוגיקה הבסיסית
השימוש הכי טוב ב-Gemini הוא ככלי ללמידה מהירה או לאחזור מידע, ולא ככלי ליצירת קוד לחלקים החשובים ביותר בפרויקט.
- משתמשים בכלי AI בעיקר למחקר ופחות ליצירת קוד
- אפשר להשתמש בכלים מבוססי-AI כדי להבין ולחקור תחומים חדשים.
3. העברת משימות מייגעות או משימות שדורשות עבודה קשה (טקסט סטנדרטי, בדיקות, ניפוי באגים)
מומלץ להשתמש ב-AI למשימות שחוזרות על עצמן, למשימות שדורשות הרבה זמן או למשימות שקשורות לתיקון בעיות קיימות, כדי שהתורם יוכל להקדיש את הזמן שלו לאתגרים אינטלקטואליים.
- אפשר להשתמש בו כדי לכתוב את הטקסט הקבוע ולשכתב
- השתמשו בו רק לעבודת שחורים, כמו הוספה של כל שמות הקבצים או שינוי של ייבוא מסוים
- לעזור באוטומציה של חלק מהמשימות המעייפות בפרויקט, או לעזור לכתוב קוד לבדיקות, או לעזור בניפוי באגים
- המשתמש צריך להגדיר את היקף הבדיקה כדי להשתמש בכלי AI
4. בעיות ברישוי
חשוב תמיד לוודא ישירות מול הארגון אם הוא מאפשר שימוש בקוד שנוצר על ידי AI בבסיס הקוד שלו. יש הרבה דיונים בנושא הזה, ולכל ארגון יש נקודת מבט משלו. המשתתפים הפוטנציאליים ב-GSoC צריכים לפעול לפי ההנחיות הספציפיות של הארגון שלהם.
חששות של מנטורים וארגונים ב-GSoC לגבי כלים מבוססי-AI
1. הפרעה ללמידה ולפיתוח מיומנויות
זהו החשש הנפוץ ביותר. מנטורים חוששים שהשימוש ב-AI ליצירת פתרונות מונע מהתלמידים לפתח מיומנויות בסיסיות בתכנות, בפתרון בעיות ובחשיבה נכונה.
2. אמון עיוור וחוסר הבנה או אימות
לעתים קרובות, תורמים מקבלים פלט שנוצר על ידי AI (קוד וטקסט) באופן עיוור, בלי לבדוק את הנכונות, הלוגיקה או הרלוונטיות שלו. כשמפתחים משתמשים בכלי AI באופן לא מושכל כדי ליצור קוד, הם לרוב לא מבינים מה נוצר.
3. איכות נמוכה של קוד או פלט
קוד שנוצר על ידי AI הוא לרוב באיכות נמוכה, לא עומד בהנחיות, כולל באגים, קשה לתחזוקה או מוביל לעבודה נוספת עבור המנטורים.
- בדרך כלל איכות הקוד נמוכה (מה שמוביל לעומס עבודה מוגבר של המתחזק)
- תייצר פרוזה ארוכה וחסרת משמעות
4. בעיות שקשורות לרישוי ולזכויות יוצרים
ההשלכות המשפטיות של קוד שנוצר על ידי AI הן דאגה רצינית לארגונים ולמנטורים.
- חלק מההנחיות של הארגון לגבי ביצוע Commit אוסרות על ביצוע Commit של קוד שנוצר באמצעות מודל שפה גדול, כי יכול להיות שהוא מפר רישיונות OSS
- בעיות בזכויות יוצרים
5. חוסר יכולת להשתמש ב-AI בצורה יעילה
חלק מהחששות לא היו קשורים לבינה המלאכותית עצמה, אלא לחוסר המיומנות של התורם בשימוש בה, במיוחד בהקשרים מורכבים או חדשים של פרויקטים.
- כדי להשתמש ב-AI בצורה יעילה לתכנות, צריך מיומנות וניסיון
- לפעמים התורמים לא מבינים את הנושא של הפרויקט, ולכן הם לא יודעים מה לבקש מה-AI כדי לקבל את המידע הנכון.
6. השפעה על הסביבה
כמות עצומה של אנרגיה שנדרשת למודלים גדולים של AI
7. המגבלות של ה-AI במשימות ספציפיות או מורכבות
המנטורים ציינו שכלי AI נכשלים לעיתים קרובות כשהבעיה מורכבת, ייחודית או קשורה לטכנולוגיה חדשה, וזה קורה בדרך כלל בסביבת למידה כמו GSoC.
- הכלים טובים בפתרון בעיות שנפתרו הרבה פעמים בעבר. המשימה שלנו היא ללמד את התלמידים לפתור בעיות מורכבות שלא נפתרו בעבר.
- ה-AI גרוע בכתיבת כל דבר שהוא לא קוד פשוט בהקשר מוגבל
- יכול להיות שהפרויקטים יכללו טכנולוגיות ש-AI לא מכיר