מדריך העברה

ב-3 ביוני 2020, ערכנו כמה שינויים ב-ML Kit for Firebase כדי להבדיל טוב יותר בין ממשקי ה-API במכשיר לבין ממשקי API מבוססי-ענן. הקבוצה הנוכחית של ממשקי ה-API מחולקת עכשיו לשני המוצרים הבאים:

  • מוצר חדש, שנקרא פשוט ML Kit, שיכלול את כל ממשקי ה-API שבמכשיר

  • למידת מכונה ב-Firebase, שמתמקדת בממשקי API מבוססי-ענן ובפריסת מודלים בהתאמה אישית.

השינוי הזה גם יקל על השילוב של ML Kit באפליקציה שלכם אם תצטרכו פתרון רק במכשיר. במסמך הזה מוסבר איך להעביר את האפליקציה מ-Firebase ML Kit SDK ל-ML Kit SDK החדש.

מה משתנה?

ממשקי API בסיסיים במכשיר

ממשקי ה-API הבאים עברו לערכת ה-SDK העצמאית החדשה של ML Kit.

  • סריקת ברקודים
  • זיהוי פנים
  • הוספת תוויות לתמונות
  • זיהוי אובייקטים ומעקב אחריהם
  • זיהוי טקסט
  • מזהה שפה
  • תשובה מהירה
  • תרגום
  • AutoML Vision Edge API להסקת מסקנות

ממשקי ה-API הבסיסיים הקיימים במכשיר ב-ML Kit for Firebase SDK הוצאו משימוש ולא יקבלו יותר עדכונים.

אם אתם כבר משתמשים בממשקי ה-API האלה באפליקציה, עליכם לעבור ל-ML Kit SDK החדש. לשם כך, עליכם לפעול לפי ההוראות במדריך להעברת ML Kit ל-Android ובמדריך להעברת ML Kit ל-iOS.

ממשקי API של מודלים מותאמים אישית

כדי להוריד מודלים שמתארחים ב-Firebase, הכלי להורדת מודלים בהתאמה אישית ממשיך להיות זמין דרך Firebase ML SDK. ה-SDK מאחזר את הדגם העדכני ביותר שזמין, ומעביר אותו לזמן הריצה הנפרד של TensorFlow Lite לצורך מסקנות.

רכיב התרגום הקיים של מודלים בהתאמה אישית ב-ML Kit for Firebase SDK הוצא משימוש ולא יקבל עדכונים. אנחנו ממליצים להשתמש בזמן הריצה של TensorFlow Lite ישירות כדי להסיק את הנתונים. לחלופין, אם אתם רוצים להשתמש במודלים בהתאמה אישית רק לצורך הוספת תוויות לתמונות וממשקי API לזיהוי אובייקטים ולמעקב אחר אובייקטים, מעכשיו תוכלו להשתמש ישירות במודלים בהתאמה אישית בממשקי ה-API האלה ב-ML Kit.

לקבלת הוראות מפורטות, אפשר לעיין במדריכי ההעברה ל-Android ול-iOS.

מה לא השתנה?

ממשקי ה-API והשירותים מבוססי-הענן ימשיכו להיות זמינים עם למידת מכונה של Firebase:

  • ממשקי ה-API של תוויות לתמונות, זיהוי טקסט וציוני דרך שמבוססים על ענן עדיין זמינים ב-Firebase ML SDK.

  • אפשר גם להמשיך ליהנות מפריסת מודלים ב-Firebase ML

שאלות נפוצות

למה השינוי הזה בוצע?

אנחנו מבצעים את השינוי הזה כדי להבהיר אילו פתרונות המוצר מציע. בעקבות השינוי, ML Kit SDK החדש מתמקד באופן מלא בלמידת מכונה במכשיר, במקום שבו כל עיבוד הנתונים מתבצע במכשיר, והוא זמין למפתחים ללא עלות. שירותי הענן שהיו חלק מ-Firebase ML Kit עדיין זמינים דרך ML Kit, ועדיין אפשר להשתמש בהם במקביל עם ממשקי ML Kit API.

עבור ממשקי API במכשיר, ה-ML Kit SDK החדש מאפשר למפתחים לשלב את ML Kit באפליקציה שלהם בקלות. לאחר מכן צריך רק להוסיף תלות לפרויקט של האפליקציה ולאחר מכן להתחיל להשתמש ב-API. אין צורך להגדיר פרויקט Firebase רק כדי להשתמש בממשקי API במכשיר.

מה יקרה למודלים שלי שמתארחים ב-Firebase?

למידת המכונה ב-Firebase תמשיך להציג את המודלים שלך כמו קודם. הפונקציונליות הזו לא משתנה. הנה כמה שיפורים:

  • עכשיו אפשר לפרוס את המודלים ב-Firebase באופן פרוגרמטי באמצעות Python SDK או Node SDK.

  • עכשיו אפשר להשתמש ב-Firebase ML SDK בשילוב עם TensorFlow מסביב ל-Lite. ה-SDK של Firebase מוריד את המודל למכשיר, וסביבת זמן הריצה של TensorFlow Lite המערכת משיגה את ההסקה. כך תוכלו לבחור בקלות את גרסת זמן הריצה המועדפת, כולל build בהתאמה אישית.

אילו יתרונות מקבלים מהמעבר ל-ML Kit SDK החדש?

המעבר ל-SDK החדש יבטיח שהאפליקציות שלכם יפיקו תועלת מתיקוני הבאגים האחרונים ומהשיפורים האחרונים בממשקי ה-API במכשיר. לדוגמה, הנה כמה שינויים בגרסה הראשונה:

רשימה מלאה של השינויים האחרונים מופיעה בנתוני הגרסה של ML Kit SDK.

אני משתמשת ב-ML Kit for Firebase היום. מתי צריך לבצע את המעבר?

הפעולה הזו תלויה בממשקי ה-API של ML Kit for Firebase שבהם אתם משתמשים באפליקציה.

  • ממשקי ה-API הבסיסיים במכשיר ב-ML Kit for Firebase SDK ימשיכו לפעול בעתיד הקרוב. עם זאת, אם תעכבו את המעבר ל-ML Kit SDK החדש, לא תוכלו ליהנות מהתכונות ומהעדכונים החדשים. בנוסף, אחרי שמעדכנים רכיבים אחרים באפליקציה, עלולים להיווצר התנגשויות יחסי תלות. מצב כזה יכול לקרות כשחלק מיחסי התלות האחרים (ישירים או עקיפים) חדשים יותר מאלה שציפיתם מ-ML Kit for Firebase SDK הישן. ספריות לדוגמה: OkHttp ו-firebase-common.

  • אם אתם משתמשים ב-Cloud APIs דרך ML Kit for Firebase SDK, אין צורך לשנות זאת כרגע.

  • אם אתם משתמשים בפריסה של מודל מותאם אישית, מומלץ לשדרג לגרסה האחרונה, שמאפשרת להריץ מסקנות ישירות על זמן הריצה של TensorFlow Lite.