Accélérer la science des données sur les GPU

  1. Quel est le principal avantage de l'utilisation de cudf.pandas dans votre workflow de data science ?

  2. Quel environnement d'exécution sur Google Cloud est recommandé pour les équipes qui souhaitent une configuration rapide, une facilité d'utilisation et une collaboration sécurisée pour les workflows de data science avec les notebooks ?

  3. Dans le contexte du machine learning accéléré par GPU, qu'est-ce que l'exécution des profileurs cuml.accel vous aide-t-elle à identifier ?

  4. Quelle est la bonne pratique à suivre lorsque vous utilisez l'accélération GPU pour le machine learning ?

  5. Quel paramètre devez-vous définir dans XGBoost pour activer l'accélération GPU ?

  6. Quel est l'avantage clé d'utiliser les estimateurs de cuML (par exemple, cuml.ensemble.RandomForestClassifier) par rapport à leurs équivalents scikit-learn ?

  7. Lorsque vous utilisez XGBoost accéléré par GPU avec des objets DataFrame cuDF, quel est l'avantage principal de transmettre directement des données cuDF à xgb.train() ou XGBClassifier.fit() ?

  8. Que vous permet de faire le module cuml.accel lorsque vous travaillez avec du code scikit-learn ?

  9. cuml.accel.profile et cuml.accel.line_profile permettent de profiler votre code scikit-learn accéléré par GPU. Quelles sont les méthodes valides pour les appeler ?