Data Science mit GPUs beschleunigen

  1. Welchen wesentlichen Vorteil bietet die Verwendung von cudf.pandas in Ihrem Data-Science-Workflow?

  2. Welche Laufzeitumgebung in Google Cloud wird für Teams empfohlen, die eine schnelle Einrichtung, Benutzerfreundlichkeit und sichere Zusammenarbeit für Data-Science-Workflows mit Notebooks wünschen?

  3. Was können Sie im Zusammenhang mit GPU-beschleunigtem maschinellem Lernen mit den Profilern cuml.accel identifizieren?

  4. Welche der folgenden Aussagen ist eine Best Practice für die Verwendung von GPU-Beschleunigung für maschinelles Lernen?

  5. Welchen Parameter sollten Sie in XGBoost festlegen, um die GPU-Beschleunigung zu aktivieren?

  6. Was ist der Hauptvorteil der Verwendung von cuML-Schätzern (z.B. cuml.ensemble.RandomForestClassifier) gegenüber ihren scikit-learn-Entsprechungen?

  7. Was ist ein wichtiger Vorteil der direkten Übergabe von cuDF-Daten an xgb.train() oder XGBClassifier.fit(), wenn GPU-beschleunigtes XGBoost mit cuDF-DataFrames verwendet wird?

  8. Was ermöglicht das Modul cuml.accel bei der Arbeit mit scikit-learn-Code?

  9. Sowohl cuml.accel.profile als auch cuml.accel.line_profile sind Möglichkeiten, Ihren GPU-beschleunigten scikit-learn-Code zu profilieren. Welche der folgenden Methoden sind gültig, um sie aufzurufen?