Acelera la ciencia de datos en las GPUs

  1. ¿Cuál es el principal beneficio de usar cudf.pandas en tu flujo de trabajo de ciencia de datos?

  2. ¿Qué entorno de ejecución en Google Cloud se recomienda para los equipos que desean una configuración rápida, facilidad de uso y colaboración segura para los flujos de trabajo de ciencia de datos con Notebooks?

  3. En el contexto del aprendizaje automático acelerado por GPU, ¿qué te ayuda a identificar la ejecución de los analizadores de cuml.accel?

  4. ¿Cuál de las siguientes opciones es una práctica recomendada cuando se usa la aceleración por GPU para el aprendizaje automático?

  5. ¿Qué parámetro debes establecer en XGBoost para habilitar la aceleración de GPU?

  6. ¿Cuál es la ventaja clave de usar los estimadores de cuML (p.ej., cuml.ensemble.RandomForestClassifier) en lugar de sus equivalentes de scikit-learn?

  7. Cuando se usa XGBoost acelerado por GPU con DataFrames de cuDF, ¿cuál es el beneficio clave de pasar datos de cuDF directamente a xgb.train() o XGBClassifier.fit()?

  8. ¿Qué te permite hacer el módulo cuml.accel cuando trabajas con código scikit-learn?

  9. cuml.accel.profile y cuml.accel.line_profile son formas de crear perfiles de tu código scikit-learn acelerado por GPU. ¿Cuáles de las siguientes opciones son formas válidas de invocarlos?