Acelere a ciência de dados em GPUs

  1. Qual é o principal benefício de usar cudf.pandas no fluxo de trabalho de ciência de dados?

  2. Qual ambiente de execução no Google Cloud é recomendado para equipes que querem configuração rápida, facilidade de uso e colaboração segura para fluxos de trabalho de ciência de dados com notebooks?

  3. No contexto do aprendizado de máquina acelerado por GPU, o que a execução dos criadores de perfil cuml.accel ajuda a identificar?

  4. Qual das opções a seguir é uma prática recomendada ao usar a aceleração de GPU para aprendizado de máquina?

  5. Qual parâmetro você precisa definir no XGBoost para ativar a aceleração de GPU?

  6. Qual é a principal vantagem de usar os estimadores de cuML (por exemplo, cuml.ensemble.RandomForestClassifier) em vez dos equivalentes de scikit-learn?

  7. Ao usar o XGBoost acelerado por GPU com DataFrames do cuDF, qual é um dos principais benefícios de transmitir dados do cuDF diretamente para o xgb.train() ou o XGBClassifier.fit()?

  8. O que o módulo cuml.accel permite fazer ao trabalhar com código scikit-learn?

  9. cuml.accel.profile e cuml.accel.line_profile são maneiras de criar perfis do seu código scikit-learn acelerado por GPU. Quais das alternativas a seguir são maneiras válidas de invocar esses métodos?