Artwork

A tartalmat a HackerNoon biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a HackerNoon vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
Player FM - Podcast alkalmazás
Lépjen offline állapotba az Player FM alkalmazással!

Stop Waiting: Make XGBoost 46x Faster With One Parameter Change

10:14
 
Megosztás
 

Manage episode 506263598 series 3474148
A tartalmat a HackerNoon biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a HackerNoon vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.

This story was originally published on HackerNoon at: https://hackernoon.com/stop-waiting-make-xgboost-46x-faster-with-one-parameter-change.
Speed up XGBoost training by 46x with one parameter change. Learn how GPU acceleration saves hours, boosts iteration, and scales to big data.
Check more stories related to machine-learning at: https://hackernoon.com/c/machine-learning. You can also check exclusive content about #feature-engineering, #xgboost, #gpu-acceleration, #nvidia, #nvidia-a100-gpu, #data-science, #cuda, #hackernoon-top-story, and more.
This story was written by: @paoloap. Learn more about this writer by checking @paoloap's about page, and for more stories, please visit hackernoon.com.
XGBoost has built-in support for NVIDIA CUDA, so tapping into GPU acceleration doesn’t require new libraries or code rewrites. This single change can make your training 5–15x faster on large datasets. The Proof: A 46x Speed-up on Amex Default Prediction.

  continue reading

332 epizódok

Artwork
iconMegosztás
 
Manage episode 506263598 series 3474148
A tartalmat a HackerNoon biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a HackerNoon vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.

This story was originally published on HackerNoon at: https://hackernoon.com/stop-waiting-make-xgboost-46x-faster-with-one-parameter-change.
Speed up XGBoost training by 46x with one parameter change. Learn how GPU acceleration saves hours, boosts iteration, and scales to big data.
Check more stories related to machine-learning at: https://hackernoon.com/c/machine-learning. You can also check exclusive content about #feature-engineering, #xgboost, #gpu-acceleration, #nvidia, #nvidia-a100-gpu, #data-science, #cuda, #hackernoon-top-story, and more.
This story was written by: @paoloap. Learn more about this writer by checking @paoloap's about page, and for more stories, please visit hackernoon.com.
XGBoost has built-in support for NVIDIA CUDA, so tapping into GPU acceleration doesn’t require new libraries or code rewrites. This single change can make your training 5–15x faster on large datasets. The Proof: A 46x Speed-up on Amex Default Prediction.

  continue reading

332 epizódok

All episodes

×
 
Loading …

Üdvözlünk a Player FM-nél!

A Player FM lejátszó az internetet böngészi a kiváló minőségű podcastok után, hogy ön élvezhesse azokat. Ez a legjobb podcast-alkalmazás, Androidon, iPhone-on és a weben is működik. Jelentkezzen be az feliratkozások szinkronizálásához az eszközök között.

 

Gyors referencia kézikönyv

Hallgassa ezt a műsort, miközben felfedezi
Lejátszás