Artwork

A tartalmat a Dev and Doc biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a Dev and Doc vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
Player FM - Podcast alkalmazás
Lépjen offline állapotba az Player FM alkalmazással!

#07 a conversation on safety and risks of AI models | AI safety summit 2023

51:36
 
Megosztás
 

Manage episode 428686722 series 3585389
A tartalmat a Dev and Doc biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a Dev and Doc vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
As the AI safety summit nears in England, the UK positions itself as a leader in AI safety, but what does this mean? Is AI safety all about preventing doom for the human race ? 🤖Dev and doc👨🏻‍⚕️ are here to break down this fascinating topic. Dev and Doc is a Podcast where developers and doctors join forces to deep dive into AI in healthcare. Together, we can build models that matter. 👨🏻‍⚕️Doc - Dr. Joshua Au Yeung - https://www.linkedin.com/in/dr-joshua-auyeung/ 🤖Dev - Zeljko Kraljevic https://twitter.com/zeljkokr Hey! If you are enjoying our conversations, reach out, share your thoughts and journey with us. Don't forget to subscribe whilst you're here :) 00:00 intro 01:28 Start 06:30 AI safety definition 10:21 AI safety vs AI regulation 13:05 UK positions itself as a leader in the AI safety summit (featuring Rishi Sunak) 15:50 AI safety summit - responsible scaling 16:50 what does this mean for an AI researcher? When should we slow down research? 19:40 Yann Lecunn- we will get nowhere by simply scaling. The transformer architecture will NOT lead to AGI 25:30 Tackling AI safety with model evaluation,red teams and ethical hackers 33:36 Trusts sharing data, federated learning platform, over-regulation 38:57 google already has all of your data 41:49 there is a lack of research on AI safety The podcast 🎙️ 🔊Spotify: https://open.spotify.com/show/3QO5Lr3w4Rd6lqwlfKDaB7?si=e7915d844994403e 📙Substack: https://aiforhealthcare.substack.com/ 🎞️ Editor- Dragan Kraljević https://www.instagram.com/dragan_kraljevic/ 🎨Brand design and art direction - Ana Grigorovici https://www.behance.net/anagrigorovici027d
  continue reading

30 epizódok

Artwork
iconMegosztás
 
Manage episode 428686722 series 3585389
A tartalmat a Dev and Doc biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a Dev and Doc vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
As the AI safety summit nears in England, the UK positions itself as a leader in AI safety, but what does this mean? Is AI safety all about preventing doom for the human race ? 🤖Dev and doc👨🏻‍⚕️ are here to break down this fascinating topic. Dev and Doc is a Podcast where developers and doctors join forces to deep dive into AI in healthcare. Together, we can build models that matter. 👨🏻‍⚕️Doc - Dr. Joshua Au Yeung - https://www.linkedin.com/in/dr-joshua-auyeung/ 🤖Dev - Zeljko Kraljevic https://twitter.com/zeljkokr Hey! If you are enjoying our conversations, reach out, share your thoughts and journey with us. Don't forget to subscribe whilst you're here :) 00:00 intro 01:28 Start 06:30 AI safety definition 10:21 AI safety vs AI regulation 13:05 UK positions itself as a leader in the AI safety summit (featuring Rishi Sunak) 15:50 AI safety summit - responsible scaling 16:50 what does this mean for an AI researcher? When should we slow down research? 19:40 Yann Lecunn- we will get nowhere by simply scaling. The transformer architecture will NOT lead to AGI 25:30 Tackling AI safety with model evaluation,red teams and ethical hackers 33:36 Trusts sharing data, federated learning platform, over-regulation 38:57 google already has all of your data 41:49 there is a lack of research on AI safety The podcast 🎙️ 🔊Spotify: https://open.spotify.com/show/3QO5Lr3w4Rd6lqwlfKDaB7?si=e7915d844994403e 📙Substack: https://aiforhealthcare.substack.com/ 🎞️ Editor- Dragan Kraljević https://www.instagram.com/dragan_kraljevic/ 🎨Brand design and art direction - Ana Grigorovici https://www.behance.net/anagrigorovici027d
  continue reading

30 epizódok

Minden epizód

×
 
Loading …

Üdvözlünk a Player FM-nél!

A Player FM lejátszó az internetet böngészi a kiváló minőségű podcastok után, hogy ön élvezhesse azokat. Ez a legjobb podcast-alkalmazás, Androidon, iPhone-on és a weben is működik. Jelentkezzen be az feliratkozások szinkronizálásához az eszközök között.

 

Gyors referencia kézikönyv

Hallgassa ezt a műsort, miközben felfedezi
Lejátszás