Artwork

A tartalmat a CCC media team biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a CCC media team vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
Player FM - Podcast alkalmazás
Lépjen offline állapotba az Player FM alkalmazással!

Variational Autoencorders: the cognitive scientist's favorite deep learning tool (realraum)

41:56
 
Megosztás
 

Manage episode 515603270 series 1910928
A tartalmat a CCC media team biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a CCC media team vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
Variational Autoencoders (VAEs) were first introduced as early concept learners in the vision domain. Since then, they have become a staple tool in generative modeling, representation learning, and unsupervised learning more broadly. Their use as analogues of human cognition is one of the first steps towards the understanding of more complex cognitive models leading up to models of human brain function and behavior. As part of a series of talks on cognitive science and deep learning at the realraum in Graz, this presentation will focus on the role of VAEs in cognitive science research. Topics: - Supervised vs. unsupervised learning - Deep Learning basics: classifiers and backpropagation - Autoencoders: architecture, training, embedding, and generative modeling - Variational Autoencoders: statistical latent space, and the reparametrization trick - Training VAEs: loss functions, optimization, and the KL divergence - Concept learning: VAEs in cognitive science https://creativecommons.org/licenses/by-sa/4.0/ about this event: https://cfp.realraum.at/realraum-october/talk/LHH3M9/
  continue reading

1750 epizódok

Artwork
iconMegosztás
 
Manage episode 515603270 series 1910928
A tartalmat a CCC media team biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a CCC media team vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
Variational Autoencoders (VAEs) were first introduced as early concept learners in the vision domain. Since then, they have become a staple tool in generative modeling, representation learning, and unsupervised learning more broadly. Their use as analogues of human cognition is one of the first steps towards the understanding of more complex cognitive models leading up to models of human brain function and behavior. As part of a series of talks on cognitive science and deep learning at the realraum in Graz, this presentation will focus on the role of VAEs in cognitive science research. Topics: - Supervised vs. unsupervised learning - Deep Learning basics: classifiers and backpropagation - Autoencoders: architecture, training, embedding, and generative modeling - Variational Autoencoders: statistical latent space, and the reparametrization trick - Training VAEs: loss functions, optimization, and the KL divergence - Concept learning: VAEs in cognitive science https://creativecommons.org/licenses/by-sa/4.0/ about this event: https://cfp.realraum.at/realraum-october/talk/LHH3M9/
  continue reading

1750 epizódok

Minden epizód

×
 
Loading …

Üdvözlünk a Player FM-nél!

A Player FM lejátszó az internetet böngészi a kiváló minőségű podcastok után, hogy ön élvezhesse azokat. Ez a legjobb podcast-alkalmazás, Androidon, iPhone-on és a weben is működik. Jelentkezzen be az feliratkozások szinkronizálásához az eszközök között.

 

Gyors referencia kézikönyv

Hallgassa ezt a műsort, miközben felfedezi
Lejátszás