Artwork

المحتوى المقدم من CCC media team. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة CCC media team أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

Variational Autoencorders: the cognitive scientist's favorite deep learning tool (realraum)

41:56
 
مشاركة
 

Manage episode 515596236 series 1330870
المحتوى المقدم من CCC media team. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة CCC media team أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Variational Autoencoders (VAEs) were first introduced as early concept learners in the vision domain. Since then, they have become a staple tool in generative modeling, representation learning, and unsupervised learning more broadly. Their use as analogues of human cognition is one of the first steps towards the understanding of more complex cognitive models leading up to models of human brain function and behavior. As part of a series of talks on cognitive science and deep learning at the realraum in Graz, this presentation will focus on the role of VAEs in cognitive science research. Topics: - Supervised vs. unsupervised learning - Deep Learning basics: classifiers and backpropagation - Autoencoders: architecture, training, embedding, and generative modeling - Variational Autoencoders: statistical latent space, and the reparametrization trick - Training VAEs: loss functions, optimization, and the KL divergence - Concept learning: VAEs in cognitive science https://creativecommons.org/licenses/by-sa/4.0/ about this event: https://cfp.realraum.at/realraum-october/talk/LHH3M9/
  continue reading

2436 حلقات

Artwork
iconمشاركة
 
Manage episode 515596236 series 1330870
المحتوى المقدم من CCC media team. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة CCC media team أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Variational Autoencoders (VAEs) were first introduced as early concept learners in the vision domain. Since then, they have become a staple tool in generative modeling, representation learning, and unsupervised learning more broadly. Their use as analogues of human cognition is one of the first steps towards the understanding of more complex cognitive models leading up to models of human brain function and behavior. As part of a series of talks on cognitive science and deep learning at the realraum in Graz, this presentation will focus on the role of VAEs in cognitive science research. Topics: - Supervised vs. unsupervised learning - Deep Learning basics: classifiers and backpropagation - Autoencoders: architecture, training, embedding, and generative modeling - Variational Autoencoders: statistical latent space, and the reparametrization trick - Training VAEs: loss functions, optimization, and the KL divergence - Concept learning: VAEs in cognitive science https://creativecommons.org/licenses/by-sa/4.0/ about this event: https://cfp.realraum.at/realraum-october/talk/LHH3M9/
  continue reading

2436 حلقات

Alle Folgen

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع

حقوق الطبع والنشر 2025 | سياسة الخصوصية | شروط الخدمة | | حقوق النشر
استمع إلى هذا العرض أثناء الاستكشاف
تشغيل