Artwork

المحتوى المقدم من Jon Krohn. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Jon Krohn أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

920: In Case You Missed It in August 2025

21:57
 
مشاركة
 

Manage episode 504611943 series 1278026
المحتوى المقدم من Jon Krohn. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Jon Krohn أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

This month’s episode of In Case You Missed It gives us reasons to be cautiously optimistic about the future of large language models (LLMs), with guests discussing what to do about recent reports that found AI agents blackmailed human users when threatened, the importance of post-training LLMs, and the training we have available for data and AI engineers to create robust, secure, and useful AI. Jon Krohn includes clips from his interviews with Akshay Agrawal (Episode 911), Julien Launay (Episode 913), Michelle Yi (Episode 915), and Kirill Eremenko (Episode 917).

Additional materials: ⁠⁠⁠⁠⁠www.superdatascience.com/920⁠

Interested in sponsoring a SuperDataScience Podcast episode? Email [email protected] for sponsorship information.

  continue reading

1231 حلقات

Artwork
iconمشاركة
 
Manage episode 504611943 series 1278026
المحتوى المقدم من Jon Krohn. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Jon Krohn أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

This month’s episode of In Case You Missed It gives us reasons to be cautiously optimistic about the future of large language models (LLMs), with guests discussing what to do about recent reports that found AI agents blackmailed human users when threatened, the importance of post-training LLMs, and the training we have available for data and AI engineers to create robust, secure, and useful AI. Jon Krohn includes clips from his interviews with Akshay Agrawal (Episode 911), Julien Launay (Episode 913), Michelle Yi (Episode 915), and Kirill Eremenko (Episode 917).

Additional materials: ⁠⁠⁠⁠⁠www.superdatascience.com/920⁠

Interested in sponsoring a SuperDataScience Podcast episode? Email [email protected] for sponsorship information.

  continue reading

1231 حلقات

모든 에피소드

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع

حقوق الطبع والنشر 2025 | سياسة الخصوصية | شروط الخدمة | | حقوق النشر
استمع إلى هذا العرض أثناء الاستكشاف
تشغيل