Artwork

المحتوى المقدم من Dayan Ruben. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Dayan Ruben أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

Charting the Course for Safe Superintelligence

28:58
 
مشاركة
 

Manage episode 481907786 series 3624949
المحتوى المقدم من Dayan Ruben. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Dayan Ruben أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

What happens when AI becomes vastly smarter than humans? It sounds like science fiction, but researchers are grappling with the very real challenge of ensuring Artificial General Intelligence (AGI) is safe for humanity. Join us for a deep dive into the cutting edge of AI safety research, unpacking the technical hurdles and potential solutions. We explore the core risks – from intentional misalignment and misuse to unintentional mistakes – and the crucial assumptions guiding current research, like the pace of AI progress and the "approximate continuity" of its development. Learn about the key strategies being developed, including safer design patterns, robust control measures, and the concept of "informed oversight," as we navigate the complex balance between harnessing AGI's immense potential benefits and mitigating its profound risks.

An Approach to Technical AGI Safety and

Security: https://storage.googleapis.com/deepmind-media/DeepMind.com/Blog/evaluating-potential-cybersecurity-threats-of-advanced-ai/An_Approach_to_Technical_AGI_Safety_Apr_2025.pdf

Google Deepmind AGI Safety Course: https://youtube.com/playlist?list=PLw9kjlF6lD5UqaZvMTbhJB8sV-yuXu5eW

  continue reading

19 حلقات

Artwork
iconمشاركة
 
Manage episode 481907786 series 3624949
المحتوى المقدم من Dayan Ruben. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Dayan Ruben أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

What happens when AI becomes vastly smarter than humans? It sounds like science fiction, but researchers are grappling with the very real challenge of ensuring Artificial General Intelligence (AGI) is safe for humanity. Join us for a deep dive into the cutting edge of AI safety research, unpacking the technical hurdles and potential solutions. We explore the core risks – from intentional misalignment and misuse to unintentional mistakes – and the crucial assumptions guiding current research, like the pace of AI progress and the "approximate continuity" of its development. Learn about the key strategies being developed, including safer design patterns, robust control measures, and the concept of "informed oversight," as we navigate the complex balance between harnessing AGI's immense potential benefits and mitigating its profound risks.

An Approach to Technical AGI Safety and

Security: https://storage.googleapis.com/deepmind-media/DeepMind.com/Blog/evaluating-potential-cybersecurity-threats-of-advanced-ai/An_Approach_to_Technical_AGI_Safety_Apr_2025.pdf

Google Deepmind AGI Safety Course: https://youtube.com/playlist?list=PLw9kjlF6lD5UqaZvMTbhJB8sV-yuXu5eW

  continue reading

19 حلقات

كل الحلقات

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع

حقوق الطبع والنشر 2025 | سياسة الخصوصية | شروط الخدمة | | حقوق النشر
استمع إلى هذا العرض أثناء الاستكشاف
تشغيل