Artwork

المحتوى المقدم من IVANCAST PODCAST. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة IVANCAST PODCAST أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

Peering Into the Black Box: The Rise of Representation Engineering

37:27
 
مشاركة
 

Manage episode 448992995 series 3351512
المحتوى المقدم من IVANCAST PODCAST. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة IVANCAST PODCAST أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

Join us in SHIFTERLABS’ latest experimental podcast series powered by Notebook LM, where we bridge research and conversation to illuminate groundbreaking ideas in AI. In this episode, we dive into “Representation Engineering: A Top-Down Approach to AI Transparency,” an insightful paper from the Center for AI Safety, Carnegie Mellon University, Stanford, and other leading institutions. This research redefines how we view transparency in deep learning by shifting the focus from neurons and circuits to high-level representations.

Discover how Representation Engineering (RepE) introduces new methods for reading and controlling cognitive processes in AI models, offering innovative solutions to challenges like honesty, hallucination detection, and fairness. We explore its applications across essential safety domains, including model control and ethical behavior. Tune in to learn how these advances could shape a future of AI that is more transparent, accountable, and aligned with human values.

This series is part of SHIFTERLABS’ ongoing commitment to pushing the boundaries of educational technology and fostering discussions at the intersection of research, technology, and responsible innovation.

  continue reading

100 حلقات

Artwork
iconمشاركة
 
Manage episode 448992995 series 3351512
المحتوى المقدم من IVANCAST PODCAST. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة IVANCAST PODCAST أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

Join us in SHIFTERLABS’ latest experimental podcast series powered by Notebook LM, where we bridge research and conversation to illuminate groundbreaking ideas in AI. In this episode, we dive into “Representation Engineering: A Top-Down Approach to AI Transparency,” an insightful paper from the Center for AI Safety, Carnegie Mellon University, Stanford, and other leading institutions. This research redefines how we view transparency in deep learning by shifting the focus from neurons and circuits to high-level representations.

Discover how Representation Engineering (RepE) introduces new methods for reading and controlling cognitive processes in AI models, offering innovative solutions to challenges like honesty, hallucination detection, and fairness. We explore its applications across essential safety domains, including model control and ethical behavior. Tune in to learn how these advances could shape a future of AI that is more transparent, accountable, and aligned with human values.

This series is part of SHIFTERLABS’ ongoing commitment to pushing the boundaries of educational technology and fostering discussions at the intersection of research, technology, and responsible innovation.

  continue reading

100 حلقات

Alle episoder

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع