Artwork

المحتوى المقدم من Racial Justice x Technology Policy: Ezra Tefera, MD, MSc, Racial Justice x Technology Policy: Ezra Tefera, and MD. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Racial Justice x Technology Policy: Ezra Tefera, MD, MSc, Racial Justice x Technology Policy: Ezra Tefera, and MD أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

Decoding Bias Podcast with Ezra Tefera

مشاركة
 

Manage series 3613324
المحتوى المقدم من Racial Justice x Technology Policy: Ezra Tefera, MD, MSc, Racial Justice x Technology Policy: Ezra Tefera, and MD. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Racial Justice x Technology Policy: Ezra Tefera, MD, MSc, Racial Justice x Technology Policy: Ezra Tefera, and MD أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

Welcome to 'Decoding Bias', a podcast series brought to you by the Racial Justice x Technology Policy (RJxTP) program at Brandeis University's Heller School. Our program explores the critical and often overlooked realm of AI and algorithmic bias, shedding light on how these technological advancements can perpetuate 'algorithmic oppression' in marginalized communities. Each episode is a journey into the intricate world of AI, focusing on how algorithms, if unchecked, can reinforce societal biases and inequality. We bring together a diverse set of voices, including representatives from the affected communities, industry leaders, academic experts, students, and others from various sectors, to explore the multifaceted impacts of AI on racial justice. Our discussions aim to uncover the hidden biases in technology and seek pathways towards more equitable and inclusive AI systems. Join us as we unravel the complexities of algorithmic bias and champion the cause of racial justice in the digital age.

  continue reading

1 حلقة واحدة

Artwork
iconمشاركة
 
Manage series 3613324
المحتوى المقدم من Racial Justice x Technology Policy: Ezra Tefera, MD, MSc, Racial Justice x Technology Policy: Ezra Tefera, and MD. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Racial Justice x Technology Policy: Ezra Tefera, MD, MSc, Racial Justice x Technology Policy: Ezra Tefera, and MD أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

Welcome to 'Decoding Bias', a podcast series brought to you by the Racial Justice x Technology Policy (RJxTP) program at Brandeis University's Heller School. Our program explores the critical and often overlooked realm of AI and algorithmic bias, shedding light on how these technological advancements can perpetuate 'algorithmic oppression' in marginalized communities. Each episode is a journey into the intricate world of AI, focusing on how algorithms, if unchecked, can reinforce societal biases and inequality. We bring together a diverse set of voices, including representatives from the affected communities, industry leaders, academic experts, students, and others from various sectors, to explore the multifaceted impacts of AI on racial justice. Our discussions aim to uncover the hidden biases in technology and seek pathways towards more equitable and inclusive AI systems. Join us as we unravel the complexities of algorithmic bias and champion the cause of racial justice in the digital age.

  continue reading

1 حلقة واحدة

كل الحلقات

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع

استمع إلى هذا العرض أثناء الاستكشاف
تشغيل