Artwork

المحتوى المقدم من Philip Banse. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرةً بواسطة Philip Banse أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

MR080 Wenn Maschinen entscheiden (mit Sandra Wachter, KI-Forscherin)

54:40
 
مشاركة
 

Manage episode 249179227 series 1348018
المحتوى المقدم من Philip Banse. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرةً بواسطة Philip Banse أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

Sandra Wachter ist Professorin in Oxford und beschäftigt mit maschinengestützen Entscheidungen und ethischen Fragen der “künstlichen Intelligenz”.
Philip Banse spricht mit ihr über Kontrolle maschinengestützter Entscheidungen (wer ist verantwortlich, wenn etwas schief geht?) und das Konzept der “Counterfactual Explanations” (pdf), mit dem maschinelle Entscheidungen nachvollziehbarer werden sollen.
Es kommen auch einige Eurer Fragen zur Sprache, etwa nach Technik-Forschung, die von großen Technik-Firmen mitfinanziert wird.

  continue reading

107 حلقات

Artwork
iconمشاركة
 
Manage episode 249179227 series 1348018
المحتوى المقدم من Philip Banse. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرةً بواسطة Philip Banse أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

Sandra Wachter ist Professorin in Oxford und beschäftigt mit maschinengestützen Entscheidungen und ethischen Fragen der “künstlichen Intelligenz”.
Philip Banse spricht mit ihr über Kontrolle maschinengestützter Entscheidungen (wer ist verantwortlich, wenn etwas schief geht?) und das Konzept der “Counterfactual Explanations” (pdf), mit dem maschinelle Entscheidungen nachvollziehbarer werden sollen.
Es kommen auch einige Eurer Fragen zur Sprache, etwa nach Technik-Forschung, die von großen Technik-Firmen mitfinanziert wird.

  continue reading

107 حلقات

كل الحلقات

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع