Peter Lund Madsen får hver uge besøg af eksperter i studiet. Alle emner kan blive belyst - lige fra menneskekroppens tarmflora til ekspeditioner på fremmede planeter. Og værten sørger altid for at binde historierne sammen med sin egen personlige ekspertise inden for hjernevidenskab og psykiatri. Hør alle afsnit i DR Lyd
…
continue reading
المحتوى المقدم من Dagbladet Information. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Dagbladet Information أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !
Kan kunstig intelligens være racistisk – og hvordan sikrer vi os, at den bliver fair?
Manage episode 391152735 series 3541719
المحتوى المقدم من Dagbladet Information. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Dagbladet Information أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Avanceret maskinlæring kan hjælpe os med at sortere og overskue store datasæt. Men hvad gør vi, når algoritmerne tager fejl? Det spørger vi professor Aasa Feragen om i dette femte afsnit af ’Maskinstorm’. Aasa Feragen er professor på DTU Compute og forsker netop i fairness og bias i kunstig intelligens. Et område, som med algoritmernes gradvise indtog i både sundhedsvæsenet, socialforsorgen og retssystemet bliver stadig mere relevant at kaste et kritisk fokus på. For nok kan avanceret maskinlæring hjælpe os med at sortere og overskue store datasæt og for eksempel opdage tumorer i scanningsbilleder eller – som i COMPAS-sagen – risikovurdere adfærd baseret på statistisk data. Men hvad gør vi, når algoritmerne tager fejl? Eller sagt på en anden måde: Hvis vores overvågning bygger på kunstig intelligens, hvordan sikrer vi os så, at den kunstige intelligens er fair?
…
continue reading
Din vært i dagens program er journalist Bo Elkjær.
Du kan lytte til podcasten ’Maskinstorm’ i din foretrukne podcastapp
Podcastserien er støttet af Novo Nordisk Fonden
16 حلقات
Manage episode 391152735 series 3541719
المحتوى المقدم من Dagbladet Information. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Dagbladet Information أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Avanceret maskinlæring kan hjælpe os med at sortere og overskue store datasæt. Men hvad gør vi, når algoritmerne tager fejl? Det spørger vi professor Aasa Feragen om i dette femte afsnit af ’Maskinstorm’. Aasa Feragen er professor på DTU Compute og forsker netop i fairness og bias i kunstig intelligens. Et område, som med algoritmernes gradvise indtog i både sundhedsvæsenet, socialforsorgen og retssystemet bliver stadig mere relevant at kaste et kritisk fokus på. For nok kan avanceret maskinlæring hjælpe os med at sortere og overskue store datasæt og for eksempel opdage tumorer i scanningsbilleder eller – som i COMPAS-sagen – risikovurdere adfærd baseret på statistisk data. Men hvad gør vi, når algoritmerne tager fejl? Eller sagt på en anden måde: Hvis vores overvågning bygger på kunstig intelligens, hvordan sikrer vi os så, at den kunstige intelligens er fair?
…
continue reading
Din vært i dagens program er journalist Bo Elkjær.
Du kan lytte til podcasten ’Maskinstorm’ i din foretrukne podcastapp
Podcastserien er støttet af Novo Nordisk Fonden
16 حلقات
كل الحلقات
×مرحبًا بك في مشغل أف ام!
يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.