Artwork

المحتوى المقدم من Dagbladet Information. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Dagbladet Information أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

Skal vi lade algoritmer være socialrådgivernes spådomskugler?

19:27
 
مشاركة
 

Manage episode 391152731 series 3541719
المحتوى المقدم من Dagbladet Information. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Dagbladet Information أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Myndigheder har eksperimenteret med at bruge algoritmer til at forudse alt fra langtidsledighed til risiko for mistrivsel blandt børn. Men er det etisk forsvarligt at bruge fejlbehæftede modeller til at spå om sårbare borgere? Det er emnet for dagens afsnit af Maskinstorm, hvor Thomas Troels Hildebrandt gæster studiet i Store Kongensgade. Han er professor ved datalogisk institut på Københavns Universitet og forsker i, hvordan man kan bruge kunstig intelligens i det offentlige system. Ifølge Thomas Troels Hildebrandt opstår der hurtigt store etiske og retssikkerhedsmæssige udfordringer, når man forsøger at bruge algoritmer til at spå om borgerne. »For det her er modeller, og der vil altid være fejl i modeller. Så man skal altid tænke over, om vi kan tåle at begå fejl. Det kan man bedre, hvis man ikke retter skytset mod de sårbare, men måske indad mod sagsbehandlingen og spørger, hvordan vi for eksempel kan blive klogere på ventetider eller overholdelse af lovgivning,« siger Thomas Troels Hildebrandt. Din vært i dagens afsnit er journalist Laura Friis Wang. Podcasten er støttet af Novo Nordisk Fonden.
  continue reading

16 حلقات

Artwork
iconمشاركة
 
Manage episode 391152731 series 3541719
المحتوى المقدم من Dagbladet Information. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Dagbladet Information أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Myndigheder har eksperimenteret med at bruge algoritmer til at forudse alt fra langtidsledighed til risiko for mistrivsel blandt børn. Men er det etisk forsvarligt at bruge fejlbehæftede modeller til at spå om sårbare borgere? Det er emnet for dagens afsnit af Maskinstorm, hvor Thomas Troels Hildebrandt gæster studiet i Store Kongensgade. Han er professor ved datalogisk institut på Københavns Universitet og forsker i, hvordan man kan bruge kunstig intelligens i det offentlige system. Ifølge Thomas Troels Hildebrandt opstår der hurtigt store etiske og retssikkerhedsmæssige udfordringer, når man forsøger at bruge algoritmer til at spå om borgerne. »For det her er modeller, og der vil altid være fejl i modeller. Så man skal altid tænke over, om vi kan tåle at begå fejl. Det kan man bedre, hvis man ikke retter skytset mod de sårbare, men måske indad mod sagsbehandlingen og spørger, hvordan vi for eksempel kan blive klogere på ventetider eller overholdelse af lovgivning,« siger Thomas Troels Hildebrandt. Din vært i dagens afsnit er journalist Laura Friis Wang. Podcasten er støttet af Novo Nordisk Fonden.
  continue reading

16 حلقات

كل الحلقات

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع

استمع إلى هذا العرض أثناء الاستكشاف
تشغيل