Artwork

المحتوى المقدم من NASK Państwowy Instytut Badawczy. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرةً بواسطة NASK Państwowy Instytut Badawczy أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

O tropieniu nielegalnych obrazów

24:22
 
مشاركة
 

Manage episode 321064493 series 2887484
المحتوى المقدم من NASK Państwowy Instytut Badawczy. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرةً بواسطة NASK Państwowy Instytut Badawczy أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

Analizowanie nielegalnych, szkodliwych dla użytkownika filmów i zdjęć w Internecie wiąże się dla ekspertów z ogromnymi kosztami psychologicznymi i emocjonalnymi. Nie każdy może poradzić sobie z pracą, w której jest narażony na ciągły kontakt z brutalnymi scenami, zwłaszcza będącymi zapisem seksualnego wykorzystywania dzieci. Naukowcy w NASK wierzą, że może w tym pomóc sztuczna inteligencja. Algorytmy analizujące obrazy potrafią dziś już bardzo wiele. Czy będą mogły przejąć również zadanie klasyfikowania treści o charakterze pedofilskim? Posłuchaj rozmowy z Martyną Różycką i Weroniką Gutfeter.

  continue reading

7 حلقات

Artwork
iconمشاركة
 
Manage episode 321064493 series 2887484
المحتوى المقدم من NASK Państwowy Instytut Badawczy. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرةً بواسطة NASK Państwowy Instytut Badawczy أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

Analizowanie nielegalnych, szkodliwych dla użytkownika filmów i zdjęć w Internecie wiąże się dla ekspertów z ogromnymi kosztami psychologicznymi i emocjonalnymi. Nie każdy może poradzić sobie z pracą, w której jest narażony na ciągły kontakt z brutalnymi scenami, zwłaszcza będącymi zapisem seksualnego wykorzystywania dzieci. Naukowcy w NASK wierzą, że może w tym pomóc sztuczna inteligencja. Algorytmy analizujące obrazy potrafią dziś już bardzo wiele. Czy będą mogły przejąć również zadanie klasyfikowania treści o charakterze pedofilskim? Posłuchaj rozmowy z Martyną Różycką i Weroniką Gutfeter.

  continue reading

7 حلقات

כל הפרקים

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع