Artwork

المحتوى المقدم من DARPA. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة DARPA أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

Episode 69: Demystifying Deepfakes

19:47
 
مشاركة
 

Manage episode 366265884 series 1314130
المحتوى المقدم من DARPA. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة DARPA أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

Generative artificial intelligence has captured the world’s attention after recent advances in the commercial sector. Its ability to create deepfakes, or highly realistic multimedia, has turned a once highly specialized skill into something as easy as clicking a button.

As a result, the threat of manipulated media –audio, images, video, and text – has increased while social media provides a ripe environment for viral content sharing. Though, not all media manipulations have the same real-world impact.

In this episode of Voices from DARPA, Dr. Wil Corvey, program manager for DARPA’s Semantic Forensics (SemaFor), discusses how the program goes beyond detection to delve deeper into understanding the intent behind manipulated media and how their team is creating tools available for today’s analysts. They are joined by SemaFor researchers Arslan Basharat, assistant director of Computer Vision at Kitware Inc. and Luisa Verdoliva, professor at the University of Naples in Italy.

  continue reading

118 حلقات

Artwork

Episode 69: Demystifying Deepfakes

Voices from DARPA

457 subscribers

published

iconمشاركة
 
Manage episode 366265884 series 1314130
المحتوى المقدم من DARPA. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة DARPA أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

Generative artificial intelligence has captured the world’s attention after recent advances in the commercial sector. Its ability to create deepfakes, or highly realistic multimedia, has turned a once highly specialized skill into something as easy as clicking a button.

As a result, the threat of manipulated media –audio, images, video, and text – has increased while social media provides a ripe environment for viral content sharing. Though, not all media manipulations have the same real-world impact.

In this episode of Voices from DARPA, Dr. Wil Corvey, program manager for DARPA’s Semantic Forensics (SemaFor), discusses how the program goes beyond detection to delve deeper into understanding the intent behind manipulated media and how their team is creating tools available for today’s analysts. They are joined by SemaFor researchers Arslan Basharat, assistant director of Computer Vision at Kitware Inc. and Luisa Verdoliva, professor at the University of Naples in Italy.

  continue reading

118 حلقات

كل الحلقات

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع

استمع إلى هذا العرض أثناء الاستكشاف
تشغيل