Artwork

المحتوى المقدم من Express Audio. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Express Audio أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

Indian elections and the menace of deep fakes

16:19
 
مشاركة
 

Manage episode 418013348 series 3270045
المحتوى المقدم من Express Audio. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Express Audio أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
In this episode of The Indian Express tech podcast – Our Own Devices, host Nandagopal Rajan, COO, The Indian Express Online is joined by Anand Trivedi, Director, CyberProof, a UST company. India at the moment is in the process of Lok Sabha elections with parties campaigning via all the available mediums. Amidst such a crucial time, the menace of deep fakes has surfaced. Anand in this podcast talks about the large extent to which fake videos, audios and doctored images and content has been circulating related to the elections. But how to judge whether what you are seeing is real or not? How to make sure you are not being fed synthetic content? To find out, tune into today's episode of Our Own Devices with Nandagopal Rajan.
Introduction 00:00
What are deep fakes 00:43
Fast paced development of the technology 3:55
Use of deep fakes in the elections 4:53
Rules, Regulations and detecting deep fakes 6:55
How can public save themselves from falling prey to deep fakes during elections 8:55
Disadvantages of adopting it as a technology 9:23
Platform level warnings and alerts 11:24
Can it be made less profitable and expensive to reduce it's misuse? 12:20
To what extent should one trust the things they see online 13:43
Edited and mixed by Suresh Pawar
  continue reading

212 حلقات

Artwork
iconمشاركة
 
Manage episode 418013348 series 3270045
المحتوى المقدم من Express Audio. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Express Audio أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
In this episode of The Indian Express tech podcast – Our Own Devices, host Nandagopal Rajan, COO, The Indian Express Online is joined by Anand Trivedi, Director, CyberProof, a UST company. India at the moment is in the process of Lok Sabha elections with parties campaigning via all the available mediums. Amidst such a crucial time, the menace of deep fakes has surfaced. Anand in this podcast talks about the large extent to which fake videos, audios and doctored images and content has been circulating related to the elections. But how to judge whether what you are seeing is real or not? How to make sure you are not being fed synthetic content? To find out, tune into today's episode of Our Own Devices with Nandagopal Rajan.
Introduction 00:00
What are deep fakes 00:43
Fast paced development of the technology 3:55
Use of deep fakes in the elections 4:53
Rules, Regulations and detecting deep fakes 6:55
How can public save themselves from falling prey to deep fakes during elections 8:55
Disadvantages of adopting it as a technology 9:23
Platform level warnings and alerts 11:24
Can it be made less profitable and expensive to reduce it's misuse? 12:20
To what extent should one trust the things they see online 13:43
Edited and mixed by Suresh Pawar
  continue reading

212 حلقات

كل الحلقات

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع

استمع إلى هذا العرض أثناء الاستكشاف
تشغيل