Artwork

المحتوى المقدم من ثمانية/ thmanyah. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرةً بواسطة ثمانية/ thmanyah أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

193: عنصرية الآلات: الذكاء الاصطناعي يرث ميول البشر

1:34:26
 
مشاركة
 

Manage episode 270693715 series 2518763
المحتوى المقدم من ثمانية/ thmanyah. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرةً بواسطة ثمانية/ thmanyah أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

د. إبراهيم المسلم باحث متخصص في الذكاء الاصطناعي وتعلم الآلة، وقد عمل كاستاذ بحث مساعد في مدينة الملك عبدالعزيز للعلوم والتقنية "كاكست”، وباحث زائر في "جامعة ستانفورد" في الولايات المتحدة الأميركية.

يتخوف د. إبراهيم المسلم من أن نكون قد اختزلنا كل علوم الحاسب والتعلم العميق في مصطلح «الذكاء الاصطناعي»، فهو يرى أن "المجتمع العلمي قد ضحى كثيرًا في الجانب النظري مقابل العملي." فطريقة عمل الشركات في تطوير هذه التقنيات يختلف تمامًا عن أهداف وطريقة عمل البحوث العلمية.

أما عن مخاوف تقنيات «الذكاء الاصطناعي» وأثره على مستقبل البشرية، فهو يفرق أولًا ما بين هذه التقنيات ومستوياتها من الضعيف الذي نعيشه اليوم -كالسيارات ذاتية القيادة- إلى الخارق الذي يحاكي ويتفوق على الذكاء البشري. ويقول أن المراحل التي يتم فيها تطوير مثل هذه التقنيات قد تشمل أخطاءً في عملية بناء هذه الأنظمة، مما يعرضها للانحياز الناتج عن هذه الأخطاء.

فهو يذكر في دراسته أن وقوع مطوري «الذكاء الاصطناعي» في هذه الأخطاء الناتجة عن العنصرية والتمييز، قد تحدث أثرًا كارثيًا على هذه البرمجيات التي قد تستخدم مستقبلًا في مجالات كالطب أو القانون.

كما أن أحد أهم التحديات والمخاطر المتعلقة بهذه التقنيات هو وجود ثغرات قد تؤثر سلبًا على بيانات المستخدمين، كمثل أن تساهم في خدمة برامج سياسية تدفع المستخدم للتصويت، وفقًا لما تم جمعه عنه من بيانات قد تستخدم ضده لتغيير مزاجه السياسي.

الحلقة 193 من بودكاست فنجان، مع د. إبراهيم المسلم. تستطيع أن تستمع للحلقة من خلال تطبيقات البودكاست على هاتف المحمول. نرشّح الاستماع للبودكاست عبر تطبيق Apple Podcasts على iPhone، وتطبيق Google Podcasts على أندوريد.

ويهمنا معرفة رأيكم عن الحلقات، وتقييمك للبودكاست على iTunes. وتستطيع أن تقترح ضيفًا لبودكاست فنجان بمراسلتنا على: abumalih@thmanyah.com

الروابط:

See omnystudio.com/listener for privacy information.

  continue reading

فصول

1. عنصرية الآلات: الذكاء الاصطناعي يرث ميول البشر (00:00:00)

2. الصورة النمطية عن مفهوم الذكاء الاصطناعي (00:02:14)

3. مخاطر الذكاء الاصطناعي على البشرية (00:23:50)

4. إنحياز الآلات ضد البشر (00:32:03)

5. كيف نفهم التطرف في استخدام هذه التقنيات (00:44:55)

6. الخصوصية وأمن البيانات (00:48:20)

7. هل يمكن للآلة أن تتحكم بالبشر؟ (01:02:25)

8. كيف يمكن لإنحياز الآلة أن يؤثر في مستقبل البشر (01:15:05)

9. الوظائف التي سيستحوذ عليها الذكاء الاصطناعي الضعيف (01:23:58)

326 حلقات

Artwork
iconمشاركة
 
Manage episode 270693715 series 2518763
المحتوى المقدم من ثمانية/ thmanyah. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرةً بواسطة ثمانية/ thmanyah أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

د. إبراهيم المسلم باحث متخصص في الذكاء الاصطناعي وتعلم الآلة، وقد عمل كاستاذ بحث مساعد في مدينة الملك عبدالعزيز للعلوم والتقنية "كاكست”، وباحث زائر في "جامعة ستانفورد" في الولايات المتحدة الأميركية.

يتخوف د. إبراهيم المسلم من أن نكون قد اختزلنا كل علوم الحاسب والتعلم العميق في مصطلح «الذكاء الاصطناعي»، فهو يرى أن "المجتمع العلمي قد ضحى كثيرًا في الجانب النظري مقابل العملي." فطريقة عمل الشركات في تطوير هذه التقنيات يختلف تمامًا عن أهداف وطريقة عمل البحوث العلمية.

أما عن مخاوف تقنيات «الذكاء الاصطناعي» وأثره على مستقبل البشرية، فهو يفرق أولًا ما بين هذه التقنيات ومستوياتها من الضعيف الذي نعيشه اليوم -كالسيارات ذاتية القيادة- إلى الخارق الذي يحاكي ويتفوق على الذكاء البشري. ويقول أن المراحل التي يتم فيها تطوير مثل هذه التقنيات قد تشمل أخطاءً في عملية بناء هذه الأنظمة، مما يعرضها للانحياز الناتج عن هذه الأخطاء.

فهو يذكر في دراسته أن وقوع مطوري «الذكاء الاصطناعي» في هذه الأخطاء الناتجة عن العنصرية والتمييز، قد تحدث أثرًا كارثيًا على هذه البرمجيات التي قد تستخدم مستقبلًا في مجالات كالطب أو القانون.

كما أن أحد أهم التحديات والمخاطر المتعلقة بهذه التقنيات هو وجود ثغرات قد تؤثر سلبًا على بيانات المستخدمين، كمثل أن تساهم في خدمة برامج سياسية تدفع المستخدم للتصويت، وفقًا لما تم جمعه عنه من بيانات قد تستخدم ضده لتغيير مزاجه السياسي.

الحلقة 193 من بودكاست فنجان، مع د. إبراهيم المسلم. تستطيع أن تستمع للحلقة من خلال تطبيقات البودكاست على هاتف المحمول. نرشّح الاستماع للبودكاست عبر تطبيق Apple Podcasts على iPhone، وتطبيق Google Podcasts على أندوريد.

ويهمنا معرفة رأيكم عن الحلقات، وتقييمك للبودكاست على iTunes. وتستطيع أن تقترح ضيفًا لبودكاست فنجان بمراسلتنا على: abumalih@thmanyah.com

الروابط:

See omnystudio.com/listener for privacy information.

  continue reading

فصول

1. عنصرية الآلات: الذكاء الاصطناعي يرث ميول البشر (00:00:00)

2. الصورة النمطية عن مفهوم الذكاء الاصطناعي (00:02:14)

3. مخاطر الذكاء الاصطناعي على البشرية (00:23:50)

4. إنحياز الآلات ضد البشر (00:32:03)

5. كيف نفهم التطرف في استخدام هذه التقنيات (00:44:55)

6. الخصوصية وأمن البيانات (00:48:20)

7. هل يمكن للآلة أن تتحكم بالبشر؟ (01:02:25)

8. كيف يمكن لإنحياز الآلة أن يؤثر في مستقبل البشر (01:15:05)

9. الوظائف التي سيستحوذ عليها الذكاء الاصطناعي الضعيف (01:23:58)

326 حلقات

كل الحلقات

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع