Artwork

المحتوى المقدم من Fast Foundations. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Fast Foundations أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

كيف تسبب رسالة في سلاك في كابوس بقيمة تريليون دولار

5:18
 
مشاركة
 

Manage episode 502373301 series 3554677
المحتوى المقدم من Fast Foundations. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Fast Foundations أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

خطأ قيمته تريليون دولار من رسالة عبر Slack؟ في هذه الحلقة من The Prompt، يغوص جيم كارتر في القصة المفزعة لشركة Anthropic، وهي شركة الذكاء الاصطناعي التي يُزعم أنها قرصنت ملايين الكتب لتدريب نماذجها. هذه ليست لحظة "أوبس" عادية—بل هي دعوى قضائية جماعية محتملة يمكن أن تكلفهم أكثر من تريليون دولار. نعم، تريليون بحرف "التاء."

يبدأ جيم بالتذكير بالأيام الجميلة القديمة لخدمة Napster وخوادم FTP، ليضع الأساس لقصة تعبر عن الحنين والدراما القانونية في آن واحد. ولكن هذه ليست مجرد رحلة إلى الوراء. إنها قصة تحذيرية حول المخاطر العالية لتجاوز الحدود في صناعة الذكاء الاصطناعي.

تستعرض الحلقة كيف أن المديرين التنفيذيين لشركة Anthropic، وليس مجرد بعض الموظفين المارقين، سعوا بنشاط للحصول على المحتوى المقرصن. عندما أغلق مكتب التحقيقات الفيدرالي Z-Library، وجد مؤسس Anthropic شريكًا موقعًا مقلدًا وشاركه مع الزملاء، مما أشعل سرقة رقمية يمكن أن تنافس أي سيناريو في هوليوود. التحديث الأخير؟ حكم القاضي السوب بأن تدريب الذكاء الاصطناعي على الكتب المشتراة قانونيًا يعتبر استخدامًا عادلًا، لكن أساليب Anthropic كانت بكل شيء إلا القانونية.

يسلط جيم الضوء على الأضرار المحتملة الهائلة—حتى 150,000 دولار لكل كتاب مقرصن. ومع وجود ملايين الكتب المعنية، ترتفع الأرقام إلى التريليونات، مما يهدد بإسقاط Anthropic ما لم يتمكنوا من العثور على نقود حقيقية، وليس فقط اعتمادات السحابة، لتغطية التكاليف.

قطاع الذكاء الاصطناعي في مفترق طرق. يمكن لهذه القضية أن تعيد تعريف كيفية تعامل الشركات مع بيانات التدريب، مما يدفعها نحو الترخيص المشروع أو المواد العامة. نصيحة جيم؟ تعامل مع منشأ البيانات كما لو كان امتثالًا ماليًا—وثق كل شيء وتجنب الاختصارات.

يختتم جيم بدعوة للعمل: انضم إلى مجتمع Slack الخاص به 🔗https://jimcarter.me/ctrl-alt-build-ai-community/ لمناقشة الآثار الحقيقية لتطوير الذكاء الاصطناعي. تعلم كيفية بناء الذكاء الاصطناعي بمسؤولية وتجنب تحويل حلمك بمليار دولار إلى كابوس بقيمة تريليون دولار. لأنه، كما يقول جيم، إذا بدا الأمر جيدًا لدرجة أنه لا يصدق، فربما يكون كذلك.

---

تم إنتاج هذه الحلقة والبودكاست بالكامل باستخدام قوة الذكاء الاصطناعي (AI) من قبل المتخصص، جيم كارتر. جيم لا يتحدث العربية! هذا هو بودكاسته وتجربته، وهو ممتن لدعمكم.

يرجى النظر في ترك تقييم 🌟🌟🌟🌟🌟 (5) نجوم ومشاركته مع صديق.

يشارك ما يبنيه علنًا ويمكنك تعلم كيفية القيام بذلك لنفسك، ولشركتك من خلال الانضمام إلى مجتمع Slack الخاص به على https://jimcarter.me/slack/

تواصل وتعلم المزيد عن جيم على https://jimcarter.me

  continue reading

60 حلقات

Artwork
iconمشاركة
 
Manage episode 502373301 series 3554677
المحتوى المقدم من Fast Foundations. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Fast Foundations أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

خطأ قيمته تريليون دولار من رسالة عبر Slack؟ في هذه الحلقة من The Prompt، يغوص جيم كارتر في القصة المفزعة لشركة Anthropic، وهي شركة الذكاء الاصطناعي التي يُزعم أنها قرصنت ملايين الكتب لتدريب نماذجها. هذه ليست لحظة "أوبس" عادية—بل هي دعوى قضائية جماعية محتملة يمكن أن تكلفهم أكثر من تريليون دولار. نعم، تريليون بحرف "التاء."

يبدأ جيم بالتذكير بالأيام الجميلة القديمة لخدمة Napster وخوادم FTP، ليضع الأساس لقصة تعبر عن الحنين والدراما القانونية في آن واحد. ولكن هذه ليست مجرد رحلة إلى الوراء. إنها قصة تحذيرية حول المخاطر العالية لتجاوز الحدود في صناعة الذكاء الاصطناعي.

تستعرض الحلقة كيف أن المديرين التنفيذيين لشركة Anthropic، وليس مجرد بعض الموظفين المارقين، سعوا بنشاط للحصول على المحتوى المقرصن. عندما أغلق مكتب التحقيقات الفيدرالي Z-Library، وجد مؤسس Anthropic شريكًا موقعًا مقلدًا وشاركه مع الزملاء، مما أشعل سرقة رقمية يمكن أن تنافس أي سيناريو في هوليوود. التحديث الأخير؟ حكم القاضي السوب بأن تدريب الذكاء الاصطناعي على الكتب المشتراة قانونيًا يعتبر استخدامًا عادلًا، لكن أساليب Anthropic كانت بكل شيء إلا القانونية.

يسلط جيم الضوء على الأضرار المحتملة الهائلة—حتى 150,000 دولار لكل كتاب مقرصن. ومع وجود ملايين الكتب المعنية، ترتفع الأرقام إلى التريليونات، مما يهدد بإسقاط Anthropic ما لم يتمكنوا من العثور على نقود حقيقية، وليس فقط اعتمادات السحابة، لتغطية التكاليف.

قطاع الذكاء الاصطناعي في مفترق طرق. يمكن لهذه القضية أن تعيد تعريف كيفية تعامل الشركات مع بيانات التدريب، مما يدفعها نحو الترخيص المشروع أو المواد العامة. نصيحة جيم؟ تعامل مع منشأ البيانات كما لو كان امتثالًا ماليًا—وثق كل شيء وتجنب الاختصارات.

يختتم جيم بدعوة للعمل: انضم إلى مجتمع Slack الخاص به 🔗https://jimcarter.me/ctrl-alt-build-ai-community/ لمناقشة الآثار الحقيقية لتطوير الذكاء الاصطناعي. تعلم كيفية بناء الذكاء الاصطناعي بمسؤولية وتجنب تحويل حلمك بمليار دولار إلى كابوس بقيمة تريليون دولار. لأنه، كما يقول جيم، إذا بدا الأمر جيدًا لدرجة أنه لا يصدق، فربما يكون كذلك.

---

تم إنتاج هذه الحلقة والبودكاست بالكامل باستخدام قوة الذكاء الاصطناعي (AI) من قبل المتخصص، جيم كارتر. جيم لا يتحدث العربية! هذا هو بودكاسته وتجربته، وهو ممتن لدعمكم.

يرجى النظر في ترك تقييم 🌟🌟🌟🌟🌟 (5) نجوم ومشاركته مع صديق.

يشارك ما يبنيه علنًا ويمكنك تعلم كيفية القيام بذلك لنفسك، ولشركتك من خلال الانضمام إلى مجتمع Slack الخاص به على https://jimcarter.me/slack/

تواصل وتعلم المزيد عن جيم على https://jimcarter.me

  continue reading

60 حلقات

كل الحلقات

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع

حقوق الطبع والنشر 2025 | سياسة الخصوصية | شروط الخدمة | | حقوق النشر
استمع إلى هذا العرض أثناء الاستكشاف
تشغيل