Artwork

المحتوى المقدم من Tessl. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Tessl أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

How Attackers Trick AI: Lessons from Gandalf’s Creator

54:35
 
مشاركة
 

Manage episode 472050790 series 3585084
المحتوى المقدم من Tessl. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Tessl أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

🔒 How Secure is AI? Gandalf’s Creator Exposes the Risks 🔥
AI security is under attack, and hackers are finding new ways to manipulate AI systems. In this episode, Guy Podjarny sits down with Mateo Rojas-Carulla, co-founder of Lakera and creator of Gandalf, to break down the biggest threats facing AI today—from prompt injections and jailbreaks to data poisoning and agent manipulation.
What You’ll Learn:
- How attackers exploit AI vulnerabilities in real-world applications
- Why AI models struggle to separate instructions from external data
- How Gandalf’s 60M+ attack attempts revealed shocking insights
- What the Dynamic Security Utility Framework (DSEC) means for AI safety
- Why red teaming is critical for preventing AI disasters
Whether you’re a developer, security expert, or just curious about AI risks, this episode is packed with must-know insights on keeping AI safe in an evolving landscape.
💡 Can AI truly be secured? Or will attackers always find a way? Drop your thoughts in the comments! 👇
Watch the episode on YouTube: https://youtu.be/RKCvlJT_r4s

Join the AI Native Dev Community on Discord: https://tessl.co/4ghikjh
Ask us questions: [email protected]

  continue reading

فصول

1. How Attackers Trick AI: Lessons from Gandalf’s Creator (00:00:00)

2. Over-Permission in AI Systems (00:02:00)

3. Nebulous AI Functionality (00:07:00)

4. Jailbreaks and Prompt Injections Attacks (00:10:00)

5. Introducing the Dynamic Security Utility Framework (00:18:41)

6. Security in Agentic Systems (00:23:41)

7. Red Teaming for Ai Security Testing (00:28:41)

8. The Future of Agentic Systems (00:35:41)

9. LangChain and Real-World Vulnerabilities (00:42:41)

10. Proactive Security Strategies (00:48:41)

79 حلقات

Artwork
iconمشاركة
 
Manage episode 472050790 series 3585084
المحتوى المقدم من Tessl. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Tessl أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

🔒 How Secure is AI? Gandalf’s Creator Exposes the Risks 🔥
AI security is under attack, and hackers are finding new ways to manipulate AI systems. In this episode, Guy Podjarny sits down with Mateo Rojas-Carulla, co-founder of Lakera and creator of Gandalf, to break down the biggest threats facing AI today—from prompt injections and jailbreaks to data poisoning and agent manipulation.
What You’ll Learn:
- How attackers exploit AI vulnerabilities in real-world applications
- Why AI models struggle to separate instructions from external data
- How Gandalf’s 60M+ attack attempts revealed shocking insights
- What the Dynamic Security Utility Framework (DSEC) means for AI safety
- Why red teaming is critical for preventing AI disasters
Whether you’re a developer, security expert, or just curious about AI risks, this episode is packed with must-know insights on keeping AI safe in an evolving landscape.
💡 Can AI truly be secured? Or will attackers always find a way? Drop your thoughts in the comments! 👇
Watch the episode on YouTube: https://youtu.be/RKCvlJT_r4s

Join the AI Native Dev Community on Discord: https://tessl.co/4ghikjh
Ask us questions: [email protected]

  continue reading

فصول

1. How Attackers Trick AI: Lessons from Gandalf’s Creator (00:00:00)

2. Over-Permission in AI Systems (00:02:00)

3. Nebulous AI Functionality (00:07:00)

4. Jailbreaks and Prompt Injections Attacks (00:10:00)

5. Introducing the Dynamic Security Utility Framework (00:18:41)

6. Security in Agentic Systems (00:23:41)

7. Red Teaming for Ai Security Testing (00:28:41)

8. The Future of Agentic Systems (00:35:41)

9. LangChain and Real-World Vulnerabilities (00:42:41)

10. Proactive Security Strategies (00:48:41)

79 حلقات

كل الحلقات

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع

حقوق الطبع والنشر 2025 | سياسة الخصوصية | شروط الخدمة | | حقوق النشر
استمع إلى هذا العرض أثناء الاستكشاف
تشغيل