Player FM - Internet Radio Done Right
14 subscribers
Checked 2d ago
تمت الإضافة منذ قبل four أعوام
المحتوى المقدم من Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !
المدونة الصوتية تستحق الاستماع
برعاية
S
Squid Game: The Official Podcast


Squid Game is back—and this time, the knives are out. In the thrilling Season 3 premiere, Player 456 is spiraling and a brutal round of hide-and-seek forces players to kill or be killed. Hosts Phil Yu and Kiera Please break down Gi-hun’s descent into vengeance, Guard 011’s daring betrayal of the Game, and the shocking moment players are forced to choose between murdering their friends… or dying. Then, Carlos Juico and Gavin Ruta from the Jumpers Jump podcast join us to unpack their wild theories for the season. Plus, Phil and Kiera face off in a high-stakes round of “Hot Sweet Potato.” SPOILER ALERT! Make sure you watch Squid Game Season 3 Episode 1 before listening on. Play one last time. IG - @SquidGameNetflix X (f.k.a. Twitter) - @SquidGame Check out more from Phil Yu @angryasianman , Kiera Please @kieraplease and the Jumpers Jump podcast Listen to more from Netflix Podcasts . Squid Game: The Official Podcast is produced by Netflix and The Mash-Up Americans.…
Knowledge Science - Alles über KI, ML und NLP
وسم كل الحلقات كغير/(كـ)مشغلة
Manage series 2911119
المحتوى المقدم من Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Knowledge Science - Der Podcast über Künstliche Intelligenz im Allgemeinen und Natural Language Processing im Speziellen. Mittels KI Wissen entdecken, aufbereiten und nutzbar machen, dass ist die Idee hinter Knowledge Science. Durch Entmystifizierung der Künstlichen Intelligenz und vielen praktischen Interviews machen wir dieses Thema wöchentlich greifbar.
…
continue reading
238 حلقات
وسم كل الحلقات كغير/(كـ)مشغلة
Manage series 2911119
المحتوى المقدم من Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Knowledge Science - Der Podcast über Künstliche Intelligenz im Allgemeinen und Natural Language Processing im Speziellen. Mittels KI Wissen entdecken, aufbereiten und nutzbar machen, dass ist die Idee hinter Knowledge Science. Durch Entmystifizierung der Künstlichen Intelligenz und vielen praktischen Interviews machen wir dieses Thema wöchentlich greifbar.
…
continue reading
238 حلقات
Все серии
×K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 208 - Theory of Mind für KI: Wenn Maschinen lernen, uns zu verstehen 33:46
33:46
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب33:46
Send us a text In dieser Episode erkunden Sigurd und Carsten, wie KI-Modelle menschliche Präferenzen und Handlungen verstehen lernen können. Sie diskutieren das spannende Paper "Towards Machine Theory of Mind" und zeigen, wie die Kombination von Bayesian Networks mit Large Language Models neue Wege eröffnet, um aus beobachteten Handlungen auf zugrundeliegende Präferenzen zu schließen. Besonders faszinierend: Diese Methoden lassen sich auch nutzen, um die "mentalen Landkarten" von KI-Modellen selbst zu erforschen. Gelphi et. al. (2025): Towards Machine Theory of Mind with Large Language Model - Augmented Inverse Planning. https://arxiv.org/abs/2507.03682v1 Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 207 - KI-Verifikation: Wie wir Antworten vertrauen können – Generation Gap & schwache Verifizierer 36:28
36:28
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب36:28
Send us a text In dieser Folge von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon in die Herausforderungen vertrauenswürdiger KI-Antworten ein. Vom Digital Nürnberg Festival bis zur Studie „Weaver: Closing the Generation Verification Gap“ diskutieren sie, wie schwache Verifizierer und Massenabstimmungen KI-Halluzinationen entlarven. Erfahrt, warum kleinere Modelle durch cleveres Verifikations-Ensemble große Konkurrenz herausfordern – und welche Rolle „Human-Compatible AI“ für unsere Zukunft spielt. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 206 - Haben KI-Modelle eigene Werte? Emergente Wertesysteme in Sprachmodellen 38:30
38:30
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب38:30
Send us a text In unserer heutigen Episode tauchen wir tief in die faszinierende Frage ein, ob große Sprachmodelle eigene Wertesysteme entwickeln. Wir diskutieren das bahnbrechende Paper "Utility Engineering: Analyzing and Controlling Emerging Value Systems in AIs" und teilen unsere eigenen Forschungsergebnisse zu psychologischen Profilen verschiedener KI-Modelle. Dabei entdecken wir überraschende und teilweise beunruhigende Erkenntnisse: Größere Modelle entwickeln nicht nur konsistente innere Präferenzen, sondern zeigen auch problematische Werte wie die unterschiedliche Bewertung von Menschenleben nach Nationalität oder die Bevorzugung des eigenen KI-Wohlergehens gegenüber dem menschlichen. Wir erörtern, wie diese Wertesysteme durch mechanistische Interpretierbarkeit nachgewiesen werden können und warum größere Modelle resistenter gegen Werteveränderungen sind. Abschließend diskutieren wir die weitreichenden Implikationen für die KI-Entwicklung und plädieren dafür, dass die Messung und Kontrolle von Wertesystemen integraler Bestandteil zukünftiger Trainingsprozesse werden sollte. Link zum Paper: https://arxiv.org/abs/2502.08640 Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 205 - KI-Modelle unter Beobachtung: Verändern Evaluierungen das Verhalten? 31:09
31:09
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب31:09
Send us a text In dieser Folge von Knowledge Science diskutieren Sigurd Schacht und Carsten Lanquillon, warum KI-Modelle möglicherweise "wissen", wenn sie evaluiert werden – und was das für die Praxis bedeutet. Anhand eines provokanten Papers („Large Language Models Often Know When They’re Being Evaluated“) hinterfragen sie, ob Modelle tatsächlich bewusst reagieren oder nur Muster erkennen. Mit kritischen Einordnungen zur Evaluierungspraxis, einem Blick auf den Hawthorne-Effekt bei Mensch und Maschine und der Frage: Wie misst man KI-Leistung wirklich? Für alle, die verstehen wollen, wie Evaluierung KI-Entscheidungen prägt – und warum Titel mancher Papers täuschen können. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 204 - Claude Opus/Sonnet 4 zwischen Innovation und Ethik" 44:12
44:12
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب44:12
Send us a text Sigurd Schacht und Carsten Lanquillon tauchen tief in die Welt der neuesten KI-Modelle von Anthropic ein – Claude Opus 4 und Sonnet 4. Wie verändern diese Tools die Softwareentwicklung? Warum könnte autonomes Coding unsere Arbeitsweise revolutionieren? Und welche ethischen Fallstricke bergen hochalignierte KI-Systeme? Praxisnahe Einblicke, überraschende Whistleblower-Fälle und die brisante Debatte um KI-Sicherheit in einer Episode, die Entwickler:innen und Tech-Enthusiast:innen gleichermaßen fesselt. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 203 - TINA Reasoning: Kleine Modelle, große Wirkung mit LoRA 29:23
29:23
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب29:23
Send us a text In dieser Episode von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon in die Welt der Reasoning-Modelle ein. Wie können wir KI effizienter und kostengünstiger trainieren, ohne Leistung einzubüßen? Mit dem Paper TINA (Tiny Reasoning Models via LoRA) zeigen sie, wie schon 9 Dollar und LoRA-Technologie kleine Modelle auf ein gutes Niveau heben. Ein Blick auf Open Science, KI-Agenten und die Zukunft des Schlussfolgerns – praxisnah entmystifiziert. Tina: Tiny Reasoning Models via LORA: https://arxiv.org/abs/2504.15777 Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 202 - KI im Schlafmodus: Wie Sleep-Time-Compute Sprachmodelle effizienter macht 30:53
30:53
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب30:53
Send us a text In dieser Folge von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon in die Welt der KI-Optimierung ein: Wie können Leerlaufzeiten genutzt werden, um Sprachmodelle effizienter zu machen? Mit einem Blick auf das Paper Sleep-Time-Compute der UC Berkeley diskutieren sie, wie Vorverarbeitung und Caching Latenzen reduzieren, Kosten sparen und sogar bessere Ergebnisse liefern. Sleep time Compute: https://arxiv.org/abs/2504.13171 Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 201 - KI-Gehirnwäsche? Wie man Sprachmodelle umprogrammiert – Ethik vs. Innovation 40:38
40:38
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب40:38
Send us a text In dieser Folge von Knowledge Science enthüllen Sigurd Schacht und Carsten Lanquillon, wie synthetisches Document Feintuning die „Überzeugungen“ von KI-Modellen verändert. Vom Löschen schädlichen Wissens bis zur Manipulation von Fakten diskutieren sie Chancen, technische Fallstricke und die brisante Frage: Darf man KI umerziehen, und wenn ja, wer kontrolliert es? Ein Must-Listen für alle, die verstehen wollen, wie flexibel – und fragil – moderne KI wirklich ist. Basis dieser Diskussion ist der spannende Blogbeitrag von: https://alignment.anthropic.com/2025/modifying-beliefs-via-sdf/ Bitte beachten Sie auch unseren KI generierten Podcast der Montag bis Freitag in 5 minuten neue KI Meldungen zusammenfasst: Spotify: https://open.spotify.com/show/539yw3KWHsf5oke4a2PBOZ Apple: https://podcasts.apple.com/de/podcast/knowledge-science-pulse/id1810890448 Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 KI generiert (D): KS Pulse - AI Alignment and Complex Problem Solving 4:01
4:01
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب4:01
Send us a text KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen. Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt. Dementsprechend können wir nicht immer für die Richtigkeit garantieren. PlanGEN: A Multi-Agent Framework for Generating Planning and Reasoning Trajectories for Complex Problem Solving - https://arxiv.org/pdf/2502.16111 Emergent Misalignment: Narrow finetuning can produce broadly misaligned LLMs - https://arxiv.org/pdf/2502.17424 Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 AI Generated (E): KS Pulse - AI Alignment and Complex Problem Solving 3:39
3:39
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب3:39
Send us a text English Version - The German Version also exists, but the content differs minimally: AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 minutes small packages generated by an AI every day. It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created. Accordingly, we cannot always guarantee accuracy. PlanGEN: A Multi-Agent Framework for Generating Planning and Reasoning Trajectories for Complex Problem Solving - https://arxiv.org/pdf/2502.16111 Emergent Misalignment: Narrow finetuning can produce broadly misaligned LLMs - https://arxiv.org/pdf/2502.17424 Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 KI generiert (D): KS Pulse - Long Chain-of-Thought and the Need for AI Safety in Complex Reasoning 3:40
3:40
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب3:40
Send us a text KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen. Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt. Dementsprechend können wir nicht immer für die Richtigkeit garantieren. Safety is Essential for Responsible Open-Ended Systems - https://arxiv.org/pdf/2502.04512 Can Large Language Models Detect Errors in Long Chain-of-Thought Reasoning?- https://arxiv.org/pdf/2502.19361 Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 AI Generated (E): KS Pulse - Long Chain-of-Thought and the Need for AI Safety in Complex Reasoning 3:13
3:13
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب3:13
Send us a text English Version - The German Version also exists, but the content differs minimally: AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 minutes small packages generated by an AI every day. It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created. Accordingly, we cannot always guarantee accuracy. Safety is Essential for Responsible Open-Ended Systems - https://arxiv.org/pdf/2502.04512 Can Large Language Models Detect Errors in Long Chain-of-Thought Reasoning?- https://arxiv.org/pdf/2502.19361 Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 KI generiert (D): KS Pulse - Automatic Prompt Optimization via Heuristic Search 4:30
4:30
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب4:30
Send us a text KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen. Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt. Dementsprechend können wir nicht immer für die Richtigkeit garantieren. Automatic Prompt Optimization via Heuristic Search: A Survey - https://arxiv.org/pdf/2502.18746 Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 AI Generated (E): KS Pulse - Automatic Prompt Optimization via Heuristic Search 4:14
4:14
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب4:14
Send us a text English Version - The German Version also exists, but the content differs minimally: AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 minutes small packages generated by an AI every day. It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created. Accordingly, we cannot always guarantee accuracy. Automatic Prompt Optimization via Heuristic Search: A Survey - https://arxiv.org/pdf/2502.18746 Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 KI generiert (D): KS Pulse - Scaling Smarter The Art of Deliberate Practice in AI 3:56
3:56
التشغيل لاحقا
التشغيل لاحقا
قوائم
إعجاب
احب3:56
Send us a text KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen. Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt. Dementsprechend können wir nicht immer für die Richtigkeit garantieren. Taxonomy, Opportunities, and Challenges of Representation Engineering for Large Language Models - https://arxiv.org/pdf/2502.19649 Improving the Scaling Laws of Synthetic Data with Deliberate Practice - https://arxiv.org/pdf/2502.15588 Support the show…
مرحبًا بك في مشغل أف ام!
يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.