Artwork

المحتوى المقدم من Katharina Nocun and Kattascha // Katharina Nocun. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Katharina Nocun and Kattascha // Katharina Nocun أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

Matthias Spielkamp über Kontrolle Künstlicher Intelligenz

59:52
 
مشاركة
 

Fetch error

Hmmm there seems to be a problem fetching this series right now. Last successful fetch was on April 16, 2024 13:49 (1M ago)

What now? This series will be checked again in the next day. If you believe it should be working, please verify the publisher's feed link below is valid and includes actual episode links. You can contact support to request the feed be immediately fetched.

Manage episode 379383753 series 2477711
المحتوى المقدم من Katharina Nocun and Kattascha // Katharina Nocun. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Katharina Nocun and Kattascha // Katharina Nocun أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

»Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sein werden«, so heißt es in einem offenen Brief, den zahlreiche Prominente aus der IT-Szene unterzeichnet haben.

Doch was ist eigentlich damit gemeint, wenn von KI-Risiken die Rede ist? Geht es dabei um Horrorszenarien, die wir sonst aus Science-Fiction Romanen kennen, wo sich KIs selbstständig machen und der Menschheit den Kampf ansagen? Oder sind damit nicht eher ganz alltägliche Use-Cases beim Einsatz dieser Technologie gemeint?

Matthias Spielkamp ist Gründer und Geschäftsführer der Organisation Algorithm Watch. Er beschäftigt sich seit vielen Jahren mit dem Einfluss automatisierter Entscheidungssysteme auf unsere Gesellschaft. Von ihm will ich wissen: Müssen wir uns Sorgen machen? Und was können wir eigentlich tun, um Risiken beim Einsatz von KIs zu reduzieren?

Diesen Podcast unterstützen

IBAN: DE84100500001066335547
BIC: BELADEBEXXX
(Katharina Nocun)

Paypal: https://www.paypal.me/kattascha

Dauerauftrag einrichten über Steady: https://steadyhq.com/de/kattascha

Ihr könnt meine Arbeit auch unterstützen, indem ihr das neue Buch kauft!

Pia Lamberty & Katharina Nocun: Gefählicher Glaube. Die radikale Gedankenwelt der Esoterik (2022)

Weiterführende Quellen

Webseite von AlgorithmWatch

Zeit: Hunderte Unternehmer und Forscher fordern KI-Pause

Zeit: Alles unter Kontrolle (Offener Brief)

Nicholas Diakopoulos: Algorithmic Accountability: On the Investigation of Black Boxes

Vorgeschichte von Dune: Butlers Dschihad (ich habe im Podcast „Maschinen sind verboten“ gesagt – ich meinte natürlich KIs)

Diskriminierung bei Empfehlungssoftware für Gerichte

Netzpolitik.org: Die sechs größten Probleme im EU AI Act

AlgorithmWatch fordert Regulierung von „General Purpose AI“

Forderung nach einem Verbot biometrischer Überwachung

Offener Brief gegen algorithmenbasierte Diskriminierung

Ratgeber für Antidiskriminierungsstellen

KI & Folgen für Nachhaltigkeit

Bild: Julia Bornkessel, CC BY 4.0

  continue reading

50 حلقات

Artwork
iconمشاركة
 

Fetch error

Hmmm there seems to be a problem fetching this series right now. Last successful fetch was on April 16, 2024 13:49 (1M ago)

What now? This series will be checked again in the next day. If you believe it should be working, please verify the publisher's feed link below is valid and includes actual episode links. You can contact support to request the feed be immediately fetched.

Manage episode 379383753 series 2477711
المحتوى المقدم من Katharina Nocun and Kattascha // Katharina Nocun. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة Katharina Nocun and Kattascha // Katharina Nocun أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

»Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sein werden«, so heißt es in einem offenen Brief, den zahlreiche Prominente aus der IT-Szene unterzeichnet haben.

Doch was ist eigentlich damit gemeint, wenn von KI-Risiken die Rede ist? Geht es dabei um Horrorszenarien, die wir sonst aus Science-Fiction Romanen kennen, wo sich KIs selbstständig machen und der Menschheit den Kampf ansagen? Oder sind damit nicht eher ganz alltägliche Use-Cases beim Einsatz dieser Technologie gemeint?

Matthias Spielkamp ist Gründer und Geschäftsführer der Organisation Algorithm Watch. Er beschäftigt sich seit vielen Jahren mit dem Einfluss automatisierter Entscheidungssysteme auf unsere Gesellschaft. Von ihm will ich wissen: Müssen wir uns Sorgen machen? Und was können wir eigentlich tun, um Risiken beim Einsatz von KIs zu reduzieren?

Diesen Podcast unterstützen

IBAN: DE84100500001066335547
BIC: BELADEBEXXX
(Katharina Nocun)

Paypal: https://www.paypal.me/kattascha

Dauerauftrag einrichten über Steady: https://steadyhq.com/de/kattascha

Ihr könnt meine Arbeit auch unterstützen, indem ihr das neue Buch kauft!

Pia Lamberty & Katharina Nocun: Gefählicher Glaube. Die radikale Gedankenwelt der Esoterik (2022)

Weiterführende Quellen

Webseite von AlgorithmWatch

Zeit: Hunderte Unternehmer und Forscher fordern KI-Pause

Zeit: Alles unter Kontrolle (Offener Brief)

Nicholas Diakopoulos: Algorithmic Accountability: On the Investigation of Black Boxes

Vorgeschichte von Dune: Butlers Dschihad (ich habe im Podcast „Maschinen sind verboten“ gesagt – ich meinte natürlich KIs)

Diskriminierung bei Empfehlungssoftware für Gerichte

Netzpolitik.org: Die sechs größten Probleme im EU AI Act

AlgorithmWatch fordert Regulierung von „General Purpose AI“

Forderung nach einem Verbot biometrischer Überwachung

Offener Brief gegen algorithmenbasierte Diskriminierung

Ratgeber für Antidiskriminierungsstellen

KI & Folgen für Nachhaltigkeit

Bild: Julia Bornkessel, CC BY 4.0

  continue reading

50 حلقات

كل الحلقات

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع