Rainer Mühlhoff über KI und autoritäre Sehnsüchte im Silicon Valley

Der Hype um künstliche Intelligenz ist allgegenwärtig. Donald Trump postet KI-generierte Videos, in denen er sich wahlweise als Rockstar oder Kampfjetpilot inszeniert. Elon Musk prahlte öffentlich, dass in seinem „Department of Government Efficiency“ (DOGE) der soziale Kahlschlag mit Unterstützung Künstlicher Intelligenz vorangetrieben wird. Und Peter Thiel meint allen Ernstes, KI-Regulierung und das Erscheinen des Antichristen gingen Hand in Hand. Müssen wir uns Sorgen machen?

Rainer Mühlhoff ist Professor für Ethik und kritische Theorien der Künstlichen Intelligenz an der Universität Osnabrück. In seinem kürzlich erschienenen Buch „Künstliche Intelligenz und der neue Faschismus“ setzt er sich kritisch mit dem KI-Hype auseinander. Und er erklärt, welche toxischen Ideologien zentraler Akteure aus dem Silicon Valley Menschen empfänglich für autoritäre Gesellschaftsbilder machen. 

Diesen Podcast unterstützen

IBAN: DE84100500001066335547
BIC: BELADEBEXXX
(Katharina Nocun)

Paypal: https://www.paypal.me/kattascha

KO-FI: https://ko-fi.com/kattascha

Dauerauftrag einrichten über Steady: https://steadyhq.com/de/kattascha

Ihr könnt meine Arbeit auch unterstützen, indem ihr meine Bücher kauft:

Gefählicher Glaube. Die radikale Gedankenwelt der Esoterik (2022)

True Facts. Was gegen Verschwörungserzählungen wirklich hilft (2021)

Face Facts. Wie Verschwörungstheorien unser Denken bestimmen (2020)

Weiterführende Quellen

Buchtipp: Rainer Mühlhoff: Künstliche Intelligenz und der neue Fachismus (Reclam)

Wikipedia: DOGE
Heise: DOGE: Elon Musks Team füttert sensible US-Regierungsdaten an KI
Standard: Doge-KI, die Gesetze nicht versteht, soll Regulierungen streichen
ProPublica: Elon Musk’s Demolition Crew
Propublica: DOGE Developed Error-Prone AI Tool to “Munch” Veterans Affairs Contracts
Tagesschau: Telekomchef fordert weniger Staat „Was Europa braucht, ist ein DOGE“
DLF: KI und Sexismus (zum Thema Bias)
The Atlantic: The Unbelievable Scale of AI’s Pirated-Books Problem
Wikipedia: Schöne Neue Welt
Wikipedia: Techno-Optimist Manifest
Surplus Magazin: Ideologie des »Pronatalismus«: Das Silicon Valley will mehr Babys
RP: Sängerin Grimes verklagt Ex Musk in Sorgerechtsstreit
Spiegel: Elon Musk unterstützt britischen Rechtsextremen
Taz: Curtis Yarvin – Der dunkle Königsmacher
Geo: Warum Tim Berners-Lee seine großartige Erfindung einfach so hergab
Netzpolitik: „Die EU-Kommission rüttelt an den Grundpfeilern des Datenschutzes“
Heise: AI Act der EU: Deutschland will jetzt doch zustimmen

Foto: (c) 2020 Felix Noak

Matthias Spielkamp über Kontrolle Künstlicher Intelligenz

»Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sein werden«, so heißt es in einem offenen Brief, den zahlreiche Prominente aus der IT-Szene unterzeichnet haben. 

Doch was ist eigentlich damit gemeint, wenn von KI-Risiken die Rede ist? Geht es dabei um Horrorszenarien, die wir sonst aus Science-Fiction Romanen kennen, wo sich KIs selbstständig machen und der Menschheit den Kampf ansagen? Oder sind damit nicht eher ganz alltägliche Use-Cases beim Einsatz dieser Technologie gemeint?

Matthias Spielkamp ist Gründer und Geschäftsführer der Organisation Algorithm Watch. Er beschäftigt sich seit vielen Jahren mit dem Einfluss automatisierter Entscheidungssysteme auf unsere Gesellschaft. Von ihm will ich wissen: Müssen wir uns Sorgen machen? Und was können wir eigentlich tun, um Risiken beim Einsatz von KIs zu reduzieren?

Diesen Podcast unterstützen

IBAN: DE84100500001066335547
BIC: BELADEBEXXX
(Katharina Nocun)

Paypal: https://www.paypal.me/kattascha

Dauerauftrag einrichten über Steady: https://steadyhq.com/de/kattascha

Ihr könnt meine Arbeit auch unterstützen, indem ihr das neue Buch kauft!

Pia Lamberty & Katharina Nocun: Gefählicher Glaube. Die radikale Gedankenwelt der Esoterik (2022)

Weiterführende Quellen

Webseite von AlgorithmWatch

Zeit: Hunderte Unternehmer und Forscher fordern KI-Pause

Zeit: Alles unter Kontrolle (Offener Brief)

Nicholas Diakopoulos: Algorithmic Accountability: On the Investigation of Black Boxes

Vorgeschichte von Dune: Butlers Dschihad (ich habe im Podcast „Maschinen sind verboten“ gesagt – ich meinte natürlich KIs)

Diskriminierung bei Empfehlungssoftware für Gerichte

Netzpolitik.org: Die sechs größten Probleme im EU AI Act

AlgorithmWatch fordert Regulierung von „General Purpose AI“

Forderung nach einem Verbot biometrischer Überwachung

Offener Brief gegen algorithmenbasierte Diskriminierung

Ratgeber für Antidiskriminierungsstellen

KI & Folgen für Nachhaltigkeit

Bild: Julia Bornkessel, CC BY 4.0

Prof. Dr. Doris Weßels über ChatGPT und die Folgen für Bildung und Kunst

Auf TikTok geben Influencer Tipps, wie man seine Hausaufgaben per ChatGPT machen lassen kann. Und im Netz kursieren Anleitungen, mit welchen Befehlen man die besten Ergebnisse bekommt, wenn man z.B. einen nervigen Projektplan für die Arbeit verfassen muss. 

Gleichzeitig warnen Faktenchecker, dass neue KI-generierte Bilder das Problem mit Desinformation massiv verschärfen könnten. Gewerkschaften diskutieren darüber: Welche Jobs drohen in Zukunft durch Maschinen ersetzt zu werden? Dabei geht es wohlgemerkt nicht nur um einfache Aufgabenstellungen, sondern längst auch um das Verfassen komplexer Texte. Und über allem schwebt die Frage: Was macht das mit unserer Gesellschaft? Sollten wir diese neuen Technologien regulieren? Und wenn ja, wie?

Über all diese und noch viele weitere Fragen spreche ich heute mit Prof. Dr. Doris Weßels. Sie ist Wirtschaftsinformatikerin und lehrt an der FH Kiel. Seit 2018 liegt ihr Forschungsschwerpunkt dabei unter anderem auf den Entwicklungen im Bereich Natural Language Processing und den daraus resultierenden Folgen für den Bildungsbereich. 

Foto: Andreas Diekötter im Auftrage der FH Kiel

Diesen Podcast unterstützen

IBAN: DE84100500001066335547
BIC: BELADEBEXXX
(Katharina Nocun)

Paypal: https://www.paypal.me/kattascha

Dauerauftrag einrichten über Steady: https://steadyhq.com/de/kattascha

Ihr könnt meine Arbeit auch unterstützen, indem ihr das neue Buch kauft!

Pia Lamberty & Katharina Nocun: Gefählicher Glaube. Die radikale Gedankenwelt der Esoterik (2022)

Termine

31.05.23 Falkensee – Lesung/Vortrag „Fake Facts. Wie Verschwörungstheorien unser Denken bestimmen“

01.06.23 Rathenow – Lesung/Vortrag „Gefährlicher Glaube. Die radikale Gedankenwelt der Esoterik“

Weiterführende Quellen

Italienische Datenschutzbehörde stellt Bedingungen für Betrieb von ChatGPT

Prof. Dr. Hoeren über Verwertungsgesellschaften

Google engineer warns it could lose out to open-source technology in AI race

Bewerbungsroboter: Künstliche Intelligenz diskriminiert (noch)

Netzpolitik.org: KI-Definition spaltet Fachleute

Free Software Foundation über Reguilierung von Freier Software im Bereich KI

Disclaimer: Es wird sicherlich in nächster Zeit noch eine weitere Episode zum Thema geben mit etwas anderem Schwerpunkt. In dieser Folge haben wir hauptsächlich über Anwendungsfälle im Bereich Textarbeit, Kunst und Bildung gesprochen – aber das Thema KI hat ja auch noch darüber hinausgehende Dimensionen. Daher hier noch einige Hintergrundinfos, die sich mit vielen kritischen Fragen in Bezug auf den EU AI Act beschäftigt:

Netzpolitik.org: Die sechs größten Probleme im AI Act

Algorithm Watch: Ein Leitfaden zum AI Act

Algorithm Watch zum Thema Regulierung von General Purpose AI