Auf TikTok geben Influencer Tipps, wie man seine Hausaufgaben per ChatGPT machen lassen kann. Und im Netz kursieren Anleitungen, mit welchen Befehlen man die besten Ergebnisse bekommt, wenn man z.B. einen nervigen Projektplan für die Arbeit verfassen muss.
Gleichzeitig warnen Faktenchecker, dass neue KI-generierte Bilder das Problem mit Desinformation massiv verschärfen könnten. Gewerkschaften diskutieren darüber: Welche Jobs drohen in Zukunft durch Maschinen ersetzt zu werden? Dabei geht es wohlgemerkt nicht nur um einfache Aufgabenstellungen, sondern längst auch um das Verfassen komplexer Texte. Und über allem schwebt die Frage: Was macht das mit unserer Gesellschaft? Sollten wir diese neuen Technologien regulieren? Und wenn ja, wie?
Über all diese und noch viele weitere Fragen spreche ich heute mit Prof. Dr. Doris Weßels. Sie ist Wirtschaftsinformatikerin und lehrt an der FH Kiel. Seit 2018 liegt ihr Forschungsschwerpunkt dabei unter anderem auf den Entwicklungen im Bereich Natural Language Processing und den daraus resultierenden Folgen für den Bildungsbereich.
Foto: Andreas Diekötter im Auftrage der FH Kiel
Diesen Podcast unterstützen
IBAN: DE84100500001066335547
BIC: BELADEBEXXX
(Katharina Nocun)
Paypal: https://www.paypal.me/kattascha
Dauerauftrag einrichten über Steady: https://steadyhq.com/de/kattascha
Ihr könnt meine Arbeit auch unterstützen, indem ihr das neue Buch kauft!
Pia Lamberty & Katharina Nocun: Gefählicher Glaube. Die radikale Gedankenwelt der Esoterik (2022)
Termine
31.05.23 Falkensee – Lesung/Vortrag „Fake Facts. Wie Verschwörungstheorien unser Denken bestimmen“
01.06.23 Rathenow – Lesung/Vortrag „Gefährlicher Glaube. Die radikale Gedankenwelt der Esoterik“
Weiterführende Quellen
Italienische Datenschutzbehörde stellt Bedingungen für Betrieb von ChatGPT
Prof. Dr. Hoeren über Verwertungsgesellschaften
Google engineer warns it could lose out to open-source technology in AI race
Bewerbungsroboter: Künstliche Intelligenz diskriminiert (noch)
Netzpolitik.org: KI-Definition spaltet Fachleute
Free Software Foundation über Reguilierung von Freier Software im Bereich KI
Disclaimer: Es wird sicherlich in nächster Zeit noch eine weitere Episode zum Thema geben mit etwas anderem Schwerpunkt. In dieser Folge haben wir hauptsächlich über Anwendungsfälle im Bereich Textarbeit, Kunst und Bildung gesprochen – aber das Thema KI hat ja auch noch darüber hinausgehende Dimensionen. Daher hier noch einige Hintergrundinfos, die sich mit vielen kritischen Fragen in Bezug auf den EU AI Act beschäftigt:
Netzpolitik.org: Die sechs größten Probleme im AI Act
Algorithm Watch: Ein Leitfaden zum AI Act
Algorithm Watch zum Thema Regulierung von General Purpose AI
Vielen Dank für die Folge! Kennt jemand den Link zur erwähnten Podcastfolge mit Thomas Hoeren, in der er Verwertungsgesellschaften für KI-Modelle anregt?
Jep, gerade ergänzt! https://www.youtube.com/watch?v=d69zZcrieXc
Vielen Dank für eine Podcast-Folge voll von klugen Ideen und tollen Erklärungen!
Bezüglich der potentiellen Gefahren von KI kann ich Frau Prof. Wessels Position aber in zwei Punkten nicht nachvollziehen:
1) einmal finde ich nicht, dass Bewusstsein nötig ist, damit etwas nennenswert gefährlich sein kann. Beispielsweise haben Viren kein Bewusstsein und sind als Gefahr trotzdem sehr ernst zu nehmen. Bestimmt wäre Bewusstsein in KIs eine extrem bedeutsame Entwicklung, aber auch ohne dieses finde ich, dass es genug Gründe gibt, mögliche Gefahren von KIs ernst zu nehmen. Was viel bewirken kann, kann auch viel Schaden anrichten.
2) Dazu hatte ich den Eindruck, dass Professorin Wessel an dieser Stelle mehr die Frage „wie viel Gefahr geht von *heutigen* KI-Modellen aus?“ beantwortet hat als die Frage danach, welche Gefahren wir für die Zukunft im Blick haben sollten. Dabei hat sie eindrücklich beschrieben, wie schwer es uns Menschen fallen kann bei diesem Thema in die Zukunft zu blicken. Wenn KI-Modelle heute schon Texte (mit-)schreiben, die sich häufig nicht von menschengemachten Texten unterscheiden lassen können, ist meiner Ansicht nach ein wichtiger Beweis erbracht. Wir können nicht pauschal so tun, als wären menschliche Fähigkeiten grundsätzlich für Software unerreichbar.
Es tut mir ein wenig Leid, dass ich hier nur über die Punkte schreibe, bei denen ich widersprechen möchte – ich habe insgesamt eine Menge gelernt, vielen Dank dafür!