Prof. Dr. Doris Weßels über ChatGPT und die Folgen für Bildung und Kunst

Auf TikTok geben Influencer Tipps, wie man seine Hausaufgaben per ChatGPT machen lassen kann. Und im Netz kursieren Anleitungen, mit welchen Befehlen man die besten Ergebnisse bekommt, wenn man z.B. einen nervigen Projektplan für die Arbeit verfassen muss. 

Gleichzeitig warnen Faktenchecker, dass neue KI-generierte Bilder das Problem mit Desinformation massiv verschärfen könnten. Gewerkschaften diskutieren darüber: Welche Jobs drohen in Zukunft durch Maschinen ersetzt zu werden? Dabei geht es wohlgemerkt nicht nur um einfache Aufgabenstellungen, sondern längst auch um das Verfassen komplexer Texte. Und über allem schwebt die Frage: Was macht das mit unserer Gesellschaft? Sollten wir diese neuen Technologien regulieren? Und wenn ja, wie?

Über all diese und noch viele weitere Fragen spreche ich heute mit Prof. Dr. Doris Weßels. Sie ist Wirtschaftsinformatikerin und lehrt an der FH Kiel. Seit 2018 liegt ihr Forschungsschwerpunkt dabei unter anderem auf den Entwicklungen im Bereich Natural Language Processing und den daraus resultierenden Folgen für den Bildungsbereich. 

Foto: Andreas Diekötter im Auftrage der FH Kiel

Diesen Podcast unterstützen

IBAN: DE84100500001066335547
BIC: BELADEBEXXX
(Katharina Nocun)

Paypal: https://www.paypal.me/kattascha

Dauerauftrag einrichten über Steady: https://steadyhq.com/de/kattascha

Ihr könnt meine Arbeit auch unterstützen, indem ihr das neue Buch kauft!

Pia Lamberty & Katharina Nocun: Gefählicher Glaube. Die radikale Gedankenwelt der Esoterik (2022)

Termine

31.05.23 Falkensee – Lesung/Vortrag „Fake Facts. Wie Verschwörungstheorien unser Denken bestimmen“

01.06.23 Rathenow – Lesung/Vortrag „Gefährlicher Glaube. Die radikale Gedankenwelt der Esoterik“

Weiterführende Quellen

Italienische Datenschutzbehörde stellt Bedingungen für Betrieb von ChatGPT

Prof. Dr. Hoeren über Verwertungsgesellschaften

Google engineer warns it could lose out to open-source technology in AI race

Bewerbungsroboter: Künstliche Intelligenz diskriminiert (noch)

Netzpolitik.org: KI-Definition spaltet Fachleute

Free Software Foundation über Reguilierung von Freier Software im Bereich KI

Disclaimer: Es wird sicherlich in nächster Zeit noch eine weitere Episode zum Thema geben mit etwas anderem Schwerpunkt. In dieser Folge haben wir hauptsächlich über Anwendungsfälle im Bereich Textarbeit, Kunst und Bildung gesprochen – aber das Thema KI hat ja auch noch darüber hinausgehende Dimensionen. Daher hier noch einige Hintergrundinfos, die sich mit vielen kritischen Fragen in Bezug auf den EU AI Act beschäftigt:

Netzpolitik.org: Die sechs größten Probleme im AI Act

Algorithm Watch: Ein Leitfaden zum AI Act

Algorithm Watch zum Thema Regulierung von General Purpose AI

3 Gedanken zu „Prof. Dr. Doris Weßels über ChatGPT und die Folgen für Bildung und Kunst

  1. Vielen Dank für die Folge! Kennt jemand den Link zur erwähnten Podcastfolge mit Thomas Hoeren, in der er Verwertungsgesellschaften für KI-Modelle anregt?

  2. Vielen Dank für eine Podcast-Folge voll von klugen Ideen und tollen Erklärungen!

    Bezüglich der potentiellen Gefahren von KI kann ich Frau Prof. Wessels Position aber in zwei Punkten nicht nachvollziehen:
    1) einmal finde ich nicht, dass Bewusstsein nötig ist, damit etwas nennenswert gefährlich sein kann. Beispielsweise haben Viren kein Bewusstsein und sind als Gefahr trotzdem sehr ernst zu nehmen. Bestimmt wäre Bewusstsein in KIs eine extrem bedeutsame Entwicklung, aber auch ohne dieses finde ich, dass es genug Gründe gibt, mögliche Gefahren von KIs ernst zu nehmen. Was viel bewirken kann, kann auch viel Schaden anrichten.

    2) Dazu hatte ich den Eindruck, dass Professorin Wessel an dieser Stelle mehr die Frage „wie viel Gefahr geht von *heutigen* KI-Modellen aus?“ beantwortet hat als die Frage danach, welche Gefahren wir für die Zukunft im Blick haben sollten. Dabei hat sie eindrücklich beschrieben, wie schwer es uns Menschen fallen kann bei diesem Thema in die Zukunft zu blicken. Wenn KI-Modelle heute schon Texte (mit-)schreiben, die sich häufig nicht von menschengemachten Texten unterscheiden lassen können, ist meiner Ansicht nach ein wichtiger Beweis erbracht. Wir können nicht pauschal so tun, als wären menschliche Fähigkeiten grundsätzlich für Software unerreichbar.

    Es tut mir ein wenig Leid, dass ich hier nur über die Punkte schreibe, bei denen ich widersprechen möchte – ich habe insgesamt eine Menge gelernt, vielen Dank dafür!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert