1. fzs
    1. Öffentlich (sichtbar ohne Anmeldung)

Positionierung zu ChatGPT



Pad-Übersicht:
  1. Antrag
  2. Änderungsantrag
  3. Mitschriebe
  4. Topics / Problemfelder
  5. Verfahrensvorschläge  / Handlungsempfehlungen
  6. Meinungen
  7. Linksammlung

Antrag


Der fzs begrüßt einen kritischen Einsatz von und eine Auseinandersetzung mit Sprachmodellen und Chatbots wie ChatGPT an Hochschulen. Dabei müssen jedoch unter anderem ethische, datenschutzrechtliche, urheberrechtliche, wissenschaftstheoretische und finanzielle Aspekte mitbedacht werden.

Chancen in der Forschung & Lehre


Chatbots werden sich immer stärker als Hilfsmittel auch in der Wissenschaft und an Hochschulen etablieren. Der Umgang damit muss deshalb in die Lehre mit aufgenommen werden und den Studierenden die Kompetenz vermittelt werden, damit sinnvoll zu arbeiten.
Für die Nutzung von Chatbots gibt es viele Einsatzmöglichkeiten: Durch das Erfassen großer Textsammlungen und die Angliederung an Forschungsdatenbanken können Sprachmodelle ein gutes Recherchetool sein.
Statt sich lange mit dem Schreiben von Texten aufzuhalten, können Sprachmodelle Texte auf Grundlage von Stichpunkten ausformulieren und Forscher*innen dadurch mehr Zeit in die Originalität und Konsistenz der wissenschaftlichen Leistung stecken.
Auch wenn sie noch viele Fehler aufweisen können Chatbots grundlegende Informationen immer besser  zusammenfassend wiedergeben und damit z. B. einen Überblick zu bisherigen Forschungsständen liefern.
Außerdem könnten Chatbots sehr individuelle Nachfragen beantworten und zu mehr Gerechtigkeit beitragen. Statt teurer Nachhilfe, die sich nur wenige leisten können, könnten hier – sofern die Dienste kostenlos oder Lizenzen vorhanden sind – alle gleichberechtigt ihre individuellen Fragen stellen und die Chatbots auf die unterschiedlichen Wissens- und Lernstände der Studierenden eingehen.

Probleme


Jedoch sind Sprachmodelle und die dadurch produzierten Texte nicht unumstritten. Je nachdem mit welchen Daten die neuralen Netzwerke trainiert werden, können GPT Chatbots diskriminierende Äußerungen kundtun und damit selbst zu Diskriminierungen beitragen und diese als objektiv und richtig darstellen. Sprachmodelle nehmen damit Einfluss auf unsere Gesellschaft und das Trainieren von diskriminierungsfreien neuralen Netzwerken ist schwierig. Dass GPT Chatbots größtenteils die Daten neu verpackt wiedergebene, die sie früher gelernt haben, führt jedoch noch zu weiteren Problemen. Für das Trainieren der neuronalen Netzwerke werden Texte benötigt. Die Urheber dieser Texte erhalten dafür, dass ihre Texte für das Trainieren genutzt wird, jedoch in der Regel keine Bezahlung. Wem genau die von einem GPT Chatbot erstellten Texte gehören (der Firma, die den Chatbot entwickelt hat, den Urhebern der Trainingstexte, den Anwender*innen oder niemand) ist daher strittig. Nach derzeitigem Stand geben die meisten GPT Chatbots auch keine oder nur ungenaue Quellenangaben an. Das erschwert einerseits die Frage nach dem Urheberrecht, widerspricht aber auch den Standards guten wissenschaftlichen Arbeitens. Dass manche Hochschulen bereits verkündet haben, dass von ChatGPT erstellte Texte nicht eins zu eins in wissenschaftliche Arbeiten übernommen werden dürfen, ist daher richtig. Studierende sollten sich daher auch nicht auf ChatBots verlassen, um Arbeiten zu schreiben, sondern guter wissenschaftlicher Praxis folgen. Dies ist schon deshalb wichtig, weil Chatbots wie ChatGPT teilweise völlig falsche Informationen verbreiten.
Genauso wichtig für das wissenschaftliche Arbeiten ist Originalität und Innovation. Wenn eine KI aber nur bereits vorhandenes Wissen neu zusammenwürfelt, besteht die Gefahr, dass zwar immer mehr neue Texte entstehen, aber kein wirklich neues Wissen. Gleichzeitig zeigen Künstliche Intelligenzen hier aber natürlich auch Fehler des bestehenden Wissenschaftssystems auf – das Schreiben von vielen Texten, die dann ohnehin niemand liest, ist ja schon jetzt üblich. Andererseits kann das neu Zusammenfassen bereits vorhandener Texte je nach Fach aber natürlich auch viel zur Wissenschaft beitragen.
Sehr problematisch werden all diese Kritikpunkte besonders dann, wenn die Entwicklung und der Betrieb von GPT Chatbots in den Händen von einigen wenigen großen Firmen liegt. Diese könnten dann alleine über die ethischen Standards, Antidiskriminierungsrichtlichen, Urheberrecht, Nutzung der KI, Weiternutzung der dadurch gesammelten Daten usw. entscheiden. Die für solche Chatbots genutzte Software muss daher OpenSource und allen Studierenden gleichermaßen zugänglich sein. Außerdem müssen die durch Chatbots gesammelten Daten der Nutzer*innen geschützt werden und dürfen nur von den Nutzer*innen oder mit deren freiwilligen Zustimmung genutzt werden!

Nutzung in der Lehre


Damit die bereits genannten Probleme möglichst wenig negativen Einfluss auf unsere Gesellschaft haben und um die immer besser werdenden Chatbots auch in der Wissenschaft einsetzen zu können, muss deren Nutzung auch in der Lehre verankert werden. Das Ziel muss dabei sein, Studierenden die Kompetenz zu vermitteln, Chatbots sinnvoll nutzen zu können und dabei – wie so oft – stets auf einen kritischen Umgang mit den generierten Texten zu achten. Es muss insbesondere vermittelt werden, dass Chatbots teilweise unzuverlässig sind und auch deshalb eigene Recherche nicht ersetzen.
Möglich ist auch der Einsatz von Chatbots als Negativbeispiele, um zum Beispiel in Informatikveranstaltungen auf Diskriminierungspotenziale von Künstlicher Intelligenz aufmerksam zu machen.

Nutzung in Prüfungen


Bei Studien- und Prüfungsleistungen müssen selbstverständlich die bisher vorgebrachten Kritikpunkte mitbedacht und Standards wissenschaftlichen Arbeitens usw. eingehalten werden.
Auch unabhängig von der rechtlichen Fragen des Urheberrechts ist bei von Sprachmodellen erstellten Texten klar, dass diese nicht selbstständig von den Studierenden geschrieben wurden und können damit mit dem zurecht ebenfalls nicht erlaubten Ghostwriting verglichen werden. Unklar ist derzeit jedoch noch, inwiefern Chatbots tatsächlich ganze Hausarbeiten, Klausuren usw. schreiben können. Zwar können bei geeigneten Themen und Fragestellungen bereits gute Texte erstellt werden, wenn überhaupt können die meisten Chatbots zu den meisten Themen aber bisher nur für Teile von Texten genutzt werden.
Dennoch sollte die Nutzung von Chatbots hier nicht pauschal verboten werden. Und erst recht darf es keine Rolle Rückwärts bei den glücklicherweise immer üblicher werdenden Open-Book-Klausuren geben. Statt aus Angst vor Betrug wieder stärker auf Präsenz-Klausuren ohne Hilfsmittel zu setzen, müssen Klausuren den neuen Anforderungen gerecht werden und eben auch prüfen, ob Studierende technische Hilfsmittel sinnvoll nutzen.
Unter anderem für Studierende mit einem weniger akademisch-geprägten Bekanntenkreis können Chatbots außerdem für das Lektorat von Hausarbeiten, dem Entwickeln von Forschungsfragen, Überblick über aktuelle Forschungsstände und vieles mehr genutzt werden. Umso wichtiger ist dann jedoch, dass die Hochschulen die entsprechenden Kompetenzen zur Nutzung von Chatbots auch gut vermitteln.

Überregionale Aufgabe


Die Hochschulen dürfen mit der Aufgabe, Kompetenzen zur kritischen Nutzung von Chatbots in die Lehre zu integrieren, nicht alleingelassen werden! Möglich wäre eine zweite Förderrunde für Künstlichen Intelligenz in der Hochschulbildung, wie es sie 2021 – als noch fast niemand wusste, was Sprachmodelle, GPT usw. sein soll – mit einer Bund-Länder-Initiative bereits gab. Eine zweite Förderrunde müsst deutlich größer angelegt werden und die Beteiligung von Studierenden in der Antragsstellung sichergestellt sein.



Antrags-Begründung:


Die immer besser werdenden Sprachmodelle wie ChatGPT sorgen an Hochschulen gerade für viel Furore. Einerseits gibt es die Befürchtung, dass Studierende Hausarbeiten von ChatGPT schreiben lassen ohne sonderlich große Eigenleistung, andererseits reproduzieren die meisten Sprachmodelle Stereotype. Wird ein Sprachmodell mit diskriminierenden Äußerungen trainiert, gibt es später auch diskriminierende Äußerungen wieder. Doch Sprachmodelle ganz vom Campus zu verbieten würde einerseits gesellschaftliche Realitäten ignorieren und wäre andererseits auch schlicht nicht möglich. Hochschulen müssen deshalb mit dieser neuen Technologie umgehen. Dieser Antrag versucht hier ein möglichst ausgewogenes Vorgehen zu schildern, bei dem Risiken ernst genommen werden, gleichzeitig aber auch versucht wird, mit den Sprachmodellen sogar kritisches Denken und Chancengerechtigkeit an den Hochschulen zu stärken.


Globaler Änderungsantrag


Positionierung zum Einsatz von Machine Learning an Hochschulen


Der fzs begrüßt eine Auseinandersetzung mit dem Einsatz von Machine Learning, Sprachmodellen und Chatbots an Hochschulen. Dabei müssen jedoch unter anderem ethische, datenschutzrechtliche, urheber*innenrechtliche, wissenschaftstheoretische und finanzielle Aspekte mitbedacht werden.

Machine Learning an Hochschulen


Machine Learning Modelle werden immer besser und der Einsatz entsprechender Tools verbreitet sich immer weiter in der Gesellschaft. Die aktuellen Diskussionen um den Einsatz von ChatGPT zeigt, dass eine Auseinandersetzung mit dem Einsatz solcher Modelle an Hochschulen immer wichtiger wird.
Die Hochschulen können, dürfen und sollen sich der Digitalisierung der Gesellschaft nicht verwehren. Zu dieser Digitalisierung gehört der Einsatz von Machine Learning zur Unterstützung von Prozessen sowie als Gegenstand von Forschung und Lehre.
Dabei müssen jedoch die Probleme im Zusammenhang mit diesem Einsatz betrachtet werden. Bereits in mehreren Studien wurde nachgewiesen, dass Machine Learning Modell unter verschiedenen Biases leiden [1, 2, 3]. Diesem Fakt können sich Hochschulen nicht entziehen. Der Einsatz von Machine Learning in welchem Format auch immer, muss daher immer kritisch betracht werden. Ergebnisse dürfen nicht kritiklos übernehmen werden. Andernfalls würden die Hochschule zur weiteren Verstärkung bestehender Diskriminierungen beitragen.
Zudem werden die meist genutzten Machine Learning Tools durch wenige, große Firmen angeboten und betrieben. Sie alleine entscheiden über die ethischen Standards, Antidiskriminierungsrichtlichen, Urheber*innenrecht, Nutzung von Machine Learning und Weiternutzung der dadurch gesammelten Daten. Hochschulen dürfen sich diesen teuren Anbietern nicht unterwerfen, sondern es müssen quelloffene Lösungen genutzt werden.
Auch sollte sich die Frage gestellt werden, ob wirklich jedes Problem mit Machine Learning gelösten werden kann und sollte. Das Training der Modelle ist sehr rechenintensiv und benötigt daher auch viel Energie. Gerade in Zeiten der Energiekrise und von Klimawandel sollte daher jeder Einsatz von Energieintensiven Anwendungen kritisch hinterfragt werden.
Daher fordert der fzs, dass …
  • … für den Einsatz von Machine Learning an Hochschulen rechtssichere Grundlagen geschaffen werden, welche die Aspekte des Social Bias ebenso betrachten,
  • … die Modelle, ihre Daten und die Verarbeitungsverfahren von Nutzenden-Daten offen zugänglich und nachvollziehbar für alle aktuellen und potentiellen Nutzenden sind,
  • … die Forschung im Bereich Explainability von Machine Learning, De-Biasing von Daten und Social Bias von Machine Learning weiter gefördert wird,
  • … beim Einsatz von Machine Learning die Frage von Nachhaltigkeit, Klimaschutz und Notwendigkeit betrachtet werden muss

Machine Learning in der Forschung


Machine Learning ist immer häufiger nicht nur Gegenstand der Forschung, sondern Unterstützt in der Forschung. Ob durch die Auswertung großer Datenmengen, der Identifikation von Mustern oder, wie ChatGPT zeigt, auch zur Erstellung von Texten. Machine Learning kann Forschende unterstützen und sich wiederholende, eintönige Arbeiten übernehmen. So bleibt Forschenden mehr Zeit, sich auf die eigentliche Forschung zu konzentrieren. Es ermöglicht ihnen auch, stärker die Originalität ihrer Forschung in den Mittelpunkt zu stellen.
Zudem ist Machine Learning auch in der Lage, aktuelle strukturelle Probleme der Wissenschaft aufzudecken. Mit Hilfe von entsprechenden Tools ist es inzwischen viel einfacher möglich, Plagiate zu identifizieren. Auch können Muster von gegenseitigen Zitationen zur Verbesserung von  Zitiations-Indizes aufgedeckt werden. Dies zeigt deutlich auf, dass der Fokus auf derartige Indizes in Berufungsverfahren nicht zu besserer Forschung, sondern zu mehr Zitationskreisen führt.
Auch verdeutlichen die aktuellen Berichte von bestanden Abschlussprüfungen und Abschlussarbeiten, dass in der Wissenschaft viele Texte produziert werden, die nicht gelesen werden. Die Wissenschaft muss sich daher auch mit der Frage befassen, wie das Niveau von wissenschaftlichen Arbeiten ist.
Problematisch ist dabei jedoch, dass maschinell generierte Texte keine tatsächliche Forschungs- und Wissenschaftsleistung darstellen. Bei der Erstellung der Texte erfolgt keine Eigenleistung. Es werden lediglich auf der Basis der Texte, mit welchen entsprechende Sprachmodelle trainiert wurden, Texte generiert. Nicht nur stellen derartige Texte keine wissenschaftlichen Leistungen dar - sie enthalten weder Quellenangaben noch sind sie immer korrekt. Darüber hinaus ist nicht geklärt, wem das Urheber*innen-Recht an diesen Texten zufällt. Mehr noch, die Autor*innen der Texte, die die Basis für den Erfolg von Sprachmodellen wie ChatGPT darstellen, erhalten in der Regel keine Bezahlung für die Nutzung ihrer Texte.
Auch müssen die Ergebnisse der Verarbeitung von Daten durch Machine Learning Modelle immer kritisch betrachtet werden, da sie, wie bereits beschrieben, verschiedene Social Biases reproduzieren. Damit kann der Einsatz von Machine Learning eine Gefahr für Menschenleben darstellen [1, 4, 5].
Daher fordert der fzs, dass …
  • … keine maschinell generierten Texte ohne Eigenleistung in der Forschung anerkannt werden
  • … Studierenden von Anfang an die Grundlagen und Kompetenzen wissenschaftlichen Arbeitens und guter Wissenschaft vermittelt werden
  • … Forschenden eine Umgebung geschaffen wird, in denen sie ohne Druck angemessen forschen können, um die wissenschaftliche Qualität der Forschung aufrecht zu erhalten
  • … Daten vor der Verarbeitung durch Machine Learning immer auf einen Social Bias hin untersucht werden

Machine Learning in der Lehre 


begrüßenswerte Entwicklung. Was als Vereinfachung dargestellt wird, versperrt tatsächlich epistemologische Prozesse während des eigenen Formulierens eines Textes: Erkenntnis stellt sich auch beim Schreiben ein. Zudem fügt die Form und der Stil eines Textes auch etwas zum Inhalt hinzu.
Seit DeepL und Grammarly, spätestens aber seit dem Sprachmodell ChatGPT ist klar, dass Machine Learning auch in der Lehre im mehr zum Einsatz kommen wird und kommen muss.
Dabei können diese Tools in verschiedener Form genutzt werden - sie können zum Gegenstand der Lehre werden, wie ihre Nutzung in den verschiedenen Wissenschaften zur Unterstützung von Forschung oder die Frage, welche Qualität das Ergebnis eines Tools bezogen auf die jeweilige Wissenschaft hat. Gleichzeitig können sie aber auch zur Unterstützung der Lehre heran gezogen werden - bereits jetzt ist es möglich Machine Learning zur Identifikation von Schwachstellen bei Studierenden heranzuziehen und so den Studierenden für sie individuelle und passende Angebote  vorzuschlagen. So können die Studierenden gezielt ihre Schwachstellen beheben.
Wichtig ist beim Einsatz von Machine Learning in der Lehre, dass den Studierenden immer ein kritischer Umgang mit den Tools und ihren Ergebnissen vermittelt wird.
Bereits heute zeigen sich die negativen Effekte auf die Gesellschaft durch den Einsatz von Machine Learning. Die Studierenden müssen sich im Studium, unabhängig von ihrer Studienfachwahl, mit den Folgen durch den Einsatz von Machine Learning für ihr Fach und die Gesellschaft auseinandersetzen. Data Literacy Kompetenzen sind in der heutigen Zeit unerlässlich.
Doch alleine ein kritischer Umgang mit den Tools und ihren Ergebnissen ist nicht ausreichend. Gerade im Bezug auf maschinell generierte Texte ist es wichtig, dass die Studierenden wichtige Kernkompetenzen des wissenschaftlichen Studiums nicht vernachlässigen: Die Kompetenz, eigenständig wissenschaftliche Texte zu verfassen. Es muss sichergestellt werden, dass die Studierenden dazu in der Lage sind und sich nicht auf maschinell generierte Texte verlassen, da diese keine wissenschaftlichen Leistungen darstellen. Sie können auch keine eigenständige Recherchen und Prüfungen der Qualität von Quellen ersetzen.
Problematisch ist auch der Zugang zu den verschiedenen Tools. Da diese häufig von einzelnen, großen Firmen angeboten werden, werden auch verschiedene Zugänge angeboten. In der Regel gibt es einen offenen Zugang und einen Zugang, bei dem bezahlt werden muss. Der Bezahl-Zugang bietet dabei qualitativ hochwertigere Ergebnisse an als der offene Zugang. So entsteht wieder ein Unterschied zwischen Studierenden, die entsprechende finanzielle Mittel haben und solchen, die nicht über diese verfügen. Es muss daher Education Lizenzen für diese Tools geben, die einen kostenlosen, vollständigen Zugang für Studierende, aber auch Forschende, zur Verfügung stellen.
Der Einsatz von Machine Learning zur Unterstützung von Lehren und Lernen muss auch vor dem Hintergrund der Social Biases in Machine Learning Modellen kritisch hinterfragt werden. Bevor diese eingesetzt werden, müssen Ethik-Kommissionen über den Einsatz entscheiden. Dabei müssen neben Fragen der sozioökonomischen Gerechtigkeit und Geschlechtergerechtigkeit auch immer die Fragen der Nachhaltigkeit und des Klimaschutzes betrachtet werden. Auch muss kritisch hinterfragt werden, ob eine geplante Unterstützung wirklich zu einer Verbesserung der Situation für die Studierenden führt oder durch den Einsatz Schäden oder Nachteile für die Studierenden entstehen.
Daher fordert der fzs, dass …
  • … die Studierenden zu einer kritischen Auseinandersetzung und Nutzung mit und von Machine Learning Tools befähigt werden,
  • … allen Studierenden unabhängig von ihrem Studienfach Kompetenzen im Bereich Data Literacy vermittelt werden,
  • … für alle Tools, die für Studium und Lehre genutzt werden, Education Lizenzen angeboten und genutzt werden,
  • … über den Einsatz von Machine Learning zur Unterstützung von Lehren und Lernen immer Ethik-Kommissionen unter Beteiligung der Studierenden entscheiden, wobei Fragen der sozioökonomischen Gerechtigkeit, Geschlechtergerechtigkeit, Nachhaltigkeit und Klimaschutz zusammen mit der Frage der Schaden-Nutzen-Abwägung über den Einsatz entscheiden.

Machine Learning in der Bewertung


Der Einsatz von Machine Learning an Hochschulen beschränkt sich nicht alleine auf die Forschung und die Lehre. Auch bei der Bewertung kann Machine Learning eingesetzt werden. Es werden diverser Prüfungsformate möglich, in dem basierend auf Vorgaben durch Machine Learning sehr schnell, verschiedene Prüfungsaufgaben generiert werden können. Damit können kompetenzorientierte Prüfungsformate, bei denen die Studierenden sich in Ausarbeitungen mit den Aufgaben befassen. Transferleistungen müssen hier im Mittelpunkt stehen.
Prüfungsformate müssen auch mit der Zeit gehen. Das alleinige, auf Geschwindigkeit ausgerichtete, Wiedergeben von auswendig gelerntem Wissen ist nicht mehr Zeitgemäß. Die Fähigkeit ein Problem zu erfassen, in Teilaspekte aufzuteilen, diese möglichst kurz und dabei hinreichend Präzise zu beschreiben ist viel wichtiger. Gemeinsam mit der Fähigkeit, eine gefundene Lösung nachvollziehen zu können, stellt sie die Kernkompetenz der Studiums dar, die neben dem wissenschaftlichen Arbeiten vermittelt werden muss. 
Die Hochschulen müssen anerkennen, dass es das Internet gibt und die Studierenden dieses nutzen. Wenn dies geschieht, dann können Machine Learning Tools auch ein Mittel sein, um die Kompetenzen der Studierenden zu prüfen. Sind sie in der Lage ihr Problem zu erfassen, möglichst kurz, aber dennoch hinreichend präzise zu beschreiben? Sind sie in der Lage, die Lösung, die auch durch Machine Learning generiert worden sein kann, auf Plausibilität und Passfähigkeit für das beschriebene Problem zu überprüfen?
Doch wenn die Aufgabenstellung ohne die beschriebene Transferleistung durch Machine Learning gelöst werden kann, muss hinterfragt werden, ob die Aufgabenstellung tatsächlich einem hochschulischen Niveau entspricht. Statt rein auf Präsenzklausuren zu setzen und alle anderen Prüfungsformate abzulehnen, da die Aufgaben ohne Transferleistung durch Machine Learning gelöst werden können, müssen die Lehrenden sich selbstkritisch mit dem Niveau und der Kompetenzorientierung ihrer Aufgabenstellungen befassen.
In verschiedenen Wissenschaften gehören Hausarbeiten zu den wichtigsten und auch kompetenzorientierten Prüfungsformaten. Bei diesen müssen die Standards wissenschaftlichen Arbeitens ebenso eingehalten werden, wie in anderen Arbeiten des Wissenschaftsbetriebs. Bei von Sprachmodellen erstellten Texten ist klar, dass diese nicht selbstständig von den Studierenden geschrieben wurden und können damit mit dem zurecht ebenfalls nicht erlaubten Ghostwriting verglichen werden. Aus diesem Grund müssen maschinell generierte Texte ohne Eigenleistung in Hausarbeiten und vergleichbaren Ausarbeitungen untersagt werden.
Bewertung umfasst jedoch mehr als nur das Stellen von Prüfungen. Auch die Zulassung zum Studium fällt unter diesen Bereich. Im Bund-Länder-Förderprogramm „Künstliche Intelligenz in der Hochschulbildung“ werden mehrere Projekte gefördert, bei denen Machine Learning gestützte Unterstützungsangebote, Reflexion von Studienverläufen und Studiengangsmonitoring geplant sind. Von diesen Projekten ist es nur ein kurzer Schritt zum Einsatz von Machine Learning bei der Zulassung zum Studium, um Studieninteressierte, die eine höhere Wahrscheinlichkeit zum Studienabbruch oder zur Studienzeitverlängerung haben, abzulehnen. Bei einem solchen Einsatz werden jedoch nur die bestehenden Diskriminierungen reproduziert, insbesondere sozioökonomischen. Doch der Zugang zum Studium muss allen offen stehen. Keinesfalls darf ein Machine Learning Tool über den Zugang zum Studium entscheiden!
Daher fordert der fzs, dass …
  • … kompetenzorientierte Prüfungen eingesetzt werden, die Transferleistungen verlangen,
  • … Rechtsgrundlagen zur Nutzung von Machine Learning und anderen technischen Hilfsmitteln bei der Bearbeitung von Prüfungen geschaffen werden, mit denen weiterhin die Standards wissenschaftlichen Arbeitens eingehalten werden,
  • … Machine Learning nicht zur Entscheidung über die Zulassung zum Studium genutzt werden darf.

Finanzierung von Machine Learning an Hochschulen


Der Einsatz von Machine Learning an Hochschulen - ob in der Forschung, in der Lehre, im Studium oder bei Bewertungen - benötigt eine angemessene, nachhaltige und ausreichende Finanzierung an allen Hochschulen. Bund und Länder sind hier in der Verantwortung. Die KI-Strategie der Bundesregierung kann nicht ohne zusätzliche Finanzmittel umgesetzt werden. Alle Hochschulen müssen mit genug Mitteln ausgestattet werden, um die anstehenden Aufgaben in Bezug auf Machine Learning alle gleichermaßen bewältigen zu können.
Doch die Finanzierung darf dabei nicht über Wettbewerbe wie das Bund-Länder-Förderprogramm „Künstliche Intelligenz in der Hochschulbildung“ erfolgen. Werden die Ergebnisse der ersten Förderrunde betrachtet, ist festzustellen, dass wieder vor allem die großen Universitäten gefördert werden, die auch in anderen Wettbewerben sehr viel Geld erhalten. Zudem hat das Programm, im Gegensatz zu anderen Programmen, ein Transparenzproblem. Während bei anderen Programmen die Titel und die Beschreibung von geförderten Anträgen direkt und organisiert veröffentlicht werden, war bei dem Bund-Länder-Förderprogramm „Künstliche Intelligent in der Hochschulbildung“ eine Anfrage nach dem Informationsfreiheitsgesetz nötig, um diese Informationen zu erhalten.
Daher fordert der fzs, dass …
  • … alle Hochschulen mit genug Mitteln ausgestattet werden um die anstehenden Aufgaben im Bereich Machine Learning und der Einsatz von diesem an den Hochschulen, gleichermaßen bewältigen zu können,
  • … das Bund-Länder-Förderprogramm „Künstliche Intelligenz in der Hochschulbildung“ nicht weitergeführt wird und geplante Mittel für eine mögliche zweite Förderrunde zur Finanzierung aller Hochschulen genutzt werden.
 
 
[1] M.A. Ahmed et al, The role of biased data in computerized ender discrimination, https://dl.acm.org/doi/abs/10.1145/3524501.3527599
[2] M. Prates et al, Assessing Gender Bias in Machine Translation - A Case Study with Google Translate, https://arxiv.org/pdf/1809.02208.pdf?utm_source=yxnews&utm_medium=desktop&utm_referrer=https%3A%2F%2Fyandex.ru%2Fnews 
[3] C. Intahchomphoo et al, Artificial Intelligence and Race: A Systematic Review, https://www.cambridge.org/core/journals/legal-information-management/article/abs/artificial-intelligence-and-race-a-systematic-review/E3EC8D1771D76E68E26DAB73F81128A6
[4] D. Cirillo et al, Sex and gender differences and biases in artificial intelligence for biomedicine and healthcare, https://www.nature.com/articles/s41746-020-0288-5 
[5] A. Larrazabal et al, Gender imbalance in medical imaging datasets produces biased classifiers for computer-aided diagnosis, https://www.pnas.org/doi/full/10.1073/pnas.1919012117

Begründung 


Die immer besser werdenden Sprachmodelle wie ChatGPT sorgen an Hochschulen gerade für viel Furore. Einerseits gibt es die Befürchtung, dass Studierende Hausarbeiten von ChatGPT schreiben lassen ohne sonderlich große Eigenleistung, andererseits reproduzieren die meisten Sprachmodelle Stereotype. Wird ein Sprachmodell mit diskriminierenden Äußerungen trainiert, gibt es später auch diskriminierende Äußerungen wieder. Doch Sprachmodelle ganz vom Campus zu verbieten würde einerseits gesellschaftliche Realitäten ignorieren und wäre andererseits auch schlicht nicht möglich. Hochschulen müssen deshalb mit dieser neuen Technologie umgehen. Dieser Antrag versucht hier ein möglichst ausgewogenes Vorgehen zu schildern, bei dem Risiken ernst genommen werden, gleichzeitig aber auch versucht wird, mit den Sprachmodellen sogar kritisches Denken und Chancengerechtigkeit an den Hochschulen zu stärken.


Treffen am 13.02.2023


Anwesend: Renate, Julius, Pauline, Jan, Thomas, Jacob

Wer stellt den Antrag für die MV formal?
Ganz flexibel, können als Einzelperson oder auch 

Begrifflichkeit
ChatGPT ist bereits veraltet seitdem Microsoft eine neuere Version in Bing integriert hat. Sollten also nicht nur über ChatGPT sprechen sondern allgemein über GPT.
Müssen wir auch über DeepL (Übersetzungsprogramm) reden? Ist weniger neu als GPT aber erstellt keine ganz eigenen Texte

Punkte die in die Positionierung sollen:
Rechtssicherheit, Diskriminierung und Ungleichheit, Datenschutz und Urheberrecht, Kompetenzentwicklung
Was bedeutet GPT für welchen Fachbereich?
Informatik: Informationen verständlich darstellen.

GPT ähnlich wie ein Taschenrechner in der Mathematik für Textproduktion. Dann muss aber Nachvollziehbarkeit gewährleistet werden, Quellen angegeben werden usw. Man kann bei GPT bereits nach genutzten Quellen fragen

Mit welchen Daten füttert man GPTs?
GPT zum Organisieren von Forschungsdaten? Quellen informatisch gewichten: wiss. Studie andere Wertigkeit als sonstige Texte

Handlungsfelder: 
  • Studium: Prüfungen, Kompetenzvermittlung, kostenfreien Zugang zum Tool gewährleisten 
  • Lehre: Kompetenzen im Umgang vermitteln; ChatGPT an Forschungsdatenbanken anschließen: Recherchetool für Studis und Forschende entwickelen
  • einheitlicher Rechtsrahmen: Urheberrecht, Plagiate, Prüfungsbetrug
  • Gesellschaftliche Verantwortung_Ethik:
    • Qualität von Wissenschaft, Forschung sichern
    • Technikfolgenabschätzung
    • Diskriminierungsschutz
    • Digitalkompetenz vermitteln
  • Zweite Förderrunde für KI in der Lehre



MV Antragsfrist 16.2.2023


---

1. Topics / Problemfelder


Prüfungen und Plagiate


  • Verhältnis zu Ghostwriting
  • Wissenschaftlichkeit aufgrund fehlender Quellen und dadurch Plagiaten
    • ->Texte sollten nicht 1 zu 1 in wissenschaftliche Arbeiten übernommen werden
  • Unterschied ChatGPT und Übersetzungstools wie DeepL

Diskriminierung und Ungleichheit


  • Diskriminierungspotenzial (z.B. Gender Data Bias) von ChatGPT
    • -> z. B. in Informatikveranstaltungen problematische Texte besprechen
  • Erklärbarkeit von KI -> wir wissen nicht, wie ChatGPT genau zu den Ergebnissen kommt
  • ChatGPT+ als Bezahlmodell führt zu neuen Ungleichheiten

Datenschutz und Urheberrecht


  • Welche Informationen werden weitergegeben? 
  • Frage nach dem geistigen Eigentum wissenschaftlicher Erkenntnisse
  • (fehlendes) OpenSource
  • Wer die KI entwickelt hat großen Einfluss darauf, wie sich Sprache entwickelt

---

2. Verfahrensvorschläge  / Handlungsempfehlungen


Good Practice


  • Besondere Wertlegung bei der Bewertung von wissenschaftlichen Arbeiten nicht mehr auf den Stil, die Grammatik etc., sondern   --> Entwicklung neuer Bewertungsschemata erforderlich
  • Chat GPT in die Digital Humanities integrieren
  • Erlernen kritischen und verantwortungsbewussten Umgangs mit Chat GPT an der Universität
  • Entwicklung neuer Verfahren und Algorithmen zur Datenverarbeitung durch KIs: Die Hochschulen dürfen den neuen technologischen Entwicklungen keinesfalls den Rücken zuwenden
  • Chat  GPT kann schnell Überblick über den bisherigen Forschungsstand/Wissensstand geben --> an diesem muss Kritik geübt werden, von diesem muss ausgegangen werden --> weiterdenken muss der Mensch immer noch selbst
  • Umgang mit ChatGPT als Teil von Datenkompetenz- / Standards Wissenschaftlichen Arbeitens-Vorlesungen

Bad Practice


    • Rückkehr zu Klausuren ohne Hilfsmittel; Abschaffung von Hausarbeiten --> besonders wichtige Prüfungsform in geistes- und sozialwissenschaftlichen Fächern
    • Keine Übung mehr darin, Texte selbst zu formulieren und zu strukturieren --> Verlernt man nicht durch ständige Vereinfachung und Unterstützung sich geistigen Wagnissen stellendes Denken, das sich bei den meisten in Sprache vollzieht?
    • Schlecht überprüfbar, was die menschliche, was die maschinelle Arbeit ist
    • Chat GPT-Detektor, Entwicklung eines Erkennungsprogramm

---

3. Meinungen


  • Ich finde die Einbindung von Chatbots wie ChatGPT in die Hochschullehre wichtig, ich sehe keinen Grund, die Nutzung kategorisch auszuschließen.
  • Die Kompetenz, die Informationen, die ChatGPT gibt, zu bewerten und auch deren Grenzen zu erkennen, ist essentiell und ersetzt ein eigenes Verständnis für die Inhalte nicht - aber man bekommt einen Eindruck, was ML gerade kann.
  • Wir hatten zB in qualitativer Sozialforschung eine Sitzung in der wir ein Forschungsdesign entworfen und eine Methodendiskussion mit ChatGPT geführt haben bzw. geschaut haben, wo es uns helfen kann und wo es kompetent wirkend bullshit verzapft.
  • Für meine Statistikklausur hab ich mir einige Rechenwege von ChatGPT erklären lassen, besser als jedes Googeln. Trotzdem waren einige Äußerungen falsch, was wir im Tutorium besprochen haben etc.
  • Das nur als 2 Beispiele wie sich's in meinem Fach konstruktiv nutzen lässt. In anderen Disziplinen, v.a. informatiklastig, sieht's sicher nochmal anders aus.
  • Noch kann Chat GPT keine neuen, originellen Antworten/Lösungen anbieten --> System basiert auf Texten, Daten, die schon existieren: Bisher ist Chat GPT ein Werkzeug, das die Arbeit nicht wirklich abnehmen kann, denn zu neuen, originellen Ideen muss man selbst kommen (--> es ist aber nur noch eine Frage der Zeit bis KIs das auch können...)
  • KIs kann nichts originelles / neues generieren, sondern nur bestehendes neu wiedergeben
    • Ich widerspreche. Wir sollten uns Menschen da auch nicht überschätzen in unserer vermeintlichen Genialität. Nichts, was wir an Text produzieren ist "neuer", "orgineller", behaupte ich. (re)
  • Ist der Einsatz von ChatGPT in der Lehre überhaupt so wichtig?
    • Denke, das ist nicht die richtige Frage. Oder sagen wir: es wird als Tool benutzt werden, so wie wir heute selbstverständlich den Taschenrecher benutzen. Und das macht es wichtig/relevant/unumgänglich. (re)
  • Steile These: Gesellschaft wird besser damit umgehen können, als viele befürchten. Digitalkompetenz im Hinterfragen von Quellen wurde beispielsweise über den Diskurs um Wikipedia bereits geschult (aktuell im Gange ähnliches zum Phänomen Fake News). Sehe hier Analogie. Unterschied: zuvor ging es darum, Schwarmintelligenz kritisch zu hinterfragen; jetzt geht es darum KI zu hinterfragen. Sehe hier durchaus Ähnlichkeiten. Daher: starken Fokus auf Aufklärung und Schulung von Digital- und Datenkompetenz, anstatt Nutzung zu verbieten. (re)

---

4. Linksammlung