SoSe23 AK Lehre und AI

Aus ZaPFWiki

Vorstellung des AKs

  • Verantwortliche/r: Niklas (UHH)
  • Ziel des AK: Austausch, ggf. Resolution
  • Handelt es sich um einen Folge-AK: nein
  • Wer ist die Zielgruppe?: Einsteiger und Erfahrene im Thema, gerne auch Lehrämtler oder Menschen, die sich mit Studiengangsentwicklung beschäftigen. Eigentlich alle, die es interessiert.
  • Wie läuft der AK ab?: Input-Vortrag dann Diskussion, über die Auswirkung von AI auf die Lehre und mögliche Lösungen für Probleme. Evtl. bekomme ich noch internationale Gäste zugeschaltet.
  • Materielle (und immaterielle) Voraussetzung: Möglichst Auseinandersetzung mit den Fähigkeiten von AI (Weil aktuell in der Diskussion: Insbesondere Chat AI)
  • Sonstige Vorstellung: ---

Arbeitskreis: Lehre und AI

Protokoll vom 28.04.2023

Beginn
15:33 Uhr
Ende
17:31 Uhr
Redeleitung
Niklas Jamborek (Hamburg)
Protokoll
Jan Rothörl (jDPG/Mainz), Lennart (Heidelberg)
Anwesende Fachschaften
Technische Universität Bergakademie Freiberg,
Universität Wien,
Universität Potsdam,
Ernst Moritz Arndt Universität Greifswald,
Universität Hamburg,
Christian-Albrechts-Universität zu Kiel,
Universität Bremen,
Philipps-Universität Marburg,
Justus-Liebig-Universität Gießen,
Deutsche Physikalische Gesellschaft e.V.,
Georg-August-Universität Göttingen,
Heinrich Heine Universität Düsseldorf,
Ruhr-Universität Bochum,
Johannes Gutenberg-Universität Mainz,
Johann Wolfgang Goethe Universität Frankfurt am Main,
Technische Universität Darmstadt,
Universität Heidelberg,
Universität Stuttgart,
Albert-Ludwigs-Universität Freiburg,
Ludwig-Maximilians-Universität München,
Technische Universität München,

Einleitung/Ziel des AK

Dieser AK hat zum Ziel, die Nutzung und das Vorhandensein von AI in der Lehre zu problematisieren. Je nachdem, wie die entstehende Diskussion läuft, kann aus diesem AK eine Resolution entstehen.

Wortprotokoll

Niklas: Wie ist die Erfahrung mit AI in der Lehre?

  • Malte (LMU München): Bei Praktika grundsätzlich okay, AI zu nutzen, aber muss angegeben werden; Versuche, ChatGPT in Übungen einzubinden; Vorlesung, welche auf Basis der Abgabe von wöchtentlichen Reports benotet wird muss evtl. umstrukturiert werden
  • Nadja (Marburg): AI wird im Fachbereichsrat als wichtiges Thema anerkannt, noch keine Position, aber Diskussion (auch mit Studis) ist geplant
  • Manu (Uni Wien): Arbeitsgruppe ins dazu Leben gerufen, soll reguliert aber nicht verboten werden. Ein Prof hat Verbot gefordert, andere möchten dies auf keinen Fall. Programmierprüfung konnte von ChatGPT gelöst werden, Leute (etwa 5 von 100) haben dies genutzt, war egal.
    • Paul (Hamburg): Wie habt ihr darauf geachtet, ob ChatGPT gelöst werden kann?
    • Manu (Uni Wien): Naja, wir haben versucht die Aufgabe zu übergeben, und es hat nicht funktioniert.
  • Günther (Bochum): Es gibt Gremium an der Uni, das sich damit beschäftigt. Ein Lehrstuhl hat mit ChatGPT experimentiert, teilweise sind die Antworten nicht gut, teilweise aber sehr beeindruckend. Kombination von ChatGPT mit Sprachsoftware ware sehr einfach und damit Betrugsversuche
  • Erik (Osnabrück): bisher nichts zentrales, sondern jeder Prof kümmert sich einzeln drum. In Numerik gab es ein Programmierprojekt, Dozent fand ChatGPT darf genutzt werden, muss gekennzeichnet werden, am Ende muss man trotzdem ein Testat schreiben und nachweisen, dass man den Stoff beherrscht. Lösungen mit ChatGPT waren oft allerding eher ineffizient und nicht immer korrekt. Nutzung als Werkzeug, das man richtig nutzen muss.
  • Lennart (Heidelberg): Es wird diskutiert wie ChatGPT mit Selbstständigkeitserklärungen bei Abschlussarbeiten interagiert. Lösung wird voraussichtlich, dass eine weitere Erklärung besagt, dass Sprachsoftware mit Betreuer abgesprochen und gekennzeichnet werden muss
    • Mo (Mainz): Bezieht sich das auch auf Übersetzungen (z.B. DeepL)
    • Lennart (Heidelberg): Konsens noch nicht fertig, im Zweifel eher weniger Regularien, Kennzeichnen nur wenn aus Sicht von Betreuer notwendig, bei Übersetzungstools eher keine Notwendigkeit der Kennzeichnung.
    • Günther (Bochum): Bezieht sich das nur auf direkte Nutzung oder auch indirekte? (z.B. Auswertungstool mit ChatGPT schreiben)
    • Lennart (Heidelberg): AI in der Datenanalyse soll nicht weiter reguliert werden, da dieses Tool schon lange erfolgreich eingesetzt wird. Bei Programm aus ChatGPT Quellenangabe in Arbeit
  • Simon (alter Sack/Kiel): In Kiel wurde bisher wenig beschlossen zu dem Thema. Frage ob dies bei den anderen Standorten ähnlich aussieht?
    • Katrin (Darmstadt): Als Hilfmittel verboten, keine Erläuterung dazu
  • Sebastian (TUM): Inwiefern glaubt ihr, dass v.a. im Bachelor KI relevant ist? Programmierkurs, Abschlussarbeit, Praktikumsberichte vielleicht. Ansonsten eher weniger relevant als in textlastigeren Studiengängen.
    • Malte (LMU): Es gibt Extensions die ChatGPT mit WolframAlpha (WA) verknüpfen -> potentiell sehr mächtig für Physik
    • Manu (Uni Wien): Was ist der Unterschied zwischen DGLs lösen mit WolframAlpha und Text schreiben mit ChatGPT? Das erste ist ja schon oft verwendet worden und wird generell akzeptiert
    • Günther (Bochum): WA ist algorithmisch und gut geprüft, ChatGPT ist nicht geprüft und sehr selbstsicher. Bezahlversion von ChatGPT ist sehr viel besser als kostenlose, dadurch kann dies zu großen Vorteilen führen bei z.B. Textverbesserung
    • Malte (LMU München): Wollte nur darauf hinweisen, dass es doch Relevanz hat z.B. mit WolframAlpha.
    • Manu (Uni Wien): Masterarbeit ist 1/4 des Masterstudiums, insofern hat es eine hohe Relevanz
    • Ansgar (Oldenburg): AI wird in Zukunft immer mehr in Alltag einziehen, daher muss man die Nutzung davon einüben. Hat aber Schwächen und wenn man sich nur auf ChatGPT oder WA verlässt, wird es in der Klausur nicht ausreichen
    • Sebastian (TUM): Punkt war mehr, dass man vielleicht erst lernen sollte, wie man etwas selbst macht, bevor man tools nutzt (d.h. lernen Arbeit selbst auszuformulieren, bevor man z.B. ChatGPT nutzt)
    • Johannes (Greifswald): Programme wurden schon vor ChatGPT immer vom Prof (der selbst viel mit ChatGPT arbeitet) im mündlichen Gespräch abgenommen, Gespräch zeigt, ob Studis den Codeverstanden haben. Funktioniert sehr gut
    • Johannes (Erlangen): ChatGPT wurde von November bis jetzt schon enorm verbessert, daher ist davon auszugehen, dass weitere Schwächen in absehbarer Zeit behoben werden
    • Manu (Uni Wien): Beschreibung einer potentiellen Dystopie: Studis geben mithilfe von ChatGPT ab, Profs korrigieren mithilfe von ChatGPT...
    • Günther (Bochum): Abnahme des Codes durch Prof kann zu Willkür führen, Einschätzungen sind nie sicher, daher potentiell problematisch
  • Amélie (Kiel): Weiterhin stochastische Antwortmethodik dazu führen, dass Studis was falsches lernen. Sowas wie TÜV-Siegel notwendig? Unterscheiden zwischen geprüfter und ungeprüfter AI notwendig?
  • Erik (Osnabrück): ChatGPT ist sehr mächtiges Werkzeug, explizites Eingehen auf solche Werkzeuge ist zielführend, exklären was das Tool kann und was nicht (z. B. Halluzinationen).
  • Ansgar (Oldenburg): Aus der Perspektive eines Lehramtsstudis: Statistisch war bei vielen Studis der Fall, dass die Familie bei den Hausaufgaben geholfen hatn. Dies ist aber nicht bei allen Familien möglich. ChatGPT könnte in diesem Kontext elterliche Hilfe ersetzen, Fehlerquote ist auch bei Eltern gegeben
    • Sebastian (TUM): Erziehungsperson löst Aufgaben nicht für einen, ChatGPT schon, man hat nichts dabei gemacht.
  • Günther (Bochum): Meinungsbild, ob ChatGPT eher Werkzeug oder Gefahr ist
    • Niklas (Hamburg): Stattdessen anderes Meinungsbild: Soll ChatGPT an Unis erlaubt oder verboten sein?
    • Verboten: 1, Erlaubt: ~30
  • Max (Uni Wien): Was kann ChatGPT genau tun? Nicht wirklich was in Naturwissenschaften notwendig ist, sondern nur Auswertung und Formulierung von Texten
    • Günther (Bochum): ChatGPT weiß nur, welche Worte häufig im Zusammenhang mit welchen Worten auftauchen.
    • Sebastian (TUM): ChatGPT darauf reduzieren würde auch Hirn trivialisieren, da es nur feuernde Neuronen sind, Fähigkeit ist, auf sehr viele Anfragen etwas sinnvolles zu antworten.
    • Günther (Bochum): ChatGPT wird immer nur so viel wissen, wie es dem Durchschnitt des Datensatzes entspricht.
    • Björn (alter Sack): Fehlannahme in der Situation ist, dass ChatGPT etwas wisse. ChatGPT generiert nur statistisch Texte, kann keine wahre Aussage auf ein Problem geben. Dies ist auch nicht möglich ohne Konzeptänderung von ChatGPT.
    • Simon (alter Sack): Bedingte Zustimmung, neurales Netzwerk ist mathematisch nur Multiplikation von Matrizen und Vektoren sowie Kantengewichte. Dies ergibt ein Modell. Physik arbeitet auch nur in Modellen, kann zwar neue Modelle entwickeln aber das passiert nicht ständig, häufig wird anhand bestehender Modelle gearbeitet.
    • Günther (Bochum): Wie kann man es nutzen, um Physikstudierende zu unterstüzten, besser zu sein und besser zu verstehen?
    • Sebastian (TUM): Wahrheit oder Generierung von Neuem ist für Lehre irrelevant. Kann schon Lernvorgang verändern oder vermindern. Ersatz von Forschung durch Chat GPT ist (noch) nicht das Problem
  • Ansgar (Oldenburg): Im Kontext der Lehre betrifft es z.B. Programmierkurse oder Praktikumsprotokolle. Dort können alternativ auch Lösungen von Kommilitonen abgeschrieben oder Code aus dem Internet kopiert werden. Dies ist nur bei Abschlussarbeiten nicht der Fall, dort geht es aber entweder um neue Erkenntnisse (kann ChatGPT nicht) oder es gibt schon genug Paper zum zitieren
  • Nadja (Marburg): Frage ist nicht verbieten oder erlauben, sondern Medienkompetenz, die dahinter steckt. Sich Aufgaben von jemandem erklären lassen ist ja auch nicht verboten. Aufgabe der Uni sollte sein, Studis mit nötigem Wissen auszustatten, wo man am besten Informationen hernimmt und wie man sie bewertet/ob sie wahr sind. Kollegen können auch falsch erklären, man kann falsche Lösungen abschreiben. Wo kann man ChatGPT gut nutzen, wo funktioniert das nicht? Den Studierenden selbst überlassen, wo sie es einsetzen wollen.
  • Ansgar (Oldenburg): Kernkompetenz einen Wissenschaftlers ist das Hinterfragen: kann diese Info stimmen, kann das sein?
  • Leon (Erlangen): Zustimmung, dass Verbot nicht sinnvoll ist. Kritisches Denken sollte gelehrt werden. ChatGPT ist sehr gut in Sprache (z.B. Protokolle und Abschlussarbeiten), formuliert Text, wenn man weiß was man möchte. Inhaltliche Dinge kann ChatGPT nicht so gut, also Nutzung auf sprachliche Themen beschränken (z.B. Text verbessern)
  • Malte (LMU): Großes Problem bei Abschlussarbeiten: ChatGPT gibt keine Quellen an (in Bing teilweise schon). Frage des Verbots stellt sich nicht, denn Verbot ist nicht durchsetzbar. Als Mensch glaubt man gut geschriebenen Text eher, das macht ChatGPT gefährlich, denn formulieren kann es gut.
  • Amélie (Kiel): Richtige Art und Weise ChatGPT als Werkzeug zu nutzen ist, ChatGPT nicht als einzige Quelle zu nutzen und kann keine Aussagen belegen. Reglementierung/Einschränkungen zur Nutzung sollte diese Unterscheidung berücksichtigen und Nutzung als Werkzeug zur Sprachverbesserung erlauben
  • Sebastian (TUM): Frage nach Meinung: Wenn man bislang selbst unbeschränkt Zugriff auf ChatGPT gehabt hätte für das gesamte Studium außer Klausuren, hättet ihr besser/schlechter/gleich gut gelernt/verstanden?
    • Björn (alter Sack): Keine sinnvolle Frage, die gleichen Prüfungsformen sind dann einfach teilweise nicht mehr möglich, z.B. Hausarbeiten
    • Günther (Bochum): vermutlich weniger erfolgreich im Studium, da man weniger "auf die Fresse fliegt" und dann weniger gezwungen wird sich mehr Mühe zu geben
    • Simon (alter Sack): wäre entspannter durch Arbeiten gekommen, hätte nur bei Formulierung von Hausarbeiten, Protokollen etc. zu ChatGPT gegriffen.
    • Günther (Bochum): Es wäre interessant zu wissen, wofür ChatGPT genutzt würde.
    • Nadia (Marburg): Als Schülerin Nutzung sehr wahrscheinlich, um nicht mehr selbst nachdenken zu müssen, heutzutage eher keine Nutzung, da genug Wissen, dass ChatGPT alleine die Problem löst und man selbst Probleme verstehen muss
  • Ansgar (Oldenburg): Was ist ein guter Physiker? Z.B. gab es vor 50-100 Jahren keine Taschenrechner. Diskussion bei Einführung war, dass mit Taschenrechner Kopfrechnen schlechter gelernt wird. Dafür gibt es aber mehr Zeit für andere mathematische Themen wie z.B. Matrizen und Integrale. Ist Texte schreiben zu können wirklich Kernkompetenz einen Physikers?
    • Max (Uni Wien): Für Physik ist Texte schreiben auf keinen Fall Kernkompetenz, in anderen Fächern aber schon, diese könnten unter flächendeckender Nutzung leiden.
    • Jan (Mainz/jDPG): Mit ChatGPT Workload reduzierbar ohne bei Kernkompetenzen Opfer bringen zu müssen -> sehr gut.
    • Manu (Uni Wien): Kernkompetenzen in der Wissenschaft sind das Schreiben von Anträgen und Paper. Das macht den langfristigen Erfolg einer Karriere aus. Daher muss diese Fähigkeit erlernt (und eigentlich mehr vermittelt) werden.
    • Günther (Bochum): Schade, dass Paper schreiben eine Kernkompetenz ist. Gerade da ist es toll ein Tool zu haben, das man mit Infos füttern kann und es einem diese verständlich aufbereitet. Es gibt Leute die sehr kompetent sind, aber sehr inkompetent in der Vermittlung.
    • Jannis (Göttingen): Kernkompetenz ist aktuell das Schreiben von Texten aber eigentlich sollte Wissensgenerierung die Kernkompetenz sein
    • Sebastian (TUM): Es bringt nichts, die Weisheit mit dem Löffel gefressen zu haben, wenn man es niemanden sagen kann. Wenn man etwas mal nicht formuliert bekommt, lernt man, es besser zu machen. Tools dazu erst nutzen, wenn man es selbst gelernt hat.
    • Günther (Bochum): Erkrankungen, welche gutes Ausdrücken verhindern, kann man nicht abtrainieren
      • Leonie (Düsseldorf): Nicht alle Physiker/Wissenschaftler die sich nicht gut ausdrücken haben eine solche Erkrankung
      • Günther (Bochum): Es gibt auch Rollstühle, obwohl die meisten Menschen gehen können.
    • Björn (alter Sack): Was ist ein Studiengang, wo das Schreiben von Texten die Kernkompetenz ist? Ihm fällt keiner ein. Schreiben von Anträgen macht Job eines Physikers zum Bullshitjob. Wenn einem ein Tool das abnimmt, wäre das sehr gewinnbringend
  • Ansgar (Oldenburg): Geht es um AI in der Lehre allgemein in allen Fächern oder nur in der Physik? Probleme wie Rassismus, Sexismus etc. sind beim Lösen von Aufgaben in der Physik normal kein Problem, in anderen Fächern schon.
    • Günther (Bochum): Deutlicher Widerspruch: Auch in der Physik gibt es Sexismusprobleme
    • Ansgar (Oldenburg): Es geht nicht um Physik allgemein sondern nur um das Lösen von physikalischen Aufgaben.
    • Günther (Bochum): Widerspruch zurückgezogen
    • Niklas (Hamburg): Primär soll es hier um Physik gehen. Ist das in Ordnung?
      • Leon (Erlangen): Man kann auch andere Fächer erwähnen aus Perspektive der Physik
      • Sebastian (TUM): Thema ist zu groß, um Ergebnis zu bekommen, wenn wir mehr als nur Physik betrachten
  • Simon (alter Sack): Wenn wir hier ein Produkt erzeugen wollen, sollten wir jetzt damit anfangen, wenn nicht müssen wir uns nicht auf Physik beschränken.
    • Niklas (Hamburg): Wollt ihr hier eine Reso oder ein Positionspapier?
      • 10 dafür, 3 dagegen, Rest Enthaltungen
    • Björn (alter Sack): wenn 10 Leute was schreiben wollen, dann können die das machen, dafür brauchen wir den AK nicht.
    • Niklas (Hamburg): Leute die was schreiben wollen sollen nach dem AK ein Schreiben koordinieren
  • Mo (Mainz): Die Mehrheit war für eine Erlaubnis von ChatGPT in der Uni. Soll die Nutzung von ChatGPT dann eine Voraussetzung im Studium sein so wie der Taschenrechner im Matheunterricht? Eine Abgabe von Praktikumsprotokollen ohne ChatGPT braucht deutlich mehr Zeit, wie geht die Lehre damit um?
    • Leonie (Düsseldorf): Diskussion ist hier zu unspeziell und durcheinander. Vorschlag: Konzentrieren auf ChatGPT im Studium.
    • Erik (Osnabrück): Wir sind uns einig, dass AI als Werkzeug in irgendeiner Form erlaubt sein soll. Wir sollten die sinnvolle Nutzung von AI als Werkzeug im Studium fordern (analog zur Einführung des Taschenrechners). Taschenrechner wird eingeführt in der Schule, nachdem man rechnen gelernt hat, lernt wie man mit Taschenrechner um geht und wie man ihn für komplexere Dinge nutzt. So sollte das auch mit AI sein.
    • Günther (Bochum): Es ist irrelevant, ob ein Physikstudent nach dem Studium kompetent ist aufgrund von viel Wissen oder von gutem Umgang mit einem Werkzeug. Manche programmieren zum Beispiel sehr gut, andere werten mehr per Hand aus
    • Björn (alter Sack): Wenn man ein Tool bedienen kann hat man Fähigkeit, wenn man es selber kann Kompetenz. Studium soll Kompetenz vermitteln.
    • Leon (Erlangen): Studiengang Journalismus ist auf Schreiben von Texten ausgelegt-
      • Björn (alter Sack): Kern von Journalismus ist Recherche, nicht Texte schreiben
    • Leon (Erlangen): Unterscheidung zwischen Kompetenz und Schein von Kompetenz.
    • Günther (Bochum): Zustimmung, aber im Studium muss man nicht nur Aufgaben runterrattern, wenn man damit Bachelor, Master und evtl. sogar Promotion schafft, dann zeigt das doch Kompetenz, dann bist du hat ChatGPT-Ninja.
    • Björn (alter Sack): Aufgabe von Bachelor und Masterarbeit ist nicht neues zu produzieren, sondern zu zeigen, dass man wissenschaftlich Arbeiten kann. Erst in der Promotion soll man neue Dinge erforschen. Dass das teilweise schon in Bachelor und Masterarbeit passiert ist Fehlentwicklung, da es den Leuten die Möglichkeit nimmt, zu lernen.
    • Niklas (Freiberg): Kompetenz ist erst, wenn man Ergebnisse des Tools bewerten kann, also wenn man theoretisch auch ohne das Tool die Aufgabe lösen könnte. Man nutzt einen Taschenrechner für Zeitersparnis, nicht weil es ohne nicht geht
      • Günther (Bochum): Widerspruch am Beispiel Numerische Integration
      • Niklas (Freiberg): Numerische Integration ist ausprobieren.
      • Günther (Bochum): Ob der Weg über ChatGPT oder Studium läuft ist egal, solange man es gelernt hat.
      • Niklas (Freiberg): Wissenschaft ist spannend, weil man eine Sache zeigen will und auf dem Weg anderes entdeckt. Wenn man nur ein Tool nutzt, das man nicht versteht, kann man nebenbei nichts anderes entdecken
    • Ansgar (Oldenburg): Pro AI: Wenn AI es schafft, uns als Physiker abzulösen, neue Theorien zu entwickeln, dann sollten wir es nutzen. Bis das passiert dauert es noch ewig. Bis dahin können wir es als Hilfsmittel nutzen, wir können uns auf den Kern fokussieren.
    • Malte (LMU München): Numerische Integration kann ja nur sinnvoll mit dem Taschenrechner gemacht werden, wenn man ein Gefühl dafür hat, ob das Ergebnis stimmt. Wenn man das nicht kann, kann man den Taschenrechner nicht sinnvoll nutzen.
    • Leonie (Düsseldorf): Die Frage ist, ob wir eine Technologie unterstützen bis sie uns ablöst oder nicht.
      • Ansgar (Oldenburg): Technologien, die Berufe aufgelöst haben gab es schon immer, siehe z.B. Webstuhl. Wir sind Physiker, um neue Sachen zu entdecken, wir wollen den Fortschritt nicht aufhalten. Was wir wollen geht mit AI viel besser und effektiver, also sollten wir es nutzen.
      • Leonie (Düsseldorf): Wissenschaftsethisch kritisch, wenn der Beruf als Physiker oder Naturwissenschaftler durch AI ausgeführt wird
      • Ansgar (Oldenburg): Es wird trotzdem Berufe in dem Bereich geben. Früher gab es Hufschmied, heute Maschinenbauer.
      • Günther (Bochum): Der Unterschied ist, dass ein theoretisches Modell das uns theoretisch ersetzen kann ein anderes Thema ist als die vorherigen Beispiele
    • Björn (Alter Sack): Bitte Diskussion hier abzubrechen. Aufstand der Weber war nicht wegen Wegnahme der Arbeit, sondern da Gewinne an Industrielle statt an Weber gingen
  • Sebastian (TUM): Zurückkehren zur ursprünglichen Frage: Hätte ChatGPT das Verständnis der Anwesenden im Studium gefördert oder behindert oder keins von beidem?
    • Nadja (Marburg): Art der Lehre ist entscheidend. Wird eine Rechenaufgabe gestellt und die richtige Antwort gibt Punkte, oder gibt die Aufgabe anlass zu Diskussion und gemeinsamem Lernen? Wenn es sich etabliert mit KI Aufgaben zu lösen, darf es nicht dabei bleiben dass man nur prüft ob das Ergebnis richtig ist, sondern die Art wie man damit umgeht. KI ermöglicht effizientes finden einer Lösung, also muss der Austausch und das Lernen im Vordergrund stehen, nicht die Lösung.
    • Johannes (Erlangen): ChatGPT wird Lehre und auch Arbeit stark verändern, es werden alte Prüfungsformen wegfallen und neue Formen würden entstehen. Wenn bisherige Aufgaben von AI übernommen werden, wird es neue Aufgaben geben. Auf diese Veränderungen muss man sich geregelt vorbereiten
    • Manu (Uni Wien): Schon jetzt machen uns ganz viele Prüfungen nicht zu besseren Physikern, gehen an der Lebensrealität vorbei. Was wir können sollen entspricht nicht dem was wir lernen sollen. Das könnte der Todesstoß sein für schriftliche Prüfungen -> mehr mündliche Prüfungen, das bringt neue Probleme. Leistungsüberprüfung muss sich grundlegend ändern, die Änderungen, die durch ChatGPT aufkommen, lassen sich nicht aufhalten.
    • Sebastian (TUM): Prinzipiell Zustimmung, Rechenprüfungen sind aber sehr resistent gegenüber ChatGPT, Änderungen durch ChatGPT eher bei Protokollen, dies kann aber trotzdem weiter gelehrt werden. Bin aber auch Freund von mündlichen Prüfungen.
    • Günther (Bochum): Nutzung bei Aufgaben ist Fakt und lässt sich nicht mehr ändern. Folglich sollten Grenzen erforscht und bekannt gemacht werden.
    • Ansgar (Oldenburg): AI wird kommen, was können wir jetzt schon ändern? Wie kann man jetzt schon davon profitieren? Zum Beispiel AI-basiertes individuelles Feedback kann helfen wenn Lehrende nicht genug Zeit für individuelles Feedback haben
    • Simon (alter Sack): hat in so einem Forschungsprojekt gearbeiten. Sinnvolles formatives Feedback im Studium ist eine tolle Sache, aber vermutlich derzeit nicht machbar von ChatGPT. Problem ist, dass dem Sprachmodell das Verständnis fehlt.
    • Erik (Osnabrück): Was kann AI aktuell, wofür ist es nutzbar? Verständnisfragen kann es nicht adäquat beantworten, kann falsches Verständnis auslösen. Fähigkeit von ChatGPT ist eher gute Formulierung von Texten und schreiben von Funktionen für Programmierunf
    • Björn (Alter Sack): ChatGPT hat kein Konzept von Wahrheit, von richtig und falsch. Alles was es gibt sind Filter, die aufgrund von falschen Antworten hinzugefügt wurden.
    • Ansgar (Osnabrück): Es wäre wünschenswert, wenn es eine AI gäbe, die Studis formatives Feedback gibt.
  • Arne (Düsseldorf): Worüber wollen wir reden? Was ChatGPT gerade kann oder was in Zukunft möglich wäre?
    • Sebastian (TUM): Wir müssen das Thema einschränken, daher Fokus auf jetzt und Physik(studium), Beschränkung auf aktuelle Kompetenz von ChatGPT sowie kurzfristig mögliche Verbesserungen
  • Manu (Uni Wien): Was ist denn gerade das Ziel? Vielleicht könnten wir jetzt noch ein Ziel finden, wo wir hinmöchten.
    • Johannes (Greifswald): Es wäre schön, wenn wir als ZaPf fordern, dass ChatGPT nicht einfach verboten wird im Studium. Und dass Prüfungsformate dann evtl. angepasst werden (müssen): Protokolle, Programmieren, Abschlussarbeiten.
    • Simon (Alter Sack): Großer Mehrheit war es egal, nur 10 wollten Reso o.ä.
    • Lennart (Heidelberg): Hat jemand aktuell das Gefühl, dass es an einer Uni in die falsche Richtung läuft oder verboten werden könnte?
      • Niklas (Hamburg): Alle machen ihr eigenes Ding, es gibt kaum Koordination oder Absprache
      • Malte (LMU): Lohnt es sich, Unis darauf hinzuweisen, sich Gedanken zu machen? Findet man überhaupt schnell Lösungen?
  • Simon (alter Sack): Vorhin Enthaltung, jetzt klar für schreiben eines Produktes, da es bisher wenig Koordination und Absprache gibt, aktuell macht jeder was er will.
    • Niklas (Hamburg): Zustimmung. Wie beim Anfang von Corona: Niemand hat Ahnung, wenn wir also jetzt was fordern ist die Wahrscheinlichkeit hoch, dass das befolgt wird.
    • Günther (Bochum): Unis motivieren, Überlegungen zur Einbindung von ChatGPT durchzuführen (und nicht für ein Verbot)
    • Leonie (Düsseldorf): Ideen liefern, wie man es explizit einbinden kann?
    • Sebastian (TUM): Gedanken machen, wo es am kritischsten ist und wie man damit umgehen wird. Studierende werden ChatGPT nutzen also sollte man damit umgehen. Wie lehrt man auch Arbeiten ohne ChatGPT? Möchte man Präsenzklausuren durchführen um Arbeit ohne ChatGPT zu garantieren
    • Erik (Osnabrück): Während schriftlichen Präsenzklausuren kann man die Nutzung von ChatGPT unterbinden. Wir könnten fordern, Sprachmodelle einmal explizit in der Uni zu besprechen und aufzuzeigen, was es kann und was nicht, wie man damit richtig umgeht.
    • Leonie (Düsseldorf): Konkret in der Lehre, oder freiwilliges Seminar?
    • Erik (Osnabrück): Ansprechen in verpflichtenden Veranstaltungen.
    • Anton (Freiburg): Bei handschriftlichen Arbeiten sind Handys verboten daher da kein Problem. Sonst sollte man davon ausgehen, dass eine Bachelorarbeit nicht komplett mit ChatGPT geschrieben wurde.
    • Niklas (Hamburg): 15 min reichen für Wissensgenerierung, aber nicht für Kompetenzen.
    • Sebastian (TUM): Punkt war, dass es sinnvoll ist, es einmal selbst gemacht zu haben, z.B. Einleitung zu einem Protokoll, 2h Zeit, Stift und Papier. Man sollte es mal ohne ChatGPT gemacht haben, und dann Feedback bekommt.
    • Malte (LMU München): Es gibt schon einen 3CP-Kurs "ChatGPT zum ...", d.h. Leute machen sich schon wriklich Gedanken
    • Simon (Alter Sack): Aufruf: geht an eure Unis, besprecht das in Euren Fachbereichen, damit das ganze wirklich mal Thematisiert wird.
    • Niklas (Hamburg): Resos kommen in der Regel wirklich bei der Adressaten an, Offizielle Reso an Fachschaften erreichen mehr als nur zu sagen "macht das mal".
    • Leonie (Düsseldorf): Vielleicht solte man ein Meinungsbild machen für die Reso.
    • Manu (Uni Wien): Wer was dazu schreiben möchte kann das unabhängig von der Meinung der Restlichen Leute machen.

Niklas (Hamburg): Fehlt den Personen, die eine Reso schreiben möchten noch irgendwas?

  • Lennart (Heidelberg): Hat jemand eine Meinung/Idee, wie man Quellenangaben macht, wenn man z.B. eine Einleitung mit Chat GPT generiert?
    • Simon (alter Sack): Kenntlichmachen ist eine gute Idee, zum Beispiel mit kursivem Text oder im Anhang
    • Günther (Bochum): Zitate müssen kenntlich gemacht werden, auch wenn das von ChatGPT kommt
    • Sebastian (TUM): Zitatwürdig, wenn Text nachträglich manuell geändert?
    • Arne (Düsseldorf): Andere Meinung: Von ChatGPT generierter Text hat nicht den gleichen Stellenwert wie ein Zitat, da es nirgends steht sondern nur generiert wurde. Es gab irgendwo einen Gerichtsbeschluss, dass KI-generierte Bilder kein Copyright haben. Deshalb ist Zitatstatus bei generiertem Text fragwürdig
    • Jörg (FU Berlin): Zitierung aus Selbstschutz nötig, um sicher zu sein, dass es nicht tatsächlich doch ein Zitat aus einem Buch o.ä. ist.
    • Ansgar (Oldenburg): Sobald man ChatGPT zum Informationserhalt nutzt, sollte man es auf jeden Fall zitieren. Wenn man nur Text verschönert, sollte man es dann anders markieren?
    • Malte (LMU): Wenn Generierung von Text aus Stichpunkten, dann braucht man ja Quellen für die inhaltlichen Stichpunkte.
    • Simon (Alter Sack): Wir sind uns einig, dass es gekennzeichnet werden sollte. Finde dass Prompt dazu sollte, um zu zeigen, was man sich selbst überlegt hat.
    • Sebastian (TUM): Zustimmung, aber in dem Fall müsste man auch Grammarly angeben (ändert Texte basierende aus Grammatikregeln), je nach Nutzung gibt es nahtlosen Übergang zu ChatGPT
    • Jörg (FUB): Zitierung nicht wegen Copyright, sondern für Transparenz, für die Wissenschaft.

Tafelbild

Thema: Lehre & AI im Studium und jetzt

Optionen

  • Medienkompetenz: Kritisches Hinterfragen!
  • Kompetenz der Nutzung als Lerninhalt
  • Verbieten ist doof und geht kaum!
  • Reglementierungen
  • Transparenz

Potentiale

  • Soziale Probleme und Erkrankungen abfedern (Nachteilsausgleich)
  • Entwickelnde Technologie: Nicht nur ChatGPT
  • Als Werkzeug und Tool
  • ChatGPT als Sprachhilfe: Erfordert weiterhin Wissen

Probleme

  • Wahrheitsanspruch des Studiums
  • Wissen als Solches aktuell nicht vorhanden
  • Bias: Sexismus und Rassismus
  • Zitat, Zitierung und Kennzeichnung nicht definiert

Potentiell kritische Kontexte

  • Praktikumsprotokolle
  • Programmierkurse
  • Abschlussarbeiten
  • Prüfungsleistungen
    • insb. Hausarbeiten

Potentielle Entwicklungen

  • Kompetenzshift
  • Veränderung von Studium und Arbeit bedeutet keine Abschaffung
    • Steuerung der Entwicklung durch ZaPF
  • Studium wird vermehrt lebensweltfern
    • Bewusstere Kompetenzsetzung

Mögliche Forderungen

  • Studieninhalt
  • Prüfungsformate!
    • Fokus auf Kompetenzen
    • Umgang mit AI als Tool nur Fähigkeit
    • Einschätzen und Prüfen auf Plausibilität ist Kompetenz
    • Vermitteln vobn Inhalt als Kompetenz

Weitere Notizen

  • Modellbildung
  • Haben wir überhaupt ein Problem?
  • Änderungen der Didaktik
  • Zielsetzung des Studiums
  • Vergleich mit Entwicklung des Taschenrechners
  • Schafft explizite Voraussetzungen!
    • Explizite Einbindung ins Studium!
  • Texte schreiben als Kernkompetenz
    • Papers und Grant Proposals in der Forschung
      • Muss das sein?
    • Wissen generieren

Ausblick

Es hat sich eine Gruppe an Menschen gefunden, die anhand der Ergebnisse des AK eine Resolution schreiben wollen.

Zusammenfassung der wichtigsten Punkte

  • Verbot von ChatGPT ist nicht sinnvoll
  • Regelung von Umgang damit ist notwendig
  • kritisches Hinterfragen von Dingen, die man generiert bekommt oder irgendwo findet ist Kernkompetenz
  • das ist doppelt wichtig bei generierten Inhalten
  • Prüfungen müssen vermutlich mindestens in Teilen angepasst werden
  • Konsens, dass wir explizite Lehre zu Sprachmodellen möchten

Zusammenfassung

Dieser AK hat sich mit Lehre mit AI beschäftigt. Zum Einen wurde dabei über Kompetenzen und die Studiengangsentwicklung zur Inklusion von AI-Themen gesprochen. Zum Zweiten wurde über den Umgang mit AI in der Forschung und in Prüfungssituationen diskutiert. Es soll eine Resolution zur Handhabung von AI in Physikstudiengängen und -fachbereichen geben.