Häufig gestellte Fragen
Hier finden Sie eine Sammlung von typischen Fragen im Umgang mit generativer KI. Bei weiteren Fragen stehen wir gerne zur Verfügung unter .
Ein generatives KI-Werkzeug ist nicht "intelligent" im menschlichen Sinne, aber es hat sich gezeigt, dass es in einer Reihe von standardisierten Tests gut abschneidet.
Zum Beispiel hat OpenAI einige externe Seite Ergebnisse für die erste Version von GPT-4 zusammengestellt. Zudem wird ein externe Seite Rating von LLMs über die Fähigkeiten der verschiedenen Modelle erstellt. Expert:innen im Bereich GenAI sind sich einig, dass die externe Seite Fähigkeiten noch weiter steigen werden, sodass sie gute Resultate bei diversen Benchmark-Tests erhalten.
Die Modelle werden anhand von grossen Datenmengen trainiert. Jedes somit verfügbare Modell hat einen letzten Stand, auf welchem es trainiert wurde. Danach findet meist kein Training mehr statt, sondern die Inhalte werden mit aktuellen Daten ergänzt.
Zum Beispiel wird nach einer Eingabe eine Internetsuche ausgeführt und die erhaltenen Resultate werden als zusätzlicher Prompt in das LLM (Large Language Model) eingespiesen. Oder es findet nach einer Eingabe ein Abgleich mit aktuell gespeicherten Daten statt, bevor dies als Gesamtes an das LLM weitergegeben wird.
Es ist wichtig zu betonen, dass die Modelle zwar nicht weiter trainiert werden, aber jegliche Daten, welche an ein LLM weitergegeben werden, für zukünftige Trainingszwecke verwendet werden können, falls dies nicht explizit über die Nutzungsbedingungen ausgeschlossen ist.
Die Traingsdaten bestehen aus öffentlich verfügbaren Datensätzen, aber auch aus Inhalten des frei verfügbaren Internets. Die Firmen geben zurzeit nicht bekannt, mit welchen Daten genau ein Training durchgeführt wurde. Es ist aber bekannt, dass die benötigten Datenmengen riesig sind und so viele Datenquellen wie nur möglich verwendet werden.
Zusätzlich können - falls nicht explizit eingeschränkt - alle aktuell anfallenden Zugriffsdaten (Anfragen, hochgeladene Dateien) für zukünftige Trainings verwendet werden. Hier ist Vorsicht geboten und es muss auf die Nutzungsbedingungen geachtet werden.
Technisch und juristisch gesehen: nein. Solange der künstlichen Intelligenz keine Persönlichkeit zugewiesen wird, ist die Verwendung dieses Tools technisch gesehen genauso wenig ein Plagiat wie eine Google-Scholar-Suche, die Verwendung von Grammarly oder DeepL oder die Verwendung von R oder Python zur Durchführung grosser Berechnungen. Der Einsatz von GenAI muss aber korrekt und dem verwendeten Zitierstil entsprechend ausgewiesen werden.
Es ist zu beachten, dass die Tools wörtlich oder inhaltlich übernommene Texte nicht (zuverlässig) als Zitatet ausweisen und der Output sehr nah an einem Original sein kann. Dies kann bei einer Plagiatsprüfung zu einer Übereinstimmung führen.
Nein, nicht zuverlässig. GenAI-Antworten sind das Ergebnis eines probabilistischen Algorithmus und daher im Allgemeinen nicht reproduzierbar. Die Antworten sind nicht einfach Fragmente des Textkorpus, der für das Training verwendet wurde, weshalb die Antwortpassagen nicht mit einer Internet-Suchmaschine gefunden werden können.
In jedem Fall ist es an der ETH Zürich nicht erlaubt, Noten vollständig automatisch zu vergeben; KI könnte bei der Punktevergabe helfen, aber die Note muss immer von einem Menschen vergeben werden. GenAI-Werkzeuge können plausibel klingende Noten und Begründungen für vorgegebene Rubriken und Notenskalen erstellen. Es wird empfohlen, das gewählte Vorgehen immer mit den Studierenden abzusprechen und jederzeit offenzulegen.