Die HWZ lebt zu einem grossen Teil vom Wissen ihrer Expertinnen und Experten aus der Praxis. In unserer Rubrik «Ask the Expert» stellen wir unseren HWZ-Expertinnen und -Experten Fragen aus Themenbereichen, die an der HWZ im Unterricht behandelt werden. Dabei handelt es sich um Fragen, die immer wieder auftauchen und aktuelle Fachbegriffe, die Erklärungsbedarf haben. In einem ausführlichen Blogbeitrag oder Interview gehen Studiengangsleitende oder Dozierende den Fragen auf den Grund.
Tony Kümin: ChatGPT ist ein Chatbot von der Firma OpenAI, der zurzeit durch die erstaunlich gut ausformulierten Antworten viel Aufmerksamkeit in der Tech-Szene als auch in der Medienlandschaft generiert. Man kann diesem Chatbot etliche Fragen zu unterschiedlichen Themen stellen und die Antworten wirken meist sehr kohärent. Auch merkt sich ChatGPT den Kontext der vorherigen Fragen, sodass man nicht immer alles von Anfang an erklären muss.
Afke Schouten: Das Programm ChatGPT ist auf ein Deep-Learning-Modell (GPT 3.5) feinabgestimmt. Dieses Deep-Learning-Modell wurde auf einem sehr großen Datensatz, möglicherweise dem grössten seiner Art, trainiert. Die Daten stammten aus Webscraping, Büchern, Wikipedia und anderen Textquellen. Das Modell wurde mit dem Ziel trainiert, das nächste Wort vorherzusagen. Wenn man dieses Modell nach jedem Wort, immer wieder anwendet, erhält man Sätze oder grössere Textstücke.
Tony: Die AI merkt sich die Muster und Strukturen der menschlichen Sprache. Da die Antworten stimmig und logisch wirken, hat man das Gefühl, dass der ChatGPT eine eigene «Meinung» hat. Allerdings werden nur Wahrscheinlichkeiten für das nächste Wort ausgerechnet. Das heisst, wie Afke bereits gesagt hat, wird die Antwort word-by-word aufgebaut.
Afke: In einigen Fällen kann dieses Programm sehr nützlich sein, aber wir sollten die Grenzen von ChatGPT verstehen. Erstens ist ChatGPT, wie du selbst festgestellt hast, nicht immer korrekt. Zweitens, wenn wir eine «echte» Antwort brauchen, müssen wir immer noch Google und unseren gesunden Menschenverstand benutzen, um zu verstehen, ob eine Quelle wahrheitsgemäss ist. ChatGPT ist zum Beispiel keine verlässliche Quelle, wenn es um Forschungszwecke geht.
Laut Cassie Kzsyrkov (Datenwissenschaftlerin und Statistikerin) ist ChatGPT nichts anderes als 'automatisch generierter Blödsinn', der manchmal richtig und manchmal falsch ist. Afke Schouten, Studiengangsleiterin CAS AI Management HWZ & CAS AI Operations HWZ
Tony: Es gibt einen grossen Unterschied: Bei Suchanfragen auf Google beispielsweise finden wir Websites, Blogs etc., die Leute öffentlich gestellt haben. ChatGPT kann nicht auf das Internet oder auf externe Informationen zugreifen. Deshalb werden die Antworten manchmal sehr vage formuliert: «Es kommt darauf an...», «Bitte nehmen Sie direkt mit dem Unternehmen Kontakt auf.», etc. ChatGPT ist nicht so umfassend und genau wie eine Suchmaschine. Die Google-Suche und andere Suchmaschinen verwenden komplexe Algorithmen und Nutzungsdaten, um umfassende Ergebnisse zu liefern und diese in ihrer Relevanz zu bewerten.
Tony: Der ChatGPT kann zwar Computercodes generieren, die erzeugten Codes können aber oft unvollständig oder fehlerhaft sein. Die Codes müssen im Nachhinein von Programmierern, die die nötige Erfahrung und Skills haben, meist korrigiert werden. Das heisst, das Programm ersetzt die Programmierer nicht, sondern könnte ihre Arbeit effizienter machen. Was ich persönlich sehr spannend finde, ist die Tatsache, dass sich mit ChatGPT eine neue Möglichkeit bietet, Programmieren zu lernen. Das Programm verfasst nämlich die Sachverhalte oft in einer Sprache für Otto-Normalverbraucher, anders als bei Programmiercommunities oder Dokumentation. Es ist möglich, dass ChatGPT in Zukunft Junior sowie auch Senior Programmierer bei einigen Aufgaben unterstützt. Es scheint mir aber recht unwahrscheinlich, dass das Programm die Programmierer ersetzen wird.
Afke: Ich sehe das ähnlich. Wir können Programme wie ChatGPT verwenden, um unsere Arbeit zu beschleunigen. Aber wir müssen immer noch unser menschliches Urteilsvermögen einsetzen. Wir können dies mit Deepl oder Google Translate vergleichen. Wir alle wissen, dass dies die Arbeit der Übersetzer verändert hat. Ihre Aufgabe besteht nun darin, die von diesen auf KI basierenden Übersetzungsdiensten erzeugte Ausgabe zu korrigieren. Das Gleiche wird für Programmierer (und viele andere Berufe) gelten, ihre Arbeit wird sich ändern, aber sie muss immer noch von Menschen überprüft werden. Dies ist definitiv etwas, das wir für unsere Organisationen und unsere Gesellschaft in Betracht ziehen müssen. Wie werden sich die Arbeitsplätze verändern und was können wir tun, um sicherzustellen, dass die Menschen sich so weiterbilden, dass sie auch in Zukunft einen Arbeitsplatz haben.
Tony: Das Programm kann Sachverhalte in einer neuen Form kombinieren, aber nichts Neues erzeugen. Oft reicht das aber schon, um innovativ und originell zu wirken. Je spezifischer die Frage (Beispielsweise: Wie alt bin ich?), desto eher gibt uns das Programm die Antwort, dass es die Frage nicht beantworten kann oder die Informationen nicht genau sind. Behalten wir auch im Hinterkopf, dass nicht alles, was für das Training benutzt wurde, auch wirklich akkurat ist und faktisch stimmt. Viel stammt aus subjektiven Meinungen von Autor:innen. Dabei könnten z. B. auch Verschwörungstheorien in den Trainingsdaten sein. Weiter gilt zu erwähnen, dass ChatGPT mit Daten bis 2021 trainiert wurde. Das heisst, das Programm weiss beispielsweise nichts vom Einmarsch Russlands in die Ukraine, dem iPhone 14 oder aktuellen Gesetzesänderungen.
Hinzukommt, dass wenn der Bot etwas Falsches sagt, dann sagt er es mit Überzeugung und ohne Unsicherheiten drin. ChatGPT macht Aussagen und wir können nicht einschätzen, was es genau weiss und was nicht. Die Aussagen kommen als Fakten daher. Das Beispiel unten zeigt dies gut auf: Ohne zu zögern, gibt es an, dass Praktika (Internships) ein Schwerpunkt der HWZ seien. Die allermeisten Studierenden arbeiten aber in regulären Jobs und nicht in Praktika. Gegen solche Falschaussagen sichert sich die Firma hinter ChatGPT, OpenAI, aber mit einigen Disclaimers rechtlich ab.
Tony: Genau, der ChatGPT wurde von OpenAI entwickelt, einem Forschungsinstitut, das sich mit der Entwicklung künstlicher Intelligenz beschäftigt. OpenAI ist bekannt für seine Arbeit an grossen Sprachmodellen. ChatGPT ist das neue davon. OpenAI hat ein Interesse, ChatGPT zu bändigen, sodass keine negative Wahrnehmung entsteht. Dafür haben sie eine gewisse Inhalts-Moderation bei ChatGPT aktiviert. Es erklärt uns nichts Illegales oder Verbotenes. Da OpenAI diese Moderation höchstwahrscheinlich als «Werte-Überzeugungen» an ChatGPT vor jeder Konversation weitergibt, kann diese relativ einfach umgegangen werden, indem wir z. B. die Frage als Handlungspunkte einer fiktiven Geschichte kaschieren.
Tony: Bei anderen AIs hat OpenAI die Monetarisierung per Aufruf gestartet. Z.B. bei der Bildergenerierungs-AI Dall-E verlangen sie 2 Cent für Bilder mit der höchsten Auflösung. Ob dies auch mit ChatGPT gemacht wird, ist noch unklar. Typischerweise werden Conversational AIs in Dienstleistungen eingebettet, wie z. B. als Kernkomponente eines Chatbot eines Unternehmens. Auf Twitter diskutieren Sam Altmann (CEO von OpenAI) und Elon Musk (Investor von OpenAI) über Monetarisierung:
Bevor sie monetarisieren können, müssten sie deklarieren, woher die Daten für das Training kommen. Beispielsweise wurde bekannt, dass der Service «Github CoPilot» – ein auf OpenAI Codex basierten Service von Microsoft, um Programmierer zu unterstützen – auf Open Source Code trainiert wurde. Offen verfügbarer Quellcode sind aber Lizenzmodelle untergestellt. Solange CoPilot gratis war, waren alle zufrieden. Seitdem CoPilot neu etwas kostet, wurde ein Gerichtsverfahren eingeleitet.
Mein Fazit: Wie mit Wikipedia sollten wir ChatGPT eher als Start einer Recherche benutzen. Also bitte keinen medizinischen oder rechtlichen Rat annehmen :)
Tony Kümin, Dozent im Bachelor Betriebsökonomie Major Digital Business & AI Management
Afke: ChatGPT kann im Arbeitsalltag bereits benutzt werden, um Texte zu generieren, zum Beispiel, um diese Fragen hier zu beantworten. Es würde uns eine Menge Zeit ersparen, wenn wir nur noch bestimmte Sätze korrigieren oder anpassen müssten, anstatt den Inhalt selbst zu erstellen. Überall dort, wo Inhalte generiert werden müssen, können wir also darüber nachdenken, solche Dienste zu nutzen. Doch aufgepasst: Wir brauchen immer noch die menschliche Note, um die Korrektheit und Zweckmässigkeit sicherzustellen.
Dieser Artikel ist als Erstpublikation in den News der HWZ erschienen.