Das Wesen einer KI

  • 27.09.2024
  • 5 min
Norman Süsstrunk über Aufbau, Funktion und Lernprozess von KI.

Autor: Guy Studer

 

Aufbau

«Das Grundkonzept der künstlichen neuronalen Netze ist sehr simpel», sagt Norman. Sie bestehen aus einem Netz oder einer «Wolke» von Verknüpfungen, also Neuronen. Dieses Netzwerk simuliert die Funktionsweise unseres Gehirns und kann entsprechend lernen. Ein künstliches neuronales Netz (KNN) wird grob in drei Schichten unterteilt: Die Inputlayer (Eingabeschicht), die Outputlayer (Ausgabeschicht) und dazwischen die Hidden Layer (versteckte Schicht). Die versteckte Schicht ist das eigentliche «arbeitende, lernende» Netz. Während die Eingabe- und die Ausgabeschicht jeweils aus einer Ebene bestehen, kann die verborgene Schicht beliebig viele Ebenen an Neuronen enthalten.

 

Funktionsweise

Die Hidden Layer transformiert aus dem Input (Eingabe) in den Output (Ausgabe). Dabei kommen verschiedene mathematische Funktionen (1) zum Einsatz. Diese übernehmen Aufgaben wie das Gewichten der Eingaben, das Festlegen, welche Informationen an welche Neuronen weitergeleitet werden, und das Einführen von Nichtlinearitäten, sodass die Beziehung zwischen Eingabe und Ausgabe nicht rein linear ist. Eine Aktivierungsfunktion wird verwendet, um die Ausgabe jedes Neurons zu berechnen und die Informationen in die nächste Schicht oder den endgültigen Output zu überführen. Das Muster, nach dem die Funktionen im Netzwerkarbeiten, wird von einem Trainingsalgorithmus (2) bestimmt, der durch Anpassung der Gewichte das Netzwerk optimiert.

1) Funktion: steuert, was zu berechnen ist
2) Algorithmus: steuert, wie es berechnet wird

 

Was in der mittleren Schicht eines Netzwerks passiert, ist nicht mehr durchschaubar.

Lernprozess

Der Prozess, durch den Eingaben durch das Netzwerk weitergeleitet werden, um eine Ausgabe zu erzeugen, nennt sich Forward Propagation. Durch diese kommt das Netz zu einem Resultat. Dieses muss aber längst nicht richtig sein. Damit das Netzwerk sich dahingehend justiert und anpasst, bis es richtige Lösungen produziert, wird die Backpropagation angewandt: ein Algorithmus, der den Fehler durch das Netzwerk zurückspielt. Die gängigste Methode, ein Netzwerk zu trainieren, ist demnach Trial and Error. Ein KNN wird mit Aufgaben und den korrekten Resultaten gefüttert. Mit diesen Daten wird das Netzwerk so lange trainiert, bis es genügend gelernt hat und die Resultate befriedigend ausfallen. Neuere Netzwerke können mit deutlich weniger Daten trainiert werden, lernen also schneller als ältere Modelle.

 

Das Unfassbare

Die einzelnen Verknüpfungen und Funktionen sind zwar simpel. Die Stärke der künstlichen neuronalen Netze liegt in ihrer schieren Grösse – eine Entwicklung, die erst durch die grossen Rechenleistungen neuer Hardware möglich wurde. Durch das Training mit riesigen Datenmengen werden sie stetig erweitert, können «gross und mächtig» werden. Durch die gigantische Menge an Verknüpfungen und den Lernprozess lässt sich nicht zurückverfolgen, wie ein solches Netz genau zu einem Resultat kommt. «Man kann einfach die Einstellungen in der Eingabeschicht verändern, um zu einem anderen Output zu kommen», so Norman.



Kommentare