Bedienungsanleitung zum Programm BACKP

Nachdem am Prompt das Programm BACKP aufgerufen wurde erscheint das folgende 
Hauptmen:



	Beenden					(0)
	Netz konfigurieren			(1)	10/25/15/1
	Musterdaten laden				(2)	mupo1.pat
	Eingangsdatenstrom			(3)
	Laden eines gelernten Netzes		(4)
	Speichern eines aktuellen Netzes	(5)
	Parameter veraendern			(6)
	Trainieren					(7)
	Testen					(8)
	Gewichte zuruecksetzen			(9)

	Lernrate: 0.20		Perioden pro Ausgabe: 0
	Momentum: 0.90		Flat Spot: 0.10
	seed: 341529		Weight Decay	0.0000
	Pattern werden in Rheihenfolge ausgewaehlt
	Es wird kein Protokoll angelegt




In der oberen Hlfte des Bildschirms sind die unterschiedlichen Menpunkte zu sehen, in der 
unteren Hlfte die Default-Parameter zum Trainieren des Netzes.

(0):	Nach der Eingabe von (0) wird das Programm direkt beendet. Der verwendete 
Speicher wird freigegeben und keine Daten gerettet. Es erscheint wieder der Prompt. 
Sollen die Daten gespeichert werden, mu vorher die (5) ausgewhlt werden.

(1):	Um eine Netzstruktur angeben zu knnen, mu (1) eingegeben werden. Danach 
erscheint entweder direkt eine Aufforderung zur Eingabe der Schichtenanzahl oder 
vorher eine Warnung, da bereits eine Datei mit Musterdaten geffnet ist. Liegen 
bereits Muster vor, mu darauf geachtet werden, da die Anzahl der Eingangs- und 
Ausgangsneuronen gleichbleibt. Danach mu zu jeder Schicht die Anzahl der 
Neuronen angegeben werden. Bereits vorhandene Gewichtsstrukturen werden 
gelscht. Rechts neben der (1) wird die aktuelle Netzstruktur angezeigt.


(2):	Zum Laden einer Musterdatei wird (2) verwendet. Es erscheint eine Aufforderung, den 
Dateinamen einzugeben. Hier ist der Name ohne Suffix und Punkt anzugeben. Es wird 
automatisch die Endung ".pat" angehngt. Das verwendete Datenformat stammt aus 
[1]. Dieses Format wurde deshalb gewhlt, weil es sehr einfach ist, so da Testdaten, 
mit jedem Editor erstellt, ebenfalls vorgelegt werden knnen. Das Format wird im 
Anhang erlutert.

Da die alten Muster nicht mehr bentigt werden, werden sie gelscht, genau wie alle 
Gewichte. Wenn vorher bereits eine Netzstruktur angegeben wurde, wird die erste und 
die letzte Schicht mit den aktuellen Werten berschrieben. Ansonsten wird ein 
zweischichtiges Netz angelegt. Der Name der aktuellen Musterdatei wird direkt neben 
der (2) angezeigt.

(3):	Der Punkt drei wird nicht verwendet. Hier kann ein zustzlicher Datenstrom, z.B. einer 
Bildverarbeitungskarte angekoppelt werden.

(4):	Mit dem Menpunkt (4) kann eine mit (5) gespeicherte Gewichtsmatrix wieder 
eingelesen werden. Es wird nach dem Namen der Gewichtedatei gefragt. Wiederum ist 
dieser Name ohne Suffix einzugeben. Vom Programm wird automatisch ".wgt" 
angehngt. Bevor die Gewichte geladen werden, wird noch die zugehrige Musterdatei 
geladen. Auch dieses Format wird im Anhang beschrieben. Eventuell bereits geladene 
Muster und Gewichte werden gelscht.

(5):	Mit (5) kann ein trainiertes Netz abgelegt werden. Dazu mu der gewnschte Name 
ohne Suffix angegeben werden. ACHTUNG: liegt bereits eine Datei mit diesem Namen 
vor, so wird diese automatisch gelscht.

(6):	Um die Parameter fr den Lernalgorithmus verndern zu knnen, ist (6) vorgesehen. 
Es mssen nacheinander alle Parameter eingegeben werden. Die Funktionalitt der 
einzelnen Parameter kann aus [2] oder [3] entnommen werden.

(7):	Wenn eine Musterdatei vorliegt, kann mit dem Menpunkt (7) die Lernphase begonnen 
oder fortgesetzt werden. Die nchste Abbildung zeigt das Trainingsfenster. Hier wird 
angegeben, wieviele Muster insgesamt aus welcher Datei vorliegen, wieviele Muster 
vorgelegt werden bis zur nchsten Aktualisierung der Ausgabe und ob die Muster 
zufllig oder in Reihenfolge vorgelegt werden.

Direkt darunter wird der Name des Protokollfiles angegeben, wenn im Hauptmen 
unter (6) angegeben wurde, da mitprotokolliert werden soll. Der Name des Protokollfiles 
ist zusammengesetzt aus dem Jahrestag und der Uhrzeit in Stunden und Minuten. 
Die Endung ist ".pro". In diesem File wird die Netzstruktur, smtliche nderungen 
whrend des Trainings und die Fehlerausgaben mit der Anzahl der Muster und der 
aktuellen Zeit abgelegt.

In der Mitte des Bildschirmes steht der Fehler ber alle Ausgangsneuronen aller 
Muster und darunter die Anzahl der vorgelegten Muster. Um die Trainingsphase 
abzubrechen, mu eine Taste gedrckt werden. Nach dem Drcken einer weiteren Taste 
gelangt man zurck zum Hauptmen.


    Anzahl der Muster:36 Name der Musterdatei: mupo1.pat

         Perioden Pro Ausgabe:  36
         Muster werden in Reihenfolge vorgelegt

            Fehler  :  0.893826
            Schritte: 2556





           Fuer Abbruch bitte eine TASTE druecken 





(8):	Zum Testen trainierter Muster wird (8) verwendet. Hier werden nacheinander alle 
vorgelegten Muster mit der Istausgabe, der Sollausgabe und der Differenz aus beiden 
angezeigt. Mit einem Tastendruck gelangt man zum nchsten Muster bzw. zurck zum 
Hauptmen.

(9):	Unter (9) wird der Speicher fr die Gewichte freigegeben. Wenn nun wieder (7) 
gedrckt wird, wird erneut Speicher fr die Gewichte angefordert und anschlieend 
initialisiert.

Anhang

1.	Musterdatei ".pat"

a1
a2
a3
a4
x11	x12	...	x1n
y11	y12	...	y1o
x21	x22	...	x2n
y21	y22	...	y2o
...	...	...	...
...	...	...	...
xm1	xm2	...	xmn
ym1	ym2	...	ymo

 

				a1	:= Anzahl der Zeilen der Eingabematrix
				a2	:= Anzahl der Spalten der Eingabematrix
				a3	:= Anzahl der Zeilen der Ausgabematrix
 				a4	:= Anzahl der Spalten der Ausgabematrix
				xmn	:= Eingabedaten (Muster)
				ymo	:= Ausgabedaten (Soll)


2.	Gewichtedatei ".wgt"

name.pat
s1	s2	s3	s4	s5
w1
w2
w3

wn

		name	:= Name der zugehrigen Musterdatei
		sx		:= Neuronen der Schichten 1-5
		wn		:= Gewichte

3.	Protokoldatei ".pro"

name1.pat	name2.pro
p1	p2	p3	p4	p5	p6	p7
s1	s2	s3	s4	s5
f1	z1	t1
f2	z2	t2
...	...	...
fn	zn	tn

	p1	:= Lernrate
	p2	:= Momentum
	p3	:= zuflliges Lernen (TRUE/FALSE)
	p4	:= Anzahl der Schichten
	p5	:= Anzahl der Pattern
	p6	:= Seed
	p7	:= Flat-Spot
	sx	:= Neuronen der Schicht x
	fn	:= Fehler zum Zeitpunkt n
	zn	:= Anzahl der Zyklen zum Zeitpunkt n
	tn	:= Zeitstempel in Minuten uns Sekunden zum Zeitpunkt 
			n

Literatur

[1] Kruse, Hilger u.a.: Programmierung Neuronaler Netze, - Eine Turbo Pascal Toolbox, 
Addison-Wesley publishing company, Bonn u.a. 1991

[2] Zell, Andreas: Simulation Neuronaler Netze, Addison-Wesley publishing company, Bonn, 
Paris 1994

[4] H.G. Frey: Entwicklung eines Knstlichen Neuronalen Nerzes zur Qualittssicherung 
mittels Bildverarbeitungs-VME-Bus-Systemen, Diplomarbeit an der Fachhochschule 
Rheinland-Pfalz-Abteilung Worms-Fachbereich Informatik, 1995.

