Absender: Thorsten Thiele
Datum: Di, 17.11.2009 00:19:14
In-reply-to:
<93D7D869-F6CE-4540-8DC7-6980C00F51D8@xxxxxxxxxxxxxxx>
References:
<7693495C-4CF8-45ED-A358-C92DA07D1BAE@xxxxxxxxxxxxxxx> <4123414453.20091113221817@xxxxxxxxxxxxxxxxx> <4B010121.6060809@xxxxxxxx> <722069D7-4B77-408F-96CF-AA7F3FB96867@xxxxxxxxxxxxxxx> <822928125.20091116121057@xxxxxxxxxxxxxxxxx> <93D7D869-F6CE-4540-8DC7-6980C00F51D8@xxxxxxxxxxxxxxx>
Hallo, [snip] >> >> -- anderes Extrem: Labyrinth aus weissen Waenden mit dicken schwarzen >> Markierungen, die den Weg zum Ausgang weisen > Mit Letzterem würde ich mal anfangen, egal ob die Auswertung auf dem Bot oder einem PC abläuft. Ich glaube bei den anderen Beispielen stoßen wir eher an algorithmische Schwierigkeiten als an die > Grenzen der Hardware... >> und dazwischen dann ziemlich viele Moeglichkeiten. >> >> Fuer die Datenverarbeitung auf dem Bot muessten wir festlegen, was wir >> erkennen und koennen wollen und dann die Hardware darauf auslegen. Und >> sind dann damit darauf festgenagelt, mehr geht dann mit vertretbarem >> Aufwand nicht mehr. > Ist das sicher? So genau kenne ich mich auf dem Gebiet nicht aus, aber ich hätte gedacht, dass die begrenzenden Faktoren da eher die Kameraoptik und die Auswertungsalgorithmen sind. ich denke, mit dem Ansatz "wir fangen erst einmal an mit..." kommen wir hier nicht weit. Vielmehr muessen wir (leider) erst diskutieren, was wir maximal tun wollen und dafuer die Hardware auslegen. Ein paar Beispiele: - wollen wir uns auf Schwarzweiss beschraenken oder Farbe? Farbe belegt je nach Codierung den 1,5-3 fachen Speicherplatz fuer ein Bild - wollen wir Bilder pixelweise anschauen oder eine Bewegungserkennung auf Basis von DCT implementieren? Fuer DCT brauchen wir einen Controller mit DSP-Unterstuetzung - was fuer Kamera-Interfaces wollen wir einbauen? RGB, CVBS oder selbstcodierende Kameras (Webcams) ? - wie viele Frames pro Sekunde wollen wir erfassen und verarbeiten? Mehr FPS erfordern mehr Speicher und Prozessorleistung, weniger FPS fuehren moeglicherweise dazu, dass der Bot sich nur langsam bewegt, weil bei schneller Bewegung der Unterschied zwischen aufeinanderfolgenden Bildern zu gross wird. Je mehr wir koennen wollen, desto umfangreicher und teurer wird natuerlich die Hardware. Wenn die Hardware aber einmal steht, ist sie nicht mehr auf einfache Weise vergroesserbar, daher geht "wir fangen an mit..." leider nicht. Aber - siehe unten. >> Aus diesem Grund hatte ich vorgeschlagen, die Verarbeitung auf einem >> "externen" Computer vorzunehmen - da kann man dann beliebig aufwendige >> Algorithmen ausprobieren, weil einfach die Infrastruktur dafuer >> vorhanden ist. > Das ist sicherlich richtig. Aber wenn eine Funk-Kamera die Bilder per WLAN an > einen externen Rechner senden soll, > dann kann man ja auch immer noch eine Kamera an die Bot-CPU anschließen und die > Daten von dort per WLAN an einen PC schicken, falls die Verarbeitung on-Board wirklich > nicht machbar sein sollte. Wie waere denn folgende Idee: die Erweiterung jetzt so auslegen, dass sie keine Bildverarbeitung direkt kann - aber nochmal einen Erweiterungsstecker hat, um spaeter ein weiteres Modul ausschliesslich zur Bildverarbeitung nachzuruesten? Dann ersparen wir uns die o.g. Festlegung auf einen bestimmten Funktionsumfang, schicken die Daten erst einmal per WLAN an ein externen Rechner, auf dem wir Algorithmen ausprobieren koennen. Wenn sich dann ein bestimmter Funktionsumfang als brauchbar herauskristallisiert, konstruieren wir ein Modul, mit dem genau das geht. Viele Gruesse Th. Thiele > Viele Grüße, > Timo > -----BEGIN PGP SIGNATURE----- > Version: GnuPG/MacGPG2 v2.0.12 (Darwin) > iEYEARECAAYFAksBbvcACgkQDH/BX4067fJ60wCfX3LL+W8+Jzmtlo8WoS8L3Ouw > gssAoPappBzPAljXc6SYnt21kcW22bJi > =nYde > -----END PGP SIGNATURE----- > _______________________________________________ > ct-bot-entwickler Mailingliste > ct-bot-entwickler@xxxxxxxxxxxxxxxxx > http://www.heise.de/bin/newsletter/listinfo/ct-bot-entwickler