Ansicht umschalten
Avatar von Digital_Data
  • Digital_Data

mehr als 1000 Beiträge seit 16.08.2003

Das Hauptproblem dürfte ja schon die visuelle Erfassung sein

Was wir in der Computertechnik derzeit machen ähnelt wohl eher dem System der Facettenaugen. Alles ist scharf und die Auswertung erfolgt Pixelweise. Dabei entsteht das Problem Objekte zu verfolgen, wie mehrere Unfälle ja schön vorgeführt haben. Wenn man so drüber nachdenkt, haben Insekten auch eine Menge Probleme bei der Erkennung. Sie fliegen immer wieder mal gegen Objekte. Ich glaube es könnte ein Grund sein, warum Insekten so wild hin und her fliegen um sich einen besseren Eindruck der Umgebung zu verschaffen und diesen Nachteil auszugleichen.

Letzteres funktioniert bei Linsenaugen so gar nicht. In der Bewegung sehen wir nicht gut, teilweise blendet das das Gehirn ganz aus. Das ist auch der Grund für den komischen Gang von Tauben und anderen Vögeln. Der Kopf wird vorgestreckt und dann an der Position gehalten und der Körper wandert sozusagen unter dem Kopf nach. So sieht die Taube während sie geht gut, weil der Kopf immer wieder für eine Weile an der selben Position verharrt.

Das Linsenauge funktioniert ganz anders und das gilt für alle Linsenaugen. Wir haben einen scharfen Fokus, die Ränder sind unscharf und deutlich niedriger aufgelöst und wir müssen entweder Augen oder Kopf in die entsprechende Richtung bewegen. Tiere mit guter Nachtsicht haben längliche Augäpfel, die sich aber nicht gut drehen lassen, weshalb die dann verstärkt den Kopf drehen z.B. Katzen oder noch mehr Eulen. Das erscheint zunächst als ein Nachteil, aber ich glaube es hat deutliche Vorteile dabei Objekte zu erkennen und vor allem zu verfolgen.

Das Facettenauge ist extrem schnell, es erkennt wohl die Veränderung an einer einzelnen Facette. Linsenaugen sind im Vergleich eher langsam. Es könnte sein, dass wir Objekten so gut folgen können, weil sie durch verschiedene Auflösungen und Schärfen durch unser Sichtfeld wandern, während statische Objekte in Auflösung und Schärfe gleich bleiben, zumindest so lange wir die Augen nicht bewegen. Bis zu dem Punkt an dem wir dem sich bewegenden Objekt die Aufmerksamkeit schenken und ihm mit den Augen folgen. Anderen Bewegungen können wir dann aber in den Randbereichen weiter folgen.

Damit sind wir wieder beim autonomen Fahren und beim Computer. Wir werten das eine Frame/Bild aus, erkennen dann ein Objekt und müssen im nächsten Bild dieses Objekt wieder erkennen und vor allem zuordnen. Das ist der Schwachpunkt, der alles in Frage stellt und kompliziert macht. Vor allem weil sich Objekte in Form und Belichtung verändern können. Und zum Beispiel KI hat eben auch das Problem die Katze immer als Katze zu erkennen. Das kommt dann erschwerend dazu. Wir dagegen müssen ein Objekt im ersten Moment gar nicht klassifizieren können, es reicht die Bewegungsrichtung zu erkennen.

Ich glaube autonomes Fahren wird erst dann wirklich zuverlässig funktionieren, wenn wir einen anderen Weg der Bildgenerierung und -auswertung finden.

Bewerten
- +
Ansicht umschalten