Ansicht umschalten
Avatar von Angry Old Man
  • Angry Old Man

mehr als 1000 Beiträge seit 24.07.2011

Re: Große Wirkung bedeutet nicht große Kompetenz

ylai schrieb am 19.02.2019 18:53:

Angry Old Man schrieb am 19.02.2019 17:51:

Für mich ist das nicht intelligent im engeren Sinn und außerdem noch sehr problembehaftet - siehe "adversarial examples", z.B. hier: https://arxiv.org/pdf/1712.07107.pdf

Das ist kein Beweis für "wenig intelligent". Menschen haben auch adversariale Beispiele, nämlich optische Täuschungen, inkl. diese Kleid [....]

Ich sagte doch, daß das "nicht intelligent im engeren Sinn" ist und "außerdem noch sehr problembehaftet".

Daß das für richtige Intelligenz nicht reicht, hat nichts mit Adversarials zu tun, aber die machen es eben problembehaftet.

Und insbesondere weiß man inzwischen auch, dass Menschen unter Zeitdruck anfällig für adversariale Angriffe sind...

Ist bekannt. Mit "problembehaftet" meine ich, daß für die meisten kaum nachvollziehbar ist, wie die Machine sich da in die Irre leiten läßt: mit so plumpen oder verrückten Methoden, die bei Menschen so nicht funktionieren. Dieses Rauschen über dem Pandabild z.B. fällt unsereinem noch nichtmal auf. Wenn der Algorithmus auf sowas anspricht - und noch dazu so gut - dämpft das das Vertrauen in ML doch erheblich. Die Unvollkommenheiten des Menschen sind uns nicht nur schon ein "gewohnter Anblick" sondern auch nachvollziehbarer, nicht so krass. Das meine ich mit problembehaftet. Daß Menschen auch Fehler machen ist bekannt. Allerdings sind oft genau auf diesem Gebiet die Maschinen weniger anfällig (ein Autopilot macht z.B. keine Fehler aus Wut über andere Verkehrsteilnehmer) sodaß man sich da schon was erhofft hat. Solange es aber so krasse Adversarials gibt, versteht man wohl die Algorithmen vielleicht noch nicht gut genug um über deren Zuverlässigkeit zuverlässig urteilen zu können.

Das Posting wurde vom Benutzer editiert (20.02.2019 12:04).

Bewerten
- +
Ansicht umschalten