KI-Update kompakt: Metas SAM, Anthropic, OpenAI vs NYT, romantische Chatbots

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 8 Min.
Von
Inhaltsverzeichnis

Meta hat mit dem AI Studio eine neue Plattform veröffentlicht, über die Nutzer auf verschiedene KI-Tools zugreifen können. In erster Linie sollen dort künftig persönliche KI-Charaktere erstellt werden können. Diese sollen es insbesondere Influencern und bekannten Persönlichkeiten erleichtern, mittels eines eigenen Chatbots auf Fragen der Community zu reagieren. Bisher übernehmen diese Aufgabe zumeist menschliche Assistenten. Mit den KI-Charakteren sollen Content-Creator nun günstige KI-Chatbots erhalten, die in ihrem Stil antworten – versehen mit einem Hinweis, dass es sich um eine KI-Antwort handelt.

Die KI-Charaktere können aber auch genutzt werden, um sich selbst einen Assistenten zu erstellen, der beispielsweise passende Kochrezepte findet, beim Kochen hilft oder sich Memes ausdenkt. Programmierkenntnisse sind nicht erforderlich. Die Chatbots basieren auf Metas aktuellem großen Sprachmodell Llama 3.1 und können frei verfügbar gemacht werden, sodass auch andere sie nutzen können.

Neben den persönlichen Assistenten hat Meta auch SAM 2 angekündigt, ein KI-Modell zur Videobearbeitung. SAM 2 kann einzelne Objekte in Videos identifizieren und bearbeiten. Im Gegensatz zum Vorgänger SAM, der nur Bilder bearbeiten konnte, erkennt SAM 2 Objekte in Videos Bild für Bild, auch wenn sich deren Form und Beschaffenheit verändern. Meta sieht Anwendungsmöglichkeiten in Mixed-Reality und beim autonomen Fahren. Das Unternehmen will Forschungsergebnisse zu SAM 2 im Sinne des Open-Science-Ansatzes veröffentlichen.

Laut einem Bericht der Financial Times steht das KI-Startup Anthropic in der Kritik, in aggressiver Weise Daten von Websites für das Training seiner KI-Systeme abzugreifen und dabei möglicherweise gegen Nutzungsbedingungen von Herausgebern zu verstoßen. Anthropic und andere Unternehmen wie OpenAI trainieren ihre generativen KI-Sprachmodelle mit riesigen Datenmengen aus vielfältigen Quellen.

Der CEO der Jobbörse Freelancer.com, Matt Barrie, bezeichnet Anthropic als "mit Abstand aggressivsten Scraper" seines Webportals. Innerhalb von vier Stunden habe ein mit Anthropic verknüpfter Webcrawler 3,5 Millionen Besuche auf Freelancer.com getätigt, selbst als man versuchte, die Zugriffe abzulehnen. Barrie sah sich gezwungen, den Verkehr von Anthropics IP-Adressen komplett zu blockieren. Auch Kyle Wiens von iFixit.com berichtet von einer Million Zugriffe durch Anthropic-Bots binnen 24 Stunden, obwohl die Nutzungsbedingungen von iFixit den Einsatz der Daten für maschinelles Lernen untersagen.

Das Scraping von Daten hat im Zuge des KI-Wettrüstens in den letzten Jahren stark zugenommen. KI-Unternehmen konkurrieren um immer leistungsfähigere Sprachmodelle und benötigen dafür enorme Datenmengen. Dies wirft Fragen zu Urheberrecht und der Nutzung von Daten fürs KI-Training auf. Unternehmen wehren sich unterschiedlich, etwa durch Aussperren von Webcrawlern oder Lizenzvereinbarungen. Ein prominenter Fall ist der Rechtsstreit zwischen der New York Times und OpenAI wegen der Nutzung von Artikeln für das Training von Sprachmodellen ohne Erlaubnis. Andere Medien wie News Corp. oder Reuters lizenzieren inzwischen Inhalte für das KI-Training.

Im Rechtsstreit zwischen der New York Times und OpenAI um mögliche Urheberrechtsverletzungen eskaliert der Ton. OpenAI fordert Zugang zu internen Recherchematerialien der Zeitung, um die urheberrechtliche Zulässigkeit zu beurteilen.

Die Times sieht darin einen Einschüchterungsversuch gegenüber Journalisten und eine Gefährdung etablierter Rechte an geistigem Eigentum. Die Forderungen seien "beispiellos" und "Schikane", so die Anwälte der New York Times. Die Zeitung argumentiert, die Artikel sollten für sich selbst sprechen und nicht durch Einsicht in private Notizen der Journalisten beurteilt werden.

Die Anwälte von OpenAI kontern, die New York Times habe diese Relevanz selbst geschaffen, indem sie in der Klage behauptete, dass die von OpenAI angeblich urheberrechtlich verletzten Werke eine Investition von "enormer Zeit … Fachwissen und Talent" erfordert hätten und dass es sich um "gründliche Nachforschungen" gehandelt habe.

Die New York Times hatte Ende 2023 Klage gegen OpenAI und Microsoft wegen Urheberrechtsverletzung eingereicht, nachdem sie nachweisen konnte, dass ChatGPT Inhalte der NYT teilweise wörtlich wiedergab. OpenAI reagierte mit einem Antrag auf teilweise Abweisung der Klage und warf der Times vor, durch gezieltes "Prompt Hacking" und zahlreiche Versuche Kopien von NYT-Inhalten erstellt zu haben.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Forscherinnen und Forscher der Zhejiang Universität haben herausgefunden, dass multimodale KI-Sprachmodelle wie GPT-4o und Claude 3.5 Sonnet bei der Verarbeitung abstrakter Bilder wie Diagrammen oder Tabellen noch erhebliche Defizite aufweisen.

Beim Lösen verschiedener Aufgaben erreichten sie im Durchschnitt nur eine Genauigkeit von etwa 60 Prozent, deutlich unter der menschlichen Leistung. Die KI-Systeme versagten selbst bei einfachen Aufgaben wie dem Ablesen einer Uhr oder der Wegplanung anhand einer Karte. Besonders schlecht schnitten quelloffene Modelle im Vergleich zu proprietären Systemen ab.

Die Forschenden sehen eine starke Einschränkung in der geringen Auflösung des visuellen Encoders der Modelle. Sie wollen diese in Zukunft erhöhen und weitere Anwendungsfelder erschließen. Der Test zeigt, dass trotz beeindruckender Text- und Bildfähigkeiten noch Lücken beim abstrakteren visuellen Verständnis der KI bestehen.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Romantische KI-Begleiter wie myanima.ai, Eva AI, Nomi.AI und Replika erfreuen sich zunehmender Beliebtheit. Sie bieten Nutzern personalisierte Interaktionen und emotionale Unterstützung, die menschlichen Beziehungen ähneln können. Das ist besonders attraktiv für Menschen, die mit Einsamkeit oder Intimitätsproblemen kämpfen.

Die Forschung legt wiederholt nahe, dass Menschen echte emotionale Bindungen zu KI aufbauen können, auch wenn sie anerkennen, dass es sich nicht um eine "echte" Person handelt. Expertinnen und Experten warnen jedoch auch vor möglichen negativen Auswirkungen auf die sozialen Fähigkeiten, Beziehungserwartungen und die emotionale Unabhängigkeit der Nutzer.

Viele der Apps haben zudem erhebliche Datenschutzprobleme wie Tracker und den Verkauf persönlicher Informationen. Auf der anderen Seite könnten KI-Begleiter auch vielversprechend sein, um das romantische Wohlbefinden zu steigern, marginalisierte Gemeinschaften zu unterstützen und als Sozialisierungsinstrument zu dienen. Insgesamt zeigen die aktuellen Entwicklungen, dass KI-Begleiter auf dem Vormarsch sind.

Es braucht aber einen gut regulierten und ethisch fundierten Ansatz für ihre positive Integration in das menschliche Liebesleben, mahnen Wissenschaftlerinnen und Wissenschaftler. Auch Datenschutzfragen und ethische Bedenken müssen angegangen werden.

Ein Forscherteam der Texas A&M University und der Mohamed Bin Zayed University of Artificial Intelligence hat in Zusammenarbeit mit einem Robotiker von Boston Dynamics den Roboterhund Spot so ausgestattet, dass er selbstständig Unkraut erkennen und temporär mit einem Schneidbrenner am Wachstum hindern kann. Eine komplette Vernichtung des Unkrauts ist jedoch zu gasintensiv.

Spot bringt bereits einen Roboterarm für Werkzeuge wie Greifer sowie KI-Fähigkeiten zum Erlernen verschiedenster Aufgaben mit. Die Wissenschaftler rüsteten ihn zusätzlich mit einem Propangastank auf dem Rücken und einem Schneidbrenner aus, der sich gezielt aktivieren lässt. So kann Spot zuvor per KI-Bilderkennung lokalisiertes Unkraut mit Gasstößen bekämpfen. Dafür wurde er trainiert, auf Agrarflächen Nutzpflanzen und Unkräuter zu unterscheiden.

Bei Tests auf einem Baumwollfeld in Texas konnte der Roboter 76 Prozent der Unkräuter wie Sonnenblumen und Riesen-Ambrosien korrekt erkennen und durch kurzes Erhitzen im Zentrum für mehrere Wochen am Wachstum hindern. Eine vollständige Vernichtung wäre zu gasintensiv. Einschränkend für den flächendeckenden Feldeinsatz ist die geringe Akkulaufzeit von 40 Minuten. Auch die Eignung von Feuer zur Unkrautbekämpfung auf landwirtschaftlichen Nutzflächen ist angesichts häufiger Waldbrände in den USA fragwürdig.

(igr)