Meta lädt zum KI-Tag: Programm für Startups und Chancen für Deutschland

KI ist bei Meta vom Rücksitz auf den Vordersitz gewechselt. Das Unternehmen hat zu einem Roundup zu KI nach Berlin geladen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Naila Murray bei Metas Tag der KI.

(Bild: emw / heise online)

Lesezeit: 5 Min.

Meta trägt KI schon in der DNA – das sagt Naila Murray, Forschungsleiterin von FAIR (Fundamental AI Research) bei einem Roundup zum Thema KI, zu dem Meta nach Berlin geladen hat. Panels, Keynote und auch Workshops im Red Teaming stehen auf dem Programm. So nennt sich die Prüfung von KI-Modellen auf Fehlerquellen und Risiken.

KI sei ein bisschen vom Rücksitz auf den Vordersitz gewechselt, sagt Murray. Statt sich also im Hintergrund abzuspielen, um die Dienste von Meta anzubieten, wie sie sind, können die Menschen KI nun direkt selbst nutzen. Murray erklärt etwa, wie Meta Schritt für Schritt daran gearbeitet hat, automatisierte Erkennung und Freisteller für Bilder zu entwickeln. Man kennt das, man kann Bildausschnitte in Metas Anwendungen zu Stickern machen, dazu werden die Umrandungen eines Objekts automatisch erkannt. Das macht KI. Allerdings muss man oft dazu sagen, dass es nicht immer generative KI ist, die seit ChatGPT den Hype ausgelöst hat. Solche Anwendungen sind schon lange in Arbeit. Meta investiert und forscht seit Jahren im Bereich KI.

Bei der Keynote geht es aber auch darum, wie man bei Meta an einem PhD Programm teilnehmen kann. Außerdem gibt es ganz neu ein AI Accelerator Programm für Start-ups. Dazu arbeitet Meta mit Hugging Face und Scaleway zusammen. Kern des Programms ist laut Meta der Zugang zu den neuesten offenen Modellen und Ressourcen im Bereich KI sowie Mentoring und der Zugang zum Startups-Campus in Paris, Station F. Bewerben kann man sich noch bis Mitte August.

Meta hat entschieden, die eigenen KI-Modelle Open-Source anzubieten. Auch das war Thema. Open-Source habe Vorteile für die Sicherheit der KI-Systeme, heißt es als Begründung immer wieder. Und auch der Wettbewerb und Fortschritt würden von Open-Source profitieren. Grundsätzlich sei Meta ein Unternehmen, das für Offenheit stehe. Und KI sei ein Forschungsbereich, in dem schon immer enger Austausch zwischen Forschenden bestand, sagt Murray. Eine Ankündigung, die noch relativ dünn bleibt. Die Wissenschaftlerin spricht davon, dass es eine neue Infrastruktur geben muss, um KI weitläufig einsetzen zu können. Mehr Informationen dazu wird es in Kürze geben.

Auf dem Podium wechselten die Teilnehmer, Meta hat beispielsweise Jonas Geiping vom Ellis Institut in Tübingen eingeladen, das erst vergangene Woche gegründet wurde. Prof. Georg Rehm vom DFKI ist da. Er sagt beispielsweise, dass das Deutsche Forschungszentrum für KI bereits 1988 gegründet wurde, und sich das oft kaum jemand vorstellen könne, bei dem aktuellen Hype – eine so alte KI-Einrichtung. Murray betont, dass Deutschland ein Standort sei, an dem seit langer Zeit viel und wichtige Grundlagenforschung im Bereich KI betrieben wird. Schaut man sich das Panel an, kann man tatsächlich hoffen, Deutschland und Europa sind nicht abgehängt, wie oft befürchtet wird.

Rehm problematisiert allerdings auch, dass in Deutschland die Finanzierung von Projekten immer sehr konkret und eher kurz läuft. In den USA hingegen gibt es Projekte, die über zehn oder mehr Jahre angelegt sind und trotz eines hohen Risikos, also einer wirklich noch abstrakten Idee, viel Geld bekommen. Konkret benennt er Apples Siri als Beispiel, die im Grunde aus so einem Projekt hervorgegangen ist. Finanziert über die Darpa, die US-amerikanische Defense Advanced Research Projects Agency. Über den Standort Deutschland spricht auch Metas Public Policy Director für Europa, Dr. Julia Reuss, mit Richard Würz von der Venture Capital Firma Redstone. Er versichert Deutschland großes Potenzial.

Auf die Frage nach einer Artificial General Intelligence sind sich alle einig, dass es noch viel Forschung bedarf. Dabei ist aber nicht mal der Weg klar, wie man eine AGI erreichen kann. Rehm erklärt, er glaubt, dass Large Language Models nicht der richtige Weg sind. Und auch Jonas Geiping vom Ellis Institut sagt, Große Sprachmodelle sind eben Sprachmodelle, das heißt, sie können mit Sprache umgehen.

Multi Agents Systems sind bei Meta gerade im Fokus der Entwicklung, wenn es um AGI geht. Es steht also keine wirklich generelle Intelligenz im Vordergrund, sondern erstmal Agenten, die dann zunächst voneinander lernen. Was hingegen nicht auftaucht: Soziale Netzwerke, die nach wie vor Metas Haupteinnahmequelle darstellen. In denen steckt freilich KI und viel weitere Forschung, die bisher nur einfach nicht so sichtbar war, wie KI jetzt im Fokus steht.

(emw)