Microsofts Copilot lernt sprechen, sehen und nachdenken

Copilot Labs wird eine Testumgebung für den KI-Assistenten. Darüber lässt sich ausprobieren, wie er sehen, sprechen und logisch denken kann.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Das Symbol des Copilot.

Das Symbol des Copilot.

(Bild: Microsoft)

Lesezeit: 3 Min.

Für den Copilot gibt es künftig eine Testumgebung. In dieser können Menschen ausprobieren, wie sich der KI-Assistent im logischen Denken schlägt. Außerdem zieht Copilot Vison ein: Damit soll dann auch das Sehen und Verarbeiten von Bildern möglich sein – beispielsweise von Webseiten, die man geöffnet hat. Der Copilot soll ein Freund werden, schreibt Mustafa Suleyman, CEO von Microsoft AI. Ein Freund, der sich den Bedürfnissen des Menschen anpasst.

Microsoft erklärt, KI sei eine bisher nicht ausgereifte Technik. Deshalb wolle man neue Funktionen in einer neuen Testumgebung zur Verfügung stellen. "Wir wollen die Fähigkeiten der KI-Copiloten voll ausschöpfen, um den Nutzern ein möglichst nützliches und reichhaltiges Erlebnis zu bieten, und zwar auf die sicherste Weise, die uns möglich ist", heißt es im Blogbeitrag. Copilot Labs wird für ausgewählte Menschen erreichbar sein, die neue Funktionen dort testen können. Ausgewählt sind offenbar Copilot-Pro-Nutzer, die das Angebot als einen Blick in die "work-in-progress"-Projekte sehen sollen. Statt Beta-Versionen allgemein verfügbar zu machen, kommt nun also ein abgeschlossener Bereich. Auch Google nennt seine Testumgebung für KI-Anwendungen Google Labs.

In Copilot Labs wird als erstes eine Reasoning-Funktion verfügbar sein, schreibt Microsoft weiter. Think Deeper soll dem Copilot zu einem besseren Verständnis für komplexere Aufgaben verhelfen – von Mathe bis zum Aufgabenmanagement. Zunächst ist die Funktion jedoch nicht nur auf Pro-Abonnenten beschränkt, sondern auch auf die USA, Australien, Kanada, Neuseeland und Großbritannien.

In der Folge soll Copilot Vision in den Labs erscheinen. Sprache sei limitiert, schreibt Microsoft. Copilot Vision könne sehen, was der Mensch sieht. Gemeint ist zumindest das, was auf dem Bildschirm zu sehen ist. Dazu kann man dann auch Fragen stellen. Und das dann neuerdings auch in gesprochener Sprache.

Die Funktionen sind opt-in, Inhalte werden in der Preview nicht gespeichert und fließen auch nicht zurück in das Training der dahinterstehenden KI-Modelle. Bei Webseiten mit Paywalls und solchen mit sensiblen Inhalten funktionieren die Augen und Ohren noch nicht. Es gibt allerdings eine Whitelist mit Webseiten, bei denen es absichtlich doch klappt.

Mustafa Suleyman, KI-Chef von Microsoft, der zuvor bei Google war, hat zudem einen Brief veröffentlicht, in dem er erklärt, wie der Copilot zu einem Kompagnon werden solle. "Copilot ist für Sie da, in jeder Ecke, an Ihrer Seite und immer stark auf Ihre Interessen ausgerichtet. Er versteht den Kontext Ihres Lebens, schützt Ihre Privatsphäre, Ihre Daten und Ihre Sicherheit und erinnert sich an die Details, die in der jeweiligen Situation am hilfreichsten sind."

Der KI-Assistent soll sich an seinen Nutzer anpassen – offenbar so wie der Hund sich an sein Herrchen anpasst. Es sei wichtig, schreibt Suleyman, dass wir nicht nur darüber reden, was in der Technik stecke, nicht nur über Parameter und Rechenleistung. Der Fokus müsse darauf liegen, wie wir Menschen Technik nutzen und uns mit ihr fühlen.

(emw)