Microsoft Copilot: Voice-Chat und Think Deeper nun unbegrenzt kostenlos nutzbar
Microsoft macht Copilot Voice und Think Deeper kostenlos und ohne Begrenzung verfĂĽgbar. Eine Anmeldung ist jedoch erforderlich.

Microsofts Copilot Voice lässt sich auch auf dem Handy einfach nutzen.
(Bild: Screenshot / dmk)
Microsoft macht den Zugriff auf die Copilot-Funktionen Voice und Think Deeper kostenlos verfügbar. Die Dienste sollen unbegrenzt nutzbar sein. Beim Ausprobieren ohne vorherige Anmeldung ist jedoch etwa der Zeitraum für den Voice-Chat, bei dem sich Copilot natürlich-sprachlich vergleichbar wie ein menschlicher Ansprechpartner nutzen lässt, auf zwei Minuten begrenzt. Nach einer Anmeldung etwa mit einem kostenlosen Konsumentenkonto erfolgt jedoch wie angekündigt keine Einblendung eines Zeitlimits.
Helfer fĂĽr Alltagsaufgaben
Der Besuch der URL copilot.ai leitet auf copilot.microsoft.com/chats/ weiter, wo direkt der Copilot-Chat verfügbar ist. Durch Anklicken der "Think Deeper"-Schaltfläche lässt sich das zwar etwas behäbigere, aber mit mehr Tiefgang versehene OpenAI o1-Sprachmodell zur Beantwortung von Fragen einschalten. Der Klick auf das Mikrofon-Symbol schaltet hingegen auf die Nutzung des Sprach-Chats um.
(Bild: Screenshot / dmk)
Auf eine anekdotische wissenschaftliche Frage zum Test gab Copilot mit Think Deeper sofort eine korrekte Antwort. Im Voice-Chat hingegen war die erste Antwort fachlich falsch, nach einem Hinweis auf den Fehler korrigierte sich die KI jedoch basierend auf einem gegebenen Stichwort.
Microsoft nennt in der Ankündigung im Copilot-Blog als Anwendungsfälle etwa das Üben von Sätzen in einer neuen Sprache, wenn man ein neues Land besucht oder neue Menschen trifft. Oder dass Copilot Voice beim Bewerbungsgesprächs-Training behilflich sein kann. Think Deeper empfiehlt Microsoft hingegen für die Unterstützung bei Kaufentscheidungen, etwa bei der Auswahl zukunftssicherer E-Autos oder Tipps dazu, welche Renovierungsarbeiten bei begrenztem Budget die größte Wertsteigerung einer Immobilie bewirken.
Die Nutzung von KI-Voice-Chats hat Jan-Keno Janssen bereits in c't 3003 vorgefĂĽhrt. Bei alledem dĂĽrfen Nutzerinnen und Nutzer jedoch kein blindes Vertrauen aufbauen, auch, wenn die "normalsprachliche Nutzung" dazu verleiten kann. Microsoft schreibt auf der Copilot-Chat-Seite direkt daher auch "Copilot kann Fehler machen". Mit einer einfachen wissenschaftlichen Frage aus nicht allzu komplexem Oberstufenwissen konnten wir das bereits provozieren.
(dmk)