KI-Update kompakt: CoPilot, KI in der Justiz, MINT-Fächer, KI-Geschlechterrollen
Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.
Microsoft veröffentlicht CoPilot-App für Apple-Geräte
Microsoft hat seine KI-gestützte CoPilot-App für iOS, iPadOS und macOS veröffentlicht, kurz nachdem sie für Android-Geräte erschien. Die kostenlose App ermöglicht die Nutzung von GPT-4 und dem Text-zu-Bild-Generator DALL-E 3 ohne Anmeldung.
Die App kann auch auf Macs mit Apple Silicon heruntergeladen werden, obwohl sie offiziell nur für iOS und iPadOS vorgesehen ist. Ohne Anmeldung sind pro Thread fünf Fragen und Antworten möglich, während die Bildgenerierung und die Erhöhung auf 30 Antworten pro Thread eine Anmeldung erfordern.
CoPilot unterstützt Texteingaben, Fotos und Spracheingaben. Komplette Chatverläufe können derzeit aber bisher nicht gespeichert werden. Die App tritt in Konkurrenz zur offiziellen ChatGPT-App von OpenAI, die jedoch GPT-4 nur in einem kostenpflichtigen Plus-Abo anbietet und nicht für Mac verfügbar ist.
Microsoft hat CoPilot bereits in Windows und Office-Anwendungen integriert.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
US-Oberster Richter bezieht Stellung zur KI in der Justiz
In seinem Jahresbericht äußert sich der Oberste Richter der USA, John Roberts, zur Rolle der KI im Justizwesen. Er prognostiziert, dass KI insbesondere Gerichtsverfahren erheblich beeinflussen wird.
Dennoch betont er die Notwendigkeit menschlicher Richter, da juristische Entscheidungen oft Grauzonen beinhalten, die menschliches Urteil erfordern. KI habe dennoch das Potenzial, den Zugang zu wichtigen Informationen für Juristen und Laien zu verbessern und somit einen breiteren Zugang zum Recht zu ermöglichen.
Allerdings warnt er vor Risiken und "Halluzinationen" im Zusammenhang mit KI-Einsatz in der Justiz, wie die Fälle von Michael Cohen und anderen Anwälten zeigen, die mithilfe von ChatGPT falsche Zitate und Informationen generierten. Roberts ruft daher zu "Vorsicht und Bescheidenheit" beim Einsatz von KI in der Justiz auf, um das Recht nicht zu entmenschlichen.
Nobelpreisträger warnt wegen KI vor MINT-Studium
Christopher Pissarides, Wirtschaftsprofessor an der London School of Economics und Nobelpreisträger, warnt davor, dass MINT-Fächer (Mathematik, Informatik, Naturwissenschaften und Technik) an Bedeutung verlieren könnten, da KI viele analytische Aufgaben automatisiert. Pissarides rät Studienbewerbern, ihre Entscheidung zu überdenken, da die Fähigkeiten, die heute für die Entwicklung von KI benötigt werden, in Zukunft überflüssig sein könnten. In einigen IT-Berufen werde derzeit "die Saat der Selbstzerstörung" gesät, so der Experte. Empathische und kreative Fähigkeiten in Bereichen wie Kommunikation, Kundenservice und Gesundheitsfürsorge würden in Zukunft an Bedeutung gewinnen, da sie weniger leicht durch KI ersetzt werden könnten.
In den vergangenen Monaten gab es viele Prognosen über die Entwicklung des Arbeitsmarktes. Eine im März von OpenAI veröffentlichte Studie ergab, dass große Sprachmodelle mit Zugang zu Werkzeugen mindestens zehn Prozent der Arbeit von rund 80 Prozent der US-Arbeitnehmer beeinflussen werden. Das Pew Research Center prognostizierte im August 2023, dass 19 Prozent der Arbeitsplätze durch KI stark beeinflusst oder sogar vernichtet werden könnten.
KI-Modelle zeigen geschlechterbezogenen Leistungsunterschied
Eine Untersuchung der University of Michigan legt nahe, dass bestimmte Sprachmodelle in geschlechtsneutralen oder männlichen Rollen besser abschneiden als in weiblichen Rollen. Die Studie analysierte die Reaktionen von drei populären KI-Systemen – Flan-T5, LLaMA2 und OPT-instruct – auf 2.457 Fragen in 162 verschiedenen Rollen, wie "Anwalt", "Mentor" und "Partner". Bei der Auswertung von 50 zwischenmenschlichen Rollen, die als männlich, weiblich oder neutral eingestuft wurden, führten geschlechtsneutrale Begriffe und männliche Rollen zu besseren Ergebnissen als weibliche Rollen.
Die Ergebnisse lassen Bedenken über die Programmierung und das Training von KI-Modellen aufkommen und deuten darauf hin, dass die verwendeten Trainingsdaten möglicherweise unbeabsichtigt soziale Vorurteile verstärken. Solche Bedenken hinsichtlich der Verzerrung werden in der KI-Ethik immer wieder thematisiert. Das Forschungsteam hat OpenAI's GPT-4 bisher nicht untersucht.
(igr)