KI-Update Deep-Dive: KI in der Heise Gruppe

Mit eigener Plattform, klaren Prinzipien und messbaren Erfolgen zeigt Heise, wie generative KI Arbeitsprozesse effizienter gestaltet.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 3 Min.
Von
Inhaltsverzeichnis

Die Heise Gruppe setzt seit zwei Jahren erfolgreich KI in verschiedenen Unternehmensbereichen ein. Mit einer eigenen KI-Plattform und strukturierten Trainings konnten signifikante Effizienzsteigerungen erzielt werden. In dieser Folge unseres Deep Dive spricht Kim Scheurenbrand mit zwei seiner Kollegen, die Teil dieses Prozesses waren.

Benjamin Danneberg ist Partner der KI-Beratung DEEP CONTENT by heise und redaktioneller Leiter des Fachdienstes heise KI PRO. Er hat den Prozess in dieser Zeit mit Fortbildungen begleitet und berichtet ĂĽber seine Erfahrungen und Learnings: Wie ist die heise-Gruppe bei der EinfĂĽhrung von KI vorgegangen und was waren die wichtigsten Prinzipien? Was waren die GrĂĽnde fĂĽr die Eigenentwicklung heise I/O? Was sind die messbaren Erfolge?

Mit dabei ist auch Max Schreiner, leitender Redakteur bei THE DECODER, Co-Autor des heise KI-Update und Redakteur bei heise KI PRO. Er spricht über die tägliche Arbeit mit generativer KI in der Redaktion, Arbeitsprozesse für bessere Prompts, den Einfluss von KI auf die Qualität seiner Arbeit und seine Erfahrungen im Umgang mit Halluzinationen

Die heise-Gruppe hat mit heise I/O eine eigene KI-gestützte Publishing-Plattform entwickelt. Wie Danneberg erklärt, verfolgte das Unternehmen dabei klare Prinzipien: Transparenz, Verantwortung und Fokus auf nachweislich effiziente Prozesse.

Die Entscheidung für eine Eigenentwicklung statt der Nutzung von ChatGPT basierte auf dem Bedarf nach besserer Prozesskontrolle und der Möglichkeit, verschiedene Sprachmodelle und Tools in einer Werkbank zu integrieren. Das Chat-Framework von ChatGPT erwies sich für die professionelle Arbeit als ungeeignet.

Die Zahlen sprechen fĂĽr sich: Ăśber 500 Mitarbeitende nutzen KI aktiv, was zur Freisetzung von mehr als zwei Personenarbeitsjahren an Ressourcen fĂĽhrte.

Das Unternehmen fĂĽhrte zwei KI-Wochen mit 15 Kursen und Demo-Stationen durch, mit insgesamt ĂĽber 35 Schulungen und mehr als 210 Stunden Schulungszeit. Das Programm umfasste Onboarding-Workshops fĂĽr einen einheitlichen Wissensstand und die Ernennung von KI-Botschaftern in den Teams.

Konkrete Anwendungsfälle zeigen den praktischen Nutzen: Der Podcast "kurz informiert" verzeichnete durch KI-Unterstützung 88 Prozent mehr Abrufe. Bei der Botti-Newsletter-Produktion werden pro Ausgabe 12 Minuten eingespart, was 1,5 Arbeitstage pro Monat entspricht. Transkriptionen, die früher vier Stunden dauerten, sind jetzt in wenigen Minuten erledigt.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Für die Zukunft plant das Team um Danneberg den Ausbau von heise I/O mit voller Multimodalität, einschließlich Bildgenerierung und Text-zu-Audio/Video-Funktionen.

Auch die Weiterentwicklung KI-basierter Recherche-Tools, einschlieĂźlich der bereits verfĂĽgbaren RAG/Chatbots, steht auf der Agenda.

(igr)