• Die Industrialisierung der KI I Data Researchers #33
    Dec 2 2025

    Diese Podcast-Episode ist auch als Video auf YouTube verfügbar.

    Die Industrialisierung der Künstlichen Intelligenz: So gelingt der Sprung vom Pilotprojekt zur produktiven KI-Nutzung.

    Europa diskutiert intensiv über große Sprachmodelle und generative KI – doch in der Praxis zeigt sich ein klarer Trend: Unternehmen betrachten diese Modelle zunehmend als austauschbare Basis, während der echte Mehrwert entsteht, wenn eigene Daten intelligent integriert werden. Methoden wie Retrieval-Augmented Generation (RAG) ermöglichen es, KI-Modelle gezielt mit domänenspezifischen Informationen anzureichern und so kontextrelevante Ergebnisse zu liefern. Studien zeigen enormies Potenzial, doch viele Unternehmen stecken noch im »Tal der Piloten«: spannende Demos und Proof-of-Concepts, aber keine flächendeckende Umsetzung.

    In diesem Video seiner »Data Researchers«-Videoreihe zeigt Boris Otto drei zentrale Erfolgsfaktoren auf, die es braucht, um KI wirklich zu industrialisieren:

    1. Architekturmanagement: Ein klarer Ordnungsrahmen verhindert ein Chaos aus einzelnen Tools und Anwendungen. Nur wer KI sinnvoll in Geschäftsprozesse und IT-/Fertigungssysteme integriert, kann sie breit nutzbar machen.

    2. Datenintegration: Ohne eine durchgängige Daten- und KI-Pipeline bleiben Potenziale ungenutzt. Boris Otto erklärt, wie Unternehmen Daten aufbereiten, indexieren und in KI-Modelle einbinden können, um echte Effizienzgewinne zu erzielen.

    3. Mitarbeiterkompetenz: KI ersetzt nicht den Menschen. Erfolgreiche Unternehmen fördern Generalisten, die Domänenwissen mit KI- und Datenkompetenz verbinden – das neue Rollenprofil des Business & Industrial Engineers.

    Für die Industriealisierung der KI gilt also der Dreiklang: Enabled by architecture, fueled by data, powered by expertise.

    Show More Show Less
    Less than 1 minute
  • 10 Jahre Data Spaces: Rückblick und Ausblick I Data Researchers #32
    Oct 7 2025

    Diese Podcast-Episode ist auch als Video auf YouTube verfügbar.

    Die Datenräume (Data Spaces) feiern Geburtstag: Vor 10 Jahren, am 23. September 2015 fand in Berlin das dritte Spitzengespräch zum »Industrial Data Space« statt. Ein Meilenstein, denn an diesem Tag übergab das Bundesforschungsministerium den ersten Förderbescheid für einen Industrial Data Space an Fraunhofer. Was ist bisher passiert und welche Forschungsfragen sind noch offen?

    Boris Otto reflektiert in diesem Video seiner »Data Researchers«-Reihe, wo die Datenraumentwicklung heute steht und welche Aufgaben die Zukunft bringt.

    Er erklärt auch, was ein Data Space eigentlich ist: eine verteilte Datenintegrations-Architektur, die Standards zum Aufrufen und Speichern von Daten beinhaltet und Datensouveränität für die Datengebenden ermöglicht. Damit bilden Data Spaces die Grundlage für einen vertrauensvollen Datenaustausch innerhalb einer Community. Vorangetrieben wurde das Konzept von der International Data Spaces Association (IDSA), inzwischen ist es auch in Open-Source-Software umgesetzt und befindet sich im Standardisierungsprozess. Zahlreiche Data-Sharing-Initiativen, wie etwa Catena-X für die Automobilindustrie, setzen bereits auf dieses Modell – mit großem internationalen Erfolg.

    Was ist jetzt noch zu tun? Wir müssen eine faire Datenökonomie schaffen, Datentransaktionen manipulationssicher erfassen und definieren, welche Daten wir über Datenräume verfügbar machen wollen. Eine Vision von Boris Otto: ein vollständiges digitales Abbild des europäischen Binnenmarktes. Die Reise der Datenräume geht weiter!

    Show More Show Less
    17 mins
  • Die Zukunft industrieller Wertschöpfungssysteme I Data Researchers #31
    Sep 10 2025

    Wie sieht die nächste Stufe von Industrie 4.0 aus? Dieser Frage sind das Fraunhofer ISST und das Fraunhofer IAO in einer empirischen Studie nachgegangen. Boris Otto präsentiert in diesem Video seiner »Data Researchers«-Reihe die wesentlichen Ergebnisse der Studie:

    1. Erweitertes Leistungsangebot: Ökosysteme sind die Zukunft. Unternehmen werden um einen Kunden herum dynamische Netzwerke bilden und nicht nur Produkte und Services anbieten, sondern auch die Orchestrierung von Kundenökosystemen übernehmen.

    2. Klares Bekenntnis zur Kreislaufwirtschaft: Ein maximales Wiederverwenden von Ressourcen, das schon beim Design der Komponenten anfängt, ist für die Unternehmen selbstverständlich – nicht nur aus Gründen der Nachhaltigkeit, sondern auch der Versorgungssicherheit.

    3. KI und Daten als Fundament: Die IT muss mit Blick auf generative KI und eine bessere Datennutzung auf ein nächstes Produktivitätslevel gebracht werden.

    4. Die Rolle des Menschen: Welche Kompetenzen müssen Mitarbeitende mitbringen und wie dynamisch können sich diese Kompetenzen entwickeln? Was braucht es für ein gutes Zusammenspiel zwischen menschlicher und künstlicher Intelligenz?

    Die Studie ist zum Download unter www.isst.fraunhofer.de/publikationen verfügbar.

    Show More Show Less
    13 mins
  • KI-Strategie der Europäischen Union I Data Researchers #30
    May 26 2025

    Die Europäische Kommission will Europa zum KI-Kontent zu machen. In einem gerade veröffentlichten Aktionsplan zeigt sie fünf Schwerpunkte auf – vom eigenen Bau von KI-Modellen über den Aufbau von stärkeren Kompetenzen und einer leistungsfähigen Infrastruktur bis hin zur Diskussion über eine faire und ethische Nutzung von KI. Besonders interessant aus Sicht der Forschung ist die fünfte Säule: Next Generation Data Management.

    Boris Otto plädiert in diesem Video seiner »Data Researchers«-Reihe für einen ausbalancierten Fokus auf die Innovation, die diese Technologie möglich macht. Er sieht beispielsweise folgende Forschungsfelder:

    • Daten- und KI-Wertschöpfungskette als integriertes Ganzes

    • RAG-Technologien als »Betriebsmittel« für KI-Modelle

    • Datenqualität und Datenaufbereitung

    • Ökonomische Anreize für (private) Datengebende

    • »Data-as-a-Service«-Dienste für das Trainieren von KI

    • Vertrauen bei der Datennutzung (z.B. mit Data Space Technologien)

    Show More Show Less
    13 mins
  • Organisationsbasisdaten: Was könnte öder sein – oder wichtiger?! | Data Researchers #29
    Mar 10 2025

    In industriellen Datenökosystemen arbeiten mehrere Unternehmen zusammen in einem System, weil sie ein Ziel erreichen wollen, dass sie alleine nicht erreichen können – zum Beispiel den Einstieg in die Kreislaufwirtschaft oder die Nachverfolgbarkeit von Bauteilen und deren Einsatz im Lebenszyklus eines Produkts. Damit das gelingen kann, müssen die Unternehmen Produkt- und Organisationsdaten austauschen. Letztere sind Gegenstand dieser Folge. Die Organisationsdaten gilt es zu identifizieren und zu authentifizieren, um dann im dritten Schritt bestimmte Dateneingaben und -abfragen zu erlauben. Ein solches Identitätsmanagement ist beispielsweise Gegenstand von Gaia-X. Solche Datenverifizierungen sind auch ein wichtiger Aspekt der Cybersecurity und des Datenqualitätsmanagements. Beide Aspekte – Identitätsmanagement und Datenqualitätsmanagement – müssen in der Forschung und Entwicklung zu einem Trusted Organizational Data Model zusammengebracht werden, um eine integrierte Sicht auf die Mitglieder eines Ökosystems zu erhalten. Organisationsstammdaten braucht in einem Ökosystem jeder. Sie haben also ein hohes Skalierungspotenzial. Daher ist es wichtig, Dienste zu entwickeln, die es erleichtern, derartige Informationen in Datenökosystemen besser zu bewirtschaften. Gar nicht öde, sondern wirtschaftlich hoch relevant.

    Show More Show Less
    11 mins
  • Industrielle Nutzung von KI: Wie steht es um die Datensouveränität? | Data Researchers #28
    Jan 16 2025

    Wie weit nutzt die Industrie heute schon KI? Und wie viel mehr könnte die KI für die Industrie leisten?

    In seinem aktuellen Video stellt Boris Otto fünf Nutzungsszenarien von künstlicher Intelligenz im industriellen Kontext vor:

    1. Anwenden klassischer KI in Diensten z.B. zur Bilderkennung, in der Sensorik oder der Intralogistik

    2. Anreichern unternehmenseigener Dienste mit Daten von Kunden entlang des Data Act

    3. Generieren neuer Inhalte mit generativer KI

    4. Anreichern bestehender generativer KI-Modelle mit eigenen Daten, um bessere Ergebnisse zu erhalten (Retrieval Augmented Generation, Finetuning)

    5. Gemeinsames Trainieren großer KI-Modelle (Sprachmodelle, Foundation Models)

    Warum macht es für die Industrie Sinn, über alle fünf Kategorien nachzudenken? Wie können Unternehmen sicherstellen, dass sie die Kontrolle über ihre Daten behalten? Wie lässt sich der Wert der eingespeisten Daten ermitteln, einfordern und angemessen kompensieren? Fragen wie diesen geht das Fraunhofer ISST in aktuellen Forschungsprojekten nach.

    #KI #AI #generativeAI #ArtificialIntelligence #datasovereignty #dataspaces #machinelearning #ML #foundationmodels #RAG #finetuning #sprachmodell #LLM #ChatGPT #DataAct

    www.isst.fraunhofer.de

    Show More Show Less
    12 mins
  • Cross-border Data Sharing für globale Lieferketten I Data Researchers #27
    Sep 12 2024

    Grenzüberschreitender Waren- und Güterverkehr, globale Lieferketten über verschiedene Wirtschaftsräume hinweg: Unsere weltweit vernetzte Produktion verlangt nach einem vertrauenswürdigen Datenaustausch, um Informationen aus der gesamten Zuliefererkette standardisiert bündeln und nutzen zu können. Diese werden beispielsweise für die Erstellung eines "Digital Product Passport" benötigt. Dieser digitale Produktpass sammelt standardisiert Daten über den kompletten Lebenszyklus eines Produkts wie etwa den Batteriekomponenten in einem Elektroauto hinweg. Er unterstützt damit eine möglichst nachhaltige Folgenutzung dieser wertvollen Teile.

    Was es dafür braucht? Semantische Standards, gleichartige Berechnungsverfahren und ein interoperables Identitäts- und Authentifizierungsmanagement. Sowohl die deutsche Bundesregierung als auch die Europäische Kommission sehen Datenräume als adäquates Mittel, um diese Herausforderungen zu lösen. Wie dies gelingen kann, wird im Oktober 2024 auch Thema einer Session im Rahmen des Digitalgipfels der Bundesregierung sein.

    #digitalproductpassport #cross-border #datasharing #dataexchange #dataspaces #sustainability #identitymanagement #interoperability #digitalgipfel

    www.isst.fraunhofer.de

    Show More Show Less
    12 mins
  • Data Readiness: Daten als Ressource in der Industrie managen | Data Researchers #26
    Jun 25 2024

    Diese Podcast-Episode ist auch als Video auf YouTube verfügbar.

    Wie gut gehen Unternehmen mit ihren Daten um? Diese Frage betrachtete schon 2019 eine Studie im Projekt DEMAND im Auftrag des Bundeswirtschaftsministeriums. Das Ergebnis war ernüchternd: 84 Prozent der Unternehmen bezeichneten sich als Einsteiger bei der Data Readiness. Inzwischen sind viele Unternehmen in Bezug auf ihre Datenbewirtschaftung zwar einen Schritt weiter, aber es ist noch viel zu tun.

    Um zukunftsfähig zu sein, müssen Unternehmen ihre Datenwertschöpfungskette im Griff haben - von der Aufnahme mithilfe von Sensorik über die Vorverarbeitung und Verfügbarmachung, die Zwischenspeicherung in Clouds bis hin zur Katalogisierung und Nutzungsweitergabe. Was sie dafür brauchen? Ein funktionierendes Datenarchitekturmanagement und die Festlegung der Rollen und Verantwortlichkeiten im Unternehmen im Rahmen der Data Governance.

    #sustainability #datareadiness #dataexchange #datenressource #datenwertschöpfungskette #datagovernance #ManufacturingX

    www.isst.fraunhofer.de

    Show More Show Less
    10 mins