Artikel

Smart Services in der industriellen Anwendung

Die Digitalisierung birgt viel Potenzial für neue Service- Geschäftsmodelle in der industriellen Produktion. Mit intelligenten datenbasierten Dienstleistungen, sogenannten Smart Services, können Unternehmen immer besser auf individuelle Kundenwünsche eingehen und Zusatzleistungen wie vorausschauende Wartung anbieten, die damit die Geschäftsmodelle über das eigentliche Produkt hinaus erweitern.

Durch die Kombination von Datenerfassung und Datenanalyse können Unternehmen innovative Dienstleistungen entwickeln, diese über Online-Plattformen bereitstellen und von dort aus neue Geschäftsmodelle realisieren. Das Bundesministerium für Wirtschaft und Energie (BMWi) leistet mit den Förderprogrammen „Smart Service Welt I und II“ wesentliche Beiträge für die Entwicklung von Smart Services. Die geförderten Projekte umfassen nicht nur industrielle Dienstleistungen, sondern verteilen sich auf verschiedene Themen-Cluster in allen Wirtschaftszweigen: Von Energie und Mobilität über Medizin bis hin zur Bauwirtschaft werden Smart Services unter anderem für den lokalen Stromhandel, die Vernetzung von Prozessen im OP-Saal, zur Baustellenoptimierung und für Assistenzsysteme im Alter entwickelt. Im Cluster Produktion arbeiten insgesamt zehn Projekte an der Entwicklung intelligenter Dienste.

Hierin spiegelt sich die hohe Bedeutung der industriellen Produktion in Deutschland wider. Die geförderten Smart-Service-Projekte sind ähnlich vielfältig wie das produzierende Gewerbe selbst. Sie reichen von der Vernetzung von Produktionsanalagen über die Unterstützung von industriellen Tätigkeiten durch Augmented-Reality bis hin zu intelligenten Lösungen für die Sportartikelindustrie und die Landwirtschaft[1].

Smart Services für die vernetzte Produktion

Die Projekte OpenServ4P und SePiA.Pro beschäftigen sich mit innovativen Diensten in der vernetzten Produktion. OpenServ4P verfolgt das Ziel, Produktionsanlagen mit Plattformdiensten zu vernetzen. So sollen bestehende, „herkömmliche“ Produktionsanlagen zu Industrie- 4.0-fähigen Anlagen aufgerüstet werden. Für die

Personennahe Dienstleistungen in der digitalen Transformation

Speziell im Bereich der personennahen Dienstleistungen, Leistungen, die am Menschen stattfinden, werden zukünftig mehr kundenorientierte Werte dadurch entstehen, dass sich Kunden als Co-Creator einbringen. Um sowohl in der Wirtschaft als auch der Forschung einen Überblick über relevante Trends zu behalten, wurde für die Förderlinie des Bundesministeriums für Bildung und Forschung „Personennahe Dienstleistungen“ im BeDien-Projekt eine Forschungsmatrix entwickelt, welche die Gestaltungsbereiche der Dienstleistung ihren Entwicklungspotenzialen gegenüberstellt.

Aktuelle Trends der Servitization

Aktuelle wirtschaftliche, gesellschaftliche und technologische Entwicklungen führen zu Geschäftsmodellen, in denen sich Kunden von passiven Konsumenten zu Feedback- und Ideengebern, Co-Creatorn und Investoren entwickeln. Nutzerzentrierung, Open- und Co-Innovation sind zu populären Pfeilern der unternehmerischen Innovationsprozesse geworden. Sie sichern eine höhere Nutzerakzeptanz und schmälern so das Risiko, dass die Nutzer Leistungen nach langer Entwicklung ablehnen. Egal ob eine Dienstleistung oder Produkt erworben wird, letztlich ist der Value-in-Use für den Kunden von primärer Bedeutung [1]. Sehen wir den entstehenden Wert für die Nutzer als zentral an, sind alle Unternehmen Dienstleistungsunternehmen, da sie mit ihren Kunden gemeinsam Wertschöpfung betreiben. Die Perspektive, dass alle Unternehmen Dienstleistungsunternehmen sind, erklärt viele praktische Entwicklungen, die man im Markt beobachten kann [2] und wird Service-dominant Logic genannt [3].

Entsprechend dieser Logik steigt die Relevanz von Product-Service-Systems (PSS) als Teil des unternehmerischen Angebotsportfolios. PSS lassen sich in produkt-, nutzungs- und ergebnisorientierte Systeme unterscheiden [4]. Produktorientierte PSS ergänzen Produkte lediglich um Dienstleistungen, während das nutzungsorientierte PSS die Funktionen des

Einführung digitaler Geschäftsprozesse im Unternehmen

Prozessoptimierungen erzielen nicht die gewünschten Potenziale, wenn die Mitarbeiter die neuen Prozesse nicht annehmen und in ihren alten Routinen verbleiben. Druck der Vorgesetzten hil dann selten. Die Erkenntnisse aus dem Innovationsmanagement und der Verhaltensökonomie geben spannende Antworten, warum Mitarbeiter Veränderungsprozesse nicht unterstützen. Wir haben diese Erkenntnisse in einen einfachen Testinstrument zusammengeführt, mit dem Führungskrä e den Change-Prozess unterstützen und Potenziale schneller erzielen können.

Optimierung von Geschäftsprozessen ist ein Dauerthema. Die hohe Kunst, die Rentabilität kontinuierlich zu erhöhen, beschäftigt jedes Unternehmen. Die Erfahrung zeigt, dass sich Potenziale in der Praxis oft nicht realisieren lassen wie erhofft. Eine Ursache ist, dass nicht alle Mitarbeiter eine neue Technologie mit voller Überzeugung unterstützen. In Arbeitsumgebungen, die eine hohe individuelle Freiheit bei der Leistungserbringung belassen, arbeiten die Mitarbeiter dann mit den alten Systemen weiter und die neue Technologie erzeugt Kosten statt Nutzen.

Prozessoptimierung als Change-Management-Aufgabe

Prozessoptimierungen sind immer auch Change-Vorhaben. Die Mitarbeiter müssen die Notwendigkeit der Veränderung für sich persönlich nachvollziehen können. Sonst lassen sie sich „nicht an Bord“ holen. Bisher gibt es keine einfachen Werkzeuge, die tatsächliche Motivationslage der Einzelnen sichtbar zu machen. Sind die wirklichen Barrieren nicht bekannt, können sie nicht adressiert werden.

Abbildung 1: Diffusion von Innovationen [1, 2].

Prozessoptimierung als Innovationsmanagement-Aufgabe

Das Diffusionsmodell in Abbildung 1 beschreibt die Einführung von Innovationen als einen Prozess, in dem verschiedene Nutzergruppen ein neues Produkt

„Technologie darf nie Selbstzweck sein“

Neue Technologien beschleunigen die Entwicklung und Bereitstellung von Produkten und entwerten so den Differenzierungsfaktor Preis. Heute entscheidet das Produkterlebnis über die Produktwahrnehmung des Kunden – und lässt so die digitale und die analoge Welt miteinander verschmelzen. Professionelle Service-Design-Prozesse unterstützen Unternehmen bei der Gestaltung von ganzheitlichen Produkterlebnissen sowie neuen Geschäftsmodellen und werden so zu einem wichtigen Erfolgsfaktor des digitalen und ökologischen Wandels.

IM+io: Welche Herausforderungen sehen Sie derzeit für Industrieunternehmen?

BW: Bisher haben die meisten Unternehmen versucht durch die Optimierung von Produktionsprozessen und die damit verbundenen Kosteneinsparungen gegen den Wettbewerb zu bestehen. Diese Strategie ist überholt. Dank moderner Informationstechnologie können Produkte heute modular und damit viel schneller in den Markt getrieben werden. Nun ist es nicht mehr der Preis, der über die Akzeptanz entscheidet, sondern das gesamte Produkterlebnis. Dieses kommt allerdings nicht ohne attraktive Serviceleistungen und neue Geschäftsmodelle aus. Die Herausforderung für Unternehmen besteht darin, diese Erkenntnis umzusetzen und den bestehenden Produktkern sinnvoll zu erweitern.

IM+io: Was genau ist ein „Service-Design-Prozess“ und wie kann er hierbei unterstützen?

BW: „Service-Design“ ist ein strukturiertes Vorgehen zur Gestaltung von so genannten „Intangible Products“ – Güter, die man nicht anfassen kann. Entwickelt wird nicht – wie bei klassischen Produkten üblich – aus der Ingenieursperspektive heraus, sondern mit Blick auf den Kunden und dessen Nutzen. Mithilfe von professionellen Service-Design-Prozessen können Unternehmen neue Sichtweisen einnehmen und sich viel besser in den Endkunden hineinversetzten. Marken, die mithilfe dieser Vorgehensweise neue Geschäftsmodelle etablieren, werden sich

Dynamic Pricing im Nahverkehr

Innovative Dienstleistungen sind vor allem digitalisiert und werden Unternehmen angeboten. Nicht selten sind es Start-ups, die traditionelle Branchen oder Gewerbe, sei es Handel, Medien, Taxigewerbe, Finanzwelt oder Tourismus disruptiv verändern. Weniger Dynamik in dieser Richtung weist der öffentliche Sektor auf, obwohl der Bedarf an neuen Diensten für Bürger erheblich ist. Dynamische Preisanpassungen im öffentlichen Nahverkehr, die auf Nachfrage der Verbraucher reagieren sind sicher noch Zukunftsmusik. Doch Überlegungen, wie der ÖPNV attraktiver und effizienter werden könnte, sollen trotz aller theoretischen und praktischen Probleme an dieser Stelle erlaubt sein.

Im Zuge der zunehmenden Digitalisierung sind in den letzten Jahren neue Geschäftsmodelle entstanden, im Nahverkehr z.B. durch Fahrvermittlungs- oder Carsharingdienste, die fast ausschließlich Web- bzw. App-basiert sind. Carsharingdienste wie DriveNow oder car2go erlauben Mitgliedern die Nutzung von KfZs. Neben fixen Gebühren (Anmeldegebühren und monatlichen Grundgebühren) fallen vom Nutzungsumfang abhängige Kosten an. Die Ortung von verfügbaren Fahrzeugen erfolgt dabei über GPS. Vor allem in Großstädten verzeichnen Carsharing-Dienste große Zuwächse. Fahrvermittlungsdienste sind vor allem in den USA und China weit verbreitet, wo sich Uber und Didi als Marktführer etabliert haben. Im Jahr 2017 hat Didi beispielsweise 7,4 Milliarden Fahrten an über 400 Millionen Nutzer vermittelt. Der Umsatz von Uber im Jahr 2018 hat die Schwelle von 10 Milliarden Dollar überschritten. Bei Fahrvermittlungsdiensten können über eine App Fahrten (vor-) bestellt werden. Es gibt auch die Option, mit

Facilitating Urban Planning with Human-Centred Digital Design Methodology

Future Smart Cities and societies can bene t greatly from interdisciplinary Human-Centred Design (HCD).  e Participatory Urban Design project has developed and veri ed a human-centered service design methodology as a new way of working for architects and urban planners.  e method is based on the impact mapping and “customer” journey mapping methods.  is approach allows the architects in the project to e ectively tie the city’s long-term vision into concrete design solutions for the design and construction of residential areas, and to communicate these values and e ects to other stakeholders such as builders and property owners.

It would be reasonable to think that the design and construction of residential areas would be a prime example of Human-Centred Design (HCD). In reality, however, residential areas are only rarely based on a truly HCD process [1]. One reason for this is that the standard methods for engagement and participation in urban planning projects restrict the level of citizen engagement [2]. As HCD is built on a tradition of participation [3] and even civic engagement [4] it is highly interesting to further examine whether the methods can improve citizen engagement and the urban

Augmented Reality in der Auditierung

Smarte, digitale Services umfassen nicht nur industrienahe Dienstleistungen des „Internet of Things“, sondern auch klassische Dienstleistungen im Consulting. Eine Form digitaler Services sind Beratungsleistungen mit Hilfe von Augmented Reality. Dieser Artikel beschreibt hierfür ein Anwendungsszenario zur Auditierung und Zertiifizierung im Rahmen der betrieblichen Informationssicherheit.

 

Zertifizierung und Auditierung

Unternehmen lassen sich zu verschiedensten Themen, die aus deren Sicht relevant für wichtige Stakeholdergruppen (zum Beispiel Kunden) oder gar gesetzlich vorgegeben sind, zertifizieren. Oft erfolgt dies auf Basis einer bestimmten Norm und eines der Zertifizierung vorangehenden Audits durch eine unabhängige Zertifizierungs- Instanz. Ein Beispiel hierfür ist die Zertifizierung zu einem Qualitätsmanagementsystem wie DIN ISO 9001 [3]. Oft sind Vor-Ort-Audits oder interne Audits erforderlich, welche für eine Zertifikatserteilung notwendige Voraussetzungen überprüfen oder aber auch vom jeweiligen Standard in regelmäßigen Abständen verlangt werden [7]. Beispiele hierfür sind Audits für die ISO-Norm 27001 zur Informationssicherheit, Energieaudits nach DIN EN 16247 oder Umweltaudits nach ISO 14001.

Aufgrund der hohen Anforderungen der Normen und den vielfältigsten Problemstellungen bei der Auditierung lassen sich Unternehmen oft durch Consulting-Firmen beraten, die als Consulting- Service meist auch die entsprechenden Audits durchführen und die Zertifikate erteilen dürfen, zumindest aber bei der Audit-Vorbereitung im Rahmen von Voraudits unterstützen [11]. Effizienzsteigerungspotential bei dieser Art der Dienstleistung ergibt sich schon heute im Rahmen der Voraudits durch Vorabprüfung relevanter Dokumente,

Selbstlernende Künstliche Intelligenz reduziert Minderqualität in komplexen Produktionsprozessen

Exzellente Produktqualität ist das Aushängeschild eines jeden Produktionsunternehmens. Kritische Produktionsschritte unterliegen daher z.T. aufwändigen Prüfverfahren, die aufgrund der notwendigen Zeit und/oder Kosten nur stichprobenartig durchgeführt werden können.

  • In der Prozessindustrie wird die Qualität bspw. im Stundentakt geprüft.
  • In der Automobilindustrie decken Prüfungen von hoch-frequenten Produktionsschritten nur einen unteren einstelligen Prozentbereich ab.

Dadurch wird Minderqualität leider oft nicht erkannt, was zu Problemen in der späteren Verarbeitung oder gar zu Rückrufaktionen führt. Selbstlernende Künstliche Intelligenz (KI)-Verfahren helfen weiter, denn für jeden kritischen Produktionsschritt gibt es normalerweise Daten; mal mehr, mal weniger Daten. Trotzdem spiegeln diese Daten die Realität für diesen Produktionsschritt wider. Man schaut auf diese Daten wie durch eine Rasterbrille: Einiges im Blickfeld bleibt verborgen, da die erhobenen Daten nur einen Ausschnitt der Realität darstellen. Trotzdem erlernen innovative Mustererkennungsverfahren, welche Datenmuster für gute Qualität und welche für schlechte Qualität stehen.

Erschwerend kommt zu diesem Rasterblick noch die Tatsache, dass in vielen Produktionsprozessen eine sehr hohe Variantenvielfalt herrscht.

  • Variantenvielfalt im Produkt:

Ein Maschinenbauer hat zwar knapp 20 Basistypen seines Produktes. Jedoch können 700 verschiedene Varianten produziert werden.

  •  Variantenvielfalt im Prozess:

Genau das gleiche Produkt kann unterschiedliche Maschinen durchlaufen. Bei einem Maschinenbauer können ca. 50 gleiche Maschinen zur Durchführung genau eines Produktionsschrittes genutzt werden. Auch wenn diese Maschinen  prinzipiell – gleich sind und das Gleiche tun, so sind sie unterschiedlich alt, wurden von unterschiedlichen Lieferanten gebaut und müssen daher individuell eingestellt werden.

Die Herausforderung ist, trotz dieses „Rasterbrillen- Blicks“ und der hohen Varianten-Komplexität den „Vorausblick“ zu behalten, so dass die individuellen Prozesse so durchgeführt und die individuellen Maschinen so eingestellt werden, dass kein Ausschuss entsteht. Die folgende Tabelle zeigt die vier Stufen der vorausschauenden Qualitätsoptimierung. Das Ziel ist immer, Minderqualität in der Produktion zu vermeiden. Obwohl diese Stufen analytisch aufeinander aufbauen, ist jede Stufe für sich eigenständig und erzielt bereits signifikanten Mehrwert.

Abbildung 1: Qualitätsprognosen während des Prozessschritts.

Lessons Learned

Man kann mit KI und entsprechenden Daten heute schon viel erreichen. Aber KI ist nicht gleich KI. Es gibt diverse Verfahren und Methoden, die alle ihre Schwerpunkte haben. Welche Algorithmen sind die besten? Gerade wenn die Komplexität aufgrund der hohen Variantenvielfalt extrem steigt und sich die Einflüsse dynamisch ändern, geraten KI-Standardverfahren an ihre Grenzen. Die folgenden Erfahrungen haben sich in komplexen Industrieprozessen gefestigt, und zwar nicht nur für das Thema Qualität, sondern auch für andere analytische Themen wie vorausschauende Wartung, Energie- und Ressourcenoptimierung, etc. Abbildung 1: Qualitätsprognosen während des Prozessschritts.

Erfahrung 1: Big Data vs. Smart Data

Immer mehr Daten werden erhoben. Doch nicht Big Data ist heilbringend. Es werden die richtigen Daten benötigt. Und die Kunst ist es auch, diese Daten richtig zu verstehen. Daher ist es wichtig, die KI-Verfahren auszuwählen, die auch diese Transparenz bieten, nämlich die Einfluss- und Störfaktoren aufdecken, die zu schlechter Qualität führen. Diese Transparenz führt zu optimiertem Prozess-Redesign. Außerdem werden Sensoren optimiert, weil man sich auf die signifikanten Sensoren konzentrieren kann, anstatt so viele Daten wie nur möglich zu sammeln.

Erfahrung 2: Das Übel an der Wurzel packen

Wie auch bei uns Menschen Krankheiten und Leistungsminderung oft nicht von heute auf morgen kommen, sondern über einen längeren Zeitraum entstehen, so ist dies oft auch bei den Maschinen der Fall. Daher muss die Ursache für die Minderqualität an der Komponente X nicht zwangsläufig an der Bearbeitung dieser Komponente liegen. Die Ursache kann weiter zurück liegen, an anderen Bauteilen, die Auswirkungen auf die Funktionsfähigkeit der Komponente X haben. Die Kunst ist es, hier Algorithmen zu nutzen, die diese gesamte Prozesskomplexität mit der hohen Anzahl von Wechselwirkungen beherrschen.

Erfahrung 3: Die Welt ist hoch komplex

Keine neue Weisheit, aber trotzdem immer noch wahr und erfolgskritisch: Die Welt ist komplexer, als dass man die Zusammenhänge in Prozessen dokumentieren könnte. Oft stellt das Fachwissen über Thermodynamik, Mechanik, … das hauptsächliche Verhalten und die hauptsächlichen Ausnahmen dar. Doch im Produktionsprozess mit hoher Variantenvielfalt gibt es immer wieder Situationen, die nicht zu diesen Verhaltensweisen passen. Aber das Gute ist: In den gesammelten Daten spiegelt sich das tatsächliche Verhalten wider. Die Kunst ist es, auch aus diesen unregelmäßigen Ausnahmeerscheinungen eine Struktur, eine Regelmäßigkeit zu erkennen, um Rückschlüsse ziehen zu können. Hierzu sind einige KI-Verfahren in der Lage, aber bei weitem nicht alle.

Erfahrung 4: Das einzig stabile ist die Veränderung

Leider verändern sich die Prozesse immer wieder. Sie unterliegen dynamischen Einflüssen. Diese können durch uns Menschen verursacht sein, durch Maschinen oder Steuerungsprogramme oder – so einfach ist das – durch äußere Einflüsse wie das sich verändernde Wetter. Unabhängig davon, was diese hohe Dynamik verursacht: Sie muss beherrscht werden, sonst können keine nachhaltigen Optimierungen durchgeführt werden. Hier kommt das sogenannte „Kontinuierliche Lernen“ ins Spiel: Selbstlernende Algorithmen passen sich an Prozessveränderungen automatisch an. Auch erlernt diese eigenständig das Verhalten von noch unbekannten Maschineninstanzen, also neue Maschinen, da die Produktionslinie erweitert wird oder alte Maschinen ausgephast werden. Gerade in sich stark verändernden Prozessen, was bei hoher Variantenvielfalt unumgänglich ist, ist die Selbstlernalgorithmik ein kritischer Erfolgsfaktor für erfolgreiche KI-Projekte. (Natürlich wäre eine Alternative, dass Data Scientists diese Anpassungen selber vornehmen. Jedoch würde das in den Prozessen mit hoher Dynamik sowohl sehr viel Zeit als auch Geld kosten, was im operativen Betrieb über Jahre nicht machbar ist; ganz zu schweigen von der Abhängigkeit von der Ressource Data Scientist.)

Erfahrung 5: Der Hunger kommt beim Essen

Oft bearbeiten die ersten KI-Projekte komplexe Prognoseaufgaben (siehe oben Stufe 1). Ist das Projekt erfolgreich abgeschlossen, kommt in der logischen Konsequenz auf, nicht „nur“ die Qualität der kritischen Produktionsschritte vorherzusagen, sondern auch zu verstehen, warum manchmal Minderqualität produziert wird (siehe oben Stufe 2). Ist dies vollbracht, soll vorausschauend-steuernd in den Prozess oder Maschinenbetrieb eingegriffen werden, um Minderqualität während des Produktionsschrittes zu vermeiden (siehe oben Stufe 4). Soweit sind diese Wünsche nachvollziehbar. Doch leider ist es so, dass ein Verfahren, das hochgenaue Prognosen in komplexen Prozessen liefern kann, noch lange nicht dazu geeignet ist, auch die Einflüsse aufzudecken oder gar zu steuern. Als Beispiel sei hier Deep Learning genannt, mit dem gute Prognosen erzielt werden können. Aber Aufdeckung von Ursachen oder gar eine Steuerung sind mit Deep Learning nahezu nie möglich. Als logische Konsequenz muss der Data Scientist andere, passende Verfahren finden, um neue Modelle zu bauen, sodass die jeweilige analytische Frage beantworten werden kann. Das kostet Zeit und Geld. Besser ist es, auf Algorithmik zu setzen, die Antworten zu all diesen Fragen liefern kann. Auch wenn zu Projektbeginn der Fokus rein auf Prognosen liegt, sollten ausbaufähige KI-Verfahren genutzt werden.