„Technologie darf nie Selbstzweck sein“

Neue Technologien beschleunigen die Entwicklung und Bereitstellung von Produkten und entwerten so den Differenzierungsfaktor Preis. Heute entscheidet das Produkterlebnis über die Produktwahrnehmung des Kunden – und lässt so die digitale und die analoge Welt miteinander verschmelzen. Professionelle Service-Design-Prozesse unterstützen Unternehmen bei der Gestaltung von ganzheitlichen Produkterlebnissen sowie neuen Geschäftsmodellen und werden so zu einem wichtigen Erfolgsfaktor des digitalen und ökologischen Wandels.

IM+io: Welche Herausforderungen sehen Sie derzeit für Industrieunternehmen?

BW: Bisher haben die meisten Unternehmen versucht durch die Optimierung von Produktionsprozessen und die damit verbundenen Kosteneinsparungen gegen den Wettbewerb zu bestehen. Diese Strategie ist überholt. Dank moderner Informationstechnologie können Produkte heute modular und damit viel schneller in den Markt getrieben werden. Nun ist es nicht mehr der Preis, der über die Akzeptanz entscheidet, sondern das gesamte Produkterlebnis. Dieses kommt allerdings nicht ohne attraktive Serviceleistungen und neue Geschäftsmodelle aus. Die Herausforderung für Unternehmen besteht darin, diese Erkenntnis umzusetzen und den bestehenden Produktkern sinnvoll zu erweitern.

IM+io: Was genau ist ein „Service-Design-Prozess“ und wie kann er hierbei unterstützen?

BW: „Service-Design“ ist ein strukturiertes Vorgehen zur Gestaltung von so genannten „Intangible Products“ – Güter, die man nicht anfassen kann. Entwickelt wird nicht – wie bei klassischen Produkten üblich – aus der Ingenieursperspektive heraus, sondern mit Blick auf den Kunden und dessen Nutzen. Mithilfe von professionellen Service-Design-Prozessen können Unternehmen neue Sichtweisen einnehmen und sich viel besser in den Endkunden hineinversetzten. Marken, die mithilfe dieser Vorgehensweise neue Geschäftsmodelle etablieren, werden sich

Dynamic Pricing im Nahverkehr

Innovative Dienstleistungen sind vor allem digitalisiert und werden Unternehmen angeboten. Nicht selten sind es Start-ups, die traditionelle Branchen oder Gewerbe, sei es Handel, Medien, Taxigewerbe, Finanzwelt oder Tourismus disruptiv verändern. Weniger Dynamik in dieser Richtung weist der öffentliche Sektor auf, obwohl der Bedarf an neuen Diensten für Bürger erheblich ist. Dynamische Preisanpassungen im öffentlichen Nahverkehr, die auf Nachfrage der Verbraucher reagieren sind sicher noch Zukunftsmusik. Doch Überlegungen, wie der ÖPNV attraktiver und effizienter werden könnte, sollen trotz aller theoretischen und praktischen Probleme an dieser Stelle erlaubt sein.

Im Zuge der zunehmenden Digitalisierung sind in den letzten Jahren neue Geschäftsmodelle entstanden, im Nahverkehr z.B. durch Fahrvermittlungs- oder Carsharingdienste, die fast ausschließlich Web- bzw. App-basiert sind. Carsharingdienste wie DriveNow oder car2go erlauben Mitgliedern die Nutzung von KfZs. Neben fixen Gebühren (Anmeldegebühren und monatlichen Grundgebühren) fallen vom Nutzungsumfang abhängige Kosten an. Die Ortung von verfügbaren Fahrzeugen erfolgt dabei über GPS. Vor allem in Großstädten verzeichnen Carsharing-Dienste große Zuwächse. Fahrvermittlungsdienste sind vor allem in den USA und China weit verbreitet, wo sich Uber und Didi als Marktführer etabliert haben. Im Jahr 2017 hat Didi beispielsweise 7,4 Milliarden Fahrten an über 400 Millionen Nutzer vermittelt. Der Umsatz von Uber im Jahr 2018 hat die Schwelle von 10 Milliarden Dollar überschritten. Bei Fahrvermittlungsdiensten können über eine App Fahrten (vor-) bestellt werden. Es gibt auch die Option, mit

Potenziale im E-Payment Anbieter sind gefragt

Online-Bezahldienste sind heute fester Bestandteil der Zahlungsoptionen im Internet. Entwickelt werden sie von Kreditinstituten und FinTechs – genutzt werden sie von 75 Prozent der deutschen Online-Käufer.[1] Aber wie zufrieden sind die Nutzer mit den digitalen Services? Die Verbraucherzentrale Brandenburg hat die sechs am Markt aktivsten Bezahldienstleister, Amazon Pay, Giropay, Paydirekt, PayPal, Skrill und Sofortüberweisung, hinsichtlich Datensicherheit und -sparsamkeit, sowie Transparenz im Umgang mit Verbraucherdaten untersucht.

Digitales Bezahlen hat seinen festen Platz im deutschen Markt

Für die Abwicklung der Bezahlung im Internet stehen Kunden heute klassische, elektronische (E-Payment) und mobile (M-Payment) Verfahren zur Verfügung.[2] Bei klassischen Verfahren bestellt der Kunde online, die Zahlungsabwicklung findet jedoch außerhalb des Internets statt. Hierzu zählen zum Beispiel Kauf auf Rechnung oder per Lastschrift. Elektronische Bezahlverfahren wurden speziell für den Handel im Internet entwickelt und ermöglichen die Bezahlung über elektronische Netzwerke. Charakteristisch für M-Payment ist, dass ausschließlich mobile Endgeräte zum Einsatz kommen, um den Bezahlvorgang auszulösen. Die Abwicklung von Online-Bezahlprozessen erfolgt im überwiegenden Teil durch einen zwischengeschalteten Anbieter beziehungsweise über eine weitere Internetseite, auf welcher der Kunde die Zahlung abwickelt.

PayPal dominiert den Markt

Im deutschen Online-Markt haben sich derzeit mindestens elf Anbieter elektronischer Bezahlverfahren etabliert: Amazon Payments, barzahlen.de, giropay, Google Wallet, Master- Pass, Neteller, paydirekt, PayPal, paysafecard, Skrill und Sofortüberweisung. Diese werden mindestens bei einem der 181 untersuchten umsatzstärksten Online-Händler beziehungsweise Content- und Service-Anbieter den Kunden angeboten. Wie sich zeigt, ist die Relevanz der Verfahren am Markt unterschiedlich: So ist Pay-Pal das am weitesten verbreitete elektronische Bezahlverfahren und dominiert klar den Markt. Auch die Möglichkeit der Sofortüberweisung bieten

Facilitating Urban Planning with Human-Centred Digital Design Methodology

Future Smart Cities and societies can bene t greatly from interdisciplinary Human-Centred Design (HCD).  e Participatory Urban Design project has developed and veri ed a human-centered service design methodology as a new way of working for architects and urban planners.  e method is based on the impact mapping and “customer” journey mapping methods.  is approach allows the architects in the project to e ectively tie the city’s long-term vision into concrete design solutions for the design and construction of residential areas, and to communicate these values and e ects to other stakeholders such as builders and property owners.

It would be reasonable to think that the design and construction of residential areas would be a prime example of Human-Centred Design (HCD). In reality, however, residential areas are only rarely based on a truly HCD process [1]. One reason for this is that the standard methods for engagement and participation in urban planning projects restrict the level of citizen engagement [2]. As HCD is built on a tradition of participation [3] and even civic engagement [4] it is highly interesting to further examine whether the methods can improve citizen engagement and the urban

Augmented Reality in der Auditierung

Smarte, digitale Services umfassen nicht nur industrienahe Dienstleistungen des „Internet of Things“, sondern auch klassische Dienstleistungen im Consulting. Eine Form digitaler Services sind Beratungsleistungen mit Hilfe von Augmented Reality. Dieser Artikel beschreibt hierfür ein Anwendungsszenario zur Auditierung und Zertiifizierung im Rahmen der betrieblichen Informationssicherheit.

 

Zertifizierung und Auditierung

Unternehmen lassen sich zu verschiedensten Themen, die aus deren Sicht relevant für wichtige Stakeholdergruppen (zum Beispiel Kunden) oder gar gesetzlich vorgegeben sind, zertifizieren. Oft erfolgt dies auf Basis einer bestimmten Norm und eines der Zertifizierung vorangehenden Audits durch eine unabhängige Zertifizierungs- Instanz. Ein Beispiel hierfür ist die Zertifizierung zu einem Qualitätsmanagementsystem wie DIN ISO 9001 [3]. Oft sind Vor-Ort-Audits oder interne Audits erforderlich, welche für eine Zertifikatserteilung notwendige Voraussetzungen überprüfen oder aber auch vom jeweiligen Standard in regelmäßigen Abständen verlangt werden [7]. Beispiele hierfür sind Audits für die ISO-Norm 27001 zur Informationssicherheit, Energieaudits nach DIN EN 16247 oder Umweltaudits nach ISO 14001.

Aufgrund der hohen Anforderungen der Normen und den vielfältigsten Problemstellungen bei der Auditierung lassen sich Unternehmen oft durch Consulting-Firmen beraten, die als Consulting- Service meist auch die entsprechenden Audits durchführen und die Zertifikate erteilen dürfen, zumindest aber bei der Audit-Vorbereitung im Rahmen von Voraudits unterstützen [11]. Effizienzsteigerungspotential bei dieser Art der Dienstleistung ergibt sich schon heute im Rahmen der Voraudits durch Vorabprüfung relevanter Dokumente,

Selbstlernende Künstliche Intelligenz reduziert Minderqualität in komplexen Produktionsprozessen

Exzellente Produktqualität ist das Aushängeschild eines jeden Produktionsunternehmens. Kritische Produktionsschritte unterliegen daher z.T. aufwändigen Prüfverfahren, die aufgrund der notwendigen Zeit und/oder Kosten nur stichprobenartig durchgeführt werden können.

  • In der Prozessindustrie wird die Qualität bspw. im Stundentakt geprüft.
  • In der Automobilindustrie decken Prüfungen von hoch-frequenten Produktionsschritten nur einen unteren einstelligen Prozentbereich ab.

Dadurch wird Minderqualität leider oft nicht erkannt, was zu Problemen in der späteren Verarbeitung oder gar zu Rückrufaktionen führt. Selbstlernende Künstliche Intelligenz (KI)-Verfahren helfen weiter, denn für jeden kritischen Produktionsschritt gibt es normalerweise Daten; mal mehr, mal weniger Daten. Trotzdem spiegeln diese Daten die Realität für diesen Produktionsschritt wider. Man schaut auf diese Daten wie durch eine Rasterbrille: Einiges im Blickfeld bleibt verborgen, da die erhobenen Daten nur einen Ausschnitt der Realität darstellen. Trotzdem erlernen innovative Mustererkennungsverfahren, welche Datenmuster für gute Qualität und welche für schlechte Qualität stehen.

Erschwerend kommt zu diesem Rasterblick noch die Tatsache, dass in vielen Produktionsprozessen eine sehr hohe Variantenvielfalt herrscht.

  • Variantenvielfalt im Produkt:

Ein Maschinenbauer hat zwar knapp 20 Basistypen seines Produktes. Jedoch können 700 verschiedene Varianten produziert werden.

  •  Variantenvielfalt im Prozess:

Genau das gleiche Produkt kann unterschiedliche Maschinen durchlaufen. Bei einem Maschinenbauer können ca. 50 gleiche Maschinen zur Durchführung genau eines Produktionsschrittes genutzt werden. Auch wenn diese Maschinen  prinzipiell – gleich sind und das Gleiche tun, so sind sie unterschiedlich alt, wurden von unterschiedlichen Lieferanten gebaut und müssen daher individuell eingestellt werden.

Die Herausforderung ist, trotz dieses „Rasterbrillen- Blicks“ und der hohen Varianten-Komplexität den „Vorausblick“ zu behalten, so dass die individuellen Prozesse so durchgeführt und die individuellen Maschinen so eingestellt werden, dass kein Ausschuss entsteht. Die folgende Tabelle zeigt die vier Stufen der vorausschauenden Qualitätsoptimierung. Das Ziel ist immer, Minderqualität in der Produktion zu vermeiden. Obwohl diese Stufen analytisch aufeinander aufbauen, ist jede Stufe für sich eigenständig und erzielt bereits signifikanten Mehrwert.

Abbildung 1: Qualitätsprognosen während des Prozessschritts.

Lessons Learned

Man kann mit KI und entsprechenden Daten heute schon viel erreichen. Aber KI ist nicht gleich KI. Es gibt diverse Verfahren und Methoden, die alle ihre Schwerpunkte haben. Welche Algorithmen sind die besten? Gerade wenn die Komplexität aufgrund der hohen Variantenvielfalt extrem steigt und sich die Einflüsse dynamisch ändern, geraten KI-Standardverfahren an ihre Grenzen. Die folgenden Erfahrungen haben sich in komplexen Industrieprozessen gefestigt, und zwar nicht nur für das Thema Qualität, sondern auch für andere analytische Themen wie vorausschauende Wartung, Energie- und Ressourcenoptimierung, etc. Abbildung 1: Qualitätsprognosen während des Prozessschritts.

Erfahrung 1: Big Data vs. Smart Data

Immer mehr Daten werden erhoben. Doch nicht Big Data ist heilbringend. Es werden die richtigen Daten benötigt. Und die Kunst ist es auch, diese Daten richtig zu verstehen. Daher ist es wichtig, die KI-Verfahren auszuwählen, die auch diese Transparenz bieten, nämlich die Einfluss- und Störfaktoren aufdecken, die zu schlechter Qualität führen. Diese Transparenz führt zu optimiertem Prozess-Redesign. Außerdem werden Sensoren optimiert, weil man sich auf die signifikanten Sensoren konzentrieren kann, anstatt so viele Daten wie nur möglich zu sammeln.

Erfahrung 2: Das Übel an der Wurzel packen

Wie auch bei uns Menschen Krankheiten und Leistungsminderung oft nicht von heute auf morgen kommen, sondern über einen längeren Zeitraum entstehen, so ist dies oft auch bei den Maschinen der Fall. Daher muss die Ursache für die Minderqualität an der Komponente X nicht zwangsläufig an der Bearbeitung dieser Komponente liegen. Die Ursache kann weiter zurück liegen, an anderen Bauteilen, die Auswirkungen auf die Funktionsfähigkeit der Komponente X haben. Die Kunst ist es, hier Algorithmen zu nutzen, die diese gesamte Prozesskomplexität mit der hohen Anzahl von Wechselwirkungen beherrschen.

Erfahrung 3: Die Welt ist hoch komplex

Keine neue Weisheit, aber trotzdem immer noch wahr und erfolgskritisch: Die Welt ist komplexer, als dass man die Zusammenhänge in Prozessen dokumentieren könnte. Oft stellt das Fachwissen über Thermodynamik, Mechanik, … das hauptsächliche Verhalten und die hauptsächlichen Ausnahmen dar. Doch im Produktionsprozess mit hoher Variantenvielfalt gibt es immer wieder Situationen, die nicht zu diesen Verhaltensweisen passen. Aber das Gute ist: In den gesammelten Daten spiegelt sich das tatsächliche Verhalten wider. Die Kunst ist es, auch aus diesen unregelmäßigen Ausnahmeerscheinungen eine Struktur, eine Regelmäßigkeit zu erkennen, um Rückschlüsse ziehen zu können. Hierzu sind einige KI-Verfahren in der Lage, aber bei weitem nicht alle.

Erfahrung 4: Das einzig stabile ist die Veränderung

Leider verändern sich die Prozesse immer wieder. Sie unterliegen dynamischen Einflüssen. Diese können durch uns Menschen verursacht sein, durch Maschinen oder Steuerungsprogramme oder – so einfach ist das – durch äußere Einflüsse wie das sich verändernde Wetter. Unabhängig davon, was diese hohe Dynamik verursacht: Sie muss beherrscht werden, sonst können keine nachhaltigen Optimierungen durchgeführt werden. Hier kommt das sogenannte „Kontinuierliche Lernen“ ins Spiel: Selbstlernende Algorithmen passen sich an Prozessveränderungen automatisch an. Auch erlernt diese eigenständig das Verhalten von noch unbekannten Maschineninstanzen, also neue Maschinen, da die Produktionslinie erweitert wird oder alte Maschinen ausgephast werden. Gerade in sich stark verändernden Prozessen, was bei hoher Variantenvielfalt unumgänglich ist, ist die Selbstlernalgorithmik ein kritischer Erfolgsfaktor für erfolgreiche KI-Projekte. (Natürlich wäre eine Alternative, dass Data Scientists diese Anpassungen selber vornehmen. Jedoch würde das in den Prozessen mit hoher Dynamik sowohl sehr viel Zeit als auch Geld kosten, was im operativen Betrieb über Jahre nicht machbar ist; ganz zu schweigen von der Abhängigkeit von der Ressource Data Scientist.)

Erfahrung 5: Der Hunger kommt beim Essen

Oft bearbeiten die ersten KI-Projekte komplexe Prognoseaufgaben (siehe oben Stufe 1). Ist das Projekt erfolgreich abgeschlossen, kommt in der logischen Konsequenz auf, nicht „nur“ die Qualität der kritischen Produktionsschritte vorherzusagen, sondern auch zu verstehen, warum manchmal Minderqualität produziert wird (siehe oben Stufe 2). Ist dies vollbracht, soll vorausschauend-steuernd in den Prozess oder Maschinenbetrieb eingegriffen werden, um Minderqualität während des Produktionsschrittes zu vermeiden (siehe oben Stufe 4). Soweit sind diese Wünsche nachvollziehbar. Doch leider ist es so, dass ein Verfahren, das hochgenaue Prognosen in komplexen Prozessen liefern kann, noch lange nicht dazu geeignet ist, auch die Einflüsse aufzudecken oder gar zu steuern. Als Beispiel sei hier Deep Learning genannt, mit dem gute Prognosen erzielt werden können. Aber Aufdeckung von Ursachen oder gar eine Steuerung sind mit Deep Learning nahezu nie möglich. Als logische Konsequenz muss der Data Scientist andere, passende Verfahren finden, um neue Modelle zu bauen, sodass die jeweilige analytische Frage beantworten werden kann. Das kostet Zeit und Geld. Besser ist es, auf Algorithmik zu setzen, die Antworten zu all diesen Fragen liefern kann. Auch wenn zu Projektbeginn der Fokus rein auf Prognosen liegt, sollten ausbaufähige KI-Verfahren genutzt werden.